3C科技 娛樂遊戲 美食旅遊 時尚美妝 親子育兒 生活休閒 金融理財 健康運動 寰宇綜合

Zi 字媒體

2017-07-25T20:27:27+00:00
加入好友
2017於7月21日,全球頂級學術會議CVPR在夏威夷開幕。 在計算機視覺與模式識別領域,CVPR 是影響力最大的論文發布平台。CVPR 全稱為「IEEE Conference on Computer Vision and Pattern Recognition」(計算機視覺與模式識別會議),是近年來計算機視覺領域全球最影響力、內容最全面的頂級學術會議。 據悉,全球約有 90 家企業參與到本次CVPR大會中。除了谷歌、微軟、Facebook、亞馬遜、蘋果、英特爾等海外巨頭,國內參加本次大會的公司有:騰訊、阿里巴巴、百度、京東、滴滴、商湯、馭勢、格靈深瞳、亮風台信息科技、視源股份、碼隆、美圖、曠視、360等。本屆大會將舉行至7月26日。 在本次大會接收的眾多論文當中,有華人參與的接近半數。在最終錄用的783篇論文中,人工智慧公司貢獻了多少?商湯科技作為一家專註於計算機視覺和深度學習的新銳公司,商湯科技此次也將帶來一系列的技術 Demo、Presentation、PartyTime 等活動。在本屆 CVPR 2017 大會上,商湯科技及香港中大-商湯科技聯合實驗室共有23篇論文被接收,具體如下:論文:Multi-Context Attention for Human Pose Estimation簡介:在這篇論文中,作者在將卷積神經網路與多語境注意力機制相結合,它採用堆疊沙漏型的網路結構,從不同語境多種特徵中生成注意力圖像。論文:Multi-Scale Continuous CRFs as Sequential Deep Networks for Monocular Depth Estimation簡介:在這篇論文中,作者探討了單靜態圖像的深度感知問題。受多尺度卷積神經網路(CNN)研究的啟發,作者提出了一個利用來自多個卷積神經網路的互補信息輸出的深度模型。論文:Accurate Single Stage Detector Using Recurrent Rolling Convolution簡介:在這篇論文中,作者使用R-CNN雙級多尺度卷積神經網路變體對目標對象進行精準檢測和定位。在第一階段提出合理區域概念,第二階段中進行決策細化。其他20篇如下:1.Residual Attention Network for Image Classification2.ViP-CNN: A Visual Phrase Reasoning Convolutional Neural Network for Visual Relationship Detection3.Look into Person: Self-supervised Structure-sensitive Learning and A New Benchmark for Human Parsing4.Mimicking Very Efficient Network for Object Detection5.Object Detection in Videos with Tubelet Proposal Networks6.Spindle Net: Person Re-identification with Human Body Region Guided Feature Decomposition and Fusion7.Discover and Learn New Objects from Documentaries8.Learning object interactions and descriptions for Semantic Image Segmentation9.Learning Spatial Regularization with Image-level Supervisions for Multi-label Image Classification10.Scale-Aware Face Detection11.Interpretable Structure-Evolving LSTM12.Detecting Visual Relationships with Deep Relational Networks13.Joint Detection and Identification Feature Learning for Person Search14.Learning Cross-Modal Deep Representations for Robust Pedestrian Detection15.PolyNet: A Pursuit of Structural Diversity in Very Deep Networks16.Pyramid Scene Parsing Network17.Person Search with Natural Language Description18.Quality Aware Network for Set to Set Recognition19.UntrimmedNets for Weakly Supervised Action Recognition and Detection20.Not All Pixels Are Equal: Difficulty-Aware Semantic Segmentation via Deep Layer Cascade騰訊騰訊AI實驗室在基礎層的技術研究上實力非常。騰訊AI實驗室首次公開的有關風格遷移的研究論文此次也被 CVPR 2017 所接收。據統計,騰訊AI實驗室共有 6 篇論文入選 CVPR 2017,以下是對這些論文的簡要介紹:論文: Real Time Neural Style Transfer for Videos簡介:作者介紹了使用前饋卷積神經網路來實現圖像快速風格轉變,這種方法既可保持畫面的時間連續性,又消除了畫面閃爍的問題,確保視頻風格遷移實時、高質、高效和完整性,從而實現更好的視覺欣賞效果。論文:WSISA: Making Survival Prediction from Whole Slide Histopathological Images簡介:這篇論文中,作者提出了一種基於病理圖片進行的病人生存預測方法WSISA,全尺寸、無標註、基於病理圖片的病人生存有效預測方法。它能有效地支持大數據時代的精準個性化醫療。論文:Deep Self-Taught Learning for Weakly Supervised Object Localization簡介:作者提出的依靠檢測器自身段改進訓練樣本質量,不斷增強檢測器性能的一種全新的深度自學習方法,破解了所監督目標檢測問題中訓練樣本質量低的瓶頸。論文:Diverse Image Annotation簡介:作者在這篇論文中提出了一種新的圖像自動標註方式,即用少量多樣性的標籤表達盡量多的圖像信息,其充分利用標籤之間的語義關係,從而使得自動標註的結果與人類標註的結果更加相近。論文:Exploiting Symmetry and/or Manhattan Properties for 3D Object Structure Estimation from Single and Multiple Images簡介:這篇論文建立通過假設一個正交投影模型,當單幅或多幅圖像均來自從一個類別的物體,比如,不同的汽車,提出了一個使用對稱性和曼哈頓特性對三維空間模型進行估計的方法,利用對稱性和/或曼哈頓特性對單個和多個圖像進行三維物體結構設計。論文:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning簡介:在這篇論文中,作者引入了一種新穎的卷積神經網路,稱為SCA-CNN,其將空間和頻道感知注意力融合進卷積神經網路。針對圖像描述生成任務,基於卷積網路的多層特徵來動態生成文本描述,進而提出了空間及頻道感知上的注意力模型。阿里巴巴阿里巴巴共有4篇論文入選CVPR 2017,其中阿里AI實驗室3 篇,阿里iDST 1 篇。阿里巴巴人工智慧實驗室此次入選的三篇論文分別針對深度學習和計算機視覺所涉及的上下文模擬、場景分割、行為理解等問題提出了解決辦法。 這三篇論文的參與者王剛表示,「這三篇論文都來自於深度學習中的應用場景,未來或將通過人工智慧實驗室進行落地,例如運用到家庭安全監測場景中」。論文:Deep Level Sets for Salient Object Detection作者:Ping Hu、Bing Shuai、Jun Liu、Gang Wang論文:Global Context-Aware Attention LSTM Networks for 3D Action Recognition作者:Jun Liu、Gang Wang、Ping Hu、Ling-Yu Duan、Alex C. Kot論文:Episodic CAMN: Contextual Attention-based Memory Networks With Iterative Feedback For Scene Labeling作者:Abrar H. Abdulnabi, Bing Shuai, Stefan Winkler, Gang Wang論文:Video to Shop: Exactly Matching Clothes in Videos to Online Shopping Images作者:Zhi-Qi Cheng、Xiao Wu、Yang Liu、Xian-Sheng Hua

本文由yidianzixun提供 原文連結

寫了 5860316篇文章,獲得 23313次喜歡
精彩推薦