search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

谷歌大腦全軍出擊!Jeff Dean領銜全面解答AI現狀與未來

李林 允中 編譯整理
量子位 出品 | 公眾號 QbitAI

剛送走一年一度為蘋果納腎發布會,又迎來了一年一度Google Brain AMA。

這是Jeff Dean第二次帶著Google Brain參加美國最火社區Reddit的在線問答活動AMA(Ask Me Anything)。想深入了解谷歌大腦,圍觀AMA是不容錯過的機會。

正在答疑的Google Brain團隊
來自他們自己的動圖應用Motion Stills

參與這次線上答題的,除了Google Senior Fellow,Google Brain負責人Jeff Dean,還有:Google首席科學家,Google Brain團隊技術負責人Vincent Vanhoucke;Google Brain研究員,Yoshua Bengio的兄弟Samy Bengio等20多人。

不過至量子位今早截稿時,Google Fellow、Google Brain成員Geoffrey Hinton據說因為太忙,還沒有親自參與回答。不過他同組的研究員幫忙代答了一些問題。

回到今天的AMA。量子位連夜圍觀,第一時間搬運了下面這些乾貨。

我們分類整理成幾個部分:

  • AI研究的未來

  • 以及現狀

  • 關於TensorFlow

  • 還有TPU

  • Google Brain的架構如何

  • 工作體驗又是怎樣的

  • Hinton最近研究進展

開始~

AI研究的未來

AI領域接下來面臨的最大障礙有哪些?Google Brain的同學們上線答題之前,這個問題就已被頂到很高。

Jeff Dean上線回答:

目前,我們會傾向於為解決一個或者幾個特定任務(有時候這些任務非常困難,比如語言之間的翻譯),來構建機器學習系統。

我認為我們真的需要設計一個機器學習系統,能解決數千個、甚至數百萬任務,也能從解決這些任務的過程中積累經驗,學會自動解決新任務,而且模型的不同步可以根據任務來稀疏地激活。

在弄清楚如何解決這個問題的道路上,我們還面臨很多挑戰。今年年初我在斯坦福的規模化機器學習會議(Scaled ML)的演講中有一些關於這個問題的資料,從PPT第80頁開始(背景資料從62頁開始)。

PPT地址:https://www.matroid.com/scaledml/2017/jeff.pdf

Vincent Vanhoucke補充:

讓深度神經網路適應弱監督數據的在線更新(穩定!)依然是一個巨大的問題。解決了這個問題,才能搞定真正的終身學習,也能打開很多新應用的大門。

另一個巨大障礙是,這個領域中很多最激動人心的進展,比如說GAN、深度強化學習等等,還沒到它們的「批量標準化」時刻,這個時刻到來之後,一切都默認就「想要訓練」,不再需要一個超參數一個超參數地調整。

這些進展還不夠成熟,還沒從有趣的研究轉變成我們可以依賴的技術。現在,我們還無法擺脫大量精確的調參工作,對這些模型進行可預測的訓練,這導致我們很難把它們用到更複雜的系統中。

Jeff Dean本尊

Google Brain研究員,Yoshua Bengio最強博士生之一Nicolas Le Roux回答:

擺脫監督學習還是很難。我們知道強化學習等弱監督方法,但效率很低,而且需要大量數據,很難擴展到更複雜的問題上。

為了解決這個問題,我們需要提出更好的探索策略和積極的學習方法,來在保持訓練可管理性的同時,獲取相關信息。

有網友繼續提問:通常大家只談論數據集、代碼的開放和復現,但是很少有人會提到計算資源。Google有大量的資源投入在AI/機器學習研究之中,比方AlphaGo就用了300個GPU進行訓練。大部分研究者沒有這麼強的計算資源,這是否會帶來消極影響?

「我經常聽到研發人員抱怨Google喜歡搞這種大規模且相當愚蠢的解決方案」,針對上面這個問題,Vincent Vanhoucke回答說這些人認為Google只是投入了大量資源,但沒有效率,稱不上是「聰明」的成果。

他進一步解釋說:許多偉大的進展,都發端於成本高昂的研究,然後讓所有人都知道,進而開始著手進行優化。Google的第一個深度網路,訓練一次要幾個月,運行速度更是慢的跟牛一樣。然後發現加速的方法、改進架構,現在大家都在用了。

「對於我們來說,重要的是探索可能的邊界,我們的終極目標不是在跑分測試中獲勝,而是要推動科學的進步。」

而Google Brain研究員、Geoffrey Hinton的學生George Dahl說:

我們都想要更多的資源,不過,資金充裕的學術實驗室現在確實能獲得很多計算資源,做很多有意思的研究。

學術界,以及所有做開放研究的人,如果能獲得更多計算資源,當然是好事,這也是我們推出TensorFlow Research Cloud(TFRC)的原因,TFRC會向機器學習研究界提供每秒180千萬億次浮點運算的計算能力,還免費。

總有些實驗室計算資源比別人多一點,這些實驗室的研究者有資源去做一些大規模實驗,只要研究結果發表出來了,這個圈子都受益。這也是我們堅持發表、傳播我們的論文的原因。

AI研究的現狀

有一個問題,Google Brain團隊回答得非常踴躍:你們覺得哪些項目excited?為什麼?

Nicolas Le Roux對高校大規模優化感興趣,想了解如何以在線方式從包含少量信息的數據點來手機和保留信息,來確保訓練快速高效。

Fernanda Viégas說對人類與AI交互中的各種可能性感興趣,期待各種不是機器學習專家的人進入機器學習前沿領域,開闢新的可能性,比如社會學家、歷史學家、建築師、舞者……

PAIR(人類+AI研究計劃,People+AI Research Initiative)項目的Martin Wattenberg也關注人與機器學習系統的交互,不過和Viégas不同,他關注的是普通人,與機器之間互動的新途徑。

Vincent Vanhoucke關注的是機器人領域,他認為建立模擬和現實世界之間的連接非常一顆賽艇,現實世界中很難給機器人reward,但是通過把機器人問題轉換成大規模機器學習問題。

Jascha Sohl-Dickstein從理論研究的角度來看,說有四方面正在進行的研究,包括:表達——深度神經網路可以計算什麼類型的函數?如何映射到我們想模擬的現實世界?可訓練性、泛化、可解釋性。

Jasmine Hsu說在機器人操作研究的模仿學習中還有很多工作可做,對模擬與現實世界遷移的研究也在快速變化,內在動機的積極強化學習也是他的興趣所在。

也有人要求Google Brain團隊談談用深度學習解決問題過程中遇到的失敗或者痛點,如果是大規模監督學習就更好了。

Vincent Vanhoucke

我們有幾個人試著和《紐約客》漫畫編輯Bob Mankoff(我看他今年還發了一篇NIPS論文)合作,用這本雜誌上的漫畫訓練一個神經網路標題生成器,給漫畫寫說明,結果就不太好。甚至一點都不好玩。

按深度學習的標準,就算可以在其他形式的漫畫上對視覺表現進行預訓練,我們的數據量也不算大。

我還是希望有一天能贏得《紐約客》那個給漫畫自動生成標題的比賽,但可能得用一些傳統的方法了。

Bob Mankoff的NIPS論文:https://arxiv.org/abs/1709.03570

Bob Mankoff

Google Brain高級研究員Greg Corrado說:

明確地說深度學習在某某任務上不行,我是很緊張的。比如說2012年的時候,深度學習做不了機器翻譯,四年過去了,它又大獲全勝。

當我們嘗試某種方式,發現不行,我們會後退一步喘口氣,可能換個角度再試一次。

有些問題確實不能被看某個可用數據集上的監督學習,在這種情況下,深度學習這個鎚子確實不管用。

同樣一位用戶,還問了個關於無監督學習的問題:Google Brain團隊怎麼看目前無監督學習方法的狀態?你們認為未來幾年會有概念性的重大進步嗎?

人們終於意識到自動編碼(autoencoding)是個壞主意了。

可行和不可行的無監督學習之間的區別在於,像語言模型這樣可行的無監督學習,通常是預測有因果關係的未來,比如說下一個詞、下一幀圖像,而不是像autoencoding那樣預測現在。

我很高興看到,有不少人已經開始用我們去年開源的push數據集,對「預測未來」的工作做基準測試了,真是沒想到。

push數據集:https://sites.google.com/site/brainrobotdata/home/push-dataset

Yann LeCun也對他那個「櫻桃vs蛋糕」的說法做了修改,不再是關於無監督學習,而是關於預測學習。

關於Google Brain目前在做的研究,有網友問得非常細緻:你們有生物學或者基因組學方面的項目嗎?

還真有。

Pi-Chuan Chang說,Google Brain深入參與了一系列生物學和基因組學的項目,比如通過眼底照片來篩查糖尿病視網膜病變,從病理影響中識別癌細胞,用深度學習從下一代DNA測序數據中篩查遺傳變體。

他們最近還創建了一個基因組學團隊,Alphabet里也有其他團隊把深入學習技術用在生物數據上,比如Google Accelerated Sciences、Verily Life Sciences、Calico等等。

關於TensorFlow

去年,關於TensorFlow的問答還主要集中在「你們什麼時候支持XXXX」上,而今年,由於PyTorch的快速普及,網友開始關心起更深層的問題:

你們怎麼看PyTorch?用過嗎?擔心自己地位不保嗎?還是把PyTorch看做TF的補充?或者反過來?

Google Brain軟體工程師Alexandre Passos

我認為PyTorch很贊!

他們做得不錯,UI簡單,文檔寫得也很好。在他們的編程模型里有很多好想法。有更多人在做機器學習庫是一件好事,我們願意看到更多想法,然後試著從裡面挑最好的來用。

TensorFlow工程總監Rajat Monga

機器學習圈子很贊的一點就在於:我們會互相學習。

創建TensorFlow的過程中,我們從自己過去做DistBelief的經驗、從像Theano那樣其他的框架都學到了很多。我們還在繼續向PyTorch、DyNet這些新的框架學習,也在把這些想法用到TensorFlow上。

我們把TensorFlow看作推進機器學習邊界,把機器學習帶給所有人的工具,這個圈子裡的研究和想法在進步,TensorFlow也在。

你們會支持ONNX嗎?

有人提到這個問題。9月初,微軟和Facebook合作發布ONNX(開放神經網路轉換)工具,能讓模型在框架之間遷移,目前支持PyTorch、Caffe2和CNTK。*

Jeff Dean有點傲嬌的回答了這個問題:

幾天前他們在博客上宣布的時候,我們知道了它。我覺得如果有重大用途,TensorFlow開源社區會實現支持。

2015年11月TensorFlow就開放了源代碼,我們保存/恢復模型數據和參數的格式,早已公之於眾。

你們會為TensorFlow和機器學習建立一種標準代碼風格或者編程方法嗎?人們怎麼寫的都有,有的好難看懂。還有,Keras被放到TensorFlow里,是不是Learn就該滾粗了?同時包含兩個高層API怪怪的。

wickesbrain

我能給出的最好的通用建議,就是始終用最高層的API來解決問題,這樣你就能自動用上我們在背後搞出來的改進,寫出最不會過時的代碼。

關於Keras,我們現在有了一個完整的tf.keras,正在努力將Keras和之前的TF概念統一起來,已經快完工了。我們想讓tf.keras只需要把完全實現Keras API所必需的符號收集到一個地方。

請注意,Keras並不能解決所有用例,特別是在分散式訓練和更複雜的問題中。這也是我們為什麼需要tf.estimator.Estimator。

我們將繼續改進Keras和這些工具之間的整合。

我們很快就要開始從contrib里去掉一些東西,包括整個contrib/learn。不過,很多人都在用這個,刪除它要花些時間,我們不想隨便弄壞讓人家的模型。

關於TPU

有關硬體的問題,一定不會缺席。去年問過的晶元,這次再度來襲。(這個flow怎麼樣?)

關於TPU你們有什麼新想法?未來5-15年機器學習硬體會有什麼改變?

去年就有人問過TPU這件事,當時Jeff Dean相對詳細的介紹了一下進展。今年5月17日,第二代TPU發布,不過AlphaGo的計算,還是基於第一代TPU。量子位也有相關報道談到這些:《新AlphaGo首度揭秘》、《詳解谷歌第二代TPU》等。

這次Jeff Dean沒有過多回答TPU的新進展,再次介紹了雲端TPU目前免費向研究人員開放申請使用。對於未來的發展趨勢,Jeff表示:

機器學習硬體在未來5-10年(和以後)將是一個非常有趣的額領域。對於更多計算力的需求很大,專業化的線性代數精度降低可以加速大批深度學習模型。針對機器學習優化而創造的硬體,可以提供非常好的性能並提高能效。

有很多大公司和一大批初創公司在這個領域各顯神通,這非常令人興奮。它們提供的硬體包括用於移動設備的低功耗機器學習硬體,以及部署大型數據中心的機器學習超級計算機等。

下一代TPU何時推出?Google會賣TPU么?它能取代GPGPU么?

「我們已經推出了兩代TPU,歡迎猜測未來的趨勢 = ) 」TensorFlow產品經理Zak Stone回答了這個問題。(量子位插一句:實際上,過去新一代TPU都是在每年的Google I/O大會上發布。)

Stone繼續補充:TPU目前只計劃在Google的數據中心進行部署,我們還在大量使用GPU,並且努力讓TensorFlow支持最新的GPU,比方英偉達的V100。這個領域變化很快,沒有跡象表明某個平台可以通吃一切。

「另外GPU在機器學習之外還有很多其他用途,另外對於浮點精度有很高要求的傳統HPC計算領域,GPU仍然是一個更好的選擇。」

Google Brain的架構

去年的AMA里,就有網友問過Google Brain接下來幾年將如何發展。

Jeff Dean沒有真的去預測,反倒是通過回顧團隊近幾年做的事,選了這麼幾件來說明未來的發展方向:

在機器學習領域做各種研究並發表論文、機器學習研究培訓項目、TensorFlow、和Google內其他研究及產品團隊合作、將機器學慣用於機器人研究、嘗試將機器學慣用於醫療。

Google Brain的團隊是怎麼構成的?以及怎麼運作?

Samy Bengio

Brain團隊的研究員、科學家自己制定自己的研究方向,而且我們鼓勵研發人員們攜手合作,共同解決更大的目標。我們確實有一些非常扁平的管理架構,但不總與研究項目保持一致。大家的協作通常與項目小組有關,而不是管理層級。

我們還在團隊中增加了一個人數不斷增加的職位:R-SWE(research software engineer),即研究軟體工程師。R-SWE的工作包括規模化給定的演算法、實現基線演算法、運行各種實驗等等。

我們會定期舉行整個團隊的會議,每周只有一次。我經常通過視頻會議的方式,與山景城、舊金山、蒙特利爾、劍橋、紐約、蘇黎世的同事見面。

量子位今年6月底統計過一次,Google Brain當時共有正式成員48名(不含實習生),想知道他們來自哪國哪校、在研究什麼,推薦閱讀《谷歌大腦揭秘:48名成員20大研究領域》。

Google Brain和DeepMind,為什麼不合併?

這個問題George Dahl首先詳談了一下:

兩個團隊有常規的合作,Brain團隊大部分在加州,DeepMind團隊大部分在倫敦,時差有時候會帶來挑戰,但我們仍然找時間一起合作。

我們不認為同時保留這兩個團隊是種浪費。與兩個相互競爭的產品團隊不同,兩個研究團隊可以基於彼此的研究,很好進行協同。我們像在學術界一樣,擁有高度的研究自由。兩個團隊也沒有研究領域的劃分,大家都是根據興趣和任務來展開工作。

而且兩個團隊規模都足夠大,可以自我維持,沒有必要合二為一,那可能反而更難管理。除了DeepMind不負責TensorFlow,兩個團隊沒什麼太大差別。

Jeff Dean隨後簡單補充了一下:

去年我回答過這個問題了。

(量子位總結一下去年Jeff Dean的回答:DeepMind喜歡挑一個難題入手,在可控環境中展開研究。Google Brain從更為系統的層面入手,包括工具和基礎設施。兩個團隊有合作,但時差讓合作比想象中難一些。)

在谷歌大腦工作是怎樣的體驗?

這幾乎是一道必答題:聊聊你們團隊的日常吧,選人標準是什麼?

軟體工程師Alexandre Passos說:

我是一個TensorFlow開發者。大部分情況下,我的一天都是從閱讀和分類電子郵件開始的(Google這郵件特多)。我喜歡上stackoverflow看看有什麼關於TensorFlow的問題,找些有意思的回答一下。我們天都花好幾個小時寫代碼和調試,這比我之前想象中的少。我也參與了一個研究項目,很快能發論文。所以最近我不用參加太多會議。

Nicolas Le Roux,Google Brain研究員,Yoshua Bengio最強博士生之一。

我是一名在加拿大蒙特利爾的研究員。我的工作包括:與本地學術實驗室建立聯繫、展開自己的研究、指導初級研究人員。我每天至少花一小時看看最新的論文、研究博客或者瀏覽arXiv。也得從會議和郵件中脫身,集中精力想想自己的項目。其餘時間用來和其他研究人員交流討論,參加會議和學術圈的活動。(我是NIPS今年的地區主席)

Google Brain軟體工程師Nick Frosst

我在多倫多辦公室。我們是一個很小的團隊,都坐在一起,有很多時間互相討論新的想法。我所有的工作幾乎只在TensorFlow中展開。我每周和主管有兩個會議,小組每周有一次會議。

Jeff Dean

我領導著Brain團隊。每天我都得花時間讀寫電子郵件,讀、評、寫技術文檔;和團隊以及整個Google的人進行一對一或者團體會議;審查代碼、寫代碼;思考影響團隊的技術或組織問題。我有時會在內部或者外部演講。

Sara Hooker

我是今年的35名Brain訪問學者之一。我的一天經常從項目早餐會開始,餘下的時間我會閱讀相關領域的論文,用TensorFlow寫代碼,以及與我的導師和合作者見面。我經常拉著相關的同事,一起吃個午餐或者晚餐。

去年的訪問學者Colin,把他的經歷更完整的寫出來了。(詳情可以參考量子位發布的這篇:《我在谷歌大腦這一年》)

Samy Bengio

作為研究主管,我大部分時間都用來引導團隊研發重要的問題,與研究員們會面,討論想法、了解進展、制定計劃等。我還內部外部組織了一些研究活動,例如閱讀小組和定期會談。最近,我忙於NIPS程序主席的工作。

Katherine Chou

我是Brain醫療健康研發團隊的產品負責人。我的時間分配在三件事上:1、研究可以提高醫療準確性和可行性的AI方法 2、與醫療從業人員進行溝通 3、找到技術落地的方式。

除了上面列舉的幾位,來自Google Brain旗下機器人、基因組學等團隊的工程師們,也紛紛回答了這一問題。

Hinton的Capsule

capsule:膠囊,是Geoff Hinton這幾年投入了最多心血的課題。

在去年的AMA中,Hinton就談到過「基於capsule的神經網路」,說他在Google這3年,在這項基礎研究上投入了大量精力。

今年,這項研究似乎有了重大突破。

Hinton上個月在多倫多大學講「卷積神經網路的問題及對策」時,就談到要在現有神經網路結構的基礎上,加一個capsule的層級,每一層網路的神經元組成capsule,在內部做計算,然後輸出一個壓縮的結果。

NIPS剛剛公布的接收論文列表中,也有Sara Sabour、Nicholas Frosst和Geoffrey E Hinton合作的Dynamic Routing Between Capsules

今年,關心capsule的網友也不少,甚至直接點名Hinton來問:

capsule怎麼樣了?

不過,Hinton沒有參加今年的AMA,前邊提到那篇NIPS論文的二作、Google Brain多倫多團隊的Nick Frosst把(可能是)他們團隊一起寫的答案發了出來。

Nick Frosst

Geoff現在很忙,不過今天早上,我們一起寫了這個答案:

capsule進行得很順利!

我們組有5個人:Sara Sabour、Nicholas Frosst、Geoffrey Hinton、Eric Langois和Robert Gens,在多倫多辦公室,取得了穩步進展。

capsule是一組神經元,它們的活動向量表示特定類型實體(比如對象或對象部分)的實例化參數。

我們的一篇論文最近中了NIPS spotlight,其中將capsule之間的動態路由作為一種衡量低級特徵之間一致性的方式。

這一架構在MNIST上實現了最好的性能,而且在識別高度重疊的數字時,明顯比卷積神經網路好得多。

我們還在研究新的路由方法,在NORB數據集上取得了不錯的結果,同時也在研究新的capsule架構,可以在輸入空間中保持與給定組的等價性。

希望這些研究結果也能很快發表。

OMT

最後,還有一問:去Google Brain實習有年齡限制么?我今年都40大幾了 :)

Jeff Dean:2012年夏天,我請Geoffrey Hinton作為訪問研究員加入團隊,但由於中途出錯,他當時被列為我的實習生。所以你看,我們對實習生沒有任何年齡限制。

我們要求不多:天賦異稟、求知若渴,就像Geoffrey :)。

活動報名

加入社群

量子位AI社群8群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot3入群;

此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,)對話界面,回復「招聘」兩個字。

量子位 QbitAI

վ'ᴗ' ի 追蹤AI技術和產品新動態



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦