search
深度學習,老樹開花? |【經緯低調分享】

深度學習,老樹開花? |【經緯低調分享】

分享人:王華東

過去三年中對人類社會影響最大的技術浪潮無疑是人工智慧,而為人工智慧的發展帶來突破性拐點的當屬深度學習。眼下,Google、Amazon、Facebook、微軟、IBM 等各大技術巨頭已在不遺餘力地推進深度學習的研發和落地,更有大量優秀的初創公司嶄露頭角。

深度學習是什麼?其發展路徑和關鍵時刻有哪些?未來可能如何演進?分享《財富》雜誌刊登的這篇深入淺出的文章,希望對你有所啟發。

如果你正在投身這一行業的研究或是創業,也非常歡迎你和我們的同事聊聊,王華東 huadong.wang@matrixpartners.com.cn;胡雨舟 yuzhou.hu@matrixpartners.com.cn。以下,Enjoy:

作者 / Roger Parloff,註:本文刊發於2016年9月28日

過去 4 年,讀者無疑已經注意到大範圍的日常技術在質量方面已經取得了巨大突破。

其中最明顯的就是我們智能手機上的語音識別,它的功能已經比過去好得多了。當我們用語音命令打電話給配偶時已經能聯繫上對方了。因為接線的不是美國鐵路局或者一頭憤怒的公牛。

實際上,我們現在越來越只需跟計算機講話就能實現互動,對方也許是 Amazon 的 Alexa,蘋果的 Siri,微軟的 Cortana 或者 Google 的眾多語音響應功能。百度稱,過去 18 個月其客戶語音介面的使用量已經增至原來的 3 倍。

機器翻譯等其他形式的語言處理也變得更加令人信服,Google、微軟、Facebook 和百度每月都會 get √ 新的技能。Google 翻譯現在為 32 個語言對提供語音翻譯,為 103 種語言提供文本翻譯,其中不乏宿務語、伊博語、祖魯語等略微生僻的語言。Google 的收件箱現在已經為所有來信準備了 3 種回復。

然後還有圖像識別方面的進展。上述 4 家公司都有無需識別標籤即可讓你搜索或者自動組織相片集的功能。你可以要求把有狗、有雪的照片都顯示出來,甚至連擁抱這樣相當抽象的概念也難不倒它。這些公司還都在做類似的產品原型,可以在數秒鐘之內生成句子長度的照片描述。

想想吧。要想收集有狗的照片,App 必須識別很多種狗,從吉娃娃到德國牧羊犬,而且無論照片是倒置還是部分模糊,無論是在左邊還是右邊,不管是大霧還是下雪,是陽光普照還是在林蔭底下,App 都不應該識別不出小狗。與此同時還得排除掉狼和貓等。光靠像素的話這怎麼可能做到呢?

人工神經網路如何識別照片中的小狗?

1)訓練階段會提供大量帶標籤的各種動物圖像給神經網路,讓後者學會進行分類;2)輸入:提供一張不帶標籤的圖片給經過訓練的神經網路;3)第一層:神經元對不同的簡單形狀如邊緣進行響應;4)更高層:神經元對更複雜的結構進行響應;5)頂層:神經元對我們會識別為不同動物的高度複雜、抽象的概念進行響應。

圖像識別的進展遠不僅限於那些看起來很酷的社交 App 上。醫療初創企業宣布它們很快就可以用計算機來讀 X 光片、MRI(核磁共振圖像)以及 CT 掃描,而且跟放射科醫生相比,它們不僅速度更快結果還更加精確,可以更早創傷更少地診斷癌症,並且加速拯救生命的藥物的尋找工作。更好的圖像識別對於機器人學、無人機以及無人車(福特、Tesla、Uber、百度、Google 等都在路測自己的無人車原型)等方面的技術改進至關重要。

但大多數沒有意識到的是,所有這些突破在本質上其實都是同一個突破。它們都是靠一組熱門人工智慧技術取得的,這種技術的名字叫做深度學習,但大多數科學家更願意用它最初的學術名稱:深度神經網路。

神經網路最引人矚目的點是計算機並沒有經過任何的人工編程即可實現上述功能。當然,實際上也沒有人能夠通過編程來實現那些功能。程序員只是給計算機提供了一種學習演算法,讓它觀察上 TB 的數據——也就是訓練計算機,讓它自行找出如何識別所需對象、單詞或者句子的辦法。

簡而言之,現在這些計算機可以自學了。Nvidia CEO 黃仁勛說:「基本上這相當於寫軟體的軟體。」 Nvidia 是圖形處理器的市場領導,在 5 年前開始大規模押注於深度學習。

神經網路並不是什麼新事物。這一概念最早可以追溯到 1950 年代,而許多的關鍵演算法突破試著 1980 年代和 1990 年代才取得的。變的是現在的計算機科學家終於有了海量的計算能力,以及龐大的數據倉庫——互聯網上充斥著各種圖像、視頻、音頻以及文本文件——結果表明,這些東西對於跑好神經網路必不可少。VC 機構 A16Z 的合伙人 Frank Chen 說:「這就是深度學習的寒武紀大爆發。」他用大部分較為高等的動物突然出現的地質時代來類比深度學習取得的進展。

這一飛速發展激發了一系列活動爆發。據 CB Insights 的數據,上季度對 AI 初創企業的股權融資達到了 10 億美元的歷史新高。2016 年 Q2 共進行了 121 輪相關初創企業融資,相比之下 2011 年同期只有 21 起。在此期間,AI 方面的投資超過了 75 億美元——其中超過 60 億美元是 2014 年以來進行的。(9 月末,AI 的五大巨頭—— Amazon、Faebook、Google、IBM 以及微軟成立了非盈利的 AI 組織,旨在推動公眾對該話題的理解,並就相關的道德和最佳實踐開展研究)

2012 年時 Google 開展的深度學習項目只有 2個。據一位發言人表示,現在它正在推進的相關項目已超過 1000 個,涵括了包括搜索、Android、Gmail、翻譯、地圖、YouTube 以及無人車在內的所有主流產品範疇。IBM 的 Watson 也應用 AI,但它 2011年擊敗兩位 Jeopardy 智力競賽人類冠軍時用的不是深度學習。不過據 Watson CTO Rob High 說,現在 Watson 幾乎所有 30 項服務都已經增加了深度學習能力。

5 年前幾乎還不知道深度學習是什麼的 VC,現在個個對沒有這項技能的初創企業都非常謹慎。Chen 觀察到:「我們已經處在這樣一個時代,即開發複雜軟體應用已經成為必須。」他說大家很快就會需要軟體這樣:「『你的自然語言處理版(軟體)在哪裡?』『我怎麼才能跟你的 App 對話?因為我不想通過菜單點擊。』」

一些公司已經在把深度學習集成進自己的日常流程當中。微軟研究院負責人 Peter Lee 說:「我們的銷售團隊正在利用神經網路推薦該聯絡哪一位潛在客戶,或者作出什麼樣的產品推薦。」

硬體界已經感受到這種震動。讓所有這一切成為可能的計算能力發展不僅僅是得益於摩爾定律的延續,而且還有 2000 年代末 Nvidia 做出圖形處理器的幫忙——這種強大的晶元原本是為了給玩家提供豐富的 3D 視覺體驗——但大家意外發現,在深度學習計算方面,其效率要比傳統 CPU 高出 20 到 50 倍。今年 8 月,Nvidia 宣布其數據中心業務的季度收入與去年同比已經翻了一番多,達 1.51 億美元。其 CFO 告訴投資者「目前為止絕大部分增長來自於深度學習。」在時長 83 分鐘的電話會當中,「深度學習」這個詞就出現了 81 次。

晶元巨頭英特爾也沒有閑著。過去 2 個月它一口氣(以超過4億美元)收購了Nervana Systems 和 Movidius(價格未披露),這兩家公司的技術都是針對不同階段的深度學習計算量身定製的。

至於 Google,今年 5 月,它披露了自己已經秘密採用自行設計的定製晶元 TPU(Tensor Processing Unit)一年多了,這種晶元正是給經深度學習訓練的應用使用的。(Tensor 是類似矩陣一樣的數組,在深度計算中往往要進行相乘運算)

的確,企業可能已經到達了另一個拐點。百度首席科學家吳恩達說:「在過去,許多標普 500 強 CEO 希望自己能早點意識到互聯網戰略的重要性。我想從現在開始的今後 5 年也會有一些標普 500 強 CEO 後悔沒有早點思考自己的 AI 戰略。」

其實在吳恩達看來,互聯網這個比喻已經不足以形容 AI 及深度學習的隱含意義。他說:「AI 就是新的電力。僅僅 100 年前電力變革了一個又一個行業,現在 AI 也會做同樣的事情。」

可以把深度學習視為一個子集的子集。「人工智慧」涵括的技術範圍很廣——比如傳統的邏輯學、基於規則的系統——這些能幫助計算機和機器人至少用類似思考的方式解決問題。在這個領域裡面還有一個更小一點的類別叫做機器學習,這是一整個神秘但又重要的數學技術工具箱的總稱,它可以幫助機器改進需要經驗的任務表現。最後,在機器學習這個門類當中還有一個更小的子集叫做深度學習。

吳恩達說,我們可以把深度學習看做是「從 A 到 B 的映射。你可以輸入一段音頻剪輯然後輸出腳本。這就是語音識別。」他強調,只要你有可以訓練軟體的數據,就有無限可能:「你可以輸入電子郵件,而輸出可以是:這是垃圾郵件嗎?」輸入貸款申請,輸出可能是目標客戶償還貸款的可能性。輸入車隊的使用模式,輸出可以是發車去到哪裡的建議。

人工智慧術語表

人工智慧

AI 是個廣義概念,用於任何讓計算機模仿人類智能、利用邏輯、假定規則、決策樹以及機器學習(含深度學習)的技術

機器學習

含有深奧的統計技術的 AI 子集。這種統計技術可讓機器改進需要經驗的任務。深度學習屬於機器學習。

深度學習

機器學習子集包括了讓軟體可以訓練自己執行任務(如雲和圖像識別)的演算法,手段是讓多層神經網路接受海量數據。

在這樣的願景下,深度學習幾乎可以變革任何行業。Google Brain 項目負責人 Jeff Dean 說:「將會發生的根本性改變是現在計算機視覺真正可以工作了。」或者用他的話說:「現在計算機已經睜開了它們的眼睛。」

這是否意味著是時候擁抱「奇點」了呢?(所謂奇點是指這樣的一個假設時刻,到那時超智機器將可以在無需人類干預的情況下自我改進,從而引發一個逃逸周期,導致進化緩慢的人類被拋開得越來越遠,產生恐怖的後果)

還沒有。神經網路擅長模式識別——有時候表現得跟我們人類一樣好甚至更佳。但它們不懂推理。

即將發生的革命的第一個火花是在 2009 年開始閃爍的。那年夏天,微軟研究院邀請了神經網路先驅,多倫多大學的 Geoffrey Hinton 前往參觀。由於對他的研究感到印象深刻,Lee 的團隊開始試驗用神經網路進行語音識別。Lee 說:「我們被結果驚到了。我們用非常早期的原型就實現了精確度提高 30%。」

據 Lee 說,2011 年,微軟把深度學習技術引入到自己的商用語音識別產品上。2012 年,Google 開始跟進。

但是真正的轉折點發生了 2012 年 10 月。在義大利佛羅倫薩的一場研討會上,斯坦福 AI 實驗室負責人,著名的計算機視覺競賽 ImageNet 創始人李飛飛宣布,Hinton 的兩位學生已經發明了一種軟體,這種軟體識別對象的精確率幾乎是最接近對手的 2 倍。Hinton 認為「這是一個非常驚人的結果,令此前許多對此表示質疑的人都信服了。」(去年的競賽上一家深度學習的參賽選手已經超越了人的識別率。)

攻破圖像識別打響第一槍,這激起了一場人才爭奪戰。Google 把 Hinton 和贏得那場競賽的兩名學生都請了過來。Facebook 簽下了法國的深度學習創新者 Yann LeCun,他在 1980 年代和 1990 年代是贏得 ImageNet 競賽的某種演算法的先驅。而百度則搶下了吳恩達。吳曾是前斯坦福 AI 實驗室的負責人,2010 年曾幫助推出並領導了以深度學習為核心的 Google Brain 項目。

此後這場人才爭奪戰開始變本加厲。微軟研究院的 Lee 說,今天「這個領域正在上演一場搶奪人才的血腥戰爭。」他說這方面頂級人才的報價「堪比一線的 NFL 選手。」

現年 68 歲的 Geoffrey Hinton 是在 1972 年的時候第一次聽說神經網路的,當時他正在愛丁堡大學做人工智慧方向的畢業設計。在劍橋大學學習了實驗心理學之後,Hinton 開始狂熱地戀上了神經網路,這是一種靈感源自大腦神經元工作方式的軟體設計。在當時,神經網路還沒有得寵。他說:「每個人都認為這種想法瘋了。」但 Hinton 仍然堅持他的努力。

神經網路有望讓計算機像小孩一樣從經驗而不是通過人工定製編程的繁雜指令來學習。他回憶道:「那時候大部分的 AI 都是邏輯啟發的。但邏輯是大家很晚才學會的東西。2、3 歲的小孩是不懂邏輯的。所以在我看來,就智能的工作方式而言,相對於邏輯,神經網路是一種要好得多的範式。」

在 1950 和 1960 年代,神經網路在計算機科學家當中非常流行。1958 年,康奈爾大學心理研究學家 Frank Rosenblatt 在一個項目中首次搭建了神經網路原型,他把這個得到海軍資助的項目叫做 Perceptron。項目使用的穿孔卡片計算機體型巨大,佔滿了整整一個房子。經過 50 次試驗之後,它學會了區分在左右側做記號的卡片。當時的《紐約時報》是這麼報道此事的:「海軍披露了一台電子計算機的雛形,將來這台計算機預期可以走路、說話、寫字以及複製自己,並且能意識到自己的存在。」

結果證明,軟體只有一層神經元式節點的 Perceptron 能力有限。但是研究人員認為,如果是多層,或者叫做深度神經網路的話就可以實現更多的東西。

Hinton 是這樣解釋神經網路的基本思路的。假設一個神經網路正在解析一幅有幾隻鳥在裡面的攝影圖像。「那麼輸入就是像素的形式,而第一層單元就會檢測邊緣。邊緣的一邊是黑的,另一邊是亮的。而下一層神經元則會對第一層發送過來的數據進行分析,學會檢測「像稜角這樣的東西,也就是兩個邊緣合成了一個角度。」比方說,這些神經元的其中一個可能會對鳥嘴的角做出強烈響應。

下一層「可能會尋找更複雜的結構,比如圍成圓圈的一組邊緣。」這一層的神經元可能會對鳥的頭部做出響應。再高一層的神經元可能會在類似頭部的圓圈附近檢測鳥嘴狀的角。Hinton 說如果發現的話「這可能是鳥頭相當好的線索。」每一個更高層的神經元都會對更複雜抽象的概念做出響應,直到最頂層相當於我們「鳥類」概念的其中一個神經元給出答案。

然而,要想學習的話,深度神經網路需要的不僅僅是按照這種方式在各層間傳遞消息。它還需要想辦法看看自己是否在頂層獲得了正確的答案,如果沒有的話,就要向下返回消息,以便低層的類神經元單元可以調整自己的激活狀態來改進結果。學習就是這樣發生的。

1980 年代早期時,Hinton 正在對此問題進行攻關。同樣在努力的還有一位法國的研究人員,他的名字叫做 Yann LeCun,當時他剛在巴黎開始自己的畢業設計。LeCun 無意間發現了 Hinton 1983 年的一篇論文,裡面談的正是多層神經網路。LeCun 回憶道:「那些術語都沒有正式提及,因為在當時要是提到『神經元』或者『神經網路』的話論文都很難發表。所以他用一種比較含糊的方式寫了那篇論文,好通過評委審查。不過我認為那篇論文超級有趣。」兩年後兩人見面並一拍即合。

深度學習史的關鍵時刻,1989 至 1997 年:

1)1989 年,當時在貝爾實驗室的法國研究學者 Yann LeCun 開始了一種神經網路的基礎性工作,這種神經網路後來成為了圖像識別的關鍵;2)1991 年,德國研究學者 Sepp Hochreiter 和 Jürgen Schmidhuber 開創了一種帶記憶功能的神經網路,後來證明這種神經網路用於自然語言處理尤其出色;3)1997 年,IBM 的深藍超級計算機用傳統AI技術擊敗了國際象棋世界冠軍卡斯帕羅夫。

1986 年,Hinton 與兩位同事寫出了一篇原創性的論文,他們在論文中給出了錯誤修正問題的演算法解決方案。LeCun 說:「他的論文基本上奠定了第二波神經網路浪潮的基礎。」此文再次點燃了對該領域的興趣。

1988 年,師從 Hinton 攻讀完博士后之後,LeCun跑到了貝爾實驗室,此後 10 年,他完成的基礎性工作至今仍為大多數的圖像識別任務使用。在 1990 年代,當時還是貝爾實驗室子公司的 NCR 把一台採用神經網路的設備給商用化了,該設備在銀行得到了廣泛應用,據 LeCun 說,它可以識別支票上的手寫數字。與此同時,兩位德國的研究學者,現在在林茨大學的 Sepp Hochreiter 以及瑞士 AI 實驗室主任 Jürgen Schmidhuber 獨立做出了一種不同的演算法,這一演算法在 20 年後的今天成為了自然語言處理應用的關鍵。

儘管取得了所有這些躍進,但到了 1990 年代中期,因為受制於當時的計算能力,神經網路又再度失寵,被其他更高效的機器學習工具搶走了風頭。這一情況持續了將近 10 年,直到計算能力又提升了 3 到 4 個數量級以及研究人員發現了 GPU 加速的秘密之後才開始改觀。

深度學習史的關鍵時刻,1990 年代至 2011 年:

1)1990 年代中期,神經網路被其他機器學習技術搶走了風頭;2)2007 年,李飛飛創立了 ImageNet,開始彙編一個帶標記圖像多達 1400 萬的資料庫用於機器學習研究;3)2011 年,微軟引入神經網路來進行語音識別;4)IBM 的 Watson 用 AI 擊敗了兩位 Jeopardy 智力競賽冠軍。

但還缺了一樣東西:數據。儘管互聯網充斥著各種數據,但大部分數據——尤其是圖像數據——都沒有標記,而標記是訓練神經網路之需。幸好有斯坦福 AI 教授李飛飛的適時介入。她在一次接受採訪時說:「我們的願景是大數據將改變機器學習的運作方式。數據驅動學習。

2007 年,她推出了 ImageNet,這個免費資料庫涵括了超過 1400 萬張帶標籤的圖片。2009 年 ImageNet 上線,次年她創立了一項一年一度的競賽來激勵併發布計算機視覺方面的突破。

到了 2012 年 10 月,當 Hinton 的兩位學生贏得該項競賽時,情況已經變得瞭然:深度學習來了。

深度學習史的關鍵時刻,2012 至 2013 年:

1)2012 年 6 月,Google Brain 發布了「貓實驗」的結果,它的一個神經網路在觀察了 1000 萬張不打標籤的 YouTube 圖像之後,自我訓練出識別貓的本領;2)8 月,Google 引入神經網路進行語音識別;10 月,Hinton 的兩名學生設計的神經網路以絕對優勢贏得了 ImageNet 競賽勝利;3)2013 年 5 月,Google 用神經網路改進了照片搜索功能。

此時公眾也多少聽說過一點深度學習的事情了,不過原因是另一個事件。2012 年 6 月,Google Brain 發布了一個略為怪異的項目的結果,這個項目也就是現在俗稱的「貓實驗」。實驗結果在公眾當中引起了有趣的共鳴,一下子在社交網路中流行起來。

這個項目實際上探索了深度學習的一個懸而未決的問題,即所謂的「無監督學習」。目前商用的幾乎所有深度學習產品採用的都是「有監督學習」,這意味著神經網路是利用帶標籤數據(比如 ImageNet 彙編的那些圖像)來訓練的。相反「無監督學習」模式下,神經網路拿到的是不帶標籤的數據,它要通過觀察來尋找重複模式。研究人員將來肯定想掌握無監督學習,因為到那時候機器就可以通過目前無用的海量數據來自行了解世界——也就是說幾乎僅憑一己之力來弄懂世界,就像嬰兒一樣。

深度學習史的關鍵時刻,2014 至 2016 年:

1)2014 年 1 月,Google 以 6 億美元收購了 DeepMind,一家結合了深度學習與強化學習的初創企業;2)2015 年 12 月,微軟的一個團隊利用神經網路在 ImageNet 挑戰中勝過了人類;3)2016 年 3 月,DeepMind 的 AlphaGo 用深度學習以 4 勝 1 負的戰績擊敗了圍棋世界冠軍李世乭。

在貓實驗中,研究人員給一個大規模的神經網路(超過 1000 台計算機組成)展示了從 YouTube 視頻隨機截取的的 1000 萬張未打標籤的圖像,然後就讓軟體自己折騰。等一切塵埃落定時,他們檢查了最高層的神經網路,發現其中一個對貓的圖片做出了強烈響應。當時是 Google Brain 項目領導的吳恩達說:「我們還發現一個神經元對人臉做出了非常強烈的響應。」

但是結果也令人困惑。比方說,「我們並沒有發現有神經元做出強烈響應,還有大量神經元我們沒法分配英語單詞。所以這事兒挺難的。」

這次實驗引起了轟動。但無監督學習仍然沒有解決——這個挑戰被留給未來。

不奇怪的是,迄今為止大部分商用的深度學習應用都是 Google、微軟、Facebook、百度以及 Amazon 這樣的大公司的——這些公司掌握了深度學習計算必須的海量數據。許多公司在試著開發更現實且有幫助作用的「聊天機器人」,一種自動化的客服代表。

深度關注深度學習的四大巨頭

GOOGLE

2011 年 Google 推出了聚焦深度學習的 Google Brain 項目,並在 2012 年中引入神經網路用於語音識別產品,2013 年 3 月,他們招來了神經網路的先驅 Geoffrey Hinton。現在 Google 進行中的相關項目超過了 1000 個,範圍涵括搜索、 Android、Gmail、照片、地圖、翻譯、YouTube 以及無人車。2014 年,Google 收購了 DeepMind,今年 3 月,其深度強化學習項目 AlphaGo 擊敗了圍棋世界冠軍李世石,這是人工智慧的一次里程碑事件。

微軟

2011 年上半年,微軟把深度學習引入到自己的商用語音識別產品裡面,其中包括了 Bing 語音搜索以及 X-Box 語音命令。該公司的搜索排名,照片搜索、翻譯系統等現在都用上了神經網路。Lee 說:「很難用語言表達出它所產生的普遍影響。」去年微軟贏得了一項關鍵的圖像識別競賽勝利,今年 9 月,微軟實現了有史以來最低的語音識別錯誤率:6.3%。

FACEBOOK

2013 年 12 月,Facebook 聘任法國神經網路創新者 Yann LeCun 來領導其新的 AI 研究實驗室。Faebook 利用神經網路來翻譯每天超過 40 種語言的約 20 億帖子,並稱它的翻譯每天有 8 億用戶使用。(約一半 Facebook 用戶不講英語)Facebook 還利用神經網路進行照片搜索和組織,目前還在攻關一項功能,替視力受損者生成未標記照片的語音標題。

百度

2014 年 5 月,百度挖來了 Google Brain 項目負責人吳恩達領導自己的研究實驗室。百度的語音識別、翻譯、照片搜索以及無人車項目都利用了神經網路。在這個移動優先且漢語難以輸入的國度里,語音識別是關鍵。百度稱,過去 18 個月語音介面的使用量已經增加到原來的3倍。

像 IBM、微軟這樣的公司也在幫助商業客戶在自身業務中採用有深度學習支持的應用——比如語音識別介面和翻譯服務,而像 AWS 這樣的雲服務則提供了廉價的 GPU 驅動的深度學習計算服務——比如 Caffe,Google 的 TensorFlow,以及 Amazon 的 DSSTNE,這些給創新過程起到了潤滑劑的作用,因為基於開放發表的規範做法,許多研究人員不等同行評審通過就馬上在一個資料庫上發布結果了。

許多最令人興奮的深度學習應用嘗試發生在醫療領域。A16Z 負責生物投資的 Vijay Pande 說,我們已經知道神經網路非常擅長圖像識別,「而醫生做的很多事情都跟圖像識別有關,無論是放射科、皮膚科、眼科等等都得看片。」

深度學習與醫療

初創企業 Enlitic 利用深度學習分析 X 光照片、CT 以及 MRI 掃描結果。其 CEO Igor Barani 是前加州大學放射腫瘤學教授,他說在檢測和區分肺結節是良性還是惡性方面,Enlitic 的演算法表現比 4 位放射科醫生都要好。

Merck 試圖利用深度學習加速藥物發現,舊金山初創企業Atomwise 也有相同的想法。神經網路能檢查 3D 圖像(這些圖像裡面有成千上萬的分子可能可以成為藥物的候選),並且預測它們在阻斷病原體機制的適合度。這些公司正在利用神經網路來改進人所做的事情;有的甚至能做人所不能為。27歲的計算生物學博士 Gabriel Otte 創辦了 Freenome,旨在通過血樣診斷癌症。它會在血液中檢查死亡后被細胞噴出的 DNA 片段。他利用深度學習讓計算機找到脫細胞 DNA 與某些癌症之間的關聯。Otte 說:「我們看到了一些此前癌症生物學家尚未歸類的新穎特徵。」

放射科醫生一生可能會看成千上萬張 X 光片,但計算機的觀看量卻可以百萬計。Pande 說:「計算機能更好地解決這一圖像問題並不難以想象,因為它們消化吸收的數據比人多太多了。」

其潛在優勢不僅僅是精確度更好分析更快,還包括分析的大眾化。隨著技術成為標準,最終所有病人都將受益。

當深度學習以尚未想到的方式集成到其他人工智慧技術的整個工具箱時,我們也許就能感受到它的最大影響。比方說,Google 得到 DeepMind 通過結合深度學習和強化學習就已經取得了令人吃驚的結果。這兩者結合的產物 AlphaGo 在今年 3 月擊敗了圍棋世界冠軍李世石,被廣泛認為是人工智慧里程碑式的成就。AlphaGo 跟 1997 年擊敗國際象棋冠軍卡斯帕羅夫的 IBM 深藍不一樣,它既沒有決策樹方面的編程,也沒有如何評估棋盤位置的方程式,或者是假定的規則。DeepMind CEO DemisHassabis 說:「AlphaGo 基本上是靠左右手互搏和觀察職業棋局來下棋。」(訓練期間 AlphaGo 跟自己下了 100 萬盤棋)

遊戲也許看起來像是一種人為設置。但 Hassabis 認為同樣的技術可以運用到現實世界問題上。實際上,今年7月 Google 報告稱,通過利用類似AlphaGo的技術,DeepMind 把 Google 數據中心的能效提升了 15% 。Hassabis 說:「數據中心可能有 120 個不同的變數。你可以改變風扇、打開窗戶、改變計算機系統,這些都是耗電的地方。你從感測器、溫度計等獲得數據。這就像圍棋一樣。通過試錯,你可以學會怎麼走才對。」

「所以這是很好的。你每年可以節省上千萬美元,而且對環境也很好。全球的數據中心消耗了大量電能。現在我們打算進一步鋪開。甚至應用到國家電網這種規模。」

註:本文刊發於2016年9月28日,點擊「閱讀原文」可觀看英文原版

也許你還想看 :

忘掉創業,好好做生意

職場巨嬰,「毀」人不倦

真正優秀的人,大都不合群

相比機器贏了人類,機器假裝輸掉會不會更可怕?

這可能是迄今為止關於人工智慧最難讀也最全面的文章,但我們覺得非常值得你讀一讀

SaaStr Annual 2017現場速遞:AI正在吃掉軟體

這是經緯創投的「經緯低調分享」欄目,我們在這裡與你聊聊創業,人生與夢想。

熱門推薦

本文由 一點資訊 提供 原文連結

一點資訊
寫了5860316篇文章,獲得23312次喜歡
留言回覆
回覆
精彩推薦