search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

香港科技大學楊強:人工智慧膨脹的過程中,我們要保持清醒的頭腦

通聯數據 通聯數

據Datayes

-本文摘自楊強教授在【Fintech x AI 高端研習班】上的分享 -

關於AI的冷思考

「我講AlphaGo的時候本著兩個目的,第一是給大家科普,讓大家了解它的機制;第二是給大家潑冷水,告訴你們AlphaGo的成功其實非常難複製」

AlphaGo為我們帶來了什麼?

人工智慧的成功應用主要在以下方面,而非所有:

第一個是語音,語音已經有很多年的歷史了,但是引入深度學習以後,尤其近幾年有了突破性的發展;第二是圖像識別,比如人臉識別;第三是電商/推薦,像淘寶、京東這樣的電商/推薦;第四是博弈,最典型的就是AlphaGo;第五是更深層次的對抗網路,基於博弈的思想,這個的應用就很多了,其中最引人矚目的就是無人車。

人工智慧第一次受到關注是97年的深藍,當時是象棋領域戰勝了世界冠軍。象棋本來就是非常難的領域,我們展開一個棋盤,所有可能的布局總數大概是10的47次方,這是非常龐大的數字;但在用了IBM高性能計算以後有了顯著的發展。

所以這一次應該說是幾個事件的成功:第一個是高性能的計算,第二個運用了群體智能,讓很多二流的國際象棋專家對這些節點進行評估,最後把他們的分數加以總結來戰勝一個世界冠軍,一共用了兩百多個二流的人,它和今天的AlphaGo相比,最大的弱點就是沒有機器學習的能力。

五年前人工智慧領域出現了一個新名詞,叫做「深度學習」。我們知道深度學習首先在圖像上有比較直觀的解釋,我們輸入一個圖像,可以在圖像上採集一些樣本,這些樣本會為我們帶來一些特徵。這些特徵包括比較低級的一個個像素,像素上面所帶的信息、顏色、亮度,我們可以將這些特徵總結起來。

DeepMind是AlphaGo背後的團隊,將「深度學習」與「強化學習」結合起來,把圍棋的棋盤當作輸入,另一端輸出動作,需要往左還是往右,需要把棋子放在哪兒等等,就是需要一個深度學習網路實現這種對應,這些都是計算機可以自學的。

但是大家看出這個問題的弱點了嗎?

圍棋的情景和我們實際生活差距相當大,因為這是一個非常理想的世界,我們的規則非常清楚,邊界也非常清楚,輸贏會立馬反映在上面,動作簡單,一點不含糊。所以在這種封閉的領域、清楚的領域,優化目標可以寫下來的領域,AlphaGo的演算法是完全沒有問題的。

AlphaGo裡面有兩個函數我要特別提一下,一個叫做「策略網路」,所謂「策略網路」就是告訴你在這裡應該怎麼走。策略網路中的「S」就是我們所說的狀態,「A」是我們說的「Action」,「P」則是概率的意思,整體來說是「在這個狀態下對方大概會走哪一步」,讓你對對方有一個了解。我們如何進行訓練呢?拿了三千萬個比賽的棋盤來訓練,看如果從這個狀態出發,高手一般走哪一步,我們就可以學習下來。

其實無人車也是用這種方法,讓它先在封閉的環境里學駕駛,學會了再出去開。特斯拉的意外就是一個反例,在特斯拉這個例子中,機器給車前面照了個相,判斷前方是空的,系統就會反饋說前方的狀態是有利的,可以往前走;如果前面是一堵牆,打分就會較低,系統會判斷沒有利。特斯拉就是出了一個錯,系統判斷前面是空曠的,以為是白色的白雲,但實際上是白色的卡車,因此就撞上了,這就是因為訓練不足。

第二個值得一提的演算法,在AlphaGo去年的比賽里,因為計算能力有限,對每一個狀態,即每一個「S」的估計還不夠好,就加了一個新的演算法叫做蒙特卡羅演算法。 就是我在現有狀態下讓機器隨機走棋,最後是輸是贏給我一個反饋。

像這樣快速走棋了N次之後,可以拿這些樣本做一個抽樣,這樣就能很快告訴我這麼走對我是好還是壞。這個會迅速得出結果,但是會非常不準,因為畢竟是在無限當中進行有限的抽樣,所以去年AlphaGo還有一盤棋是輸給李世石的。

到了今年大家知道master是60局全勝,這個月23日在烏鎮和柯潔的比賽,我們做人工智慧的覺得人類就沒什麼戲了。為什麼呢?因為現在我們把這種隨機過程全部替代掉了,所有訓練都是通過強化學習來實現的,機器犯錯的概率就大大降低了,據說現在的AlphaGo給去年的自己讓四個子還能贏。

我們能從AlphaGo的成功中學到什麼?

人工智慧在AlphaGo上的應用顯然成功了,那麼像在教育領域、醫療領域是否能複製這種成功?我覺得是非常難的。

人工智慧的成功首先得有高質量的大數據。AlphaGo是學習了三千萬個棋盤,十多萬個棋局,這些都是當時訓練時使用的數據,那個時候還沒有跟李世石對弈的實時數據做訓練,因此前期收集的數據是非常關鍵的。

除此之外,如果前期用質量不太高的數據,比方說圍棋一段以下的數據來計算,那樣訓練出來的效果是非常差的,所以對數據質量要求非常高。

還需要有明確的問題,也就是我們的「A(Action)」,在圍棋中只有下棋、放子這樣的動作,沒有任何其它的東西,不像投資這麼複雜。

另外還要有很好的獲取特徵的方式。比如說棋盤,要有專家參與進來,把每一個棋子周邊的情況用所謂的「變數」表達出來,這些變數我們叫做特徵。能產生這些變數需要專家,就像AlphaGo團隊里的工程師基本都會下圍棋。

以上我講AlphaGo的時候本著兩個目的,第一個給大家科普,告訴大家它在做什麼,讓大家了解它的機制;第二是給大家潑冷水,告訴你們AlphaGo的成功實際上非常難複製。

有記者常咱們媒體人,說AlphaGo意味著什麼?我們這邊說意味著人類要沒有工作了,人類不需要存在了;再問AlphaGo的團隊這些成功意味著什麼?他們會答意味著計算機也會下圍棋了,所以他們是很低調的。

我覺得這個題目是值得大家總結的,尤其是現在人工智慧膨脹的過程中,大家一定要保持清醒的頭腦。

企業如何將「人工智慧」落地?

「我們知道吳恩達剛剛離開,很大的原因是拿不到數據資源、業務資源,這種人又有抱負,當然會選擇離開,那麼我們該如何管理這個事?」

我們要建立一個機器學習模型,首先得有一個目標。這裡面分成兩類,一類是商業目標,人工智慧雖然可以用這麼多的方面,流程自動化、客服等等,但一定要明確最終目標是什麼,是要倍增收益,把地盤擴大,還是要把最後的費用減少。

第二,知道要增加收益或減少費用后,你需要把它量化成數學公式,我們往往管這個叫做優化函數。比方說哪些任務可以用自動化帶來價值,完成這個自動化過程本身需要費用,這個費用是不是值得花?這是需要顧及的。

第二個是否要引入第三方外援?不是每個人都要從頭開始做AI,要想從最底層的數據、網路、工具、應用,雲全部完成,這個恐怕也只有BAT可以做,但我們沒必要每一個公司、每一個team都做這些事;還有一個人工智慧系統往往需要持續支撐,這個支撐往往很昂貴,我們是否能承擔的起,要評估自己的人力資源、資金、數據是不是夠用。

第三,諮詢業務方和數據擁有方。我在華為、騰訊都做過,知道很多大公司都有部門牆,部門之間幾乎是不溝通的,因此這個數據往往是以孤島的形式存在的。而今天的人工智慧,尤其深度學習、強化學習,這兩大工具都非常依賴於數據。即使我們購買了數據,如何清洗和整合數據又是第二個問題,數據結構化的過程是非常昂貴的,往往需要很多人工。

第四個就是AI團隊建設。如果我們有AI團隊,這個團隊和業務團隊是不能分開的,它一定要有明確的責任,要有一個技術介面人、管理人員、數據的責任人、系統整合的責任人,都要非常明確,要有一個完整的KPI。

我們拿百度舉例,我們知道吳恩達剛剛離開,很大的原因是拿不到數據資源、業務資源,這種人又有抱負,當然會選擇離開,那麼我們該如何管理這個事?我們要從一開始就明確這個團隊的目標是什麼,也就是KPI。

第五點,AI的項目需要各種各樣的規劃,和一般的軟體沒有區別,我覺得把AI和其他軟體工程區分開始錯誤的。

AI技術的風口在哪裡

深度學習

深度學習特別要命的一點,就是它的結構是一個黑箱。經過幾千萬個樣本訓練以後,完全沒有辦法解釋。什麼叫做「解釋」呢?一旦有錯我可以知道是哪裡出了錯,應該調整哪個地方,但我無從得知。

所以AlphaGo就出了這樣一件事,當時4:1輸給李世石關鍵一步,它想知道哪一個地方出了問題,因為這肯定是深度學習在估算棋盤時出了一個嚴重錯誤,但沒有辦法回溯,如果當時再比賽一次還會出現同樣的錯誤,因為沒有辦法糾正。

那麼什麼叫做「白箱」,什麼叫做「可解釋的模型」呢?因果關係的模型就是可解釋的,比如醫生知道給病人吃了這個葯后病人有多大機率會康復,這就是因果關係。因果關係的流派在人工智慧領域確實存在,叫做貝葉斯流派,但目前沒有特別靠譜的自動學習的演算法。

目前在很多領域,如果一個模型給出了結論,但不知道為什麼會給出這個結論,往往該領域是不會允許你使用這個模型的,因此「因果關係」非常重要。所以「深度學習」領域需要有更多種類、需要是可解釋的、可編程的

第二個是我們所說的遷移學習。所謂「遷移學習」就是給出一個已經訓練好的領域模型,這個模型可能對應一個神經網路,那麼我們能不能從中抽象出比較高層的邏輯知識,如果有了這個知識,就可以比較容易地把高層知識邏輯遷移到新的領域

比方說「輿情」,比方說我們在微博上可以看一些人的評論和留言,我們知道這些留言是正面還是負面的,對於新出的電影或者一個事件就有正面、負面的判斷。

我們如果在這個領域訓練出了模型,能不能遷移到一個新的領域,比如對圖書、股票、股價、公司也做這種預測?所以這種遷移是很有用的。遷移的目的就是我們不用做很多的標註、不用花費很多建模費用,就可以把已有模型遷移到新的領域。

還有一種學習叫做表示學習,在自然語言處理的領域也經歷了革命性的轉化。現在機器通過大量文本學習一個新的「表達」,可以判斷這個詞出現的場景、它和周邊的字是什麼關係——我們建立起一個字及其周邊常見字的「朋友圈」,通過學習來發現同義詞,而不是通過人來告訴機器。

這個表達學習的過程叫做「機器閱讀」,把每一個詞中字的「朋友圈」都表達出來,比如說賈寶玉和誰最好,機器模型可以自動回答,而且非常准。我們有了機器閱讀,就可以產生一個新的表達,比如說可以做一個《紅樓夢》的摘要。

然後我們說Echo學習系統的一問一答,現在可以做得很准,其一就是因為Echo有一個很強的硬體系統,可以被智能喚醒,知道這個是在對著它講話還是在對著別人;然後將軟硬體相結合,把軟體的優點發揮出來。

另一點就是Echo的使用場景非常清楚,它的目標是一個有限的垂直領域,而不是一上來就做一個通用的對話系統,這也是我們需要借鑒的。

我再說一下人工智慧未來的幾個方向,在基礎計算結構有兩方面,一方面是晶元的研究,像英偉達做的GPU,谷歌做的TPU,雖然不知道什麼時候商業化,但據說是非常牛的人工智慧晶元。另外一個,過去我們在網路的傳輸層還沒有特別適合深度學習的網路研究,現在有了,如果在網路層做優化就能把深度學習加速到四五倍這樣的水平,這將是網路傳輸層的革命。

最後做一個總結,深度學習可以做很多研究——強化學習可以和遷移學習相結合做很多個性化的任務完成對話,智能規劃等等。遷移學習可以幫助完成知識的高層表達、跨領域的知識,還有小數據的學習。還有如何能夠進行信息抽取,把自然語言這種非結構化數據表達出來,能夠進行自動問答、對話系統,包括摘要的自動建立,演算法加速,人工智慧的工程化。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦