search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

【阿網有話說】AI贏了圍棋,而人類卻贏得了未來

哈嘍,大家好,歡迎大家收看新一期的阿網有話說。前段時間阿網的今日頭條已經被AlphaGo和柯潔頻繁刷屏,作為同樣的人機圍棋大戰,AlphaGo在一年時間裡已經三次成為輿論焦點,人工智慧正在成為人們討論的熱點,也正在成為我們生活中不可缺少的技術。今天我們就來聊聊AlphaGo,聊聊背後的人工智慧,以及隱藏在黑暗中的AI幕後推手

其實根據阿網在互聯網圈的了解

很多互聯網巨頭在AI領域的布局早就已經開始

比如

Facebook 成立了 FAIR 和 AML

Google 前後併購11家 AI 公司

Microsoft 的人工智慧科學家和工程師高達數百位

Amazon、Uber 也各自在人工智慧領域投入巨資

在國內,互聯網公司也沒閑著

騰訊構建了 DI-X 深度學習平台

阿里成立了 iDST 部門併發布「NASA」計劃;

百度在陸奇帶領下也壓注人工智慧。

是什麼支撐了快速進化的AlphaGo

2016年初,AlphaGo在與李世乭的圍棋決戰中獲勝,人們開始驚嘆於人工智慧的發展速度,但還是心存僥倖,畢竟人類還是贏了一局,畢竟還有柯潔。下半年,AlphaGo化名Master,在圍棋網路對戰平台中連勝60局,擊敗15位世界冠軍,再次讓世人見識到人工智慧的進化速度。

前日,AlphaGo又重出江湖與圍棋等級分排名世界第一的柯潔進行三番棋決戰,然而結果大家都已經知曉,雖然AlphaGo認為柯潔已經下的完美,但是仍是以失敗告終。在賽前,柯潔表示:AlphaGo儘管實力強大,但是終歸只是一台機器而已,沒有人類這樣對圍棋的熱愛。對它而言,它的熱情——也只不過是運轉速度過快導致CPU發熱罷了。但在第二場賽后,他說「沒有想到我和AlphaGo都能下得這麼熱血沸騰!下出了和人類棋手的感覺。」

賽前與賽后的不同感受,證實了人工智慧的進步,從一個機器向「類人類」方向發展,如果不預先告知,你可能認為AlphaGo是一個實實在在的人。這不由得讓我想起 「圖靈測試」——測試者在與被測試者(一個人和一台機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問,進行多次測試后,如果有超過30%的測試者不能確定出被測試者是人還是機器,那麼這台機器就通過了測試,並被認為具有人類智能。現在的人工智慧貌似距離人類越來越近,尤其是當人工智慧可以通過自我學習進化,就像alphaGo一樣。

DeepMind創始人哈薩比斯在賽前的發布會上表態:「這場比賽不會是人和電腦系統的對戰,而是人使用電腦發現新的知識,我們探索的新的知識,圍棋的知識,就像發現天文望遠鏡探索新的宇宙。把不斷學習的人工智慧運用到更廣闊的領域。這場對決,無論是人類獲勝還是alphaGo贏,最終的勝利者都是人類。」阿網也很贊同這種說法,或許在不遠的將來,科幻電影中的AI助手就會出現並讓徹底改變我們的生活,就像Baymax(嗯,就是那個胖乎乎的大白)。

AlphaGo讓我驚訝的並不是棋藝的精湛,而是進化的速度如此之快。從2016年1月27日戰勝職業二段的樊麾,到2017年5月戰勝世界第一的柯潔九段,然後被圍棋協會授予九段證書,AlphaGo九段用一年多的時間完成了人類數十年才能走完的路。是什麼讓他進化的速度如此之快?這其中有數據量的積累(人類數千年的圍棋棋局),演算法的優化(神經網路與蒙特卡洛的融合),以及計算平台的發展。

計算平台性能如何決定AI的命運

AI就像一個嬰兒長大的過程。大腦利用遺傳得來的原始思維方式,通過接受來自外界海量的事物,逐漸認識並利用這個世界。如果你用心養育一隻黑猩猩,它同樣可以完成一些類似人類的行為,但是極限卻限制在了人類幾歲的水平,這也是大腦構造造成的區別,AI也是如此。一個好的計算平台,對於AI進化的速度以及遇到瓶頸的時間起到至關重要的地位。

20世紀90年代,神經網路的概念就成為了熱點,但是受限於軟硬體計算平台的限制,十餘年間的進展極其緩慢,直到以GPU為核心的協處理加速設備的應用,才讓人工智慧應用效率大大提升。從內部結構上來看,CPU 中 70%晶體管都是用來構建 Cache和一部分控制單元,負責邏輯運算的部分並不多,控制單元等模塊的存在都是為了保證指令能夠一條接一條的有序執行,這種通用性結構對於傳統的編程計算模式非常適合,但對於並不需要太多的程序指令,卻需要海量數據運算的深度學習的計算需求,這種結構就顯得有心無力了。

與 CPU 少 量的邏輯運算單元相比,GPU\FPGA\MIC這種協處理加速設備整個就是一個龐大的計算矩陣,動輒具有數以千計的計算核心、可實現 10-100 倍應用吞吐量,而且它還支持對深度學習至關重要的并行計算能力,可以比傳統處理器更加快速,大大加快了訓練過程。

2012年,谷歌用1000台伺服器、2000顆CPU讓機器認識一隻貓,耗費了600kW的電,500萬美元的資金。而使用GPU伺服器后則僅僅需要3台伺服器、12塊GPU卡,消耗4kW電力和3.3萬美元的資金即可達到同樣的計算能力。想象下,如果AlphaGo仍採用傳統的計算架構,在對陣柯潔的時候可能下一步棋就得讓對手等上半天吧。

提升計算密度是加速AI的有效手段

既然找到了一種有效的AI計算架構,那麼後面的做法也就是我們輕車熟路的套路——硬體的堆疊,不論是讓晶元的計算能力提升,還是擴大計算集群中的部件數量。網路資料顯示,上次對戰李世乭的時候,AlphaGo就動用了280塊GPU的計算集群。但是隨著計算力的需求提升和計算集群的增大,網路帶寬成為了整個計算集群的「延遲貢獻者」和「效率瓶頸點」。

由於現在傳統的GPU計算集群中,在傳統的GPU集群中,數據會產生跨節點傳輸的網路延遲,跨節點GPU交互在進行通信時至少經過5次路徑/協議轉換,至少2us的延遲。因此單物理機群中的GPU數量越多,AI計算的延遲就越低、效率就越高。但在功耗、散熱和佔用PCI-E資源等問題的限制下,單一物理機器一般被限制在8塊以內。

在AI計算需求日益迫切的壓力下,AI計算平台提供商們也在積極尋找新的技術來解決計算密度的瓶頸。Nvidia在推動其NVlink普及,希望提升單機內的數據交互性能,而浪潮則致力於改變原有的計算集群架構,將原來緊耦合的GPU/CPU資源解耦和池化,並通過物理集群的形式,將計算集群內的GPU數量大幅提升,並能夠提升擴容和調控的靈活性。

近日浪潮發布的SR-AI整機櫃中的GPU Box中僅包含16塊GPU卡以及相關的主板,通過線纜的連接到PCIe Switch中,再經由Switch連接到前端的計算節點,由此組成一套完整的GPU計算系統。而PCIe Switch可以掛接4個GPU Box,也就是說單個GPU計算系統可以最大可擴展64塊GPU,計算能力飆升至512TFlops以上。更重要的是,這套系統中的64塊GPU卡間的通信全部通過PCIE協議,不需要PCI-E到TCP/IP協議的轉化,延遲可降低50%以上,達到ns級。

在現階段,這種將硬體重構的新架構能夠將AI計算髮揮出最大的價值。而在未來,定製化的專用計算部件則將是AI又一輪爆發的基礎。

定製化專用計算部件或是AI計算的未來

對陣柯潔的AlphaGo已經相比去年有了脫胎換骨的變化,由原有CPU+GPU的計算架構向TPU轉變。這種專門為TensorFlow定製開發的專用ASIC晶元,擁有著強大的性能功耗比,在谷歌的數據中,TPU 比 CPU 和 GPU 快 15~30 倍。效率則以每瓦特能量消耗執行的 tera-操作計算,TPU 比 CPU 和 GPU 效率高 30~80 倍。雖然數據存在爭議,但是這種定製化計算晶元的強大性能已經被很多人認可,也開始被認為是AI計算的明天。

應用範圍更全面的GPU和更高能效比的定製化晶元到底哪個才是未來,下一期阿網有話說再跟大家詳細解讀~期待下次的見面。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦