search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

【文末驚喜福利】北大計算機系黃鐵軍CCF-ADL講習班:從計算機發展史講解製造超人工智慧的正途——類腦計算

雷鋒網按:2017 年 7 月 28-30 日,由 計算機學會(CCF)主辦的高端學術活動——計算機學會學科前沿講習班(CCF Advanced Disciplines Lectures,簡稱 ADL)第 81 期在北京科學院計算技術研究所舉辦。

本期講習班由北京大學計算機科學技術系主任,信息科學技術學院教授黃鐵軍主持,另有六名來自學界、業界的大牛,為現場百名學員講解了「類腦計算」相關的前沿與應用。

雷鋒網亦到現場聽講。

北京大學信息科學技術學院教授,計算機科學技術系主任,國家傑出青年科學基金獲得者,教育部長江學者特聘教授

黃鐵軍教授回顧計算機和人工智慧的發展,提出目前我們正處於神經形態計算類腦計算機的元年。

以AI的誕生、製造強AI、繪製大腦地圖、神經形態計算、AI睜開眼睛為框架體系講解了類腦計算。黃鐵軍認為相比於Brain Inspired Computing(腦啟發的計算),Brain Like(仿腦)是取得突破的可行路線,是走向「強人工智慧」的必要階段,可能比「人工智慧」(人工設計出來的智能)和「認知科學」(理解思維的機理)更早實現。

雷鋒網對其演講全文進行了不改變原意的編輯,呈現如下:

各位大家好!很高興大家關心類腦計算、神經形態計算這樣新的話題。雖然這個課題去年我就講過,但是今年有一些新的進展,而且國家的一些相關的部署,已經開始了。所以我覺得這個講座,還是應當會對後續的科研工作會起到一些支持和推動作用。

類腦計算的概念以及在這個方向和領域下面,需要做一些什麼方面的工作,哪些層次的工作,每個人的理解可能都不完全一樣,但是現在慢慢的還是形成了一定的共識。這次講座,我們邀請了7個講者,今天上午,我先來將我所理解的類腦計算的概念,以及一些國內外的進展。

我採用的是英文題目——Brain-like Computing類腦計算,有的老師喜歡叫Brain-inspired computing,受腦啟發的計算,但是我更願意叫類腦計算。neuromorphic computing這個詞更專業一點,學術一點,然而放在媒體上去介紹,類腦計算更能讓公眾了解。但是它背後也有很多歧義,大家一說類腦,怎麼類腦,馬上有很多各自的理解和解釋。神經形態計算這個詞更為準確一些,我們做的這種新的計算模型、計算範式,實際上是一種神經形態,我一會兒再解釋神經形態。如果是做學術寫論文,我建議你用「神經形態計算」這個詞,會找到一些以前的或者更為準確的文獻。

實際上我覺得所有搞計算機的人 ,心理一定會有一個人工智慧的夢想。計算機可以說是人類有史以來影響最大的發明,這個發明到底能幹什麼?搞計算機的人總會想計算機可以做越來越強的計算邏輯和各種各樣的信息處理能力,是不是能夠代替大腦,超過大腦。當我們把計算機跟腦做比較的時候,一般來說我們會覺得遙不可及。

大家都在媒體上看到過霍金和馬斯克講人工智慧,說如果你發展人工智慧,肯定對人類社會的影響會很大,但是如果出現超級人工智慧的話,我們人類就會遭至滅頂之災。很多人反對霍金和馬斯克,認為超級人工智慧不可能,但是都沒有充分的證據。

大概在2014年前後,我就認為這條路肯定是存在的,所以就應該沿著這條路把這個事實現了。我1月7日在中華讀書報上,發表了一篇源於製造超級大腦的文章。後來2月份的時候,出版了一本書叫《超級智能》。

總的來說,基本上越來越多的人認為超級智能是可能的,這樣的道路是存在的。回到計算機學科,去年是圖靈提出計算機的模型80年,第一台計算機發明70多年,是人工智慧概念提出60多年,是深度學習那一篇Science的paper發表10周年。去年類腦計算或者神經平台計算已經出現了很多標誌性事件,讓我們相信新一代的計算機已經出現了,計算機已經進入了一個新的歷史時期。

所以我們今天重點是關於目前已經發生的一些事,大概分五個方面。

一、人工智慧踏上正途

第一個是人工智慧,我稱之為人工智慧踏上正途,當然人工智慧做了60年,為什麼說今天終於往正確的方向進行呢?也不是說以前都錯了,只是說以前彎彎曲曲各種各樣的想法,目前逐漸形成了一個比較主流的方向,而這個方向是我們終極性的問題,有可能取得突破。今天我們一說人工智慧,當然大家就想可能是計算機作為一個平台實現人工智慧,這基本上成為一個思維方式。但是事實上我們回頭看今天的計算機,是不是能夠完成這樣一個歷史使命,這個問題是我們首先要思考的問題——靠什麼實現人工智慧或者未來的強人工智慧?

計算機從起源開始,實際上已經決定了我們今天的計算機,不是實現人工智慧的一個合適平台。圖靈當時提計算機,圖靈從來沒有想提出說一台計算機,那時候他為了解決一個數學問題:希爾伯特的23個問題中的第10問題,在數域裡面存不存在不可計算數。為了證明這個問題,要提出一個概念模型,構造一個通用機器,這個通用機器能做所有的數學操作,但是這樣的機器做不到表達剛才說的其中那些不可計算數。我們都是搞計算機,都很清楚圖靈機的概念,但是圖靈機是一個副產品,不是圖靈為了設計計算機而設計的。圖靈在80年代之前已經將計算機的極限說得很清楚了。今天很多人說只要我把程序編的好,演算法設計的好,計算機什麼都能做。你想想,當你回答這個問題的時候,你基於什麼樣的邏輯在說,計算機什麼都能做的?根本不是這樣,肯定是做不到的。

當然我們還要說一個偉大的貢獻,就是香農的貢獻。數學模型是抽象的,無法執行,香農把數學和物理聯繫起來,這樣計算機就能真正造出來了。這個貢獻大家都知道,還是想強調一下:一個數學概念模型,用機器簡單的一個模型可以表達各種各樣複雜的數學問題。他的偉大隻要一個器件就能解決各種衝突,各種邏輯和數學的計算。那是1947、1948年的時候,那個時候還沒有晶體管,物理上總是有開關,燈也是開關,我用多個開關可以組合出我們要的這種計算邏輯功能。就是把問題抽象到一個極致,然後把問題明晰化。

當然還有馮諾伊曼體系結構,這個也是一個歷史性的貢獻——把軟體和硬體分離。計算機的偉大的地方,就是通用的計算邏輯機器,可以做基本的邏輯和運用。但是你要完成任務需要靠程序,要軟體和指令。這樣的話,你買一台機器,裝不同的程序,就可以執行不同的任務。當然為了完成通用性,效率是有損失的,你解決一個問題,專用電路更直接,通用的會有一些符號代價,但是這些代價,使得應用範圍大大擴展,所以這也是一個貢獻。

所以我花時間去說圖靈的模型,香農的電路和馮諾伊曼體系結構這三件事是因為我們設計新一代的計算機,類腦計算,同樣要考慮類似的問題。我們要考慮,數學模型是什麼,用什麼樣的器件去實現,你是什麼樣的體系機構,去實現人工智慧的一些任務,不然計算機不可能實現強人工智慧。計算機發展到今天,第一台計算機出現70年了,背後的邏輯很清楚,數學物理和體力結構,清清楚楚在那個地方。但是不是做智能的合適平台,你看清歷史,才能知道未來怎麼做。

接著我們看一下人工智慧,圖靈是1951年提出機器能思考,這當然是人工智慧問題,只是那個時候,這個詞還沒有造出。1956年,一些圖靈獎獲得者創造了人工智慧這個詞。他們在申請研究經費時寫道:我們有一些想法,就是通過機器模擬,學習以及智能其他課程的方方面面都可以精準描述。到現在為止,這個想法還是很多人對人工智慧理解的一個經典想法。我們怎麼做智能和學習?實際上我們先把它形式化,給它一個精準的描述,就能用計算機去實現。他們認為目前的計算機速度、存儲能力還很慢都不是問題,問題是我們把程序寫出來,這個軟體就能解決智能的問題。我們今天的很多想法仍然是沿用這樣的思路,當然這樣的思路對或者不對,我們要考慮。

過去60年人工智慧發展了很多技術路線,也有很多進步。從最早的符號系統到今天的阿爾法狗,有很多標誌性事件,每一次人們都說人工智慧發展這麼快,是不是馬上能超越人類,後來發現都沒有真正的實現。在歷史發展中,大致來說就是三個流派一直在競爭,第一個符號主義,這是經典人工智慧,總要把它符號化、形式化、精準化,有描述,然後用機器去實現。第二個,就是神經網路,連接主義,實際上背後的思路就是說人的智能是神經網路產生的,我也做一個神經網路,希望它能產生智能,至於產生什麼智能,是訓練和模型的事,首先我們走的技術路線是神經網路,所以這一塊也叫仿生學問或者生理學問。第三個,行為主義,主要是控制論,他們說實際上你想大家無論是我們一個人,或者一個動物,甚至我們生物最早的單細胞的原生生命形態,其實它的智能從哪來的?在於和環境交互過程中產生的。一個小孩生來,沒有什麼能力,但是跟環境交互中,能力會逐漸提高。當然人還要上學,學書本知識,動物是不學這個東西,當是靠交互也可以。

然而,如果不真的從大腦開始,終極性的問題仍然解決不了。這個想法並不新, 1956年的時候就想到了,這些人討論了7個問題:自動計算機、編程語言、神經網路、計算規模理論、自我改進、抽象、隨機性和創造性。目前自動計算機、編程語言、計算規模理論已經弄清楚了,而神經網路、自我改進、抽象、隨機性和創造性等問題還不明晰。他們當時就在考慮,一群神經元如何形成概念,我們今天的深度學習也形不成概念,還有第五個問題,一個智能怎麼能自我提升,現在深度學習靠大數據訓練,一定程度上可以提升的,只要你用數據,我的智能就會產生就會自動提升,但是還沒有自我性和選擇性。未來的計算機,如果還叫計算機的話,要有真正的隨機性,然後才有創造性。原來這個系統不會存在的東西,靠隨機就能出現了。

為什麼後面幾個問題一直發展很有限,背後有兩個原理。一個是因為我們一直在用計算機做智能,在計算機上做神經網路、深度學習,是架構在馮諾依曼體系結構上的神經網路模型。神經網路是沒有什麼中心的,大量的節點進行複雜交互的網路,跟計算機體系不是一回事。二是由於沒有一個針對神經網路的一種體系結構的硬體,晶體管促進了計算機的快速發展,但是沒有合適的神經元器件,沒有物理上做出一個硬的神經網路,又能符合我們希望的模型,沒有類似於香農這樣的人物出現,提供一個物理的橋樑,讓你實現這些想法,數學和神經網路的想法,就不像計算機發展那麼快。

但是我們還是要找這樣一種路徑來實現神經網路。所以神經網路發展這麼多年,有高潮、有低潮,但是總有人比較堅持。1985年Hinton提出boltzman機模型。今天大家用深度學習去說boltzman機說多層網路的時候,好像是一個很新的。從1985年到2006年,沒有人做的時候,我也堅持去做這個,就是報著這樣一種心態,在堅持做神經網路。我是1995年讀博士,1996年選題,那個時候,我們所有11個博士生,就只有一個人做神經網路,這種精神就是首先你邏輯對不對,你要認定是對的,你就堅持做下去,不管別人怎麼看我這個事,為什麼會有這麼一種精神?因為Hinton是布爾的曾孫子,布爾邏輯那個布爾的後代,這些人是有貴族精神的,不會被流俗所影響,我認為這個方向對,我就堅持做,慢慢調吧,有人給錢,我就做,沒人給錢,一個人做,有人給錢,幾個人做。

2006年,Geoffrey Hinton在《Science》發表關於深度神經網路的論文,現在深度學習已經過熱了。2011年,深度學習沒有那麼熱的時候,我在斯坦福的半年訪問,他們就是用layer做圖象識別、語音識別、自然語言處理提升的百分點數,當然都是幾個百分點,沒有超過10%。後來,李飛飛組織的深度學習在比賽中,對圖像識別的能力提高了11個百分點。現在已經變成用更多的數據,更深的網路,調調參數,然後一個結果,這就沒有什麼,從研究的角度沒有什麼太大意義了,但是我們都喜歡干這個事。

Alpha go的實現裡面有很多它新的想法,是一個標誌性的事件,但這還不是強人工智慧,自主智能,但是超出了我們傳統上對人工智慧的一種理解——總要把很多東西進行形式化然後表達。它的突破在把圍棋當成一個圖像去識別,這個跟人去識別的過程是類似的。所以我們講高手就是棋感,棋感從哪來?就是你下的棋數,下的多,看的棋譜多,阿爾法狗看完3000萬盤棋,棋感已經超出人了。你說棋感這種我們通常認為只有人類有的,機器一樣可以有。這種神秘性,我們認為獨有性的東西,逐漸被機器替代。

所以2030年國家的重大科技項目裡面,潘院士提了五大方向:大數據智能、跨媒體智能、群體智能、混合增強智能、自主無人系統。 2030年的時候,計算機達到什麼樣的能力?當時定了一個目標,就是要逼近人腦的信息處理能力,具有自我認知,自主的通用人工智慧。

以上是一些背景,花了不少時間,後來應該是相對好講。

二、製造強人工智慧

第二個話題,是製造強人工智慧。強人工智慧又叫通用人工智慧,到現在為止,包括阿法狗在內的,都是弱人工智慧,專用人工智慧。專用人工智慧是指就事論事,要解決某個智能問題。強人工智慧是要達到人類水平,能夠自適應的應對外界環境挑戰的具有自我意識的人工智慧。一旦達到人類水平,就會超過人類水平,所以強人工智慧是我們要應對的一個挑戰,這個挑戰也許是我們人類出現以來,要應對最大的挑戰。

實際上世界上存在超級人工智慧,本來我們人就是,我們本來就是一個強人工智慧,我們的強人工智慧基於我們的大腦,神經系統。到目前現在為止,除了人腦之外,沒有任何一個自然或者人工智慧系統,具有對新環境、新挑戰,能夠自適應,人是最典型的具有強人工智慧的。

既然人可以有,我們怎麼讓機器有?一開始我就說類腦計算這個詞,很容易用不同的角度去理解,比如說Brain-inspired computing,受腦啟發的計算,這個事已經從人工智慧開始,大家都在做,腦給了我們一些模型原理,儘管很有限,但是我們得到了一些認知,認知科學給我們一些啟發,我們可以設計新的演算法,包括疑團演算法,各種各樣的。其實背後或多或少都有認知的應用。但是這樣的一個理解是不能解決我說的強人工智慧問題的,這樣一個思路,把我們引入歧途。

我們剛才說人類大腦有強人工智慧,人類大腦的強智能是怎麼出現的?換一個說法,人的意識是怎麼回事,或者人的思維是怎麼回事,人的意識起源是什麼,意識背後的原理是什麼,就是這樣一個問題。這樣一個問題,是我們人類三大科學問題。人類面對三個最大的科學問題,第一個宇宙的起源,生命的起源,意識的起源,這三大科學問題,是一個很難的問題,要不然就不叫它大問題了。這麼一個大的科學問題,什麼時候能解決,你去問腦科學家,再保守的腦科學家,也不會跟你說在100年之內能解決,一般都會說大概幾百年的時間,也有人說會在1000年的時間,也許永遠解決不了。因為這種大問題,他們沒有找到一個可行的方案,只能是說不斷往這個方向探索而已,所以不能給你一個確定的答案,因為太難了。如果他們不能告訴我們,大腦是怎麼產生我們的意識這種強人工智慧的,我們怎麼辦?

別人沒有給你模型,我們是不是等模型出來再去做?我們多少年來被這麼教育,科學是基礎,技術是基於科學我們才能發展新的技術。所以但是這種思維方式在有些情況是對的,但是大多數情況下是有問題的。比如說飛機和空氣動力學,1903年萊特兄弟就造出了飛機,但是1939年才出現空氣動力學用來解釋飛機為什麼能飛。但是今天的飛機,靠空氣動力學的指導才能做得更好,但是那只是更好。第一架飛機是沒有科學理論做基礎的。回顧一下,我們人類歷史上的技術進步和科學進步,技術進步幾乎可以說都是領先於科學進步的,原創性、顛覆性的。四大發明,沒有一個有科學原理的,你說沒有科學技術,有技術,指南針早就用了,鄭和也不知道地球是圓的,也不知道指南針真的指南,但是我們就做出來了。後來,等到科學逐漸的磁學,這些地球我們知道怎麼回事的時候,我們才理解為什麼指南針能指南。

所以我們做通用人工智慧,強人工智慧,是不是一定要回答——智能是怎麼回事這個問題?大腦到底是怎麼產生的智能,我們是不是一定要回答這個問題,如果回答等幾百年之後,再去做了,那這件事就沒有必要再去討論了。實際上不是這樣的,類腦計算不是Brain-inspired computing,類腦計算是Brain-like。什麼是類腦計算?我們現在並不知道大腦為什麼會產生這麼高級的,創造性的知覺。但是我們知道是什麼樣的物理系統在產生這個功能。這個大腦在物理意義上講是怎麼回事,在物質上是怎麼回事,我們不說精神不說思維智能,我們說神經系統是怎麼回事,是什麼樣的生物系統,什麼樣的神經網路,在發生這樣一個複雜現象。所以這是大腦的解析模擬,大腦能不能解剖開,能不能把大腦的畫出來,我們要搞清楚,我們要看清楚 ,是什麼樣的結構在做,在發生這樣一個行為。所以這件事可以做的,等會兒還會講畫到什麼程度。

第二個,如果我們知道大腦的神經元,神經網路這樣一個結構,產生了高級的功能,我們能不能用電子也做一個。當然我們不用再去複製一個生物的東西,我們可以用神經元、神經網路的功能,連接也一樣,做一個同樣的系統。因為神經元也是一個信號處理,圖譜是信號的加工,這樣的功能我們可以用電子器件做出來,人腦其實也是一樣,你抓住一定程度上的結構相似形,就會出現類似的功能,如果結構的相似性精確到一定程度,複雜性就有可能出現。所以是照葫蘆畫瓢做一個東西,我們不問為什麼。

這樣一個系統,你可以去訓練它,就像今天我們說深度學習沒有一個人不信,深度學習的功能在那,多層網路在那個地方,你用大量的數據訓練它,它就會出現抽象能力,分類識別各種各樣的能力。如果你做了一個大腦神經網路的東西去訓練它,用實時的,用各種各樣的刺激去訓練它,它也應該出現類似的現象。一個複雜網路,會產生更複雜的現象。像簡單的神經網路會產生簡單的現象,複雜網路會產生複雜現象。人類一定是先理解機器智能,最終理解我們自身的智能。因為從可實現上,也應該是這樣。所以你看走了四步,最終實現了理解意識,但是如果按常規的科學為先的思路,上來就現問意識怎麼回事,這四步都不用走,我們就在原地等著就好了,就不會有類腦計算,不會有真正的下一代計算機了。

因為今天大家給我三個小時來講,所以我還可以詳細的去說下。2015年的時候,為了給北京市說清楚,我總結了三句話,他們說明白了,你們做吧。結構層次模仿腦,器件層次逼近腦,智能層次超越腦。結構層次模仿,把大腦的神經網路結構搞清楚,模擬大腦,這就是大腦反向工程。第二個,做出神經形態器件,從尺寸、功能上,逼近生物神經元,這是神經形態工程。智能層次超越腦就像我們今天去訓練一個神經網路一樣,用大數據,用各種的感官,當然可以用虛擬現實和虛擬環境去刺激它,讓它產生複雜的行為,就是剛才說的,類似行為主義的訓練。這三個層次做完之後,這個系統就會擁有高級的複雜功能。大概是這樣一個路徑。

所以我們所謂的類腦計算,類腦計算機,是仿造生物神經網路,採用神經形態器件構造的,以時空信息處理為中心的智能機器。為什麼要強調時空信息處理,因為我們老說複雜環境。圖靈機處理的數據流,實際上是已經拆借的時空信息了,儘管可以做視頻,做視覺,做現在複雜的任務。但是最終時間、空間都拆碎,變成一個一起進行的數據流。一旦時間、空間被破壞之後,很多智能的任務,就很難做了。我們生物視覺、生物聽覺,從來沒有把時間、空間破壞掉,我們眼睛看世界,從來沒有時間、空間最後變成一個一味的流,我們在真正的實施并行在做。這種新的機器,要能直接出來,以這種方式處理信息,這就是以時空信息處理為中心,時空不能破壞,時空不破壞的情況能夠滿足,直接進行處理。

所以這種神經形態計算機,或者類腦計算機,在我們剛才說的不同的,跟經典計算機相比在各個層次都要做一些變化。新的神經形態計算機,它的基本器件是神經元和神經突觸而不是晶體管,這個是神經形態器件,當然是人工的、電子的。第二,經典計算機是人定義的,是馮諾伊曼定義的體系結構。神經計算機是仿生物的神經網路,一個已經具備這種功能的結構,我們把它用電子用晶元的方法,把它實現,對於這樣一個網路,要去管理,就像我們今天的操作系統要去管理硬體的很多功能一樣,比如說網路結構配置,因為硬體一旦做出來,不能隨便變。但是你上面要實現網路的各種各樣,怎麼把任意的一個生物網路模型,映射到這樣一個固定硬體上,網路配置和管理。軟神經網路到硬神經網路的映射是一個基本要求。

所以說到底,這樣一種機器,它放棄了以前我們說做智能,得去問認知科學家,智能是怎麼回事。他可以告訴你一些東西,那些東西真要做到計算機的模型,解決不了問題。就像中醫一樣,可以給你說一些道理來,但是那個道理解決不了什麼問題。所以我是死心了,放棄跟他們再去論證下去,否則人都老了,將來連這個問題都解決不了。

三、繪製大腦地圖

我們不用靠認知科學去知道意識是什麼,神經科學才是實現強人工智慧的途徑,要把人類大腦畫出來,要搞清楚是什麼樣的結構產生了我們高級的智能。對於這樣一個複雜的系統,如果我們從結構從物質上去看的話,當然也很複雜,這個問題難度仍然很大。

大腦本身是一個信息處理的系統,是神經元和神經突觸在發揮作用。在這些層次,我們都是在看信息、信號,它的複雜度是有限的,而且是可以預期的時間之內,把它搞清楚的。但是它是一個動力學系統,因為大腦是沒有意識的,這個是問題複雜的地方。你不能只知道神經元怎麼連接的,一個照葫蘆畫瓢,僅僅畫一個形狀像,我們還要產生動力學,不產生動力學,最終是做不出智能意識的,所以這是這個問題真正難的地方。

因為到今天為止,實際上我們對大腦的解剖,去測量它的手段已經有了,現在是怎麼把這個任務變成在十年這樣一個尺度內完成的問題。人腦絕對不像我們一般想那樣的複雜。人腦是860億的神經元,其實200多億是我們的大腦皮層,200多億是高級智能的物理載體。這個皮層本身就像上面,這是很多的皺褶的結構,本身不是一個隨機的,是一個有規律,有結構的結構。具體來說,它是由1200萬個功能柱組成的,每一個功能柱是一萬個神經元左右,大家看到的把皮層展開之後,就像一面牆,這面牆上有很多磚組成的,每一個磚我們叫功能柱,磚內部的連接比較複雜,當然也比較有規律,不同的磚的連接是類似的,這面牆有這麼1200萬,不到200萬塊磚組成的。為什麼這麼去看這個結構?是因為將來你可以靠大量的晶元去並列來產生這個結構,但是晶元之間的連接和晶元內的連接也比較複雜。

在如何把大腦逆向描繪來方向,現在有很多進展,一個是華中科技大學駱清銘教授他們2010年發的一篇論文,獲得了2014年國家自然科學二等獎,他們突破了單細胞分辨的全腦顯微光學切片成像,右邊是一個小鼠的大腦,整個大腦是0.5立方厘米的大小,用樹脂固定、冷凍、切片,然後去掃描,去看神經元的連接。這個數據他們掃出來之後,就給了瑞士的人類大腦計劃。

這是上個月,我們北大的分子醫學所陳賀平院士他們做的,雙光子顯微鏡是基金委重大儀器項目的成果,這種新的儀器很小,成本比較低,現在它的解析度可以看清楚樹突和樹突棘的形態,生產過程還有神經元。類腦計算需要一群,要一定面積之內的這樣的神經網路圖譜。國家會投15億建一個平台,現在應該是初步定了北大牽頭建這個平台,當然北京市還要配套,幾十億要把這個系統建起來,建起來之後去掃描,去觀察這樣一個生物的對象。

系統建立后,根據加工能力我們大概需要五年能做出視網膜,十年把視皮層做出來。第二個,神經元的模型,我們搞人工神經網路的人,得有神經元的模型才能做人工神經網路的計算。但是生物神經元的工程是什麼?我們很多搞人工神經網路的人不知道,還有這麼精細的模型。所以如果有了結構,有了單元的模型,其實我們就可以構造一個網路了,一個逼近生物的神經網路了。所以從2005年開始,EPFL,瑞士聯邦理工學院洛桑的那個學院,他們一個組Markram做了一個模型,用了IBM的藍色基因,超級計算機上面,建了一個模型,這個模型是1萬個神經元,每一個神經元,用方程儘可能的逼近生物的真實。把這樣一個模型,在超級計算機算,觀察它接受刺激的情況下,這樣的網路會出現什麼現象,當時他們出現了Y振蕩現象,差不多40赫茲左右的振蕩,當然有網路,有這個神經脈衝在裡面,在裡面去循環就會產生振蕩,這個振蕩跟我們這個生物大腦是一樣的,我們都有腦電波,為什麼會有腦電波,因為你的神經網路裡面,有大量的神經脈衝在傳遞。傳遞過程中,有入口有循環,產生我們的腦電波,我們測腦波這種現象就是神經網路外顯出來的一種功能,我們活著我們就有腦電波,死了就沒有。這樣的網路同樣會產生腦電波,證明這個模擬已經接近生物的真實了。

他們在2015年的時候,發明了另外一篇論文,更精細了,0.3立方毫米的大鼠腦區,3萬多個神經元,800萬個連接,這樣一個更精細的模型,證明實際上用計算的這種模擬的方法是可以精準重現生物的信息處理功能的,實現了這樣一個目標。

歐洲列出來的13個方向,十幾個億歐元,一大幫人做。藍色部分就是我們信息相關的,神經信息學、大腦模擬、 高性能計算,因為為了做大規模,一定要有更高性能的平台。醫療信息學、神經形態計算、神經機器人,這都是我們說的類腦計算,或者是神經形態計算。

在2013年的歐洲計劃正式啟動是3月份,4月份美國大腦計劃提出來之後,也是很多部門參加,所以2014年的時候,NIH列了12年的規劃,大致來說,前五年研究新的技術,來探測大腦的結構,比如說列的核磁共振,電子、光學探針,功能性納米粒子、合成生物學,其實都是試圖畫大腦的圖譜。后五年,用這些技術把圖譜畫出來,像人類基因圖譜一樣,把人類的大腦圖譜畫出來,人類大腦的動態圖,靜態圖譜像地圖,我們百度地圖把城市的路網畫出來了,如果把路上跑的車,什麼地方的車流量大,什麼地方流量小,每輛車的位置,那就是動態圖譜。大腦也一樣,不僅僅是要搞清楚神經網路的連接,而且要知道不同的神經元之間傳遞的神經脈衝的數據。美國也有很多企業做的有九個研究領域,2025年,實際上是12年的一個計劃,大腦神經元、神經交織細胞類型的普查,創建大腦結構圖譜,開發新的技術,不一一念了。實際上就是要畫圖,要把大腦的地圖畫出來,花了很多錢。

四、神經形態計算

這不是我們學科的,但是沒有這個藍圖,你構造不出來強人工智慧的體系結構。從1943年人們就開始想,既然生物神經能做這個事,我們為什麼不用生物神經出發去做,去這麼做。但是那個時期的技術有限。所以在2015年春天的時候,那個時候國家要做十三五,從啟動的16個重大科技專項大概來說,這些方向已經有想法了。這個圖是2015年春天的時候,我們幫著起草了一些政府的規劃,規劃的一個示意圖,做類腦計算機或者神經形態計算,我們從信息的角度,我們該做一些什麼事。這個事今天來看,也還是對的。從下面要做神經形態器件,做人工神經元、神經突觸,基於他們做類腦處理器,都是為了聽起來容易明白你們到底要幹嘛,還叫它類似於CPU這種名字,本來不太準確,但是完全創造一個新詞,別人也不知道你幹什麼,所以稱為類腦處理器,做類腦計算機,這種計算機要有視聽感知、自主學習和自然會話這些一些高級的功能,現在計算機做不好,甚至於做不到,將來的計算機要能做到。為了做類能處理器要把生物神經系統的結構解析模擬,然後我們基於那個結構來做類腦處理器。

左邊是一條線,自底向上的方法,右邊說認知功能,儘管我個人偏左邊這樣一個思維方式,但是我們不能否定,自上而下基於功能的路線。如果認知科學能夠提供一定的認知功能的模型,改進現在的機器學習,做新的處理器,一樣會對後面的發展發揮作用。大致上就這麼九個方向,在9月1日作為北京市腦計劃兩大部分之一,對外公布了。後來在11月份的時候,人民日報有一個專版報道了北京這樣一件事,北京也北大、清華、科學院、北師大很多單位。所以大家剛才那個圖裡面每一塊,都有一個單位在做。從器件開始在做,當然一開始做項目,不可能說全面說上來做人腦,從一個一個點,往最終的目標在發展。這樣一個技術思路,本身不是新的,得到馬上會看到,因為研究三十年了。我們當成一個整體大家一起行動,做一些共同的事情。但是從一種政府的季度來說,還算有點提前的。在2個月之後,2015年10月29日,這個文件大家在網上可以下載的,美國能源部一個會議,會後出的一個報告,《神經形態計算:從材料到系統架構》,材料就是剛才說的做器件,系統架構就是非馮諾伊曼新的體系結構會是什麼樣,幾十頁的報告,大家可以從網上下載。但是從整體上,跟剛才講的體系是類似的,我們對這一塊,當時有描述,我就不展開了。

去年2016年斯坦福大學發布的人工智慧2030的報告裡面,對11個人工智慧的發展方向的預測,其中前面那幾個是目前很熱門的,大規模機器學習,基於大數據的大規模機器學習,深度學習,強化學習。報告裡面表述很清楚,深度學習對深度神經網路,已經對應用地平線帶來一輪衝擊,這個衝擊大家已經感覺到了。如果這些神經形態計算,硬體系統能出現的話,會帶來更大的衝擊波,這是他的一個判斷。所以下一波,基於神經形態計算的智能,會帶來社會的影響會更大。

其實有很多的學校、很多研究所都在做神經形態計算機,其中比較有代表性的有:德國海德堡大學,美國IBM公司,斯坦福大學和曼徹斯特大學。

總的來說,大家看到這張圖,實際上就是神經形態計算系統,在逐漸逼近大腦的過程,儘管現在都做了一定的簡化,規模上什麼都有很大的差距,但是去逼近這個生物大腦,人類已經邁出了很重要的一步,後面就是進一步逼近的問題。

IBM這件事因為媒體報道比較多,實際上大家可能都知道,IBM做了一個神經形態晶元。這是2014年7月份,他們在發表那一篇論文之前,做的媒體報道。當時的媒體,有這麼一句話,IBM的長遠目標是建立具有一百億個神經元和一百萬億突觸的神經突觸系統,能耗只有一千瓦,體積不到兩升。大家讀這句話,實際上要逼近人腦規模,人腦功耗是20、30瓦,這個系統是一千瓦,體積不到兩升,人腦就是這樣一個。從物理這種指標上,要逼近人腦,只有功耗比人腦大一些,一千瓦就是家裡的小空調,就是一千瓦,其實很低了。現在超級計算機,像天河二號,應該是有16兆瓦,每年的電費要幾個億的成本。但是我們等下看,天河二號與人腦還遠著呢。但是實際上,我剛才念這句話是2014年的報道,實際上這句話是推遲7年之後說出來的,因為這個目標早在2007年已經定下來了,只不過對媒體不敢說。因為他們做這個事,也做了很多年,從2004年開始醞釀做,到2014年,十年時間把晶元做出來,還是花了很多人力、物力,包括支持經費做出來。在這個過程中,我想讓大家看這個圖,其實不是拍腦袋說做一個晶元,就做一個晶元,背後有它背後的邏輯。所以你看圖裡面,老鼠的,這裡面小老鼠、大老鼠、貓、猴子、人腦都能看見,這是什麼東西?這是在超級計算機上做模擬,一開始的時候,在做晶元之前,都是IBM的超級計算機速度比較快,所以超算上在算,在模擬這個大腦,當然模擬的程度,就像剛才說的,可能神經元的模型不那麼精細,但是沿著這樣一條路線在做模擬,所以做了十年,到最後我要做晶元,為什麼必須做一個晶元?是這樣的,當時2007年,為了申請這個項目的時候,這個項目叫SyNAPSE,大家知道這是突觸的意思,但是實際上是縮寫,一個神經形態的自適應的、可塑性、可伸縮可擴展的電子系統,這麼羅嗦的一句話說到底就是一個電子大腦皮層,在2007年立項的時候,立的目標就是像人腦皮層一樣,做這麼一個電子實現,電子實現功能一千瓦。上面那個電子的一千瓦,下面人腦20瓦,單位面積內的神經突觸、神經元的數是一樣的,所以體積就一樣,是兩升。媒體那邊講2014年講的話,實際上講的是2007年申請這個項目的時候,定的一個目標。從2008年開始做,也給了不少錢,最後把這個晶元做出來。

為什麼要做這個晶元?其實是因為靠超級計算機模擬,是不可能解決大腦的這種傳導規模的模擬。IBM用的模型,大家看到是立體模型,是最簡單的一種,當然比我們人工神經網路用的MP模型要複雜一點,就是比較簡單的一種脈衝神經網路的模型。即便用這種簡單的模型,他們在2009年,超算上的一篇,當時那個系統叫皮層模擬器軟體,那個時候按照他們的估算,這個數是公開的,大家看,那時候做的是83分之1,人要1秒,它要83秒,模仿了4.5%的人腦,消耗了144T的內存,0.5pflops的計算量,換算一下,如果用天河二號,要把人腦規模實時的,不超過幾十赫茲的信息處理能力算出來的話,需要300台天河二號,神威天湖之光,也需要100台。所以電費就不夠,當然我們也沒有造出那麼多超算,儘管我們是第一,我們只有一台神威,要造100台神威,才能用一個簡化的模型,把人腦模擬出來。所以這就是我一開始說的,你用這個做研究的可以往下做,真要做到人腦規模,不是一條可行的路。再有錢,也不能為了模仿模擬大腦,造100台神威天河。

所以一定要做硬體,根據神經網路的需要做新的硬體,能逼近人腦這樣一個終極目標。這是TureNorth晶元,這個晶元上的神經網路,確實是脈衝神經網路,但是做了很多的簡化,這裡面也有一些比較創新的東西。比如一個神經元要跟幾千個神經元通訊,怎麼通訊?人腦是進化好了,連接都已經有專門的神經纖維在聯,很多就是神經纖維,不一定是我們的神經元。物理連接已經進化出來了,一個晶元怎麼做?所以一個晶元內,任何一個神經元都有可能跟其他幾千個神經元相聯,比如就設計了一個高速路由系統,晶元內的高速路由系統,使得最終當然希望剛才說的,每秒鐘比如一個神經元發幾十個脈衝,它都能實時送過去,類似於這樣,從晶元設計的技術上進行解決。這個已經實現了,把大量的晶元做成版,把大量的版拼在一起,做一個裝置,是希望它能像人腦一樣的同樣的信息處理能力,這是一個。然後就是歐洲的幾個項目,其中藍腦計劃我剛才說過了,是歐洲大腦計劃很重要的一個推動力。

Spinnaker是剛才說的英國系統,英國這個系統是用AARM做的,這個實際上是去年的,去年這個系統是50萬核,50萬個ARM核,模擬400M神經元和400B神經突觸的一個系統。五個機櫃具有這樣一個基礎能力。旋轉的輪胎是什麼東西?就是體系結構,在創造的就是說大家想還是剛才那樣一個問題,一個神經元要跟幾千個其他的神經元通訊,通訊是中間很關鍵一個問題,要速度,所謂的速度就是在這個地方,你能不能很高效的實現任意一個神經元跟幾千個神經元通訊,一旦設計一個,有效的結構,一個體系結構,因為像IBM的晶元是偏內的,高速的結構,Spinnaker每一個單元就是一個ARM的核,一個ARM處理器,處理器有64還是多少個核,這個核之間,每一個核去模擬神經元的話,要通訊,所以怎麼解決通訊協議,這是它的一個專利。論文裡面也都有報道,所以這樣一個環,這些核之間連接成蜂窩狀,最終形成這樣一個形狀,每個紅點就是它要發射神經脈衝了,向周邊傳遞下去。當然每一個神經元,你不可能連幾千個,但是能完成把這個信號傳遞過去,是它的獨特地方。

所以現在在歐洲這兩台機器,已經對外服務了,大家也可以訪問,然後我現在有一個神經計算的模型,我想用你的,可以用,但是不會給你開放那麼多基本資源,實驗一下還是可以做的。還有一個,剛才說神經元現在大家已經覺得沒有什麼好擔心的了,因為神經元的數量,是神經突觸數量的千分之一,所以真正大腦的複雜,物理形成構造是怎麼把神經突觸做出來。在尋找新的物理材料,構造新的器件,最有代表性的一種叫憶阻器,這個器件本身最初的設想,不是為了做神經形態計算的,是我們一個華人的科學家提出來一個想法,物理上有電阻、電容、電感,他是數學家,他說這個不完美,應該有第四種,他其了名字叫憶阻器。第四種是根據電流的變化會改變組織的一種器件,當時只是一個數學上的一個概念。但是在2008年的時候,找到了這種材料,具有這種特性。而這種特性,一方面可以改變組織,可以做存儲,很快你發現,它其實跟生物突觸的可塑性是類似的,所以後來就把它,很多人研究這種器件來做神經突觸。過去這些年,大概十來年突觸已經很熱了,很多學校和單位在做突觸。這種突觸,我大概給大家形象的描述一下,將來怎麼做是這樣的。這篇論文就是1971年提出來,這是2014年參加指導一個博士后寫的一篇論文《大腦是由憶阻器組成的》,大腦的這些百萬億突觸,是可以用憶阻器來實現。當然這麼一圖,不是電路,怎麼實現電路,實際上就是看這個圖。實際上突觸的實現,是電流生產的工藝來說,其實並不複雜。

是這樣,我們剛才說過神經元的數量要很少,相對於突觸來說是很少,所以神經元會在兩邊,一排神經元又一排神經元,關鍵是怎麼把神經元用物理的連接連接起來。所以這兩排神經元,橫豎的兩排神經元,先塗上一種材料,用現在光刻的手段,刻成一道道線,最終綠點部分就是一個一個,肯定不是圓的,你刻成什麼形態,就是什麼形態,那個形狀不重要,那個材料就可以,因為那個藍線相當於連接神經元的樹突和周突,那個綠的部分就是那一層材料,可以根據得出樹突上的信號傳遞,發生變化,就像神經突觸一樣的發生連接起來,強度會發生變化。所以用這樣一種物理材料,生產將來的電路,是沒有問題的。當然這種材料的穩定性,是不是能,首先從數學上,模型上是可以逼近生物的,但是穩定性、可靠性,還是要有更多的研究。這個方面我剛才說,國外有很多單位在做,國內也有很多單位在做,比如說北大、清華、南大、華中科大,都有很多組織再做,所以有十幾年的研究歷史,這個就是我們打一個想象的比方,就是新一代計算機的晶體管,晶體管就是剛才說的誰先做出來,誰能做的比較靠譜,真正變成未來產業的糧食,那就是未來的一個很重大的貢獻,還是不能落後的。

所以就是剛才說的,這樣一些系統、器件,甚至於剛才日本的火蠅全腦網路都畫出來了,這樣一些標誌性的事件,我們說去年我們可以在人類的歷史上,其實計算機正在進入一個新的紀元。這方面當然要做,所以前那麼兩三年,我經常到處去說,我們一定得做這個東西,當然北京市也給了不少支持,國家確實在布局。現在來看,我們已經進入了發展這樣一些,快速發展的過程。所以這是7月20日,新一代人工智慧國務院發的總體發展規劃裡面一張總圖,在網上可以下載規劃規劃上沒有圖,國務院發文件不會帶插圖,不是教科書。實際上這張圖原來在裡面,只是發的時候,拿掉了。除了我們說的人工智慧我不展開,類腦智能理論、量子智能理論、高級機器學習其實都在裡面,在國家未來十幾年的發展過程中,這些東西都會作為很重要的內容進行支持。所以我們應該已經進入了,關於前面這一段,也有一些國際上的總結,大家今年的2月份,神經形態計算這一部分,我是寫的科普第三篇,大家通過計算機學會的第二期和公眾號多有,大家願意看的,可以再看一下。

我剛才講的這些東西都是國內外的進展,都不是我這個實驗室做的,我們下面講的,是實驗室做的一些東西,跟視覺相關的。

五、AI睜開眼睛

我們習以為常的視頻概念是24幀圖像,連續形成一種連續的感覺,計算機視覺也是基於視頻的。但是事實上這個事跟生物視覺距離很遠。電影能夠產生連續影像,是因為生物視覺有一個視覺暫留的現象。生物視覺接受真實世界的刺激,從來都是一個連續過程。類腦視覺像現在每秒鐘輸入30幀圖像,每幀圖像就像現在做的,表達每幀圖像這個方向去做。這個路子本身就是錯的,生物本來沒這樣做,沒有說一幅圖像, 兩幅、三幅圖像,根據圖像看差異然後還要分析這個光流,不是這樣的。生物系統從來得到的都是在最細的力度上,它的一個實時的連受刺激過程。

我們經常假定大腦信息處理的模型很複雜,實際上這種複雜性,有時候是自己給自己的一種假問題。在1978年的時候,美國科研院士提出來,其實大腦皮層處理信息的機制是一樣的,我們處理視覺、處理聽覺、處理觸覺,所有的在大腦皮層裡面作為一種信息處理的演算法,用計算機的演算法,或者具體模型是一樣的。但是對我們來說,視覺、聽覺觸覺是不一樣的,你看見、你聽見和你手燙這個感覺是不一樣的,但是大腦皮層接受的都是一樣,都是信號。

在感覺這樣一類,我們的智能上面,還有一些新的數據,要跟大家分享。一個是到底我們人作為一個生物體,我們感知世界,我們的結構,所有的智能歸根到底同樣是某種結構實現的,同樣是某種物質的載體去實現它的。對於感知來說,我們總共有300萬根神經,感知神經就是眼睛、耳朵、觸覺,剛才所有的這種感知,總共有300多萬根。其中每個眼睛背後有100多萬根,兩隻眼睛200多萬根,剩下的聽覺、味覺、觸覺、全身的皮膚,你能感覺到熱、冷、燙,各種的感覺總共100多萬根。眼睛為什麼是心靈之窗?因為入口佔了三分之二。所以我們信息的獲取,靠眼睛獲取了三分之二的信息量。如果我們的盲人,眼睛不接受信號了,視覺就沒有用了,沒有刺激了,就該怎麼辦怎麼辦?聽覺或者其他的感覺,就會利用那個皮層。所以盲人的手的敏感程度很高,因為那個視覺的中心部分還是做了觸覺的處理、聽覺的處理。所以他的耳朵很靈,之所以很靈,是因為更多的皮層用來做聽覺了。這也一定程度上解釋了剛才那個原理,皮層還是那個皮層,還接受不同的刺激,做不同感知的任務。背後的基理應該是一樣的,但是這個基理到底是什麼?這個事現在並沒有模型,比如像剛才說的,我們的眼睛接受光,光轉化成斯擺科,轉化成神經脈衝,通過每個眼睛100萬根神經纖維,送到V1,V1在後腦勺。到底我們當然就想知道,神經系統是怎麼來表達和編碼這個信息,這是視覺信息處理的基本問題。

但是光視覺系統消耗的能耗就是大腦的十分之一。所以睜開眼睛是花能量的,不是睜開眼睛說瞎話。睜開眼睛,你一天吃的飯為眼睛和視覺消耗掉了。所以有的時候,大家要閉目養神,別讓眼睛老在那睜著,歇一會兒,別在這轉化光、電,表達什麼了。閉目養神真的能養神,因為你省了十分之一的能量嘛。那到底這個眼睛從接受光刺激一直到最後,比如識別出物體,甚至做出於動作,過程的這些細節,當然這是生物視覺他們在研究,我就不一一去說了。我們想說什麼呢?到底這個生物視覺系統,怎麼來表示信息的?類腦計算,大腦可以做的東西很多,感知是其中的一部分,但是這一部分很重要,它是入口,入口怎麼表達信息,我們都不知道的話,後面的很多工作很難開展。我們北京市的支持下,想在這方面有所進展。

2010年的那篇論文講的,一般來說我們傳統上認為這個眼睛就像一個簡單的濾波器的樣子,對圖像進行濾波處理。實際上,事實上我們的眼睛做的事情比我們想象的要多的多。大家看這個論文的題目是《眼睛比科學家們相信的還要聰明》,實際上表達的信息的方法,絕對不是一個簡單的攝像頭。所以大家比如說現在熱門的無人駕駛,用一個攝像頭把自動駕駛解決了,確實做的很不錯。但是我們開車的時候,我們這個生物攝像頭,能力實際上是遠遠強於我們今天的攝像頭的。所以怎麼把這個生物的攝像頭這些智慧能用上,當然想製造背後的原理。他們能給出之前,還是回到剛才說的,現在告訴我們一些基本的原理,但是又不能告訴精細的定量的東西,那怎麼辦呢?在北京市的指示下,我們做了一些工作,僅僅是視覺系統最前面這一段,眼睛,視網膜到V1。

另外一個實皮層,那個實際上就是V1,大腦的最初級的那個區域,需要定量中心在做的,他們做了一個模型。但是這些都是在計算機上玩的,真正的生物的部分,是我們醫學部的薄老師在做,把猴子的視網膜摘下來,看它的神經網路結構。另外一個,是唐市明老師,長年累月,做了很多年,他的精神像上午說的,他不管這個,當然他也是結清,所以他也不著急說要怎麼樣。很多年觀察猴子的皮層,接受光刺激的時候會發生什麼。這是一個把猴子的視網膜摘出來之後,他們做的掃描,掃描完之後,這一層就是視網膜中精細視覺那一塊的神經網路,當然這個也是書面的原因,大概只能看到一個結構,一個大致的結構,一個環形的結構。那個一根一跟的纖維就是神經纖維,送神經信號的播報。這是標記各種各樣的細胞,不同的標記物,把它標記出來,然後把這個網路給顯示出來。然後再去做這個模型的進一步數據化,模型化,最後把這個結構搞清楚。

這個是剛才說的,觀察皮層,順便觀察這個皮層,這個是一個斷層。從在猴子看到一個視覺刺激的時候,從上到下一層一層的看哪些神經元發放的,哪個神經元和神經元之間,誰在傳遞信號,通過什麼樣的通道傳遞信號,就是做這個事。為了看這個東西,怎麼看?你要打開它,不打開它怎麼看,猴子背後實際上是打開的。但是大家不要擔心,打開是做了手術,做了麻醉,用透明罩子幫它罩上。所以把這一塊骨頭換成一個透明的玻璃,然後這個猴子照樣生活照樣吃東西,該玩玩,但是做實驗的時候你就得坐下,該喝水還是照樣喝水。就戴上顯微鏡看它,讓它看東西,看後面那個東西。外面看到的其實就是這樣的事情,這是一個陶樂天在做,他從2004年就開始做猴子視皮層的模擬,也做了幾十年了,留下了一些現象。時間關係,我就跳過去了。

我們這個組等會兒給大家演示的是做中央化的模擬,中央化模擬。就是精細視覺這一塊,我們為什麼關心這一塊?眼睛和剛才的視網膜很複雜,所以真正把視網膜做出來,最終大概需要至少五年的時間。我們現在只是把其中的精細識別,精細識別對識別信息編碼,我剛才講我們這個實驗是是編解碼國家工作實驗室,所以最關心的是我們研究看的時候,看清楚了,讓一個場景,是怎麼變化的。周邊對運動,對特殊一些形態的檢測,那些也要做,但是是放在後面來做。怎麼來做這個東西呢?就是回過頭來,還是回到神經中去。一個神經元長什麼樣,它的形態,這是剛才說的取下猴子視網膜去掃描,把三維的數據掃描,一個一個識別做出來,所以它長什麼形態。第二個做神經元的模型,就是上午說的方程,另外這個方程已經可以刻畫各種神經元的生命學行為,但是刻畫神經元行為和每一種神經元,具體在發生什麼,你的數學工具在那個地方,但是每種神經元有自己的特性,所以要調參數。調來調去,最近才能逼近給它一個電刺激,它能產生一種什麼樣的脈衝模式。這個參數調好了之後,就算這個神經元劃分出來了。為了做的精細,其實一個神經元不是一組方程式,把這個分成很多段,所以每個裡面,是一組方程組。所以一個神經元的計算代價是很高的,大概剛才說的一個CPU,至少一個核去算一個神經元。

黃鐵軍老師和其實驗室的博士生隨後對他們正在做的視覺系統解析項目做了演示。

CCF-ADL在線講習班(第80期):區塊鏈—從技術到應用

本次課程為付費課程,2017年8月會在AI慕課學院獨家上線,原價 2500 元(CCF 會員)的線下課程現在限時特價 699 元預售,有興趣的學員戳閱讀原文或掃描下圖二維碼觀看。

你以為這就結束了?

不!還有驚喜福利還沒放出。

為答謝新老學員們對於AI慕課學院的支持,小慕特推出「贈書」活動。

轉發下圖(黃鐵軍教授)海報到朋友圈集贊,截圖發公號後台,我們將贈送點贊量最高的2名童鞋,「腦機介面之父」米格爾·尼科萊利斯的最新書籍《腦機穿越》



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦