search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

CCAI 2017 演講實錄丨Hans Uszkoreit:機器學習在商務智能中的創新應用

7 月22 - 23 日,由人工智慧學會、阿里巴巴集團 & 螞蟻金服主辦,CSDN、科學院自動化研究所承辦的第三屆人工智慧大會(CCAI 2017)在杭州國際會議中心盛大開幕。

大會第二天德國人工智慧研究中心(DFKI)科技總監、北京人工智慧技術中心(AITC)總監兼首席科學家Hans Uszkoreit發表了主題為《機器學習在商務智能中的創新應用》的演講。

Hans Uszkoreit介紹了如何分析各種來源的數據,用於執行眾多的商務智能任務,如供應鏈監控、市場調研和產品管理等。其所討論的方法包含了不同類型的機器學習和基於知識的自然語言理解技術,充分利用知識圖和各種其他結構化數據源,實現信息的互為補充。

以下是Hans Uszkoreit的演講全文,AI科技大本營略做修改:

今天我將介紹目前人工智慧的兩個主要方向,基於行為的學習和基於知識的學習;另外我會講一下商業智能以及工業4.0、開放數據與企業數據,以及開放的知識圖譜和企業知識圖譜;接著我會介紹文本分析的大數據方法、文本數據理解中的機器學習和結構化知識;最後我會講一下機器學習機器前景,這個大家已經看到很多了。

兩種不同的系統

我們看到,有很多的新聞都在報道人工智慧在深度學習上所取得的一些成功,這已經聽說過很多了。這些成果涉及人工智慧各個方面,如語音、文本和自動駕駛等,深度學習似乎正在改變我們的生活,確實也是如此。

但我們還有另外一種系統,這就是IBM的Watson,它在一個美國很著名的綜藝節目裡面獲勝了,他們沒有進行任何深度學習,它只是IBM系統的成功。Wason是另外一種系統,它可以掌握大量的結構化的知識,將非結構化知識當作結構化知識使用。

我們看到有兩種不同的系統:在人工智慧歷史上很多系統都是基於知識的系統,有一種系統更多的是針對比較小群體的行為,比如說使用基於規則的專家系統來檢查信用的,且已經用了很多年了;還有一種系統,在進行機器學習之前做研究行為,我們見到的更多是經典的反應性機器學習。

後來在90年代的時候,機器學習崛起,並在2000年之後變得更加的成功,也有很多的分類還有方法,我們現在的話在兩側都有機器學習。比如像谷歌的機器翻譯,還有很多新的系統是用於自動駕駛,另外還有語音理解。

所以說,像人工翻譯只能理解它能夠理解的東西,但是谷歌的某些機器翻譯是像鸚鵡學舌一樣進行學習,他們學習特定的行為。但是,它們對語言本身沒有任何理解,它們本身也沒有的固有知識,有的只是隱性知識。因此它們無法理解中文或中文的屬性。

另外,我們還有一種是IBM的Watson和聊天機器人,它們需要控制大量的結構化知識,而且這些知識是動態的,將這些知識放到深度學習多層神經網路中並不是優選的策略。DFKI也是這樣一種系統。

未來我們會開發出一些可以作預測的超人類人工智慧,可以更好地結合兩者,這是我們接下來的重要一步。我剛才已經說過這些系統沒有真正的知識,所以說我們把它叫做「狹義人工智慧」。比如,系統不能做些其他系統的任務:能下圍棋的系統不能做翻譯,能翻譯的系統不能做駕駛,能駕駛的系統不能做翻譯。

機器可以模仿和學習人類的行為,比如說學習世界頂級棋手的下棋方式;我們駕駛的系統可以從人的駕駛行為中學習,並能避免發生事故;翻譯的機器人可以同時翻譯幾十種不同的語言,人是做不到這一點的。

但是機器還是無法模仿四歲兒童在一小時內的行為。四歲兒童懂得的知識雖少,但他所有這些知識是可以重新再利用得,比如說他可以從冰箱里取出東西或放回去東西,他也能夠回答關於冰箱的一些知識。目前我們的深度學習沒有這種可再利用的知識。

拿生活當中的人類醫生來說,醫生在一生當要不斷學習很多知識,因為醫學在不斷地進步和變化。也許經過一段時間的發展,醫生看到患者身上出現多種癥狀的組合或生命體征的組合,他們有時會對化驗結果無法作出解釋。有很多人認為中醫很神奇,他們可以根據病人癥狀作出診斷,有很多的醫生是有這種直覺的,這種直覺可以幫你找到答案。這些答案雖然有可能是正確的,但是醫生不能夠解釋疾病根源。

我們知道深度學習也是這樣,知識的應用完全是由直覺而不是知識驅動的。區別就是要解決知識上挑戰的問題,人們需要理解。沒有理解的話我們不可能解決問題,其實如果能理解,你可能就已經找到問題的解決方案。很多的問題我們無法解決就是因為我們不理解問題,但是深度學習系統不同,它們沒有任何理解,完全依靠直覺解決問題。

基於人工智慧的商業分析應用

接下來我要講的是應用的部分:人工智慧商業分析。大家當中有很多人從事這個領域,以下是這方面的一些目標:

  • 過程監督,比如說像生產、物流等;然後是偏差分析;

  • 決策輔助措施選擇。大部分決策由人類的決策者作出,但是有一些決策時可以自動生成;

  • 為流程優化提供方案。這不是由人類進行的流程優化;

  • 預測性分析。用以協助作出預測和規劃,以及對半自動控制的預測性分析。在生產方面不需要人就可以進行優化的情況很少,比如說物流、機器部件的運動,材料的高效利用等,如果要做長期規劃的話,還是需要由人類完成。

但是,經常會有人問一個問題:商業分析和工業4.0之間有什麼區別,大家可能在聽說過工業4.0,現在非常流行,但是對這方面的討論也許並不深入。

在德國我們進行了很多討論,因為這個詞就來自於德國,其實是DFKI(德國人工智慧研究所)的CEO也就是我的老闆提出的。我是在柏林中心,我們的老闆是負責5個中心。他找了兩個人,一個來自於行業,一個來自政府,這個詞就是是他們想出,他們覺得這是第四次工業革命。第三次是計算機革命,而第四次工業革命就是通過物聯網把所有的機器緊密連接在一起。我們要創造的是完全數字化的企業,不止是有互聯,同時是完全數字化的工廠。我們等會兒來看看這兩個東西怎麼樣進行結合。

這邊有兩個詞是我經常會提到的。

另外的話還有智能工廠,這是工業4.0的一個概念,裡面包含了很多組成部分。在智能工廠裡面,所有的設備、產品都是通過物聯網進行連接。所有生產是通過產品記憶來進行操作,產品在進行周轉時,機器會告訴它要做些什麼。無需對機器進行重新編程,機器通過產品學習。產品周轉到一個設備之後,機器會告訴設備要對它進行什麼操作,所有這些流程都是通過協作來完成的。比如說一個產品來了之後可以等待一段時間,這是通過技術互聯來實現的。

另外我們還有智能移動、智能物流、智能電網、智能建築,所有這些結合在一起形成一個空間。實際上商業分析就是要收集智能工廠里的數據。現在對商業分析最為重要的是把企業內部和外部的數據結合起來。但是卻被大多數人忽視,因為現在人們主要關注的是怎麼樣把企業本身進行數字化,以及怎麼把生產、規劃、物流等企業運作流程數字化,利用演算法來和數據流進行管理。

但是對公司來說,最為重要的是公司以外的東西,為什麼是這樣呢?因為出錢的客戶在公司外,供應商也是,甚至工人下班之後也要回家,也是就是到了公司外部。另外政策制定者、稅務人員等都是在企業外部。所以智能的核心就是把這些內部的信息和外部的信息結合在一起,先是把外部的數據和內部的數據進行對接。比如說我們產品的一些功能不太受歡迎,我們就生產大量沒有改功能,這樣才能夠適合外部的需求,這樣的話就可以簡化問題。很多東西都是基於外部的,接下來我們來看下一點。

現在我們正利用人工智慧化進行企業內外數據的連接,現在這兩類數據結合的還不是很好。總體而言,社會完成數字化轉型也包含兩部分內容。一部分是內部的東西,比如說網路物理系統、物聯網、智能企業,另外還有開放領域的東西,比如語義網路、數據和知識社區。我們在企業內部談論的是資料庫或數據中心,企業通常有很多關於消費者產品、財務的數據,在外面的話是完全不同的資料庫,比如維基百科等。這些資料庫屬於不同的世界,現在還沒有結合在一起。

結構化的知識

我想說明一下圖中的「小泡」,也就是是開放數據連接「小泡」。我不知道你們有多少人從事這個領域,我之後可能會介紹。外部有很多東西,公司內部也有一些其他的東西,我們都知道公共知識有很大的增長,我們利用它可以做很多事情。如果說我們把整個維基百科中的東西都印刷出來,就像印刷出版《百科全書》那樣,那會是多麼龐大的工作。

公共知識為什麼對我們來說會如此重要?這些非結構化的數據以文本形式儲存在圖書館,因為收集整理這些數據是邁向數據結構化的重要一步。另外我們還有知識圖譜,比如谷歌將最早的免費知識圖譜進行完善,然後免費將其回饋給社會,還有像Bing、百度等也在做這項工作,這跟建造工廠不是一回事。

如果說現在隨機選擇一個美國的搜索引擎進行搜索,我們會在搜索結果頁面的右側看到一些小框,它們並不來自於文件,左邊是來自於文件,是典型搜索引擎的搜索結果。在右邊我們看到的東西其實都是來自於知識圖譜的非結構化知識。

現在有越來越多的團體和企業想要來做這樣的一些知識圖譜,我這邊列出了一些。第一個Yago是在賽爾布魯肯,非常有名。第二個是DBpedia,他們在歐洲做開放資料庫,他們努力將很多領域的知識集中在一起。我們也跟他們有合作。Freebase還在但是大不如前,它已成為wikidata的一部分。大家可能都知道wikidata,當然也有些人並不知道,wikidata積極倡導將非結構化知識轉化為結構化知識,它在此類項目中是最大的。Wikidata基金位於柏林,我們和他們在相關項目上有非常密切的合作。我在這裡就不說Google Knowledge Vault了,因為它已不再那麼乾淨了,其中部分或大部分都是自動收集的數據。

上面這張圖其實有好幾年的歷史了,為什麼沒新的呢?這張照片的每一個小泡泡,都是一些基於數據的語意知識或者結構式知識庫,其實一些像是Web 3.0,一些更像是語意網路,還有一些更像是資料庫。但是其實它們在語意上面都是相互聯繫的,形成相互聯繫的開放數據。每個小泡上都至少有一種聯繫將其與其他小泡連接在一起,在這麼多泡泡當中,你會看電影資料庫、名人信息資料庫,化學元素資料庫等等。為什麼已經過了好幾年我們還在用這張圖?因為現在這樣的一張圖沒有辦法再把其他這幾年新的內容加進去,這張圖已經容納不下了。

我們把DBpedia的資料庫放在中心,因為他們正在努力將其他的資料庫連接起來。在我們自己的項目當中,我們做了一個嘗試,希望能夠在工業應用中將不同數據類型連接在一起,一些我們使用方法是和 DBpedia的方法相同,用以解決一些行業問題。

從這邊我們可以看到,有一些比較特殊的一些數據,這些數據你只能和大公司合作才能獲得,比如你在阿里、京東工作,或者是大型的物流企業,電信企業的話。但是右手邊的數據就便宜的多,比如像氣象學數據、媒體新聞數據、地理數據和衛星數據等,這些都非常容易獲得。但是圖最上方的是科學知識、知識社區(包括維基百科)、其他開放數據等,藍色方框中的是企業內部的數據。如果將不同來源的數據整合在一起,就會帶來巨大的價值。

如果我們要為某一地區開發一個運輸分析APP,我們可能會用到交通數據和開源知識社區數據,後者會為你提供開放式街景圖、場所、產品類型、包裝等等一些信息。還有就是氣象學數據,因為對運輸而言,氣象非常的重要。你還可以從物流公司獲取地理數據和衛星數據。如果能夠垂直整合這些數據的話,你就能夠做出非常棒的產品。

為什麼要重視非結構化數據

接下來我想簡單的介紹一下大家可能聽過的一些內容,如果大家不熟悉的話我想再說明一下為什麼非結構化的數據能夠扮演如此重要的角色。在商業分析的領域當中,人們希望能夠藉助時間序列、回歸等等聽起來很酷炫的機器學習辦法來分析問題,這可能是一些銷售噱頭,但是這個不重要。

我想說的是,為什麼圖中會有這麼多的上升和下降?企業使用諸如真實氣象數據這樣的數字數據,希望能找到更多的商業營銷賣點,可以賣冰激凌也可以賣雨傘。但是獲取再多這樣的數據也無法解釋一切事件。如果我們獲取更多的數據,如新聞和推特數據,那麼就能搞清為什麼會出現某些高峰或低谷,並將它們與真實生活中發生的事件聯繫在一起,比如說是關於紐約新港港口和船隻博覽會的新聞和推特數據。

我們再來看一下醫療數據,醫療數據現在大多是數字數據和圖像數據。但是如果沒有醫生的報告將相關的事件、發現和假設提取出來,這些數據就沒多大用處。因此只有將非結構化數據和結構化數據結合起來,才能解決問題。這就是我們以及Wikidata、DBpedia現在希望完成的工作,我們嘗試將信息提取出來並儘可能將其轉換成結構化數據,將它們放在知識圖譜中。

如果我們看一下文獻信息提取,就會發現人們試圖涵蓋所有東西,比如說從某些對話(如客戶關係管理)中提取主題和答案,再重複利用提取出的答案。我們還可以提取名稱、事實、事件、意見和情緒等。現在我們有這樣一個項目,我們在該項目和它的幾個子項目中與很多先鋒公司和大公司進行了合作,如西門子、萊比錫大學等等。還有一些外部的合作夥伴,像WIKIMEDIA、Wikidata基金等等。我們也和提供商業數據的公司進行了合作,如BBD柏林數據中心、WVC德國和奧地利分公司。

下面介紹一下我們在這個項目中所使用的方法:

  • 將企業內部數據與開放數據、開放知識和新媒體(比如新聞媒體、電視、社交媒體)內容進行整合

  • 將知識圖譜和開源辦法和工具連接起來

  • 將數據分析整合到強大的大數據技術中;因為不久以後數據就會變得非常龐大,無法用常規的技術進行處理。

  • 結合使用結構化方法、統計方法和深度學習分析異構數據;

  • 為新型數據價值鏈構建可行商業模型和法律框架。在歐洲幾乎一切成果都受嚴格的知識產權保護,同時也受數據隱私和數據安全方面的權利保護。因此我們與律師們進行合作,如果沒有他們,我們就無法在歐洲完成如此龐大的工作。

我們從互聯網上獲得數據包括非結構化數據、半結構化數據以及企業內部數據。這張圖其實是很典型的知識圖譜,我們所做的就是要把不同來源的數據輸入到這個知識圖譜中,然後得出整合后的知識圖譜,將其擴展為公共知識圖譜,這基本就是這個項目的原理。

這個圖就不贅述了。這是一個企業內部語義網,它定義了企業之間,企業與產品之間,產品和科技,科技和科技,企業內部人與人之間關係。最後就會得到一張這樣的知識圖譜,現在應用在供應鏈關係和市場調研中。

我們還在其他領域應用了相同的方法,但是從這個項目來看的話,更多是和應用有關的,這個是另外一個項目了,我們在其他項目中也有相關應用。我們使用的數據包括:交通數據、開源數據、媒體數據、採購數據等等,可以利用得其他數據還有很多,這已經足夠多了。

我之前也跟大家談到,這樣的發展是非常迅速,外部的數據越來越多,你要把所有的數據嵌入到大數據,我所在的DFKI柏林中心的大數據部門的主任也成立了這樣的一個小組,專門做了一個大數據的平台。我們可以使用其他的大數據平台,為什麼要使用Apache Flink這個平台?不僅是因為他本身就是Apache Flink的開發者,而且還因為這個平台非常擅長於數據流處理。相比之下,Spark在流處理時只是將數據分成一個小批次進行處理,並不是真正的流處理。如果我們要進行實時數據的流處理的話,它就不如Flink,這就是為什麼我們最後選擇了Apache Flink。

我們將工具挖掘(mean crawling)外包給了一家公司,我們對語義工具進行過濾,然後再進行預處理、實體發掘和聯繫以及事件提取,最後得出可以用在多個項目中的KPI。接下來我們再談談實體聯繫,這項工作極具挑戰性,這個系統是我們幾年前構建的,並在2015年的時候獲得一個獎,我們這幾年一直在做改善該系統,效果也不錯。比如說阿姆斯特朗這個名字,它可能是指搖滾樂手、宇航員等,我們將內部知識和外部知識聯繫起來,識別出來誰是你想查的那個人。微機百科也要使用,有的企業數據結構化,對於這樣的信息我們也會整體在實體聯繫的結果當中。

方法論這塊待會兒再來談,這是一種混合優化和深度學習的方法,多目標優化在處理聯繫和歧義方面做的比深度學習好,在處理動詞時,我們則使用深度學習。在消除動詞時態歧義時,我們就使用的是深度學習,因為並沒有太多上下文可以依據。對於數值優化,傳統的一些辦法效果更好,但是在這個情況下可能做不到那麼好。

現在在動詞時態消除歧義和實體聯繫上,幾乎所有人都聲稱自己做的更好,但是從我們個人角度來說我們從來不說自己做的最好,我們在所專攻的領域上做的的非常好,其中一個領域是:進行關係提取以獲得事實。我們希望學習關於公司的事實,比如說:哪一個供應商有問題,哪一個供應商瀕臨破產,哪一個供應商出現了罷工問題,以及哪家公司在發布新產品。在這方面,我們使用的是語言學最小限度遠程監督機器學習(Minimally and Distant Supervised ML for Linguistic)。

和其他人一樣,我們從語言處理監督學習研究人員先前提出的事實開始著手,最早的是斯坦福大學研究人員發表的論文。我們怎麼做的?其實跟他們不太一樣,我等會在向你們說明。我們獲取了數千個事實,然後在谷歌搜索引擎上進行搜索,在得出的搜索結果網頁中,把句子斷句之後確定句子的相依性,然後通過複雜的模式提取機制進行提取,剛開始的時候這種機制並不理想,許多機構在這裡敗下來,因為這種機制通常只能適用於短句、斷句的語意分析。我們使用了語義知識圖譜,例如Wordnet,用其中的資源進行過濾以確保提取出的內容具有語義上的模式。

舉一個例子,一個人跟另外一個人結婚,會有很多不同的模式,實際上有數千種不同的模式。為什麼模式研究很重要?因為這些模式將我們與知識聯繫在一起的,我們現在已經把模式和語句進行了匹配,最後我們會得到一個模式圖,其中橙色框中的內容是給出了我們希望找出的關係,然後我們再基於這麼多的關係來進行統計分析,例如頻率分析。

從上圖可以看出,我們整個處理流程是一個閉環。從實例開始,進行最小限度監督學習,然後再輸入搜索出來的更多實例,尤其是當你的實例達不到1萬個時,你可以進行最小限度的監督學習。當你有了很多的實例之後,我們可以把實例不斷的加進來,現在我們的系統可以把監督學習、無監督學習、最小限度的監督學習、遠程監督學習整合起來。

很簡單,你只需將帶標籤的陳述(tagged mentions)加到解析器(Parser)中,當你把這樣的樣本加進來之後,整個系統就會自動跑起來。如果是有標籤樣本,你可以能夠去跑3次這樣的循環,因為我們有一個監督式、非監督、遠程監督的機器學習方法,可以做三次數據的分析。我們一開整合那麼多的機器學習的方法,是因為一開始的數據是有限的。現在我們的系統在日以繼夜地運轉,過去6個月當中我們也得到了很多不同的數據,現在已經涵蓋120萬個企業的實體知識庫,我們可以跟蹤他們的信號,我們採集的只有收到語義信號的企業的數據。

當然了從某些角度來看,這些數據並不是乾淨、有序的,因為這是結構和模式的混合式。但是在應用中,我們需要對比各種方法。方法由很多:有限狀態的方法(finite-state methods),混合優化,多對象優化,卷積神經網路等等。

但是很遺憾的是,現在我們的目標是將成果應用到實際生活中,我們必須從每種方法中找到最適合我們數據的部分。有這麼多方法,我們可以為深度學習領域或其他基於知識的英語中的從業人員提出很多不同的解決方案,從而實現早期應用。

我們在一些領域已經有一些應用,比如說AI輔助產品經理,我們可以從全球的信息化企業搜索他們客戶在想些什麼;我們還可以通過人工智慧進行供應鏈的管理;進行市場調研;輔助投資經理進行投資的管理。最後來看一下前景,我們有幾分鐘時間講講我們未來的前景,這就是我們的現實。我講的這些都是我們是能夠做到最好的,我不知道你們做的怎麼樣,我們正盡全力試圖將成果應用到我們的企業中。我們必須總和這些方法,因為每一種方法都不夠完美,比如說像機器學習、深度學習等。因此我們通過衡量每種方法挑選出當前最好的方案,但是未來會怎樣?

上圖是DFKI的CEO做的圖,我前面有講過工業4.0就是他的想法,他同時也是一名人工智慧研究人員。到1975年的時候,我們現在主要的是一些搜索、啟髮式的搜索和認知的一種方法,到1995年是基於知識的系統,人們試圖研究知識工程學並構建海量的知識,這非常困難,而且當時沒有足夠多的知識可以建立。

為什麼太困難?有兩個原因,一個是因為他們野心太大了,他們想添加太多邏輯;當時只有一個人想要建立這樣的知識,現在我們的知識系統是由數百萬人共同構建,所以說是非常不一樣的。到2015年的時候我們有了學習系統,非常大,現在的話也很大。我寫的是到2015年不代表到這裡就停止了,我認為這個系統在發展的就非常迅速。

它的意思就是說,如果回溯50年或100年,當時我們認為下一個浪潮是系統整合,就是把各系統的功能整合在一起。我一開始的時候忘了講,其實新系統有核心上不一樣的東西。很多系統通過數據來進行學習,同時他們還需要一些時間運行額外的數據,它們或許不夠穩定,或許是我們不知道怎麼樣進行選擇,它們也有可能太大、太活躍,可能還需要時間運行額外數據。例如,對於導航的話,是需要獲得一些天氣、路況的信息,這是動態的,沒有太多學習時間。如果說我們要獲得最新新聞,了解股市的最新變化。上圖是新的系統,重疊的部分就是我們所預測的真正變革,我認為我們看到的只是真正變革的一個重要信號,但是現在的話這個變革還沒有到來。

我們現在的系統只能做一些奪眼球的任務,對我們而言圍棋似乎很重要,但對這個社會來說還沒有那麼重要。我們可以研究對象識別,開發許多好的應用並利用這樣的能力幫助我們賺錢。但是在這個中心,我們會產生下一次革命,處理知識和數據的能力將實現飛躍。IBM的系統由Wason和有兩個機器人組成,這三者都無法連接至網路,相當公平。這兩個機器人就像我們的人一樣長有腦袋,Wason利用大量機器 和存儲從維基百科、字典、聖經、歷史書上面下載大量的信息,這就是未來。如果我們利用這種技術把行為學習和深度學習的力量結合起來,機器不會和人類一樣蠢,在某些方面必定是超級智能的,而且我們的大腦、知識和語言是通過變革不斷進化的,知識變革是後來興起的,如果能將知識變革和行為變革結合起來,就可以構建任何類型的革命性系統並快速複製這種行為,這種系統必定會非常強大。事實上人們已經在進行這項工作,並且不斷地在完善各種系統,

人工智慧會帶來什麼?

AI的巨大潛力是在於:

  • 可管理的語義技術;

  • 強大的學習技術;

  • 合適的表示媒介數學模型;我們不能低估它的能力,有些人認為只需提供原始數據就可以了,其他的機器可以幫你做,但是如果不理解圖片、視頻、語言、語音和內部結構,就不可能做出很好的系統。

  • 高效的大數據管理技術。例如Spark、Flink等;

  • 大量的有意義結構化和非結構化數據。如果綜合這些技術,再加上我們的一些方法,我們就可以利用不同的策略將深度學習與大型知識庫結合起來。我相信未來會出現更加智能的機器。AI不能取代人類,人工智慧無法完成策略規劃、創造性設計,不會做研究,也不會做智能管理。但是人工智慧夠讓有創意的人更加的強大。

最後我來概括一下我的預測,到底人工智慧會給我們帶來什麼?

它能激活巨大的經濟儲備,其他演講者已提及這一點,當前社會、產業、交通、醫療等領域中存在巨大的資源浪費問題。它能極大地增強人類認知。我們現在只有兩隻眼睛、兩隻耳朵,我們的腦袋也很小,我們的大腦很難記住兩三本書的內容,但是的機器是能夠輕易地記住數百萬本書的內容。另外的話我們也不知道其他地方在發生事情,機器可以告訴我們。它能解放異化勞動。藉助AI我們可以解放一些從事危險、繁重工作的勞動力,比如上周我在上海的演講中提及,社會要對未來的變化做好準備,一些低級工作將會被終結。有些工作崗位上的勞動者到了40歲,就開始希望早點退休,像這樣的工作就應該消失。

未來其他類型的工作則會產生巨大的需求,這是另一個話題。因為現在社會上的許多工作是需要的是人而不是計算機。事實上我們缺少的並不是勞動力,而是專家,但是我們沒有足夠的資金來招募這些專家。它能完善服務和知識型社會。它能加速知識變革。它能使我們的生活變得更好、更安全。

CCAI 2017更多精彩內容,歡迎點擊閱讀原文,一次掌握「現場微信群」、「圖文報道」、「視頻直播」、「PPT下載」以及「大會期刊」所有入口!



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦