3C科技 娛樂遊戲 美食旅遊 時尚美妝 親子育兒 生活休閒 金融理財 健康運動 寰宇綜合

Zi 字媒體

2017-07-25T20:27:27+00:00
加入好友
AI 的發展很火熱,但 AI 研究者在面對這世界的時候經常會覺得難堪。這種難堪來自於各種知名的頂尖科學權威或者企業家,其中一些警示 AI 對於整個人類物種的威脅,其中就包括霍金和馬斯克。最近一個發出警示的是愛丁堡大學的教授 Alan Bundy,但他的觀點卻和別人不一樣。通過計算機學會的雜誌《ACM 通訊》表示:AI 的威脅的確存在,但威脅並不是類人智慧 AI 的出現,正好相反,威脅來自於笨拙、低效、無能的 AI。Bundy 寫道:近些年來人們花費巨資打造出來的 AI 用處很有限,它們根本不是什麼通用型的 AI。有人預言技術奇點會隨著線性智能模型 AI 的發展而臨近,就像所有物種的發展那樣,AI 也會隨著時間線性發展。但智能根本不是如此。智能發展的模型更像是一個多維度的空間模型,隨著時間遞進,智能會往多個方向發展。而超人 AI 威脅說之所以吸人眼球就是因為沒人站出來發出反對的聲音。人們擁有通用型的智慧,看到電視上 Alpha Go 在圍棋中戰勝人類就理所當然認為 AI 有勝人的智慧。Alan Bundy 之所以有這樣的立場或許也和他的經歷有關。當羅納德·里根在八十年代提出星球大戰計劃時他就是反對者之一。星球大戰計劃試圖利用一套全自動的 AI 系統檢測蘇聯的導彈發射。但問題是當時根本沒有這種能力的 AI,錯誤的假設會導致鳥群就能激活星球大戰計劃的檢測系統,進而引發核戰爭。Bundy 認為這就是典型的人們過度估計 AI 能力的絕佳例子。星球大戰計劃概念圖現在的危險很像八十年代,決策者和普羅大眾看到 AI 在某個狹窄領域的驚人成就,卻不明白當它們面對更寬泛的任務時會有多爛。

本文由yidianzixun提供 原文連結

寫了 5860316篇文章,獲得 23313次喜歡
精彩推薦