search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

與其擔心AI超越人類 不如擔心低效的AI

AI 的發展很火熱,但 AI 研究者在面對這世界的時候經常會覺得難堪。這種難堪來自於各種知名的頂尖科學權威或者企業家,其中一些警示 AI 對於整個人類物種的威脅,其中就包括霍金和馬斯克。

最近一個發出警示的是愛丁堡大學的教授 Alan Bundy,但他的觀點卻和別人不一樣。通過計算機學會的雜誌《ACM 通訊》表示:AI 的威脅的確存在,但威脅並不是類人智慧 AI 的出現,正好相反,威脅來自於笨拙、低效、無能的 AI。

Bundy 寫道:近些年來人們花費巨資打造出來的 AI 用處很有限,它們根本不是什麼通用型的 AI。有人預言技術奇點會隨著線性智能模型 AI 的發展而臨近,就像所有物種的發展那樣,AI 也會隨著時間線性發展。但智能根本不是如此。智能發展的模型更像是一個多維度的空間模型,隨著時間遞進,智能會往多個方向發展。

而超人 AI 威脅說之所以吸人眼球就是因為沒人站出來發出反對的聲音。人們擁有通用型的智慧,看到電視上 Alpha Go 在圍棋中戰勝人類就理所當然認為 AI 有勝人的智慧。

Alan Bundy 之所以有這樣的立場或許也和他的經歷有關。當羅納德·里根在八十年代提出星球大戰計劃時他就是反對者之一。星球大戰計劃試圖利用一套全自動的 AI 系統檢測蘇聯的導彈發射。但問題是當時根本沒有這種能力的 AI,錯誤的假設會導致鳥群就能激活星球大戰計劃的檢測系統,進而引發核戰爭。Bundy 認為這就是典型的人們過度估計 AI 能力的絕佳例子。

星球大戰計劃概念圖

現在的危險很像八十年代,決策者和普羅大眾看到 AI 在某個狹窄領域的驚人成就,卻不明白當它們面對更寬泛的任務時會有多爛。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦