原作者 Karla Lant
編譯 CDA 編譯團隊
本文為 CDA 數據分析師原創作品,轉載需授權
前言
最近,關於 Facebook 的兩個聊天機器人學會了相互交談,接著 Facebook 人工智慧研究院(FAIR)關停該「失控」 AI 項目的新聞滿天飛,人們也開始恐慌機器人是否會像電影中那樣將主宰世界。
一個網站寫道: 「 Facebook 的工程師們驚慌失措,在機器人開發出自己的語言之後,將其關停了。」 另一個網站補充到「在 AI 發明了自己的語言之後,Facebook 關閉了它。」 「人類剛剛創造了科學怪人嗎?」 另一個寫道。一家英國小報引用機器人學教授的話說,這一事件顯示出「人工智慧的危險」,如果將類似的技術運用于軍事機器人,後果「可能是致命的」。
不禁讓人聯想到機器人革命,殺手機器人,惡意人工智慧和人類滅絕等等概念。那麼事實的真相是怎樣的呢?
秘密的語言
最近,Facebook 打算開發可以與人類協商的聊天機器人。6 月,Facebook 人工智慧研究院(以下簡稱 FAIR )的研究人員注意到,人工智慧機器人已經自發地開發了它們自己的非人類語言。
在一份研究解釋的報告中,他們指出,這一發展源自於系統提高談判策略的目標,聊天機器人使用的代碼系統是為了最大程度地提高其溝通效率。
儘管機器人可以說英語,研究員意識到他們犯了一個錯誤,那就是沒有鼓勵聊天機器人根據人類理解的英語規則進行交流。換句話說,系統沒有理由堅持使用英語,因為這並不利於實現其成為高效談判者的最終目標。事實上,系統有多種動機來偏離該語言,就如同人類群里利用專業知識等,創造和使用速記來更快更有效地討論複雜的問題。
這種行為應該是可以預測的。從某種意義上說,這是一種非常人性化的適應,因為其目的是提高性能和減少付出,這正是人類的大腦所擅長的。
圖片來自:Facebook 人工智慧研究院(FAIR)
翻譯一下就是:
Bob:我可以我其他一切事……
Alice:球對我來說對我來說對我來說對我來說對我來說對我來說對我來說對我來說是零。
正如在 6 月的文章中解釋的那樣,研究人員可以輕易的破譯該新語言,因為它是基於英語的,但是他們不能確定翻譯的百分之百正確。「重要的是要記住,目前還沒有人同時精通人工智慧和人類的語言,」 FAIR 的 Dhruv Batra 說道。這種新語言也沒有達到研究的目的。「我們關注的是讓機器人能與人交談,」 FAIR 的研究科學家 Mike Lewis 解釋道。
談判系統的 GUI,Gif 來自 Facebook 人工智慧研究院
這些機器人除了討論彼此該如何將一系列給定項目(在用戶界面中表示為無害物體,如書籍,帽子和球)分配成雙方滿意的結果,除此之外沒有做出任何值得人們驚慌的事情。
最後,研究人員決定他們重新設計了訓練機制,避免其偏離英文的行為,保證機器人一直使用可識別的語言。媒體就對這一改變添油加醋,炮製了引發擔憂的頭條,高呼研究人員不得不停止實驗。
AI 的未來
獨立語言最初自發的發展突顯了我們還很不了解人工智慧,這也是關於人工智慧研究爭議的一個重要部分。毋庸置疑,人工智慧能夠幫助我們,而且很少有人質疑這項技術會繼續發展下去。然而,我們準備與人工智慧共享世界的方式,以及對人類來說這個世界是否是安全的,這仍舊存在很大的爭議。
可以肯定的是,許多關於人工智慧的恐懼更多的是基於科幻小說而非事實。根據牛津大學人工智慧教授、開放數據研究所的主席 Nigel Shadbolt 的說法,「我們最需要考慮的是,對現有人工智慧系統的硬體、軟體和部署策略實行的限制和保障措施。」但你下一個所遇到具有自我意識的電腦只會出現在電影中。
在 FAIR 和其他地方出現的語言問題正好屬於限制和保障的範圍之內。我們是否應該允許人工智慧為了提高性能,而開發特定任務的專業語言,即使這意味著我們無法真正理解它們的意思?
許多專家敦促我們需謹慎行事。喬治亞理工大學人工智慧研究人員 Mark Riedl 告訴 Future of Life,人工智慧訓練優化獎勵的方法,最終可能導致將人類視為其優化計劃的威脅。
對人工智慧發展的最強烈的警告來自 Elon Musk 和 Stephen Hawking 。他們爭論中最突出的一點是,當我們察覺到風險時,可能為時已晚。
Ref:
在人工智慧的浪潮中,我們會失業嗎?