search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

為什麼說人工智慧想要取代人類還很遙遠?

導讀: 人工智慧會做很多事情,但我做的它不一定會,或者它做這些常常出問題,需要我處理,又或者是我需要訓練它學習新任務。這三個階段再進一步,就是人類能放心將任務完全交給它的時候。

OFweek機器人網訊:人工智慧會做很多事情,但我做的它不一定會,或者它做這些常常出問題,需要我處理,又或者是我需要訓練它學習新任務。這三個階段再進一步,就是人類能放心將任務完全交給它的時候。

為什麼說人工智慧想要取代人類還很遙遠?

人工智慧誕生有61年,但它從高冷科技到被吃瓜群眾圍觀也就是這幾年的事。我們可能一直在媒體上看到人工智慧做各種各樣的事,文可遣詞造句寫文章,武能扛槍指揮上戰場。所以總有一種聲音在告訴我們:人工智慧總有一天什麼都能做,到時候你就是它寄生的一部分,甚至被它控制。

但近期的一系列事件在告訴我們一個相反的結論:談論人工智慧取代人類還為時尚早,至少有一些問題需要解決。

人工智慧有一個最基本的優點,就是能在長時間的工作中保持中立和準確性,這也是很多公司開發人工智慧的一個主要原因。比如說,IBMWatson認知計算平台用於醫療的效果很不錯。但不是所有的人工智慧都那麼靠譜,比如近期用於Facebook消息流的人工智慧就捅了簍子。

Facebook的趨勢新聞版塊一直被人指責有嚴重的政治偏向,後來Facebook炒掉了整個合同工編輯,原來的編輯工作完全由人工智慧代替,但沒過幾天,人工智慧就闖了大禍:它給趨勢新聞版塊推送了一條假新聞,宣稱福克斯電視台解僱了一名著名主持人,並且稱該主持人是「叛徒」,在Facebook修正錯誤之前,可能有數百萬用戶看到了假新聞。

而後續更令人驚訝。Facebook為了人工智慧炒掉了整個人類新聞編輯團隊,在假新聞事件發生之後,有三名原新聞編輯站出來宣稱,在他們被解僱之前,Facebook力推的新聞演算法其實並不完善,甚至有編輯爆料,原來他們審核人工智慧演算法推薦的新聞時,發現演算法推薦的50篇文章一般只有20篇才是真新聞,而且這20篇新聞來源也不夠權威。

這個事例中,人工智慧可能沒有人類編輯對新聞事件的好惡偏向,但新聞本身的準確性大大降低,直接影響了新聞推薦的質量。編輯們表示,除了工程師不斷提高演算法,編輯對於人工智慧系統的訓練也是不可或缺的,但這裡的人工智慧沒有經過充分學習,就被Facebook出於新聞中立性的考慮被急急忙忙推出來見人了。

後來的事情更是嚴重:Facebook推出人工智慧新聞演算法的時候正好撞上美國大選,然後爭議不斷的川普當選總統,各種對結果不滿的人開始指責Facebook:都是你們消息流上的假新聞幫川普勝選!這種說法可能有甩鍋的嫌疑,但Facebook上流行各種關於大選的假新聞倒是真的。

據說在歐洲一個叫「馬其頓」的國家,一些青年靠建立假新聞網站、編假新聞來掙廣告費,而傳播假新聞最快的途徑就是通過Facebook。現在,被罵的狗血噴頭的Facebook開始採取各種措施打擊假新聞,效果如何,還尚待時日證明。

這件事情告訴我們,人工智慧完全成熟需要時間打磨。技術人員需要不斷改善人工智慧的演算法;更重要的是,人工智慧做到模仿人類思維必然有一個學習的過程,而絕大多數的學習過程是通過人類訓練而進行的。

目前各大科技公司開發人工智慧的時間還不夠長,相應的系統學習也沒有那麼成熟,可以說是相當於幾歲或者十幾歲少兒的水平,讓這樣的系統承擔成人才能做的工作,可能超出了目前系統的承擔能力。

相比人工智慧本身缺陷導致的錯誤,這一條目前還不太為人所注意,但仔細想想,黑客入侵系統對於人工智慧是個顯而易見的威脅。作為以各種演算法為基礎的系統,一定存在被黑客攻擊的可能。

黑客目前可能最常用的攻擊手段就是欺騙人工智慧。近期的各種電信詐騙告訴我們人類本身也不是時刻都保持聰明,對於缺乏完全思維能力的人工智慧更是如此。在這方面,黑客把欺騙手段可以玩出花樣。

比如說,美國的研究人員可以通過生成的3D模型欺騙人臉識別系統。這些研究人員首先在社交網站上收集人臉照片,通過這些照片製作人臉3D模型,並加入面部表情或者眨眼之類的小動作,至於皺紋之類的面部細節可以偽造,這樣生成的人臉3D模型在55%到85%的測試時間中可以騙過五分之四的人臉識別系統。

除了欺騙人臉識別系統,黑客還有可能攻擊自動駕駛系統。比如曾經就有黑客利用特斯拉Autopilot系統漏洞,成功「催眠」特斯拉。

如果這個系統本身就不夠成熟,那就搞笑了。曾經有記者測試一個剛起步的人工智慧投資機器人,結果這個機器人為記者虛構的創業項目要扔1400萬美元。

所以說,目前再厲害的人工智慧,還是有被欺騙的可能,至少我們不能將它作為唯一的依靠來判斷事情或者做決定。

談到「明辨是非」,對於目前的人工智慧來說可能要求太高,畢竟連人類都不能做到永遠明辨是非。有人甚至害怕,如果讓人工智慧明辨是非,就意味著人工智慧有了自己的判斷和好惡,這樣它就不能完全聽人類的話,甚至有背叛人類的可能。

其實沒那麼玄。之所以讓人工智慧學會明辨是非,是讓它能夠判斷出人類讓它做的事情本身是對的還是錯的。

一個不會判斷是非的人工智慧,可能會變成某個居心不良的人的殺人工具,會無條件執行惡人的命令;即使問題沒那麼嚴重,也有可能是這麼一種情況:一個記性不好的老人讓人工智慧機器人給花澆水,但實際上機器人剛剛給花澆過水了。

讓人工智慧判斷命令背後的風險,並且避免風險,是人工智慧真正變成「智能」的重要一步。目前其實有人注意到這一點,他們試圖開發能讓人工智慧做出簡單判斷的控制技術,還有人提出要給人工智慧教道德和法律。

但目前,相關的技術還在開發中,至於教授道德法律,科技巨頭為此專門召開會議,試圖制定人工智慧的道德規則;而歐洲議會也推進關於自動駕駛和人工智慧的相關法案,明確發生相關事故后的責任,並且要求人工智能機器人要加裝「自毀按鈕」。但這些努力目前都只是個開始。

美國科技雜誌《連線》前主編凱文·凱利曾經在他的書中寫到,人類對人工智慧的心態有7個階段。目前我們對人工智慧的心態可能是這樣的:

人工智慧會做很多事情,但我做的它不一定會,或者它做這些常常出問題,需要我處理,又或者是我需要訓練它學習新任務。這三個階段再進一步,就是人類能放心將任務完全交給它的時候。

在筆者看來,跨越前文所述的三個問題,人工智慧才能完全承擔人類給它的工作。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦