search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

AI未來如何應對人類的欺騙?

人工智慧正以可預見、不可預見的種種形式無孔不入地涉足社會的各個層面,這既讓人興奮,也讓人不安。我們能夠預測到這樣的情緒反應,但我們真的能夠預測到人工智慧所涉及的相關風險嗎?

假若現在是2022年,你乘坐一輛自動駕駛汽車,按照每日的常規路線行駛。你們來到了一處停車標誌前,這個地方其實已走過了上百次。然而這一次,汽車竟直接開了過去。在你看來,這塊停車標誌看上去和往常一樣。但對於汽車來說,它卻和其它停車標誌截然不同。你和汽車不知道的是,就在幾分鐘前,一名街頭藝術家在這塊標牌上貼了一張小貼紙。人眼或許注意不到,卻逃不過機器的「眼睛」。換句話說,這張小小的貼紙使汽車將停車標誌「看」成了完全不同的標誌。

可能聽起來很牽強。但近期研究顯示,人工智慧很容易被類似的方法糊弄,「看見」的東西與人眼產生巨大偏差。隨著機器學習演算法在交通、金融和醫療體系中運用得越來越多,計算機科學家希望在不法分子真正動手之前、找到對抗這些攻擊的方法。俄勒岡大學計算機與信息科學助理教授丹尼爾·洛德(Daniel Lowd)說:「機器學習和人工智慧領域對這一問題感到十分擔憂,更何況這些演算法被運用得越來越普遍。」智能機器是否會失靈、或受到黑客控制,取決於機器學習演算法「了解」世界的方法。若機器受到干擾,就可能將熊貓看成長臂猿,或是將校車看成鴕鳥。法國和瑞士研究人員開展的一項實驗顯示,這樣的干擾可導致計算機將松鼠看成灰狐狸,或將咖啡壺看成鸚鵡。

機器學習演算法了解世界的過程其實與此類似。要使計算機探測到某種信息,科學家會先向計算機中輸入成百上千條實例。機器篩查這些數據時(如:這是一個數字;這不是數字;這是一個數字;這不是數字),便可逐漸了解該信息的特徵。很快,機器便能準確得出「圖片上是數字5」這樣的結論。懷俄明大學與康奈爾大學的進化人工智慧實驗室開展了類似研究,使人工智慧產生了一系列視覺幻覺。這些圖片中的抽象圖案和色彩在人眼看來毫無意義,計算機卻能迅速將其識別為蛇或步槍。這說明人工智慧「眼中」的物體可能與實際情況大相徑庭。各種機器學習演算法都存在這一缺陷。不法分子只需將相應的機器學習演算法弄到手,便可編寫出用來進攻的數據。但要想騙過演算法,其實並不一定要這樣做。黑客可以強行發起攻擊,反覆調整同一封郵件、或同一張圖片,直到混過過濾系統。長此以往,黑客便掌握了過濾系統搜查的關鍵信息,然後編寫出可矇騙這些系統的數據。

人們通常以準確度評價機器學習演算法的好壞。正確識別物體的概率越高,程序就越出色。但一些專家認為,我們還應考察演算法抵禦攻擊的能力,越不易被攻破就越出色。麥克丹尼爾建議:「機器學習系統是推理的工具,我們需要對機器反饋的信息作出聰明和理性的判斷,而不是當作真理。」(科技新發現 康斯坦丁/文)



本文為作者原創,未經授權不得轉載



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦