search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

用人類智慧應對人工智慧挑戰

導讀: 關於人工智慧的變革威力,人們提出了很多大膽的設想。但我們也有必要聽聽一些嚴重警告。上月,微軟研究院(Microsoft Research)首席研究員凱特?克勞福德(Kate Crawford)警告稱,如果被威權政府濫用,威力與日俱增的人工智慧可能會釀成一場「法西斯夢」。

關於人工智慧的變革威力,人們提出了很多大膽的設想。但我們也有必要聽聽一些嚴重警告。上月,微軟研究院(Microsoft Research)首席研究員凱特?克勞福德(Kate Crawford)警告稱,如果被威權政府濫用,威力與日俱增的人工智慧可能會釀成一場「法西斯夢」。

克勞福德在SXSW科技大會上表示:「就在我們看到人工智慧的發展速度呈階梯型上升時,其他一些事情也在發生:極端民族主義、右翼威權主義和法西斯主義崛起。」

她表示,人工智慧可能帶來龐大的數據登記冊、針對特定人口群體、濫用預測型警務以及操縱政治信仰。

克勞福德並不是唯一對強大的新技術被錯誤使用(有時以意想不到的方式)感到擔憂的人。英國政府首席科學顧問馬克?沃爾波特(Mark Walport)警告稱,在醫學和法律等涉及細膩人類判斷的領域不假思索地使用人工智慧,可能帶來破壞性結果,並侵蝕公眾對這項技術的信任。

儘管人工智慧有增強人類判斷的潛力,但它也可能帶來有害的偏見,併產生一種錯誤的客觀感覺。他在《連線》(Wired)雜誌的一篇文章中寫道:「機器學習可能會內部化在量刑或醫療歷史中存在的所有隱性偏見,並通過它們的演算法外部化。」

就像一直以來的情況那樣,識別危險仍然要比化解危險容易得多。沒有底線的政權永遠不會遵守限制人工智慧使用的規定。然而,即便在正常運轉的基於法律的民主國家,框定適當的回應也很棘手。將人工智慧可以做出的積極貢獻最大化,同時將其有害後果降至最低,將是我們這個時代最艱巨的公共政策挑戰之一。

首先,人工智慧技術很難理解,其用途往往帶有神秘色彩。找到尚未被行業挖走、且不存在其他利益衝突的獨立專家也變得越來越難。

受到該領域類似商業軍備競賽的競爭的推動,大型科技公司一直在爭奪人工智慧領域很多最優秀的學術專家。因此,很多領先研究位於私營部門,而非公共部門。

值得肯定的是,一些領先科技公司認識到了透明的必要性,儘管有些姍姍來遲。還有一連串倡議鼓勵對人工智慧展開更多政策研究和公開辯論。

特斯拉汽車(Tesla Motors)創始人埃隆?馬斯克(Elon Musk)幫助創建了非盈利研究機構OpenAI,致力於以安全方式開發人工智慧。

亞馬遜(Amazon)、Facebook、谷歌(Google) DeepMind、IBM、微軟(Microsoft)和蘋果(Apple)也聯合發起Partnership on AI,以啟動更多有關該技術實際應用的公開討論。

谷歌DeepMind聯合創始人、Partnership on AI聯合主席穆斯塔法?蘇萊曼(Mustafa Suleyman)表示,人工智慧可以在應對我們這個時代一些最大挑戰方面發揮變革性作用。但他認為,人工智慧的發展速度超過我們理解和控制這些系統的集體能力。因此,領先人工智慧公司必須在對自己問責方面發揮更具創新和更主動的作用。為此,這家總部位於倫敦的公司正在嘗試可驗證的數據審計,並將很快宣布一個道德委員會的構成,該委員會將審查該公司的所有活動。

但蘇萊曼指出,我們的社會還必須設計更好的框架,指導這些技術為集體利益服務。他在接受英國《金融時報》Tech Tonic播客的採訪時表示:「我們必須能夠控制這些系統,使他們在我們希望的時間做我們想做的事,而不會自說自話。」

一些觀察人士表示,做到這點的最佳方法是調整我們的法律制度,確保人工智慧系統可以向公眾「解釋」。從原則上說,這聽上去很簡單,但實際做起來可能極為複雜。

布魯塞爾自由大學(Free University of Brussels)法律和科技學教授米雷列?希爾德布蘭特(Mireille Hildebrandt)表示,人工智慧的危險之一是我們變得過度依賴我們並不完全理解的「不用腦子的智慧」。她認為,這些演算法的目的和影響必須是可測試而且在法庭上是可爭論的。她表示:「如果你無法有意義地解釋你的系統的決定,那麼你就不能製造它們。」

我們將需要更多的人類智慧來應對人工智慧挑戰。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦