search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

誓讓要 AI 造福於人,谷歌 「PAIR」項目究竟有多靠譜?

雷鋒網導讀:兩天前的 CCF-GAIR 大會,香港大學席寧教授講道:「隨著技術的發展,智能機器人已經從簡單地替代人的能力,到擴展人的能力」。MIT 斯隆商學院的兩位著名教授 Andrew McAfee 和 Erik Brynjolfsson,也說過人工智慧時代的主題不應該是「Race against the Machine」(與機器賽跑),而是「Race with the Machine」(和機器一起跑)。

但我們如何才能並最小化 AI 給社會帶來的風險與陣痛?對此,谷歌成立了一個新項目 「PAIR」,入駐了一批谷歌大腦的頂尖科學家,試圖解決 AI 技術革命「造福於人」的終極挑戰。

前言

對於 AI 將會給人類社會帶來的變革,未來學家們畫下了許多大餅。但這些誘人的願景充滿了不確定性,以及潛在的陷阱。

比如,我們希望 AI 技術幫助人們合理、科學地做決策,但它有沒有可能反而加深社會的成見?我們夢想著 AI 把大家從九九六工作制里解脫出來,給上班族帶來工作與家庭生活的平衡,但會不會大多數好處都讓企業家、玩資本的得去,普通人的飯碗更加朝不保夕?

「奇點教父」Ray Kurzweil 把 AI 看做是未來三大「paradigm shift」* 技術里(AI、基因技術、納米技術),影響最重大、深遠的一個,也是直接引爆「奇點」的那一個。

Ray Kurzweil

因此,不難理解為什麼歐美公眾與社會學家,會對 AI 的社會、倫理影響如此在意。這給谷歌等 AI 技術先驅們帶來強大輿論壓力,迫使他們謹慎再謹慎,並考慮每一項重大 AI 突破將給社會帶來的後果以及副產品。

*雷鋒網()註:「paradigm shift」意味著科技的一輪更新換代,農業、蒸汽機、內燃機、電力以及互聯網,均屬於帶來 paradigm shift」的技術。

「PAIR」:溝通人與 AI

雷鋒網消息,為應對上文提到的種種挑戰,今日谷歌宣布了一個全新項目的開啟——「PAIR」。它是「People + AI Research」的縮寫,即「人與 AI 研究」,目標是「研究並重新設計 AI 系統與人交互的方式」,並「試圖讓 AI 技術為每個人服務、給每個人都帶來利益」。

PAIR 團隊由谷歌大腦研究員 Fernanda Viégas 與 Martin Wattenberg 帶領,兩位均是數據可視化專家。12 名全職谷歌大腦員工將加入。除此之外,PAIR 還將與谷歌之外的研究人員合作,譬如哈佛大學教授 Brendan Meade 以及 MIT 教授 Hal Abelson。和願景相比,PAIR 的核心團隊一點也不算大。不過雷鋒網獲得的消息稱,PAIR 是一個「全公司尺度」的項目,谷歌的各個研究部門會與之密切合作。

Fernanda Viégas 與 Martin Wattenberg

它的使命,聽起來與谷歌參與發起的 The Partnership on Artificial Intelligence to Benefit People and Society (「造福於人和社會的 AI 合作組織」。沒錯,就是名字長到塞不進標題、讓媒體圈一致吐槽的那個組織)很是相像。該組織的參與者還包括 Facebook、微軟、IBM、亞馬遜。谷歌表示,PAIR 將會作為這個名字特別長的組織的補充。兩者的工作內容都包括開源技術研究平台、促進提升 AI 研究的透明度。這兩個組織的目標,聽起來與 OpenAI 也有些相似。

谷歌在博客宣布,PAIR 的研究工作會分為以下三個領域:

  • 工程師和研究人員:AI 由人來創造。怎麼讓工程師們更方便地開發、理解機器學習系統?他們需要什麼樣的教育資源和實踐工具?

  • 行業專家:AI 如何協助各個領域專家的工作?怎樣更好地為醫生、技師、設計師、農民、作曲家等職業服務?

  • 普通用戶:怎樣才能保證機器學習的普適性,為每個人服務,讓每個人都從 AI 的發展中受益?設計思維是否能打開一扇全新的大門,誕生一批前所未有的 AI 應用?我們是否能讓 AI 背後的技術民主化?

面對 AI 的「不平等」挑戰

它們所服務的,是一個相當寬泛、也相當宏大的願景。谷歌表示,PAIR 會審視 AI 供應鏈中影響每個人的一系列問題——從寫代碼的研究人員,到使用(或即將使用) AI 專業工具的醫生、農民等職業。另外,讓 AI 對用戶友好也是一大工作方向,讓 AI 技術便於理解(比如說,AI 演算法的可解釋性就是一個極有挑戰性的問題),同時,保證 AI 技術平等地對待用戶。

什麼是讓 AI「平等對待用戶」?

現實證明,社會中的偏見、成見、不平等,會被有意無意寫入 AI 的代碼里。比如說,無法識別黑人的面部識別軟體;設計為男醫生、女護士服務,而不為女醫生、男護士考慮的語言處理程序。

那麼,造成上述情況的原因是什麼呢?

最常見的原因是用於訓練的數據集。要麼,它包含的信息不完整(例如缺乏男護士的數據),要麼存在某種形式的偏見。

發布 Facets 開源工具

針對上面的問題,PAIR 在誕生的同時,公開了它們的第一份工作:Facets Overview 和 Facets Dive。這兩個開源工具讓程序員檢查數據集的工作變得更方便——提升數據可視化體驗。

上圖(第二張)是 Facets Dive 里的截圖,它在檢查一個面部識別系統。它通過每個人的國籍篩選檢驗器,把每個國家人口的錯誤與成功識別率進行對比。這很方便得讓研究人員看出哪個國籍的錯誤率較高,因而需要更多數據集、更多樣本,並進行相應調整。

想試一下這兩個開源工具?請訪問這裡

PAIR 會陸續發布更多的開源工具,讓 AI 技術更透明公開的努力也已經提上日程。就雷鋒網所知,谷歌還將設立獎金和實習機會來支持相關研究。

后話

筆者認為,越來越多 AI 公益組織的建立,以及谷歌等 AI 企業的投入,在一定程度上是對社會公眾的回應:回應大眾對 AI 技術的疑慮或者說擔憂。

作為號稱是足以媲美互聯網的「paradigm shift」技術革命,AI 迅速顛覆傳統生活溝通方式的能力,引發的倫理討論不絕於耳。而這,在很大程度上對 AI 領頭羊造成了相當大的輿論壓力——譬如說,開發自動駕駛,就不得不顧慮到全球千萬職業司機的生計。小型初創公司可以一往無前,但谷歌這個體量的企業,勢必需要拿出一個足以在一定程度上打消公眾疑慮的方案:怎樣避免負面效用,怎樣讓工作受威脅的職業有個過渡,諸如此類。

PAIR,這個名字很好記,並且意有所指(「pair」意為「匹配」,一家試圖更好地溝通人與 AI 的組織以此來命名,可謂十分應景)。但在谷歌高層的構想里,PAIR 成立的目的有幾分公關、有幾分是要實打實的研究,外人不得而知。雖然負責人 Fernanda Viégas 與 Martin Wattenberg,這兩位一流數據可視化專家足夠重量級,但畢竟 PAIR 要解決的問題太大、太寬泛,無法排除「一拳頭打到空處」的可能性。淡然,這些都需要我們耐心觀察。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦