search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

關於人工智慧法律政策問題的思考

文 | 付一強、曹建峰

近年來,人工智慧獲得了各界的高度關注和快速發展,其在智力遊戲、自動駕駛、語音和圖像識別、翻譯等諸多領域取得重大突破,谷歌、Facebook、微軟等收購人工智慧創業公司的速度,已經快趕上這些公司創立的速度。

各國政府(比如美國、英國等)以及一些社會公共機構(比如UN、IEEE等)也開始積極關注人工智慧的法律、倫理、社會、經濟等影響,密集出台戰略文件和報告。借鑒發達國家和國際社會已有經驗和案例,對企業預判後續可能面臨的前瞻性法律政策問題有所裨益。

人工智慧應用中面臨的法律政策問題

1、圖像識別領域

圖像識別領域面臨的用戶隱私保護和種族歧視等問題突出。

一方面,圖像識別軟體的不包容和歧視的問題已經出現,比如,谷歌的圖片軟體曾錯將黑人的照片標記為「大猩猩」, Flickr的自動標記系統亦曾錯將黑人的照片標記為「猿猴」或者「動物」。

另一方面,社交媒體的圖片標籤或者自動標記功能可能引發關於用戶隱私的爭議,比如,Facebook的圖片標記功能利用人臉識別技術就圖片中的人像向用戶進行「標籤推薦」,這被認為是在未獲用戶明確同意的情況下收集用戶的「臉紋」等生物識別信息,違反了美國伊利諾伊州的《生物識別信息隱私法》,而被用戶提起隱私侵權訴訟,谷歌等企業的類似技術也引發了類似訴訟。因此,在歐盟、加拿大等地區,Facebook不得不暫停這項技術。

2、語音識別領域

語音識別領域也已經出現性別和種族歧視、倫理以及聲音權保護等問題。基於自然語言處理的語音識別正在快速發展,如亞馬遜的Alexa、蘋果的Siri、微軟的Cortana等。但這一領域卻被詬病為已經產生了嚴重的性別歧視問題。

比如,2016年3月23日,微軟公司的人工智慧聊天機器人Tay上線。出乎意料的是,Tay一開始和網民聊天,就被「教壞」了,成為了一個集反猶太人、性別歧視、種族歧視等於一身的「不良少女」。於是,上線不到一天,Tay就被微軟緊急下線了。類似的倫理問題已經引起諸多關注,批判矽谷正在將人類社會既有的種族歧視、性別歧視等問題帶入機器學習的聲音逐漸增多。

同時,在模擬人聲方面,也出現聲音是否受法律保護以及怎樣保護的問題。比如,已經出現使用名人聲音進行人工智慧語音訓練從而實現智能模仿他人聲音效果的業務形態。

在國內,對於這種所謂的「聲音權」並無明文規定,相關學者認為可以通過設立肖像聲音權、聲音語言權、形象權、獨立聲音權等方面進行保護,但尚未達成一致。在國外,對聲音進行明確法律保護的國家或地區也較少,比如,澳門、捷克斯洛伐克和美國加利福尼亞州等為數不多的國家或地區,美國也有將其作為商品化權進行保護的觀點,相關的立法動態後續還需要繼續保持關注。

3、廣告投放領域

廣告投放領域面臨的問題主要集中在用戶數據的收集和使用、演算法歧視等方面。演算法歧視早已引起人們關注,在互聯網廣告領域同樣存在這一問題。

比如,研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現暗示具有犯罪歷史的廣告。再比如,在谷歌的廣告服務中,男性比女性看到更多高薪招聘廣告,當然,這可能和在線廣告市場中固有的歧視問題有關,廣告主可能更希望將特定廣告投放給特定人群。

此外,基於用戶自動畫像和自動化決策的的精準廣告投放正日益流行(自動化決策在信貸、保險等領域的應用也在加強),其中涉及用戶數據的收集使用、對用戶保持透明以及歧視等問題。

各國對人工智慧法律政策問題的探索

1、在知識產權方面

人工智慧中新產生作品的權利歸屬問題較為突出。歐盟法律事務委員會建議歐盟委員會就與軟硬體標準、代碼有關的知識產權提出一個更平衡的路徑,以便在保護創新的同時,也促進創新。同時,對於計算機或者機器人創作的可版權作品,需要提出界定人工智慧的「獨立智力創造」的標準,以便可以明確版權歸屬。

此外,國際標準化組織IEEE在其標準文件草案《合倫理設計:利用人工智慧和自主系統(AI/AS)最大化人類福祉的願景》中也提出,應對知識產權領域的法規進行審查,以便明確是否需對AI參與創作的作品的保護作出修訂,其中基本原則應為,如果AI依靠人類的交互而實現新內容或者發明創造,那麼使用AI的人應作為作者或發明者,受到與未藉助AI進行的創作和發明相同的知識產權保護。

2、在隱私和數據保護方面

在人工智慧領域,歐盟認為除了應該按照必要性原則和比例原則等保護隱私和數據之外,還應該有更多的標準、規範。

歐盟法律事務委員會建議,在針對人工智慧和機器人制定政策時,應當進一步完善通過設計保護隱私(privacy by design)、默認保護隱私(privacy by default)、知情同意、加密等概念的標準。當個人數據成為「流通物」使用時,在任何情況下都不得規避涉及隱私和數據保護的基本原則。

其實,在2016年通過的《一般數據保護條例》(簡稱GDPR)中,歐盟就加強了個人隱私和數據保護,其中關於用戶畫像等自動化決策的規定將對基於大數據的互聯網行業實踐產生重大影響,即用戶有權拒絕企業對其進行畫像等自動化決策,而且用於用戶畫像的數據不能包括人種或者種族起源、政治意見、宗教或者哲學信仰、商會會員、基因、生物特徵、健康狀況、性生活等特殊類別的個人數據。這將對個性化服務的提供產生重大影響。

3、在標準化建設方面

國際社會將推進標準化工作作為人工智慧發展的重要抓手。

歐盟法律事務委員會建議歐盟委員會應繼續致力於技術標準的國際統一,歐盟層面,需要建立相應的標準化框架,以免造成歐盟各成員國之間標準的不統一以及歐盟內部市場的分裂。

此外,IEEE於去年年底出台的指南文件中也呼籲各方形成一系列標準,用於指導人工智慧研發和應用。

美國在去年出台的涉及人工智慧、自動駕駛等的多份報告和政策如《聯邦自動駕駛汽車政策》、《美國國家人工智慧研發戰略計劃》、《為人工智慧的未來做好準備》等中,也要求加強並統一技術、數據使用、安全等標準建設,避免造成碎片化的問題,影響人工智慧研發和應用。

4、其他法律政策方面

(1)演算法決策公開透明化

實現演算法決策的透明性和公平性是國際社會的一個主流關注點。基於機器學習的自主或者自動化的決策系統日益被廣泛應用在推薦引擎、精準廣告、信貸、保險等諸多領域,甚至政府部門也利用自動化決策來處理給犯罪人定罪量刑等公共事務,然而演算法模型的設計都是編程人員的主觀選擇和判斷,所使用的數據也可能是不相關和不準確的,這就可能導致自動化決策的結果影響個人權益,或者對某些群體造成歧視。

確保演算法及其決策可以有效接受中立第三方或者監管機構的審查,實現演算法決策的透明性和公平性,是國際社會的一個主流關注點。IEEE提出,應當為個人提供異議和救濟的渠道。歐盟的GDPR則賦予個人反對自動化決策的權利,意味著演算法決策需要透明化。

(2)防止歧視和偏見

國際社會日益重視在人工智慧領域對數據的收集和分析進行規範,以防止歧視或偏見。

美國聯邦貿易委員會(FTC)在2016年1月發布的《大數據:包容性工具抑或排斥性工具?》(Big Data: a Tool for Inclusion or Exclusion?)特別關注大數據中的歧視和偏見問題,對於消費者,一方面需要確保公平機會法律得到有效執行,另一方面防止大數據分析中採取歧視等不公平行為;對於企業,FTC建議企業考察以下問題:數據集是否具有代表性,所使用的數據模型是否會導致偏見,基於大數據進行預測的準確性如何,對大數據的依賴是否會導致道德或者公平性問題。

其實,早在2014年5月,美國白宮就發布了《大數據:抓住機遇,保存價值》中呼籲重視自動化決策中的歧視問題,要求民權和消費者保護機構及FTC等政府機構加強專業知識,調查並解決潛在的歧視問題。

對人工智慧進行法律政策保護的思考

1、知識產權保護方面

國內企業應該利用既有專利規則、版權規則、職務發明等知識產權規則,強化對AI的全方位知識產權保護。

版權保護方面:國際標準化組織IEEE在其標準文件草案中提出的版權保護基本原則,目前也為國內現行法律認可,即如果AI依靠人類的交互而實現新內容或者發明創造,那麼使用AI的人應作為作者或發明者,受到與未藉助AI進行的創作和發明相同的知識產權保護。因此,相關AI的原代碼產生后,應及時通過軟體著作權登記等措施進行證據固化。

專利技術和商業秘密保護方面:AI開發過程中涉及到的專利技術,應當經過專業技術人員評估,如果可保密性強,被反向工程的可能性不大,則通過商業秘密進行保密而保護,如果被反向工程或者披露的可能性較大,則應當及時進行專利申請,以公開換取獨佔性保護。

商標保護方面:重點AI產品應及時進行產品名稱和標誌的商標申請和保護,使產品能夠在市場上獲得認知,擴大產品品牌影響力。

2、隱私和數據安全方面

在提供服務的過程中收集、使用用戶個人信息,應當遵循合法、正當、必要的原則。不得收集與提供服務所必需以外的用戶個人信息或者將信息用於提供服務之外的目的,不得以欺騙、誤導或者強迫等方式收集、使用用戶個人信息。比如,在圖像識別、語音識別等領域,對於機器深度學習的原始素材、語料等的收集、分析、使用,需要事先經過用戶的知情同意。

同時,積極履行信息安全保障義務。在對用戶數據收集、使用過程中的用戶個人信息應當嚴格保密,不得泄露、篡改或者毀損,不得出售或者非法向他人提供。對用戶數據的輸出和使用,應當做到匿名華、假名化,並做到脫密處理。

3、標準化建設方面

技術專利化、專利標準化、標準國際化。統一技術、數據使用、安全等標準化建設將會是未來人工智慧技術標準化建設的主要趨勢。因此,積极參与標準化討論和提案,在「技術專利化,專利標準化,標準國際化」方面做足功夫,努力將企業的技術專利加入標準中,並成為行業國際通用標準。

4、防歧視方面

如前所述,目前人工智慧,在發展過程中可能由於技術不完善、演算法不健全或演算法不公開、不透明等原因,面臨種族歧視、性別歧視等問題,並由此產生了很多負面效果。因此,對於企業來說,也應該提前思考,如何通過技術提高演算法完善和演算法公開化、透明化等措施,來避免類似問題的發生。

結語

關於人工智慧的法律政策問題的討論、探索也才剛剛開始,未來關於人工智慧的法律政策也必將超越現有的法律政策體系、規則,國內企業對此也應時刻關注,並根據立法、司法等趨勢做出及時回應。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦