search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

人工智慧六大原則發布:騰訊研究院院長司曉表示AI要規則先行

4月13日,科學院科技戰略諮詢研究院與騰訊研究院在北京聯合舉辦了「2017人工智慧:技術、倫理與法律研討會」,會議邀請了科學院科技戰略諮詢研究院院長潘教峰、科學院學部科學規範與倫理研究中心主任李真真、騰訊研究院院長司曉、復旦大學計算機學院肖仰華等數十位人工智慧領域專家和學者,共同探討當前人工智慧技術發展中面臨的和帶來的倫理、法律、社會經濟影響等問題,億歐應邀參加。

眼下,人工智慧正在改變各個行業,為了使AI朝著有益和普惠的方向發展,需要進行前瞻性的法律、倫理、安全等AI社會影響研究,也需要AI倫理等人文研究來為技術把脈,會議正式發布了人工智慧六大原則(詳見文末)。

以下為演講嘉賓觀點,億歐網現場整理:

騰訊研究院院長司曉:AI要規則先行

人工智慧技術好比工業革命,但是AI和電力、蒸汽機不一樣,它不僅提升了生產效率,還將代替人做決策。無論是圖像識別還是強人工智慧,都會面臨一個問題:機器的決策是否與人一樣,這其實就是倫理的問題。

例如,無人駕駛車在緊急情況下,面臨選擇孕婦還是小孩時,就會很難做出決策。其實不只是機器,不同的人在遇到這種情況下也可能做出不同的決策,這是因為,人類的選擇還沒有統一的規則,是很隨機的應急反應。

設定AI行業的統一規則是很有必要的。如果沒有規則,或者某些企業自己設定一個規則,那麼產業是無法發展的。在遇到新技術時,以往的方法是技術先發展,等到技術成熟之後再制定規則,但是對於AI,可能要規則先行。

科學院學部科學規範與倫理研究中心主任李真真:的人工智慧道德倫理比國外落後很多

人工智慧從一開始就是一個悖論式的存在,既帶來好處,又對人類帶來威脅,人工智慧跨越了我們的想象世界和現實世界,所以出現了阿米西夫的「機器人三定律」。

借用約翰· 奈斯比特的一句話,「每當新技術被引進社會,人類必然會產生一種要加以平衡的反應,也就是說,產生一種情感,否則新技術就會遭到排斥。技術越高級,情感反應也就越強烈。」

人工智慧體的道德發展有三個層次:第一層是操作型道德體,即道德表現掌握在設計者和使用者手中;第二層是功能型道德體,即機器人有能力對道德挑戰相關事物進行評估和做出反應;同時設計者面臨相當限制;第三層是道德主體,即機器變成新種群,享有人類同等的權利、自主性和尊重等等。

人工智慧原則制定的出發點,第一要要體現人權,第二要將人類和自然環境利益最大化,第三是削弱人工智慧的風險和負面影響。

的人工智慧技術與世界同步發展,但是AI的道德倫理落後很多,這主要由於的社科界和技術界普遍分離。

那麼,如何解決這種問題呢?答案是「跨越邊界」。

首先要構建對話平台,將科學技術與社科人文對話;學界、企業界、政界與公眾對話;

其次要構建合作平台,加強技術、倫理和法律間的研究合作,推進的人工智慧領域健康發展;參與國際倫理規則的制定。

最後,我們倡議建立AITEL聯盟和聯合實驗室,推動AI技術與倫理、商業、企業的發展。目前機器的權利還沒發展出來,政府、媒體都有監管的義務。

復旦大學計算機學院肖仰華:基於語言認知的語義理解有可能會是區分人和機器交互的安全方式

人工智慧的發展是由於三個方面:大數據進步、GPU的計算能力增長和大數據時代推動了深度學習的發展。

目前,機器的感知能力超過人類,基於感知能力的驗證方式已經失效,比如圖片驗證,很多企業以為以圖片驗證碼的方式可以防止刷單,其實已經十分不安全。

那麼,有什麼更安全的方式呢?

基於語言認知的語義理解有可能會是區分是人還是機器交互的安全方式,即通過自然語言理解技術,以問答的呈現形式,機器必須一定程度上「理解文本」才能破解。

當前人工智慧還存在兩大問題:

第一是理解常識問題,機器學到的知識是通過文本學習到的,而人的常識在文本里不存在,人從出生開始就通過身體的交互積累常識,目前機器仍然無法像人一樣和世界交互,很難獲得常識。

第二是機器的推理能力有限,基於真實世界的推理很難

奇虎360譚曉生:將來會有大量的人「吃飽了沒事幹」

人工智慧一定會越來越快地普及,因為人類本性的是懶的;另外用機器替代人可以降低成本,未來會越來越多人失業,在深圳的很多汽車工廠,人已經不多了;前段時間去富士康參觀,他們很樂於用機器,一年生產20萬機械手,因為機器不會鬧罷工,也不會「跳樓」。

將來會有大量的人「吃飽了沒事」,未來人類主要是創造文化的東西;將來的機器肯定會失控,機器代替人是可能的。

發展研究基金會郝景芳:機器不能進化,不能有性繁殖

人工智慧在很多方面會比我們聰明,但是在智慧方面,人類有思考決策的能力,而機器沒有。《最強大腦》節目裡面有很多在某些領域特別突出的人,但是他們並不是這個社會最傑出的人,最傑出的是有思考、決策和綜合判斷的能力的這部分人。

機器是客觀學習,而人是聯想學習,人能夠發現事物的機構性的關聯。人的價值觀很大程度是進化出來的,而機器不能進化,不能有性繁殖。

中科院大學公管學院法律與知識產權系劉朝:目前還不會做出立法框架協議,但法律要追蹤技術發展

在人工智慧的制約上,法律是技術、政府、企業、媒體等最後的一個保護傘,法律在人工智慧時代變得非常突出。但是社會的物資條件會制約法律,目前還不會做出立法框架協議,但法律可以繼續追蹤技術的發展。

給人工智慧制定法律是很複雜的問題,比如谷歌機器人作畫,是否有著作權,知識產權;無人駕駛車如果撞到人,應該是誰來負責呢?是計算機的編程員,計算機廠商,設計人員,製造商,地圖公司還是政府。

還有取證壁壘在增加,無人駕駛如果出現問題,倘若沒有計算機大學部背景很難理解這些技術,那麼用戶如何舉證?

另外,從法律層面看,數據越多其實危害越大,比如AI在醫療領域的應用,人的身體數據「從內到外」都被監控了,可能就沒有隱私。

阿里雲研究中心田豐:人工智慧具有長期積累、短期爆發的特性

機器權利背後其實是人的權利的劃分,從法律上來看,人工智慧其實是跨學科的東西。

目前AI技術還在快速迭代,如果小數據模型出來之後,不用那麼多的數據就可以訓練AI,人類會更加恐懼,因為所有東西歸零了。

AI其實是商業驅動的。比如美國的facebook、微軟、Intel這些大公司為什麼做AI,其實都是商業驅動,而且超大規模,超複雜。

人工智慧具有長期積累、短期爆發的特性,一定要長遠布局,因為某一個技術難點一旦突破,就會呈現爆髮式變革,哪怕是1%的技術領先都很可怕。

中科院虛擬經濟與數據科學研究中心劉峰:AI還不能看做與人類同權的生命體

電影「世界末日2012」裡面,在面臨科學家和總統選擇誰的時候,必須要有一個判斷,但是答案沒有規定化。

AI還不能看做與人類同權的生命體,它分擔了人類的部分知識和智慧功能,但在最重要的創造性和評審創造性價值方面無法替代,更為重要的是AI無法確定自己的進化方向和進化目標,也沒有正確的進化動力,它的進化動力來源於人類,依然是人類的工具。

附《人工智慧(AI)發展六大原則》

一、自由原則

1、人工智慧研發與應用應符合人的尊嚴,保障人的權利與自由。

2、人工智慧的發展應加強隱私保護,加強個人對數據的控制,防止數據濫用。

二、正義原則

3、確保演算法決策的透明性,確保演算法設定公平、合理、無歧視。

4、人工智慧決策可能影響個人權益,應該提供救濟途徑。

5、推動人工智慧的效益在世界範圍內公平分配,縮小數字鴻溝。

三、福祉原則

6、人工智慧的發展應以促進人類福祉為目的,推動經濟社會可持續發展。

7、和平利用人工智慧及相關技術,避免致命性人工智慧武器的軍備競賽。

8、人工智慧的發展應促進數字經濟發展,積極應對人工智慧帶來的就業影響。

9、應不斷完善教育體系,培養與人工智慧時代相適應的人才。

四、倫理原則

10、將倫理設計嵌入系統,使其成為有道德的機器,保證倫理規範的多樣性和包容性。

11、保證人工智慧系統遵守人類社會倫理規範。

12、不斷檢驗倫理設計是否與現實人類規範相符合。

五、安全原則

13、人工智慧研發、設計及應用應保障人身安全、財產安全及網路信息安全。

14、個人數據的收集與使用應符合規範與法律制度,保障數據安全。

15、針對人工智慧的風險,需要有針對性的準備措施及預案。

16、不斷加強民眾對於人工智慧的教育,提高安全等相關意識。

六、責任原則

17、立法與司法應明晰人工智慧責任相關立法與規則,不斷完善人工智慧相關標準,確保人工智慧研發及應用的可追責性。

18、積極探索人工智慧應用領域的監管機制及監管制度,保障安全,促進發展。

19、加強人工智慧研究國際合作,共同探討並應對人工智慧帶來的挑戰。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦