search
機器人唯一定律:促進人類繁榮發展

機器人唯一定律:促進人類繁榮發展

管理好智能機器,無需阿西莫夫的「機器人三定律」,只要一條首要原則就夠了。

科幻小說家艾薩克·阿西莫夫曾寫過用來控制智能機器的「機器人三定律」:機器人不得傷害人類,或因不作為使人類受到傷害。除非違背第一定律,機器人必須服從人類的命令。除非違背第一及第二定律,機器人必須保護自己。科幻情節變成現實已是常有的事。英國皇家學會和英國國家學術院發布的一份報告指出,要管理這些今後跟我們生活在一起的智能機器,不需要三定律,只要一條首要原則就夠了:「促進人類繁榮發展。」

英國皇家學會科學政策諮詢小組的主席之一奧托琳·萊瑟教授指出,人類繁榮是管理智能系統的關鍵。她告訴BBC:「人類繁榮這個辭彙壓縮表達了我們想說的話。人與社會的繁榮應該被放在第一位,我們認為阿西莫夫所說的三定律其實就可以總結為這一句話。」

艾薩克·阿西莫夫

這份報告指出,我們需要一個新的體系來確保智能機器服務於人類,而非控制人類。報告提到,民主監督制度對於規範自主學習系統的發展至關重要。如果沒有民主監督制度,這些智能機器可能會造成潛在危險。

這並不是在警告我們機器會奴役人類,至少現在不是。但當這些能獨立學習並作出決策的系統出現在家中以及一系列商業和公共服務場所時,它們便有機會做出很多不好的事情。

同時,該報告還呼籲人們對機器保持興趣。遊說團體TechUK的副總經理安東尼·沃克是該報告的作者之一。他認為,這些智能系統的發展不能僅靠技術標準來管理,還應被道德和民主價值觀所約束。他說:「這些技術會帶來很多好處,但前提是公眾必須對它們有信心,相信這些系統的構建是經過全面考慮並且管理得當的。」

阿西莫夫作品改編電影《鋼穴》劇照

阿西莫夫時代

這份報告提出了一種全新的管理方法。它建議專家組成一個「管理機構」,同時利益相關各方建立一個道德框架來約束人工智慧的發展。

報告提出條四個高級原則,以促進人類繁榮:

保護個人和集體權益確保透明度、責任感和包容性尋求良好實踐,在成敗中學習深化現存民主治理模式阿西莫夫時代已經到來。我們迫切需要一種管理機器的新方法。

很多公司都在研製無人駕駛汽車

例如,自動化汽車的發展讓我們思考,應如何優先考慮人類安全。當車輛必須在乘客和行人的安全中取其一時,又會發生什麼?事故發生時,還有一個責任歸屬的問題。到底是車主的錯,還是機器的錯呢?

另一個例子是個性化智能教學系統。這類教學系統可以識別學生的強項和弱項,然後進行針對性教學。如果沒有合適的指導原則,這樣的自主學習系統能進行教學嗎?我們怎樣才能確保機器對孩子的教學方法讓自己滿意呢?正如我們也很擔心教師的教學方法一樣。

這些問題並不能依靠開發系統的技術公司來解決。這是我們所有人都應該考慮的問題。正是由於這個原因,報告才指出,公司不能以商業機密為緣由隱瞞智能系統的各種細節。只有把這些細節公之於眾,出現問題時人們才能及時發現和改正。

漫畫:機器人三定律

現行的智能系統管理法規都很關注個人數據。但是,這些法規對於我們日常泄露的個人數據沒有任何保障。個人信息的泄露包括對手機的跟蹤,購物偏好和上網偏好等。

有些系統可以將上述公共數據整合在一起得到個人資料。這些資料可能被保險公司用於設定保險費,或被僱主用來評估員工是否適合某類工作。

確實,這些系統可以帶來許多好處,但如果不加以控制,我們的很多人生機遇都會被機器所控制。

萊瑟教授指出,關鍵在於管理方法必須具有針對性。她告訴BBC:「預測亞馬遜該為人們推薦哪些書的演算法,與醫學情境下診斷疾病的演算法是非常不同的。所以,沒有針對性的整體規劃型演算法是不明智的。」

《機器管家》劇照

英國保守黨在其宣言中承諾發布數字憲章,並創建數據使用和倫理委員會。英國數據部部長馬特·漢考克告訴BBC,正確規範社會對數據的使用是「至關重要」的。

他說:「數據管理,以及高效併合乎道德地使用數據,對未來的經濟和社會發展十分重要。我們正致力於繼續與行業緊密合作,以取得一定的成果。」

從根本上說,智能系統只有在取得人類信任並受到監管的情況下才會快速發展。若是未能滿足這一條件,智能系統促進人類繁榮的巨大潛力永遠都無法完全實現。

原文選自:BBC

譯者:歐陽貝妍

編輯:欽君

閱讀更多文章,請關注「文談」

熱門推薦

本文由 一點資訊 提供 原文連結

一點資訊
寫了5860316篇文章,獲得23306次喜歡
留言回覆
回覆
精彩推薦