search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

馬斯克再提醒:不受監管的AI比核武器更危險

編者按:本文來自網易科技,36氪經授權發布。

8月14日消息,據Futurism報道,科技大亨伊隆·馬斯克(Elon Musk)不久前在推特上發布了一張照片,引發人們對人工智慧(AI)安全性的爭論。當時馬斯克發布了有關賭博上癮廣告的圖片,上面寫著「最終機器會贏」,顯然他不僅僅指賭博機。更重要的是,馬斯克稱AI帶來的危險比朝鮮核武器更大。

在隨後的推文中,馬斯克詳細闡述了對AI系統開發進行監管的必要性。這與他本月早些時候所說的話相呼應,當時他說:「我認為,任何對公眾構成危險的事情,至少政府應該有所了解,因為政府的義無之一就是確保公共福利。沒有人喜歡受到監管,但對公眾有危險的任何東西(包括汽車、飛機、食品以及藥品等)都應該受到管制,AI也是如此。」

瀏覽對馬斯克推文的評論發現,似乎大多數人都在某種程度上同意馬斯克的意見。名為丹尼爾·佩德拉薩(Daniel Pedraza)的用戶認為:「我們需要一個適應性較強的框架,不需要固定的規則、法律或原則,這對管理AI有好處。這個領域正在不斷地變化和演進,任何固定的規則很快就會失效。」

許多專家都不願意AI發展得太快。它造成的威脅聽起來可能有點兒像科幻小說中的場景,但它們最終可能被證明是有效的。像史蒂芬·霍金(Stephen Hawking)這樣的專家早就發出警告,宣稱AI有終結人類的可能。在2014年採訪中,這位著名的物理學家說:「AI的發展可能預示著人類的終結。」他甚至認為自動化的擴散對中產階級是一種有害的力量。

另一位專家、MetaMed Research的首席科學官邁克爾·瓦薩爾(Michael Vassar)指出:「如果遠超人類的通用人工智慧沒有受到謹慎監管,可以肯定的是,人類將在非常短的時間內滅絕。」

很顯然,至少在科學界,AI的自由發展可能不符合人類的最佳利益。很多人已經開始著手制定這些規則,以確保AI的發展「合乎道德規範」。電氣與電子工程師協會提出了他們的第一份規則草案,希望能引導開發人員朝著正確的方向發展。

此外,在政府介入之前,科技巨頭們也正在制定自我監管規則。來自谷歌、亞馬遜、微軟、IBM以及Facebook等大型科技公司的研究人員和科學家已經開始討論,以確保AI造福於人類,而不是成為人類的生存威脅。

當然,要想達到足以威脅人類生存的程度,AI還有很長的路要走。然而,AI的進步是突飛猛進的。著名未來學家雷·庫茲韋爾(Ray Kurzweil)預言,計算機將在2045年變得比人類更聰明。然而,他並不認為這是件可怕的事。也許,科技公司的自我監管將足以確保這些擔憂變得毫無意義,或者最終可能需要政府的幫助。不管你的感覺如何,現在開始這些對話不算杞人憂天。但與此同時,也不要過於擔心,除非你是個有競爭力的玩家。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦