3C科技 娛樂遊戲 美食旅遊 時尚美妝 親子育兒 生活休閒 金融理財 健康運動 寰宇綜合

Zi 字媒體

2017-07-25T20:27:27+00:00
加入好友
人工智慧也會有偏見?! 新研究揭AI標示仇恨言論針對黑人   圖:新頭殼資料庫 近幾年,社群平台對言論管控需求暴增,科技巨頭如Facebook和Youtube等,也逐步透過AI過濾不當言論。然而,近期有研究發現,使用AI反而會強化社會既有的偏見,黑人的言論更容易被標示為仇恨言論。 根據華盛頓大學 (University of Washington) 及康乃爾大學的聯合研究,非裔美國人(即黑人)所發的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。此外,使用美國黑人用語的貼文,比起一般用語更容易被標示為仇恨言論,數量多了2.2倍。 目前,AI仍難以理解人類語言背後的社會情境,無法辨別文字使用者的文化背景,以及字詞背後的意義。例如,在白人社會裡,「黑鬼」是禁忌詞,然而卻是黑人的戲謔日常用語;而異性戀使用「酷兒」詞彙可能帶有貶抑,但對同性戀者來說,卻可能是正向意涵。 兩篇論文都在計算語言學年度大會(Annual Meeting of the Association for Computational Linguistics)上發表,我們所認為客觀的演算法其實會強化偏見,並證明了AI訓練素材本身就帶有偏見。 AI訓練素材中可能帶有各式各樣的偏見,而Google、Facebook及Twitter等平台使用的內容審查工具,是否也帶有偏見,研究者之一、電腦科學程式專家Maarten Sap表示:「我們必須正視這個情況。」 社群平台對言論管控需求暴增,科技巨頭如Facebook和Youtube等,也逐步透過AI過濾不當言論。 AI訓練素材中可能帶有各式各樣的偏見,而Google、Facebook及Twitter等平台使用的內容審查工具 華盛頓大學及康乃爾大學的聯合研究,非裔美國人(即黑人)所發的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。

本文由newtalktw提供 原文連結

寫了 5860316篇文章,獲得 23313次喜歡
精彩推薦