search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

AI演算法帶有偏見! 新研究:黑人用語較易被AI視為仇恨言論 | 科技 | 新頭殼 Newtalk

人工智慧也會有偏見?! 新研究揭AI標示仇恨言論針對黑人   圖:新頭殼資料庫
人工智慧也會有偏見?! 新研究揭AI標示仇恨言論針對黑人   圖:新頭殼資料庫

近幾年,社群平台對言論管控需求暴增,科技巨頭如Facebook和Youtube等,也逐步透過AI過濾不當言論。然而,近期有研究發現,使用AI反而會強化社會既有的偏見,黑人的言論更容易被標示為仇恨言論。

根據華盛頓大學 (University of Washington) 及康乃爾大學的聯合研究,非裔美國人(即黑人)所發的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。此外,使用美國黑人用語的貼文,比起一般用語更容易被標示為仇恨言論,數量多了2.2倍。

目前,AI仍難以理解人類語言背後的社會情境,無法辨別文字使用者的文化背景,以及字詞背後的意義。例如,在白人社會裡,「黑鬼」是禁忌詞,然而卻是黑人的戲謔日常用語;而異性戀使用「酷兒」詞彙可能帶有貶抑,但對同性戀者來說,卻可能是正向意涵。

兩篇論文都在計算語言學年度大會(Annual Meeting of the Association for Computational Linguistics)上發表,我們所認為客觀的演算法其實會強化偏見,並證明了AI訓練素材本身就帶有偏見。

AI訓練素材中可能帶有各式各樣的偏見,而Google、Facebook及Twitter等平台使用的內容審查工具,是否也帶有偏見,研究者之一、電腦科學程式專家Maarten Sap表示:「我們必須正視這個情況。」

社群平台對言論管控需求暴增,科技巨頭如Facebook和Youtube等,也逐步透過AI過濾不當言論。

AI訓練素材中可能帶有各式各樣的偏見,而Google、Facebook及Twitter等平台使用的內容審查工具

華盛頓大學及康乃爾大學的聯合研究,非裔美國人(即黑人)所發的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。



熱門推薦

本文由 newtalktw 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦