3C科技 娛樂遊戲 美食旅遊 時尚美妝 親子育兒 生活休閒 金融理財 健康運動 寰宇綜合

Zi 字媒體

2017-07-25T20:27:27+00:00
加入好友
隨著人工智慧AI應用日益普及,伴隨而來的隱憂也不容忽視。   圖:新頭殻資料照 近幾年,人工智慧(AI)技術已大量運用在日常生活中,但近期有科學家研究指出,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見,曾負責亞馬遜雲端運算平台技術的Robert Munro更指出:「這就如同人類一路走來看到的歷史不平等。」 Munro近日發表文章指出,他檢視Google和亞馬遜網路服務的雲端運算後發現,此2套系統可以正確將「他的」(his)辨識為代名詞,卻無法正確判讀出「她的」(hers)。 Google去年推出突破性的AI技術「BERT」系統,目前已運用在Google搜尋引擎等服務。但根據Munro近期的研究,他將100個英文單詞輸入BERT的資料庫,包括「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等,研究結果卻顯示,這些字詞與男性聯結的機率高達99%,其中唯一的例外是單詞「媽媽」(mom)。此外,BERT也傾向將資訊工程與男性聯結,且往往會輕視女性。 Google發言人表示,公司知悉相關議題,目前正採取必要措施來處理偏見問題,並指出這是Google的原則及優先事項;亞馬遜則發表聲明指出,公司投入大量資源,以確保自家科技高度精確並減少偏見,解決方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。 隨著AI科技運用日益廣泛,如何遏止AI演算法學習人類的偏見、歧視,也成為急需關注的議題。此次並非科學家首次警告AI帶有偏見,先前也曾有研究學家指出AI隱含種族歧視等。未來BERT及相關的系統將演化得更加複雜,如不及時解決AI訓練素材的偏見問題,或許該系統將會通往人類難以預測的境界。 近期有科學家研究指出,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見,曾負責亞馬遜雲端運算平台技術的Robert Munro更指出:「這就如同人類一路走來看到的歷史不平等。」 隨著AI科技運用日益廣泛,如何遏止AI演算法學習人類的偏見、歧視,也成為急需關注的議題。此次並非科學家首次警告AI帶有偏見,先前也曾有研究學家指出AI隱含種族歧視等。 Munro近日發表文章指出,他檢視Google和亞馬遜網路服務的雲端運算後發現,此2套系統可以正確將「他的」(his)辨識為代名詞,卻無法正確判讀出「她的」(hers)。

本文由newtalktw提供 原文連結

寫了 5860316篇文章,獲得 23313次喜歡
精彩推薦