search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

打擊標題黨 攔截虛假新聞 這個黑科技套路很深

對於推動媒體融合發展,當前最常說的一句話是,新媒體要認真履行社會責任,把社會效益放在首位。

23日的人民日報第14版,有一篇新媒體如何履行社會責任的「技術貼」,標題開宗明義:人工智慧是虛假新聞的「剋星」。

文章的作者,是著名的新聞傳播研究學者、人民大學教授宋建武。為什麼說這篇文章是「技術貼」?因為我們以往對虛假新聞的研究多數是站在道德倫理層面的,而如今在現實操作中,已經出現了技術層面的解決方案。也就是說,不論是否具有「犯罪動機」,行為隨時可能被中止。

這對於新聞管理部門、職業的新聞從業者以及廣大受眾而言,無疑是一個令人興奮的消息。

技術的發展,特別是藉助交互應用平台來發展用戶的技術體系,為新聞行業塑造個性化品牌帶來了全新的契機,在文本模式創新、話語體系創新、包裝形式創新的過程中,為適應新媒體傳播特徵而產生的「過渡創造」成為了新的困擾。

什麼是「過渡創造」?這是一種最容易超越理性的不自覺行為,當「過渡創造」以更簡便、高效地方式凝聚人氣、 流量時,創作者們就越接近於形式本身,而非內容本身。

與紙質媒體、電視媒體不同的是,移動互聯網依託的介質是小屏幕,閱讀是摺疊並遞進的,創作者往往只有一次機會讓讀者打開摺疊,進入下一階段開展閱讀體驗,那就是直奔標題、

微信閱讀如此,演算法平台亦是,機器人的「關鍵詞」意識更強,為了節約讀者的搜索時間,流行「關鍵詞」越多的文本,越容易被推送到讀者面前。於是「過渡創造」的動機便產生了——


對內容真實性的要求越來越低,反之刻意追求局部真實和局部顯眼,輕則是標題黨、同質化,重則是虛假新聞。

我們常說社會效益優先,從消除動機的教育入手當然有必要,但剛性的外力阻止工具必不可少。

這就是人工智慧的另一面。以往出現虛假新聞的時候,大家的第一反應就是刪稿。可互聯網是茫茫海洋,窮盡每個詞條幾無可能,且已造成事實影響,亡羊補牢已晚。

宋教授在文章中提到的人工智慧技術,模擬人的行為方式,確立虛假模型並不斷學習之後,可批量對虛假事實進行甄別攔截,相對於人工而言,更為科學高效。

被廣泛關注的,北京位元組跳動科技公司在「今日頭條」平台上的效果,該平台模仿人腦機制,對低俗圖片的攔截率較之前純人工攔截提高了73.71%。

在大眾傳播領域,人工智慧技術,也就是我們常說的「演算法」,代表性的平台就是今日頭條平台。長安街知事APP是頭條的資深用戶,對這一技術的應用深有體會。


比如在這一平台,文章重複率是較低的。為什麼呢?因為原創文章的首發權是在作者手中,當作者申請原創之後,其他抄襲、大段引用的文章就會被「重複模型」所確認,不會為機器人所廣泛推薦,由此,「過渡創造」的原始動機,就會逐步消除。


對虛假新聞的處理,是類似的。今日頭條採用分類的方式來篩選信息。

比如對於標題黨,標題中如有「震驚」「傳瘋了」「看哭」等關鍵詞,可被機器識別並進行提醒或攔截。當作者在後台進行文章編輯時,系統會提醒作者修改標題,提醒的成功率達50%,如果作者不予修改,機器則會降低該文章的推薦權重。

而對於虛假信息、違法信息、色情內容等缺乏清晰、固定判斷標準的信息,機器很難進行準確判斷,對此,今日頭條從用戶中抽樣建立了1000人規模的專業評估團,每天反饋3000—4000份對於機器推薦效果滿意度的問卷。這些反饋,以及普通用戶的「舉報」「不感興趣」「評論」等反饋信息能夠一起用於改善機器識別低俗內容的準確度。

虛假信息需要具備一定相關專業知識的審核人員進行判斷,但機器通過對用戶反饋的分析可以極大提升人工審核的效率。譬如,有大量用戶舉報了一篇文章為虛假信息,或在評論中出現「假新聞」等關鍵詞,機器即可識別並將其提交至審核人員進行複審。

大致的過程是,機器智能識別疑似虛假文章后劃歸此隊列,進行單獨審核,月均進審一萬篇左右。

在2016年末,今日頭條推出了精準闢謠功能:如果用戶在今日頭條內閱讀過的內容,后被證實為謠言,系統將第一時間向所有看過該謠言的人推送相應闢謠文章,做出精準澄清。另外,機器可以結合網民舉報和跟帖評論甄別謠言,通過關鍵詞分析和語意識別,將疑似不實文章召回,再由人工進行複審。

目前,機器判斷準確率達60%,人工審核后準確率達90%以上。

人工加機器的合作模式,是一個漸進的過程。人工負責建立「虛假模型」,機器如同移動探頭負責掃雷,隨著「虛假模型」積累得越來越多,價值判斷逐步融入到機器的行為當中,掃雷的成功率就會越來越高。


今年1月,「頭條號」每天處理用戶評論約98.6萬條,11月已經增長到每天約302萬條,機器審核可以保證同樣倍數評論增長的情況下,人力增長較少。


所謂大道相通,任何治理體系都是疏堵結合、獎懲並用的全方位應用,人工智慧體系也不例外。


虛假新聞的發布,原始動力很明確,也很粗糙,為的就是流量。而「虛假模型」建立后,標題黨也好、抄襲也好、虛假新聞也好,生存空間被大大擠壓,不僅人工不信任,機器也不信任。對於演算法平台而言,被機器人不信任,是最可怕的結局。

這就是技術導向下的規則體系。在城市管理政策中,我們常常提出,寓管理於服務之中。在技術支持下,今日頭條為代表的演算法平台,通過機器人推薦來提供精準傳播服務,同樣通過機器人攔截來管理用戶行為。歸根到底,就是為提升傳播的社會效益提供技術解決方案。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦