search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

揭秘聊天機器人為何會說人話?

給記者一個時髦的詞,讓他對此進行寫作,記者們可能需要花上一天的時間;若給記者一個未曾了解的選題,讓記者們進行深度寫作,這可能需要記者們花更多的時間來對整個行業進行深入了解和探索。人工智慧便是如此。

這段時間來,我們總是收到各種關於人工智慧威脅論的警告,尤為典型的是,馬斯克多番強調人工智慧不僅會造成大面積的失業,威脅人類的發展,甚至還會引發第三次世界大戰。隨著IBM重金加持沃森機器人、富士康立下全機器人組裝目標並裁員后,人們對人工智慧發展的質疑聲音逐步升高。但有影響力的人工智慧研究報告並不多,也很少有主流媒體引用,似乎專家學者們都認為目前的人工智慧發展程度還很低,還有許多技術上的問題需要突破。在20世紀50年代至80年代之間,也出現過幾波人工智慧的浪潮,但這次或許不同於前幾次。

聊天機器人的bug鬧劇

在2017年6月14日,TechCrunch曾報道了一篇文章:《Facebook最新研究:我們訓練機器人討價還價,沒想到AI還自己學會了「使詐」,大意是,Facebook研發了具備談判能力的機器人,而後,Facebook 人工智慧研究所(FAIR)繼續用機器學習對兩個聊天機器人進行對話策略升級,結果發現它們自行發展出了人類無法理解的獨特語言。

2017年6月15日,《大西洋月刊》公布了Facebook研發的AI機器人Bob和Alice的一段「對話」記錄,並稱「機器人創造了人類無法理解的語言」,引起了大家的恐慌。

而後,Facebook 研究院宣布暫停整改這一項目,根據某家海外媒體的說法,原因是「擔心失去對這些AI的控制」。這本來只是作者的玩笑話,卻不料上了各大科技媒體頭條,引發了一波三折的」失控「大戲。

之所以會發生這樣的鬧劇,是因為Facebook科研團隊在開發前期沒有為機器人設置正確的「獎勵」,鼓勵他們說人話。說白了,這其實就是一個bug問題。這樣的問題在語言模型初學者的嘗試中十分常見,只不過這次出現在了Facebook這樣的大公司上,才會被各大媒體爭相報道,並被誤解為機器人的「早慧」。

今天的機器人仍處於起步階段,但AI被應用到各大行業領域,並給各大行業帶來了新變革。

在一個乾淨的房間里,我幾乎可以看到穿著白袍的研究人員在檢查毒氣閥門是否關掉,並且他們就人工智慧對人類的意義展開了一系列辯論。也許,這只是我的幻想,但許多類似終結者的形象已紛紛呈現在我們的面前。

在機器學習系統上,有一個亟需解決的問題,即調試問題,來自谷歌的Peter Norvig強調。一旦系統中出現了一個問題,那麼這個問題便會被複制到整個系統中。雖然可以重新培訓機器學習系統,但是問題無法單獨解決。

在Facebook的談判機器人中,我們不能確定無法正確解析語言造成的的信號退化問題將有多嚴重,事實上,我們甚至不知道機器人語言的含義,也許,我們認為機器人語法和人類語法是一致的。

聊天機器人的真正語言是什麼?

在聊天機器人的背後,其實是一套複雜的系統,主要包括5個功能模塊:語音識別模塊、自然語言理解模塊、對話管理模塊、自然語言生成模塊、語音合成模塊。

首先,語音識別模塊負責接收用戶輸入的語音並將其轉換成文字形式。

然後,自然語言理解模塊在理解了用戶輸入的語義之後將特定的語義表達式輸入到對話管理模塊中。

接著,對話管理模塊負責協調各個模塊的調用及維護當前對話狀態,選擇特定的回復方式並交由自然語言生成模塊進行處理。

最後,自然語言生成模塊生成回復文本輸入給語音合成模塊將文字轉換成語音輸出給用戶。

通常來說,聊天機器人系統中的自然語言理解功能包括用戶意圖識別、用戶情感識別、指代消解、省略恢復、回復確認及拒識判斷等技術。

對話管理功能主要協調聊天機器人的各個部分,並維護對話的結構和狀態。對話管理功能中涉及到的關鍵技術主要有對話行為識別、對話狀態識別、對話策略學習及對話獎勵等。

自然語言生成通常根據對話管理部分產生的非語言信息,自動生成面向用戶的自然語言反饋

現在的聊天機器人還存在著諸多的問題,聊天機器人無法根據對話背景給出恰當回答,對於某些深入的課題也無法做到真正意義上的理解與交流,在回答正確率、任務完成率、對話是否及時響應等方面也有待提高。至於聊天機器人是否會開啟自己的智慧,形成自己的語言,我想,這大概還很遙遠,畢竟,目前的聊天機器人很多時候還聽不懂人話呢。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦