search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

聽說波士頓動力機器人要統治人類?

相信最近,大家的朋友圈都被這樣一個會走會加速,還能衝刺跳上炕頭桌子的機器人霸屏了。

▲ 機器人Handle

這款名為Handle的輪腿式機器人由波士頓動力公司(Boston Dynamics)研製,沒錯,就是去年發布的Atlas機器人那家。

▲ 機器人Atlas

不得不說,去年Atlas的發布一改大眾對機器人行動時左搖右晃、步履蹣跚的印象,完美的平衡性能讓不少觀眾倒吸一口涼氣。而此次Handle的問世,讓我們不禁再次驚呼「機器人發展又來到了一個前所未有的新高度,又出現了一個世界上最先進的擬人機器人。」

對此,不少吃瓜群眾表示出了擔憂,因為機器人已經在生活中各方面開始向人類靠近,並且某些方面已超越人類。甚至有人擔心未來機器人不僅只是在工作上替代人類,有可能在情感上也會逐漸影響人類,畢竟它們太像人了。當然,被電影《終結者》中邪惡機器人支配的恐懼至今仍深深烙印在一部分人心底。

▲ 電影《終結者》海報

然而近期,一名奮鬥在機器人研究第一線的博士生髮文表示,這種擔憂完全沒有必要!

因為,《終結者》系列中,即便1984年最早期的T-800機器人,也甩目前世界上真實存在的機器人幾百條街。

那麼,為什麼如此斷言我們不需要擔心機器人取代人類的發生呢?

硬體、機構

▲(左)波士頓動力的Atlas,(中)日本產綜研的HPR-4C,(右)日本東京大學的Kenshiro

感謝機械前輩們幾百年的積累,目前在硬體設計方面,實際機器人已經很不錯了,並不比T-800差多少,甚至優於後者。

然而在能源方面,我們距離T-800還有很長一段距離。以這次的Handle為例,它的電池約為3.7KW/h,充滿電能行駛約24km,而T-800使用的能源是小型核反應堆核燃料電池(可以連續工作120年),其中差異不可同日而語。要改善續航能力,只能寄希望於新一代電池技術的發明了。

感知

這裡包含兩個部分,一個是感測器,一個是信號處理。

感測器

機器人需要能夠感知周圍環境和自身狀態,類比在人類身上就是「感覺」,因此它們需要安裝不同的感測器,我們來簡單分析一下。

●聽覺:聽覺感測器似乎沒有什麼特殊的,現在的機器人都可以配備,普通麥克風即可。

●視覺:現在機器人的視覺感測器應該比T-800豐富,高精度相機、紅外相機、深度相機、激光雷達等等。沒辦法,演算法不夠,感測器來湊嘛。

●力矩:力矩感測器主要用於檢測關節力矩。有了精確的關節力矩才有可能部署一些控制演算法、估計環境狀態。當然,現在這樣的感測器也已經有了,但就是貴。

●觸覺:皮膚觸覺感測器是目前機器人和T-800唯一存在差距的地方,可以說還有很多路要走,對比去年RA-Letter上發表的一篇論文: A Conformable Force/Tactile Skin for Physical Human-Robot Interaction.

信號處理

當然,這裡的信號處理是廣義的信號處理,包括普通的濾波、傅里葉變換等,也包括物體識別、語音識別等人工智慧演算法。這個話題太大,而現實情況與T-800的差距也很大,簡要介紹一下。

●物理識別/語音識別

近幾年深度學習的發展,人工智慧在物體識別和語音處理方面的造詣已經非常厲害了,但是在實際機器人上部署的演算法也還比較簡單(實際機器人不僅要識別物體、還要定位物體)。

▲ 前文提到的Atlas,依舊是採用二維碼進行識別

●語義理解

前面說的語音識別是指根據聲音識別出文字,這裡則是理解識別的文字內容。T-800與人類接近的水平就不說了,而我們現在研究的最高水平,可以參考微軟小冰聊天機器人,基本還是比較笨的。

●環境理解/地圖創建

簡單地說,就是機器人對環境建模的能力,包括地圖創建等。現在的機器人在這一塊還是比較弱的,即使配備了激光感測器等額外的設備(人僅靠兩隻眼睛),也只能在一些特定條件下完成地圖創建,而基於地圖的環境理解也只能算剛起步不久,如下面這個語義地圖。

▲ 真正的通用機器人不僅需要能「看到」環境,還應該能「理解」環境

當然,隨著今後深度學習技術在地圖創建等領域的應用,(考慮到深度學習對環境理解的能力),這個領域估計有可能在十年內出現可實用的技術。

規劃

規劃是指根據任務和機器人當前狀態,計算出完成這個任務的方法。T-800的規劃水平已經跟人差不多,所以就不提了,來看看我們現在的機器人吧。

●任務規劃

舉個例子,我們想讓機器人送瓶雪碧,那麼機器人會將這個大任務分解成幾個子任務(運動到冰箱前-->打開冰箱-->找到雪碧-->拿出雪碧-->關上冰箱-->送到人面前),當然,可以有更複雜的任務。目前,一般是採用MDP或POMDP模型來描述問題,然後用各種規劃演算法求解。總體上說,現在的任務規劃強烈依賴於任務描述方式(人工指定),而且在應對大規模、不完全可觀等複雜問題時,還沒有可靠的方法。

●運動規劃

舉個例子,機器人面前有一杯水,讓機器人將手運動到杯子面前,同時不能碰到桌子等障礙物。這就是運動規劃,根據目標狀態點,生成一系列關節運動狀態。是的,現在就連讓機器人拿起面前的杯子這樣的問題也還沒有完全解決。簡而言之,我們一般是採用基於隨機採樣的演算法進行運動規劃的。隨機採樣的意思就是:每次規劃的結果可能不同,更無法保證規劃出的路徑是最優的。因為自己就做這一塊,所以深知其中的坑。就我個人感覺,要解決運動規劃問題,需要一個方法論上的創新,拋棄現在這套方法(因為人肯定不是這樣規劃的啊)。

●路徑規劃

其實跟運動規劃是一個問題,但由於路徑規劃一般是在地面上,問題維度低,可以採用一些奇奇怪怪的規劃方法(Dijkstra等)。由於問題畢竟簡單,這塊的發展也比較好,例如各種掃地機器人就已經可以在室內環境中到處跑了。

控制

控制就是具體執行規劃結果的過程了,從底層的電機控制到上層的機器人全身控制都屬於這個範疇。

●機械臂控制

下圖是大約十年前Sami Haddadin做的機械臂碰撞檢測的demo,基本上已經非常厲害了。而且,由於機械臂控制屬於機器人自身動力學問題,所以目前看來,這一領域可以說已經是完全攻克了。

●機械手操作

機械手的抓取操作問題就沒這麼簡單了,因為其中涉及實際物理環境的建模問題(摩擦力、形狀等),由於模型不精確,所以完全基於模型的方法很難解決這一問題。目前實際應用基本還是採用平行夾持器的方式。只有不少研究機構在進行靈巧手抓取方面的研究。

●足式機器人控制

這是更難的地方了,因為機械臂和機械手都至少有個相對固定的基座。足式機器人的base是會隨著接觸而發生變化的。所以,我一直覺得能做足式機器人控制的人都是很厲害的人。

▲Boston Dynamics的各種足式機器人

再加上這次的Handle機器人,可以說,Boston Dynamics 以一己之力,將人類的足式機器人控制水平拉高了一個層次。

學習

這個屬於另外一大塊內容,由於可以應用到其他領域(控制、規劃、感知等),所以有時候不能單獨列為一類。

機器學習分為監督學習、無監督學習和強化學習三類。目前,深度學習主要在監督學習方面得到了很好的應用;此外,對於強化學習,也逐漸以Deep Learning等形式出現;但無監督學習才是機器學習中的最高挑戰。

我們人類能夠舉一反三(超強的監督學習能力);能夠熟能生巧(超強的強化學習能力);能夠發明新事物(超強的無監督學習能力)。

當然,機器學習的坑還有很多。因為,正是不斷學習讓我們能夠面對不斷變化的環境。這方面可挖的東西太多了。

交互

這個就是機器人與人交互的問題。包括識別人、與人交流、與人協作。在這個角度看,我們現在的機器人還很不盡如人意:

●識別人:雖然人體識別在機器視覺中已經有了很多成果,但是在人機交互過程中,機器人不僅要識別到人的存在,還應該要能判斷人的動作、意圖,並作出相應反饋。

●與人交流:這方面,我們現在的聊天機器人雖然也已經做得不錯了,但離通過「圖靈測試」還很遠,隨便一個普通人都能輕易判斷出對面是一個機器人。

●與人協作:這個就不說了,我們真實的機器人還只能這樣:

容錯性

這個就是說機器人的軟硬體發生故障后,依舊可以自適應地完成部分工作。

人類有太多「身殘志堅」的例子了,即便某些肢體或者感官缺失,仍然可以處理日常生活細節。

▲ 四川90后「無臂男孩」彭超 用腳趾夾筆答題 勇戰聯考追逐大學夢

這方面T-800表現不錯:融解得只剩手了,還能給你點贊。

這是2014年發表在Nature的成果,只是簡單的機構損壞、核心部件完好的情況下可以繼續完成簡單任務,這已是目前現實中機器人能達到的最強程度。

總結

綜上所述,要想做出能夠取代人類的通用機器人,人類還有非常非常非常遠的路要走。

當然,也不是完全不可能,例如現在就報名濼喜課程學習編程和機器人課程,說不定返回拯救地球的機器人就是出自你手的哦!

本文原作者qqfly,上海交通大學機器人所博士生,大學部畢業於清華大學機械工程系,主要研究方向機器視覺與運動規劃,原發於公眾號「Nao」,收錄時有刪改。

金句

人生總是很累的,

你現在不累,

以後就會更累。

——石康



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦