search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

矽谷大亨的AI機器人居然一不小心就被VR「調教」了

傳授無人機正確躲避障礙物的姿勢

記性好的童鞋還記得微軟開源了一個「空中信息與機器人平台」(代號 AirSim)吧!AirSim 是一個高級虛擬現實訓練系統,簡單來說,就是用 VR 訓練 AI。

這個開源項目意義重大,特別是對人工智慧公司來說,省去了機器學習大量的時間和人力成本。

現在,OpenAI 也來湊熱鬧了!

(OpenAI 是一家人工智慧非營利組織,由幾位矽谷大亨聯合創立:SpaceX 的創始人伊隆·馬斯克,矽谷知名創業加速器 Y Combinator 的總裁薩姆·阿爾特曼等。據說他們要給 OpenAI 注資 10 億美金,為了推動人工智慧的積極發展,預防它造成的災難性影響)

他們的機器人並不長這樣,後面你就知道了

OpenAI 的第一個目標是製造通用機器人,以後幫大家做做家務,你無聊時陪你聊聊天啥的。不過要讓機器人如此智能,需要大量的訓練。

OpenAI 開源了一個模擬機器人訓練的軟體 Roboschool,它可以設計多個模擬器,在同一場景中訓練一個或多個機器人

OpenAI 開發了一種單次模仿學習演算法(one-shot imitation learning),只要人在 VR 里演示一遍動作,機器人就能照著這個演示模仿學習。

靈感來源於剛出生 10 分鐘的嬰兒就會模仿大人吐舌頭了,OpenAI 希望自己的機器人也能快速模仿人類,用這種方式學習新東西。

這是他們的模擬訓練概念系統:we teach the robot。

人先在 VR 里演示一遍這個任務,把 6 個不同顏色的小方塊堆成一個塔。

不管你怎麼擺放 6 個小方塊,最終機器人都會採用相同的順序,擺成跟人類操作一樣的結果。

那麼,這個系統是如何工作的呢?

而這些都靠 OpenAI 的單次模仿學習演算法來實現。演算法的核心是讓兩個神經網路(基於人腦的計算機系統)一起工作:視覺網路(Vision Network)和模仿網路(Imitation Network)。

視覺網路是一個深度神經網路,負責處理相機拍攝的圖像,來幫助機器人確定積木的位置。

研究人員用不同的光線、紋理和對象的組合,生成成千上萬張模擬圖像。

模仿網路要經過幾十個不同的任務訓練,每次任務包含上千次演示。每次訓練,模仿網路都可以觀察到兩個演示案例。第一次演示,模仿網路可以全方位仔細觀摩,第二次只會被展示一次。

然後,研究人員就會使用監督學習,讓機器人預測演示者下一步會採取什麼行動。也就是說,機器人必須要學習如何從第一次展示中,就推測出下一步的行動。

這個演算法已經教會了機器人如何堆方塊,不過,OpenAI 的研究人員表示,它還可以讓機器人學其他的任務。

魔多君覺得,這個技術一旦成熟了,對人工智慧真的是突破性的!

因為訓練神經網路需要一個龐大的資料庫,比如你訓練 AI 識別一隻貓,你就要給它好多好多貓的圖片,依靠人工來把關鍵的信息點標註出來。

而人工標註數據一個極其費體力的活,相當熬人,直接影響訓練的質量。就像你在日常工作中做信息搜集和分類時,得花大量的時間,無聊枯燥。

OpenAI 用 VR 訓練機器人解決了神經網路「標記數據」這個重大的問題,省去大量的人工成本,與谷歌在今年 I/O 大會上提到,研發一種用來自動標註數據的神經網路不言而喻。



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦