許多研究人工智慧(AI)的企業都在透過深度學習來教會機器人辨識圖像,卡內基美隆大學(CMU)的研究團隊則選了另外一種方式,他們試著教導機器人透過觸摸來認知世界,就像嬰兒一樣。
TechCrunch 報導,在每天 8 小時實驗期間,這個名為“Baxter“的機器人只有一個任務要進行──從桌上隨機抓取物品,它的動作緩慢而笨拙,即使如此,這一個月期間也已經進行了 5 萬次的抓取動作,Baxter 正在透過觸覺反饋和嘗試錯誤來學習。
研究團隊在發表的論文中,解釋了他們如何透過讓機器人反覆接觸物品,來提升對物品的認知,“以嬰兒來說,他們透過用手推、戳物品、把東西放進嘴里或扔出去來學會認知表征,我們也希望達到這樣的目標,所以在 Baxter 的程式平臺中建構了類似的模式,讓它們在桌面環境上戳、抓取并觀察物品。“
為了說明學習觸摸的重要性,研究室助理 Dhiraj Gandhi 用 1970 年代中期英國的一項實驗做為例子,當時研究人員對兩只貓進行認知實驗,其中一只就像平常一樣生活、與世界接觸,另一只貓則只能夠觀看,不被允許接觸物品,最終只有被允許與環境互動的學會爬行,只能觀察的不能做出同樣舉動。
而在實驗中,Baxter 逐漸地展現出對物品認知的提升,當機器人認出熟悉的物品時,平板顯示屏幕上會露出“微笑“,并且抓取物品放入適合的籃子;如果對物品不熟悉,屏幕上則會露出“困惑“的表情──研究人員并不擔心,他們相信沒有什么是另外 5 萬次抓取練習學習不了的。
這項研究改變了傳統的機器視覺學習模式,不同于以往系統透過已經輸入的標簽去判斷、尋找物品,Baxter 是透過觸摸來自我學習認知,Gandhi 解釋,過去圖像和標簽之間并沒有互動,在視覺系統中只有被動數據可以收集。
“我們想要的是與物品時可以獲得活動的數據,并透過這些學習對其他視覺任務有用的功能。“
Baxter 的系統中有著類似 Kinect 的 3D 鏡頭,將收集到的視覺與觸覺訊息發送到深層的神經網路,并在 ImageNet 中與圖像交叉參考。團隊在其中意外發現,收集的觸摸數據讓 Baxter 的辨識精準度,較其他只使用圖像辨識的機器人高出 10%,團隊認為這非常鼓舞人心。
盡管目前研究還處于初期階段,但團隊十分看好未來的發展,Gandhi 表示,他認為結合視覺與觸摸學習的機器人可以用于揀選分類,就像 ZenRobotics 開發的類型,未來能為垃圾進行分類回收,這在現實中是一個非常大的挑戰,“當然,我們目前還在嬰兒學步呢。“