美國卡內基梅隆大學正在用Baxter研發新一代智能協作機器人
作者:本站 來源:原創 時間:2017-07-14 瀏覽數:6961
美國卡內基梅隆大學(CMU)的計算機團隊讓Baxter機器人通過觸覺反饋和試錯來學習,力求打造觸覺、視覺結合處理和自主學習的新一代智能工業機器人。
眾所周知,在人工智能領域,要想實現對目標的識別、跟蹤和測量,其中一項非常核心的技術就是計算機視覺。目前,國內外有許多家公司和實驗室就在結合深度學習和計算機視覺來進行深度研究與改進,提高機器動作的精度和強度。但是也正如行業內大家所熟知的,無法結合機器的觸覺是機器人發展的一大制約。
卡內基梅隆大學(Carnegie Mellon University),簡稱CMU,坐落在美國賓夕法尼亞州的匹茲堡(Pittsburgh),研究型大學。該校擁有全美頂級計算機學院。
該系統使用類似于Kinect的3D攝像機。 Baxter收集的視覺和觸覺信息被發送到一個深層神經網絡,它與ImageNet中的圖像數據交叉輸入。加上觸摸過程的數據訓練,機器人的識別精度比僅使用圖像數據訓練的機器人提高了10%。
實驗室助理DhirajGandhi為大家演示了機器人在接觸熟悉與不熟悉的對象時作出的動作與反應:當機器人識別出物體時,它牢牢抓住放入盒中,同時電腦上顯示的是微笑的表情;如果對象不熟悉,機器人會挪開手臂,并且會出現扭曲困惑的表情。
傳統的計算機視覺學習形式,主要是通過輸入數據,經過“監督”學習訓練網絡來識別對象,不同的是,CMU的機器人可以自己教自己。對此,Gandhi解釋說:“目前計算機視覺的核心就是你用大量目標特征數據來訓練,而圖像處理任務與機器識別這一動作任務之間是相互獨立的?,F在我們想要的就是當機器人與目標對象交互時獲取的變化數據。通過這些數據,訓練機器去學習可以輔助完成視覺任務的功能?!?br />
顯然,研究還處于初期階段,但具有一定的前景。未來,觸摸和視覺學習的結合可用于分類機器人,可做類似將垃圾與回收物品分開等工作。當然,該技術也可以應用到人工智能領域的其他應用方面。
早前,美國卡內基梅隆大學計算機科學學院助理研究教授M. BERNARDINE DIAS就曾率領她的團隊用Baxter機器人測試與實驗,希望通過觸覺以機器人視覺為殘障人士提供識別與導航等方面工作。