美國卡內(nèi)基梅隆大學(xué)正在用Baxter研發(fā)新一代智能協(xié)作機器人
作者:本站 來源:原創(chuàng) 時間:2017-07-14 瀏覽數(shù):6887
美國卡內(nèi)基梅隆大學(xué)(CMU)的計算機團隊讓Baxter機器人通過觸覺反饋和試錯來學(xué)習(xí),力求打造觸覺、視覺結(jié)合處理和自主學(xué)習(xí)的新一代智能工業(yè)機器人。
眾所周知,在人工智能領(lǐng)域,要想實現(xiàn)對目標的識別、跟蹤和測量,其中一項非常核心的技術(shù)就是計算機視覺。目前,國內(nèi)外有許多家公司和實驗室就在結(jié)合深度學(xué)習(xí)和計算機視覺來進行深度研究與改進,提高機器動作的精度和強度。但是也正如行業(yè)內(nèi)大家所熟知的,無法結(jié)合機器的觸覺是機器人發(fā)展的一大制約。
卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University),簡稱CMU,坐落在美國賓夕法尼亞州的匹茲堡(Pittsburgh),研究型大學(xué)。該校擁有全美頂級計算機學(xué)院。
該系統(tǒng)使用類似于Kinect的3D攝像機。 Baxter收集的視覺和觸覺信息被發(fā)送到一個深層神經(jīng)網(wǎng)絡(luò),它與ImageNet中的圖像數(shù)據(jù)交叉輸入。加上觸摸過程的數(shù)據(jù)訓(xùn)練,機器人的識別精度比僅使用圖像數(shù)據(jù)訓(xùn)練的機器人提高了10%。
實驗室助理DhirajGandhi為大家演示了機器人在接觸熟悉與不熟悉的對象時作出的動作與反應(yīng):當機器人識別出物體時,它牢牢抓住放入盒中,同時電腦上顯示的是微笑的表情;如果對象不熟悉,機器人會挪開手臂,并且會出現(xiàn)扭曲困惑的表情。
傳統(tǒng)的計算機視覺學(xué)習(xí)形式,主要是通過輸入數(shù)據(jù),經(jīng)過“監(jiān)督”學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)來識別對象,不同的是,CMU的機器人可以自己教自己。對此,Gandhi解釋說:“目前計算機視覺的核心就是你用大量目標特征數(shù)據(jù)來訓(xùn)練,而圖像處理任務(wù)與機器識別這一動作任務(wù)之間是相互獨立的?,F(xiàn)在我們想要的就是當機器人與目標對象交互時獲取的變化數(shù)據(jù)。通過這些數(shù)據(jù),訓(xùn)練機器去學(xué)習(xí)可以輔助完成視覺任務(wù)的功能?!?br />
顯然,研究還處于初期階段,但具有一定的前景。未來,觸摸和視覺學(xué)習(xí)的結(jié)合可用于分類機器人,可做類似將垃圾與回收物品分開等工作。當然,該技術(shù)也可以應(yīng)用到人工智能領(lǐng)域的其他應(yīng)用方面。
早前,美國卡內(nèi)基梅隆大學(xué)計算機科學(xué)學(xué)院助理研究教授M. BERNARDINE DIAS就曾率領(lǐng)她的團隊用Baxter機器人測試與實驗,希望通過觸覺以機器人視覺為殘障人士提供識別與導(dǎo)航等方面工作。