谷歌DeepMind團(tuán)隊Everyday Robot系統(tǒng)機器人任務(wù)成功率97%

對人類來說看似簡單的事情有無限多的變量,簡單任務(wù)的復(fù)雜性,我們認(rèn)為理所當(dāng)然。但機器人沒有這樣的奢望。

這正是為什么大部分行業(yè)都專注于在結(jié)構(gòu)化環(huán)境中重復(fù)任務(wù)。值得慶幸的是,近年來機器人學(xué)習(xí)領(lǐng)埴出現(xiàn)了一些改變游戲規(guī)則的突破,行業(yè)正在走上創(chuàng)建和部署更多適應(yīng)性系統(tǒng)的軌道。

谷歌DeepMind團(tuán)隊Everyday Robot系統(tǒng)機器人任務(wù)成功率97%

去年,谷歌DeepMind的機器人團(tuán)隊展示了Robotics Transformer – RT-1 – 它訓(xùn)練其Everyday Robot系統(tǒng)執(zhí)行諸如拾放和打開抽屜等任務(wù)。該系統(tǒng)基于130,000個演示的數(shù)據(jù)庫,根據(jù)團(tuán)隊的說法,其成功率為“超過700”項任務(wù)的97%。

今天它正在揭開RT-2的面紗。在一篇博客文章中,DeepMind的杰出科學(xué)家兼機器人負(fù)責(zé)人Vincent Vanhoucke表示,該系統(tǒng)允許機器人有效地將相對較小數(shù)據(jù)集上學(xué)到的概念轉(zhuǎn)移到不同場景。

“RT-2顯示出改進(jìn)的泛化能力和超出其接觸到的機器人數(shù)據(jù)的語義和視覺理解能力”,谷歌解釋道。“這包括解釋新命令并通過執(zhí)行基礎(chǔ)推理來響應(yīng)用戶命令,例如推理關(guān)于對象類別或高級描述?!痹撓到y(tǒng)有效地展示了根據(jù)現(xiàn)有上下文信息確定諸如特定新任務(wù)最佳工具之類事物的能力。

谷歌DeepMind團(tuán)隊Everyday Robot系統(tǒng)機器人任務(wù)成功率97%

Vanhoucke引用了一個場景,在其中要求機器人扔掉垃圾。在許多模型中,用戶必須教機器人識別什么符合垃圾標(biāo)準(zhǔn),然后訓(xùn)練它撿起垃圾并扔掉。這是一個細(xì)節(jié)水平,對于預(yù)期執(zhí)行一系列不同任務(wù)的系統(tǒng)來說并不特別可擴展。

“由于RT-2能夠從大量網(wǎng)絡(luò)數(shù)據(jù)中轉(zhuǎn)移知識,它已經(jīng)對垃圾有了一個概念,并且可以在沒有明確訓(xùn)練的情況下識別它”,Vanhoucke寫道?!八踔劣幸粋€如何扔掉垃圾的想法,盡管它從未接受過采取這種行動的培訓(xùn)。并且想想垃圾的抽象性質(zhì)——吃完后薯片袋或香蕉皮就變成了垃圾。RT-2能夠從其視覺語言培訓(xùn)數(shù)據(jù)中理解這一點并完成工作。”

團(tuán)隊表示,在從RT-1到RT-2跳躍時執(zhí)行新任務(wù)的效率率已從32%提高到62%。

原創(chuàng)文章,作者:AI,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/574134.html

AI的頭像AI認(rèn)證作者

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論

評論列表(1條)

  • itech的頭像
    itech 2023年8月1日 15:39:19

    我們機器人家族越來越強大了,感謝人類造物主