一区二区三区A片|Av不卡高清网址|精品久久不卡一本|一区二区三区绿色|五月黄色婷婷久久|综合 另类 一区|亚洲成人VA视频|久久国产特黄大片|成人无码激情亚洲|黄色字幕网址大全

要用大模型加持各種機(jī)器人?DeepMind 的“非凡”新型人工智能出手了

機(jī)器人技術(shù)的一大挑戰(zhàn)是必須投入大量精力來訓(xùn)練每個(gè)機(jī)器人、任務(wù)和環(huán)境的機(jī)器學(xué)習(xí)模型。現(xiàn)在,谷歌 DeepMind 和其他 33 個(gè)研究機(jī)構(gòu)的一個(gè)新項(xiàng)目旨在通過創(chuàng)建一個(gè)通用人工智能系統(tǒng)來應(yīng)對這一挑戰(zhàn),該系統(tǒng)可以與不同類型的物理機(jī)器人一起工作并執(zhí)行許多任務(wù)。

機(jī)器人技術(shù)的一大挑戰(zhàn)是必須投入大量精力來訓(xùn)練每個(gè)機(jī)器人、任務(wù)和環(huán)境的機(jī)器學(xué)習(xí)模型。

現(xiàn)在,谷歌 DeepMind 和其他 33 個(gè)研究機(jī)構(gòu)的一個(gè)新項(xiàng)目旨在通過創(chuàng)建一個(gè)通用人工智能系統(tǒng)來應(yīng)對這一挑戰(zhàn),該系統(tǒng)可以與不同類型的物理機(jī)器人一起工作并執(zhí)行許多任務(wù)。

谷歌機(jī)器人公司高級軟件工程師 Pannag Sanketi 表示:“我們觀察到,機(jī)器人是偉大的專家,但卻不是多面手。” “通常,必須為每個(gè)任務(wù)、機(jī)器人和環(huán)境訓(xùn)練一個(gè)模型,更改單個(gè)變量通常需要從頭開始。”

為了克服這個(gè)問題,讓訓(xùn)練和部署機(jī)器人變得更加容易和快捷,這個(gè)被稱為 Open-X Examples 的新項(xiàng)目引入了兩個(gè)關(guān)鍵組件:一個(gè)包含多種機(jī)器人類型數(shù)據(jù)的數(shù)據(jù)集,以及一系列能夠跨機(jī)器人傳遞技能的模型,任務(wù)范圍廣泛。

研究人員在機(jī)器人實(shí)驗(yàn)室和不同類型的機(jī)器人上對模型進(jìn)行了測試,與常用的機(jī)器人訓(xùn)練方法相比,取得了更好的結(jié)果。

▌結(jié)合機(jī)器人數(shù)據(jù)

通常,每種不同類型的機(jī)器人及其獨(dú)特的傳感器和執(zhí)行器集都需要專門的軟件模型,就像每個(gè)生物體的大腦和神經(jīng)系統(tǒng)如何進(jìn)化以適應(yīng)該生物體的身體和環(huán)境一樣。

Open X-Embodiment 項(xiàng)目的誕生源于這樣一種直覺:結(jié)合來自不同機(jī)器人和任務(wù)的數(shù)據(jù)可以創(chuàng)建一個(gè)優(yōu)于專用模型的通用模型,適用于所有類型的機(jī)器人。

這個(gè)概念部分受到大型語言模型(LLM)的啟發(fā),當(dāng)在大型通用數(shù)據(jù)集上進(jìn)行訓(xùn)練時(shí),該模型可以匹配甚至優(yōu)于在狹窄的特定任務(wù)數(shù)據(jù)集上訓(xùn)練的較小模型。令人驚訝的是,研究人員發(fā)現(xiàn)同樣的原理也適用于機(jī)器人。

為了創(chuàng)建 Open X-Embodiment 數(shù)據(jù)集,研究團(tuán)隊(duì)收集了來自不同國家 20 個(gè)機(jī)構(gòu)的 22 個(gè)機(jī)器人實(shí)施例的數(shù)據(jù)。該數(shù)據(jù)集包括超過100萬集的500多項(xiàng)技能和15萬項(xiàng)任務(wù)的示例(一集是機(jī)器人每次試圖完成一項(xiàng)任務(wù)時(shí)采取的一系列動作)。

隨附的模型基于 Transformer,深度學(xué)習(xí)架構(gòu)也用于大型語言模型。RT-1-X 建立在Robotics Transformer 1 (RT-1)之上,這是一個(gè)適用于現(xiàn)實(shí)世界大規(guī)模機(jī)器人技術(shù)的多任務(wù)模型。

RT-2-X 建立在 RT-1 的后繼者RT-2的基礎(chǔ)上,RT-2 是一種視覺語言動作 (VLA) 模型,可以從機(jī)器人和網(wǎng)絡(luò)數(shù)據(jù)中學(xué)習(xí),并且可以響應(yīng)自然語言命令。

研究人員在五個(gè)不同的研究實(shí)驗(yàn)室的五種常用機(jī)器人上測試了 RT-1-X 的各種任務(wù)。與為每個(gè)機(jī)器人開發(fā)的專用模型相比,RT-1-X 在拾取和移動物體以及開門等任務(wù)上的成功率高出 50%。該模型還能夠?qū)⑵浼寄芡茝V到不同的環(huán)境,而不是適合特定視覺設(shè)置的專用模型。這表明,在大多數(shù)任務(wù)中,經(jīng)過不同示例集訓(xùn)練的模型都優(yōu)于專業(yè)模型。論文稱,該模型可以應(yīng)用于從機(jī)器人手臂到四足動物的各種機(jī)器人。

加州大學(xué)伯克利分校副教授、該論文的合著者謝爾蓋·萊文(Sergey Levine)寫道:“對于任何做過機(jī)器人研究的人來說,你都會知道這是多么了不起:這種模型‘從來’不會在第一次嘗試時(shí)就成功,但這個(gè)模型卻成功了。” 。

在緊急技能、未包含在訓(xùn)練數(shù)據(jù)集中的新任務(wù)方面,RT-2-X 的成功率是 RT-2 的三倍。特別是,RT-2-X 在需要空間理解的任務(wù)上表現(xiàn)出更好的性能,例如區(qū)分將蘋果移到布附近與將其放在布上的區(qū)別。

研究人員在一篇宣布Open X和RT-X的博客文章中寫道:“我們的研究結(jié)果表明,與其他平臺的數(shù)據(jù)共同訓(xùn)練為RT-2-X注入了原始數(shù)據(jù)集中沒有的額外技能,使其能夠執(zhí)行新的任務(wù)。”。

▌為機(jī)器人研究采取未來措

展望未來,科學(xué)家們正在考慮將這些進(jìn)展與DeepMind 開發(fā)的自我改進(jìn)模型RoboCat的見解相結(jié)合的研究方向。RoboCat學(xué)習(xí)在不同的機(jī)械臂上執(zhí)行各種任務(wù),然后自動生成新的訓(xùn)練數(shù)據(jù)以提高其性能。

Sanketi 認(rèn)為,另一個(gè)潛在的方向可能是進(jìn)一步研究不同的數(shù)據(jù)集混合如何影響跨實(shí)施例泛化以及改進(jìn)的泛化如何實(shí)現(xiàn)。

該團(tuán)隊(duì)開源了 Open X-Embodiment 數(shù)據(jù)集和小型版本的 RT-1-X 模型,但沒有開源 RT-2-X 模型。

桑凱蒂說:“我們相信這些工具將改變機(jī)器人的訓(xùn)練方式,并加速這一領(lǐng)域的研究。” “我們希望開源數(shù)據(jù)并提供安全但有限的模型將減少障礙并加速研究。機(jī)器人技術(shù)的未來依賴于讓機(jī)器人能夠互相學(xué)習(xí),最重要的是,讓研究人員能夠互相學(xué)習(xí)。”

THE END
免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請諒解!