文 | 有界UnKnown
人形機器人行業(yè)又迎來一對新的強強聯(lián)合。
近期,波士頓動力宣稱,會使用豐田研究所的“大型行為模型”來訓(xùn)練機器人,它類似于驅(qū)動ChatGPT的“大型語言模型”,可以讓機器人通過少量演示數(shù)據(jù)和多模態(tài)感知來掌握復(fù)雜任務(wù),走向通用機器人。
在過去,這條技術(shù)路徑一直是馬斯克為Optimus(下稱“擎天柱”)畫的“餅”,想借此實現(xiàn)通用人形機器人。
今年10月初,馬斯克以《We, Robot》為主題在加州開了一場“科幻”味兒十足的發(fā)布會。在現(xiàn)場,擎天柱以服務(wù)員的身份一邊為賓客調(diào)酒,一邊抬手打招呼說著“Hi,everybody”,甚至在現(xiàn)場和賓客熱舞。
但發(fā)布會結(jié)束后,有現(xiàn)場賓客卻表示,擎天柱“親口”向他承認,自己是被遠程遙控的。而整個發(fā)布會,馬斯克也沒有透露關(guān)于擎天柱的任何技術(shù)細節(jié)。
看似自主的機器人,依舊離不開人類的遠程遙控。
馬斯克似乎做了一個雙面鏡,一面是真實的擎天柱仍然做著人類的提線木偶;而另一面,他又用一種近乎虛假的方式為人們構(gòu)畫出一個可能實現(xiàn)的未來。
但顯而易見,馬斯克并沒有興趣解答擎天柱當(dāng)前的研發(fā)進度,那么作為馬斯克在機器人領(lǐng)域的強敵, 波士頓動力這次與豐田研究所的聯(lián)合,能將馬斯克畫的餅實現(xiàn)嗎?
波士頓動力,率先走到終點?
想要完成馬斯克這張拼圖,擎天柱需要擁有與人類和環(huán)境交互的能力。
比如將機器人放在廚房,它首先要能識別出自己所處場景是“廚房”。然后,當(dāng)人類告訴他要做一道菜時,它可以主動從冰箱拿出食材、清洗、切菜、并按步驟烹飪。
要實現(xiàn)這個過程,意味著機器人能夠自主辨別什么是冰箱,并移動到冰箱前,打開冰箱門,在眾多食材中找到需要的食材,取出來,然后結(jié)合各種工具進行清洗.....
這個過程對人類來說十分簡單,但對機器人而言卻十分困難。
當(dāng)前無論是老牌人形機器人波士頓動力的Atlas,還是“新貴”擎天柱、Figure,都只能在受限制的環(huán)境里執(zhí)行單一任務(wù),比如在案板前將已經(jīng)分揀好的各種蔬果拿起或者放下。
▲Figure01拾取水果,圖源YouTube@Figure
▲Optimus Gen2拾取雞蛋,圖源YouTube@Tesla
要知道這其中的區(qū)別,可以想一想咱們自己家里的冰箱,當(dāng)各種食材被混雜在一起、用透明塑料袋裝著的時候,識別難度就會高于單個的西紅柿、紅薯。
所以如果將機器人自主做出一頓飯的難度,比作是登上珠穆朗瑪峰,那么現(xiàn)在的人形機器人才剛剛坐進學(xué)步車。對,它還沒有學(xué)會“走路”。
而更重要的是,當(dāng)前機器人學(xué)習(xí)新技能的效率十分低下,比如學(xué)會了疊衣服之后,轉(zhuǎn)而疊被子就要重新學(xué)習(xí)大量數(shù)據(jù)。
為了克服這個難題,波士頓動力和豐田研究院團隊采用一種新的AI系統(tǒng)“大型行為模型”訓(xùn)練機器人,通過物理演示任務(wù)(例如觀看視頻)進行教學(xué),來幫助將Atlas打造成一款自主性能力強的通用人形機器人。
經(jīng)過這套“大型行為模型”的訓(xùn)練,機器人可以通過少量數(shù)據(jù)學(xué)習(xí)新技能,這種方法叫做“擴散策略”,這套策略可以探索多種不同的路徑,并根據(jù)實時情況選擇最佳方案,它可以幫助機器人更好地應(yīng)對不確定性的環(huán)境,比如突然的障礙或任務(wù)變化。
豐田研究院公布了關(guān)于這一成果的報告,其中有一個通俗案例可以解釋這個策略:
經(jīng)過擴散策略訓(xùn)練的機器人,可以做醬汁燒注和涂抹任務(wù),需要將醬汁涂抹在披薩面團中心,分拆步驟來看:①握住勺子接近披薩面團中心;②將醬汁以螺旋狀鋪在披薩上;③提起勺子。
▲論文《擴散政策:通過動作擴散進行視覺運動策略學(xué)習(xí)》
在這個過程里,披薩面團會隨機移動,而機器人可以“隨機應(yīng)變”,它能跟隨披薩面團中心位置的遷移而即時挪動勺子。
根據(jù)豐田工作人員透露,學(xué)會這個能力并不費勁,“這個過程從老師遠程操作演示一小部分技能開始”,機器人晚上學(xué)習(xí),第二天就可以獲得新技能。也就是說,它用少量數(shù)據(jù)向機器人演示,便能夠讓機器人獲得“泛化”能力。
和傳統(tǒng)的機器人學(xué)習(xí)相比,這種行為模型就像運動界的ChatGPT一樣,給它一點行為上的Prompt,就能泛化出一套完成任務(wù)的操作軌跡和應(yīng)變能力。
但并不是任何人形機器人都能適配這套策略,擴散策略更依賴視覺數(shù)據(jù),這就需要硬件上擁有高精度視覺傳感器,還要擁有抓取復(fù)雜和精細物體操作能力。
這也是目前波士頓動力面臨的挑戰(zhàn)。
其最新款人形機器人Atlas目前并不具備實現(xiàn)“自主”的硬性條件,它既沒有靈巧手,又缺乏生活場景的數(shù)據(jù)。
Atlas機器人雖然具備一定的抓握能力,但其手部設(shè)計相對簡單,只有三指,并且常用場景是應(yīng)急救援和工廠搬運,對于生活場景的數(shù)據(jù)也相對缺乏。
與此相比,特斯拉的擎天柱卻顯得更有優(yōu)勢。
比如在視覺數(shù)據(jù)上,特斯拉的自動駕駛一直堅持純視覺的解決方案,目前市場上運行著將近600萬輛特斯拉汽車,可以積累大量的視覺數(shù)據(jù)。
其次擎天柱在靈巧手、關(guān)節(jié)有更接近人類的設(shè)計。在特斯拉最新展示的視頻里,擎天柱可以走到桌邊,用雙手的“指尖”舉起重11kg的4680電池盒。
這雙機械手已經(jīng)擁有22個自由度,分布在手指、手腕和小指下方,而年初手部擁有11個自由度的第二代擎天柱,所有手指都具有觸覺感應(yīng),能夠靈巧地處理雞蛋等易碎物品。
▲擎天柱舉起電池,圖源:Tesla@YouTube