Meta 公司周四宣布推出名為 Meta Motivo 的人工智能模型,該模型旨在控制類人數(shù)字智能體的動(dòng)作,從而提升元宇宙體驗(yàn)。
Meta 還發(fā)布了大型概念模型 LCM 和視頻水印工具 Video Seal 等 AI 工具,并重申其對(duì) AI、AR 和元宇宙技術(shù)持續(xù)投入的決心。
IT之家注:Meta Motivo 是一個(gè)基于行為的基礎(chǔ)模型,在 Mujoco 模擬器中進(jìn)行訓(xùn)練,使用了 AMASS 動(dòng)作捕捉數(shù)據(jù)集的子集和 3000 萬個(gè)在線交互樣本,通過一種新型的無監(jiān)督強(qiáng)化學(xué)習(xí)算法進(jìn)行預(yù)訓(xùn)練,以控制復(fù)雜虛擬人形智能體的運(yùn)動(dòng)。
Meta Motivo 使用一種新穎的 FB-CPR 算法進(jìn)行訓(xùn)練,該算法利用未標(biāo)記的動(dòng)作數(shù)據(jù)集,保留零樣本推理能力的同時(shí),將無監(jiān)督強(qiáng)化學(xué)習(xí)引導(dǎo)至學(xué)習(xí)類似人類的行為。
盡管模型沒有經(jīng)過任何特定任務(wù)的顯式訓(xùn)練,但在預(yù)訓(xùn)練過程中,動(dòng)作軌跡跟蹤(例如側(cè)手翻)、姿勢到達(dá)(例如阿拉貝斯克舞姿)和獎(jiǎng)勵(lì)優(yōu)化(例如跑步)等任務(wù)的性能都得到了提升,展現(xiàn)出更接近人類的行為。
該算法的關(guān)鍵技術(shù)創(chuàng)新在于學(xué)習(xí)表示(representation),該表示可以將狀態(tài)、動(dòng)作和獎(jiǎng)勵(lì)嵌入到相同的潛在空間中。因此,Meta Motivo 能夠解決各種全身控制任務(wù),包括運(yùn)動(dòng)跟蹤、目標(biāo)姿態(tài)到達(dá)和獎(jiǎng)勵(lì)優(yōu)化,而無需任何額外的訓(xùn)練或規(guī)劃。