日本衝繩科學技術研究所認知神經機器人團隊開發了一種具有新穎架構的具身具身智能模型。它允許科學家訪問神經網絡的模型各種內部狀態,並且能夠以與人類兒童相似的学习相方式學習泛化,揭曉了神經網絡中認知發展和信息處理的儿童關鍵信息。該成果發表在新一期《科學·機器人學》雜誌上。具身
對人工智能(AI)至關重要的模型大型語言模型(LLM)主要依賴於大規模數據集,但其無法像人類那樣有效地從有限信息中進行泛化。学习相而具身智能是儿童一種基於物理實體進行感知和行動的智能係統。它可以通過智能體與環境的具身交互來獲取信息、理解問題、模型做出決策並執行行動。学习相
此次的儿童具身智能模型基於預測編碼啟發,變分遞歸神經網絡框架,具身通過集成視覺、模型本體感覺和語言指令三種感官輸入進行訓練。学习相具體來說,該模型處理了以下輸入:觀看機械臂移動彩色塊的視頻;感知人體四肢運動的感覺及機械臂移動時的關節角度;以及語言指令如“把紅色物體放在藍色物體上”。
該模型的靈感,是大腦不斷根據過去的經驗預測感官輸入,並采取行動將預測與觀察之間的差異降至最低。因為大腦的工作記憶和注意力有限,所以必須按順序處理輸入並更新其預測,而不是像LLM那樣一次性處理所有信息。
研究表明,新模型隻需更小的訓練集和更少的計算資源就可實現泛化學習。盡管它比LLM犯錯更多,但這些錯誤類似於人類的錯誤。
這意味著,將語言與行為相結合可能是兒童快速語言學習的重要因素。這種具身智能不僅提高了透明度,還能更好地了解AI的行為效果,為未來更安全、更合乎道德的AI發展指明了方向。
這項研究為理解和模擬人類認知提供了一個新的視角,展示了如何通過整合多種感官輸入來實現高效的泛化能力。這不僅有助於開發更加智能和靈活的AI係統,也為認知科學提供了寶貴見解。