当前位置: 华文世界 > 科技

MIT推全新机器人训练模型 用更简单粗暴的方式解决问题

2024-11-05科技

麻省理工学院(MIT)本周展示了一种全新的机器人训练模型,该模型放弃了以往专注于特定数据集的训练方法,转而采用类似大型语言模型(LLMs)训练时使用的海量信息。

研究人员指出,模仿学习——即代理通过模仿执行任务的个体来学习——在遇到小的挑战时可能会失败。这些挑战可能包括不同的光照条件、不同的环境设置或新的障碍物。在这些情况下,机器人没有足够的数据来适应这些变化。

图源备注:图片由AI生成,图片授权服务商Midjourney

团队借鉴了像GPT-4这样的模型,采用了一种粗暴的数据驱动问题解决方式。

「在语言领域,数据就是句子,」该论文的主要作者Lirui Wang说。「在机器人领域,鉴于数据的多样性,如果你想以类似的方式预训练,我们需要不同的架构。」

团队引入了一种新的架构,称为异构预训练变换器(HPT),它整合了来自不同传感器和不同环境的信息。然后使用变换器将数据整合到训练模型中。变换器越大,输出结果越好。

用户随后输入机器人的设计、配置以及他们想要完成的任务。

「我们的梦想是拥有一个通用的机器人大脑,你可以下载并用于你的机器人,而无需任何训练,」卡内基梅隆大学副教授David Held在谈到这项研究时说。「虽然我们才刚刚开始,但我们将继续努力,希望规模的扩大能像大型语言模型一样,为机器人策略带来突破。」

这项研究部分由丰田研究所资助。去年在TechCrunch Disrupt上,TRI展示了一种一夜之间训练机器人的方法。最近,它达成了一个分水岭的合作伙伴关系,将其机器人学习研究与波士顿动力的硬件结合起来。