机器人学会“自我”!MIT研发新感知技术

产品展示 2025-07-30 09:52:24 156

神经雅可比场突破

麻省理工学院计算机科学与人工智能实验室的科学家们搞出了一项了不起的新技术,让机器人不用靠复杂的传感器或者人工写程序,光靠“看”就能学会怎么控制自己的身体。这项技术叫“神经雅可比场”,可以说是彻底改变了以前机器人是怎么被操控的。

在实验中,一个柔软的机械手就靠着一个摄像头的视觉反馈,就能准确地弯手指去抓小东西。这看起来好像挺简单,但背后其实是个大突破——机器人不需要内置的传感器,也不用提前设定好动作模型,而是通过自己观察自己的动作,慢慢学会怎么根据指令来调整身体。

这项研究成果发表在《自然》杂志上,标志着机器人领域的一次重大变化。项目负责人、MIT电子工程和计算机科学专业的博士生李思哲说:“我们的工作代表了一种从‘编程机器人’到‘教机器人’的转变。现在很多机器人任务都需要大量的人工设计和编程,我们希望未来只需要告诉机器人要做什么,它就能自己学会怎么完成任务。”

神经雅可比场技术

神经雅可比场技术的核心,其实就是一个神经网络,它能同时搞定机器人身体的两个关键方面:一个是它的三维形状,另一个是它对控制指令的反应能力。这个系统是在“神经辐射场”技术的基础上发展而来的,这种技术可以通过图像来重建三维场景,把空间里的每个点都映射成颜色和密度。

而神经雅可比场更进一步,它不只是学机器人的样子,还学会了“雅可比场”——其实就是一种函数,可以告诉你机器人身体上的任何一个点,当电机收到一个指令时,会怎么动。

训练起来特别简单但效率很高。机器人会自己做些随机动作,同时被多个摄像头拍下来,系统就通过这些视频自动学习控制信号和运动之间的关系,根本不需要人来教,也不需要提前知道机器人结构是什么样的。

等训练完了,机器人只要装一个单目摄像头,就能实现大约每秒12帧的实时闭环控制,这样它就能一直看着自己、自己规划动作,还能及时做出反应。

突破传统设计限制

这种速度让神经雅可比场比很多基于物理的柔性机器人模拟器更实用,因为后者通常计算量太大,根本没法实现实时运行。在早期的仿真中,就连简单的二维手指或者滑块,也能只用少量例子就学会这个映射关系。通过学习某个点在动作下会怎么变形或移动,神经雅可比场就能生成一个密集的、可控性很强的“地图”。

研究团队在多种不同类型的机器人上测试了这个系统的稳定性。他们用的是能夹东西的气动柔性机械手、刚性的Allegro手、3D打印的机械臂,甚至是没有内置传感器的旋转平台。在每一种情况下,系统都只是通过视觉和随机运动,就学会了机器人的形状以及它对控制信号的反应。

突破传统设计的限制

这种建模方式和硬件设计的解耦,可能大大拓展机器人设计的可能性。在柔性机器人或者仿生机器人中,设计师通常会加一些传感器或者强化某些结构,只是为了方便建模。但神经雅可比场打破了这种限制,它不需要板载传感器,也不需要对设计做调整就能实现控制。这样一来,设计师就可以更自由地去尝试那些非传统的、没有约束的形态,不用担心以后能不能建模或者控制它们。

神经雅可比场技术突破

MIT的助理教授文森特·西茨曼带领的一个研究小组,最近提出了一种叫“神经雅可比场”的新方法。他解释说:“现在市面上的机器人技术,因为要用很多贵的传感器和复杂的编程,感觉好像离普通人挺远的。我们这个新技术的目标,就是让机器人变得更便宜、更灵活,让更多人用得起。而视觉,其实是个很可靠、很有韧性的‘传感器’。”

这项技术突破,让机器人在那些杂乱、没有固定结构的环境里也能干活了,比如农场、建筑工地这些地方,不需要装什么昂贵的设备。只要靠摄像头看东西,就能知道怎么定位、怎么控制,不用GPS、不用外部追踪系统,也不用那么多高级的传感器。

CSAIL的主任丹妮拉·鲁斯教授也补充说:“通过学习视觉反馈,这些系统能自己建立对运动和动力学的理解,在传统定位方式不管用的地方,也能灵活地自己操作。比如说,无人机可以在没地图的室内或者地下飞,移动机械臂能在家里或者仓库里干活,还有四足机器人能走崎岖不平的地形。”

不过呢,虽然这个技术挺厉害,但目前还是有一些挑战。比如训练的时候需要多个摄像头,而且每台机器人得单独训练。现在的系统还不能跨机器人通用,也没有触觉或者力觉的感觉,所以在需要跟物体直接接触的任务上,效果可能还不够好。

未来的话,团队还在努力解决这些问题,希望能让这种技术更实用、更普及。

视觉驱动机器人控制发展

不过,研究团队已经在尝试解决这些限制的新方法了:比如提升模型的泛化能力、处理遮挡问题,还有让模型在更长的空间和时间范围内进行推理。他们设想未来的版本会更加方便实用,普通人用手机随便录一段机器人动作,就像租完车前拍个视频那样,就能用这些视频来训练控制模型,不需要任何先验知识或者特别的设备。

李思哲总结说:“就像人类对自己身体怎么动、怎么听指令有直觉理解一样,神经雅可比场就是通过视觉给机器人一种‘身体意识’。这种理解是机器人在真实世界里灵活操作和控制的基础。我们的研究其实也反映了机器人技术的一个大趋势:从过去那种手动写详细程序,慢慢转向通过观察和互动来教机器人做事。”

这项研究结合了西茨曼实验室在计算机视觉和自监督学习方面的成果,以及鲁斯实验室在柔性机器人方面的经验。团队里有很多CSAIL的研究人员,这也说明了跨学科合作在推动机器人技术发展中的重要性。

随着人工智能和机器学习技术的不断进步,这种基于视觉的机器人控制方法,未来几年可能会得到更广泛的应用,为打造更智能、更适应环境的机器人系统打下基础。