
机器人的“手艺活”为什么这么难?|AI问为什么
想一想,捏一块嫩豆腐和捏一片薯片有什么不同?
对你来说,这不过是一瞬间的手感判断——豆腐要轻,薯片要稳。可对机器人来说,这却是一场跨越感知、规划与执行的“极限挑战”。
马斯克曾经表示,人形机器人最难的不是大脑,而是灵巧手和量产。为什么机器人的“手艺活”这么难?
触觉的“翻译难题”:
从感觉到动作的距离
我们人类的手,是一台精密的“感知—执行”一体机。我们甚至不用思考,就会自动调整力度。
但机器人不一样。
“机器人灵巧手的抓取是通过触觉等信息的输入,结合扩散策略、高精度定位和力控技术,输出动作执行信号,实现自适应抓取。灵巧手搭载了高精度传感器后,能感知各种力学信息、纹理、温度、回弹等。”帕西尼感知科技联合创始人聂相如说。
如何把这些触觉信息“翻译”成机器人理解的动作是个难点。比如,当传感器检测到“表面柔软、易变形”,机器人得立刻明白:“这是豆腐,我得轻拿轻放。”
这中间,需要一套复杂的触觉语言系统,把物理信号转化成控制指令。
聂相如解释,灵巧手先通过传感器感受到物品的软硬度、材质差异,然后针对豆腐、薯片、葡萄这些不同对象,生成不同的抓取姿态和力度,从而完成传统的、标准化的程序很难完成的动作。
“帕西尼的灵巧手装备了自研的触觉传感器。按压灵巧手的指尖,可以通过屏幕看到多个维度的力学信息。机器人非常需要这些力学信息,从而对外界环境做出判断。”聂相如说。
你看,这不只是“摸到”,更是“理解”。机器人得学会“看菜下饭”,根据物体的特性,决定怎么“出手”。
这还只是第一步。
即便机器人“知道”该用多大力,执行起来又是另一回事。
人类的动作是肌肉记忆和神经反射的完美配合,机器人则不同。“机器人抓取的另一个难点在于如何把收到的信息反馈给每一个指节、每一个电机,并根据不同形状、材质,生成合理且具有泛化能力的抓取姿态。这也是灵巧手在抓取过程中的难点。”聂相如解释。
换句话说,机器人不仅要学会“怎么抓”,还要学会“随机应变”。
“眼睛”和“手”的密切配合
实现更像人的自适应抓取
机器人灵巧手的抓取不是单纯依靠触觉系统或视觉系统,而是需要手眼协同。
抓取之前,机器人通常先用视觉系统进行粗定位:这是个球,位置在这里。然后上手触觉系统进行精定位,感知物体表面信息,进行动作规划,生成力反馈并进行优化,并最终在不同任务和环境中动态学习和快速适应,提升抓取操作的成功率。
机器人一般通过多维触觉和视觉的密切配合,进行精细操作和稳定抓取。
如何把视觉和触觉这两种不同模态的数据对齐、融合,也是当前机器人抓取技术的一大难点。
聂相如透露,帕西尼开发了一套名为“PX-Core”的基于视触觉双模态模型控制架构,尝试让视觉建模与触觉信息同步协作,让灵巧手获取基于多模态信息的环境理解,再进行运动规划,从而在实际产线上实现更稳定的抓取表现。
这其实很像我们人类的行为模式。好比,你看到一杯水,以为它很轻,一拿起来发现是满的,你会瞬间调整力道。机器人也在学这招:从“看到”到“摸到”,再到“调整”,整个过程要瞬间完成。而这种多模态融合的能力,正是机器人从灵巧手变得更像人手的关键。
它不再只是执行预设动作的工具,而是具备实时感知、判断、调整的智能体。
抓取对机器人而言,不仅是技术问题,更是一场关于感知、规划与执行的协同进化。
当我们赋予机器融合触觉与视觉的“感知”,教会它们理解材质与力度的“常识”,或许有一天,机器人会悄悄递来一杯咖啡,温度刚好,力度稳妥,就像朋友的手。
而这一切,都从教会它们“轻拿轻放”开始。
●更多往期内容>>

【编者按】
这是一场关于未来的追问。
爱问为什么,爱较真答案,更爱那些让生活变得更美好的可能。
即日起,南方+推出“AI问为什么”系列融媒体报道。
我们走进一个个被AI改变的现场,从工厂车间到城市街巷,从医疗场景到日常生活……
借助AI技术,用听得懂的语言,层层追问变革背后的“为什么”。
AI解难题,问透为什么——
带你一起,看见千行百业如何被AI点亮,预见正在到来的未来。
策划:陈枫 王海军
统筹:袁佩如 王良珏
采写:南方+记者 许宁宁 昌道励
摄影:南方+记者 张令
剪辑:南方+记者 何志豪 龙达洋
设计:吴颖岚 谭唯
实盘10倍杠杆app下载提示:文章来自网络,不代表本站观点。