在科技圈,我们一直习惯把"自动驾驶"和"机器人"当成两条平行赛道。
但2026年发生的两件事,正在打破这个认知:
一个是贵州的 PIX Moving 在贵阳落地了全球首个"奇遇环线",街上跑的不是轿车,而是没有驾驶舱的移动咖啡厅、移动K歌房、移动智慧药房。
另一个是手机巨头 荣耀 的人形机器人"闪电",在北京亦庄半程马拉松跑出了50分26秒的成绩,直接把人类半马世界纪录甩在了身后。
两件事看似不相关,背后却指向同一个逻辑——
自动驾驶从来就不是终点,它只是具身智能的一场"热身赛"。
以前大家觉得,造车的和造机器人的,数据不通、模态不同,根本就是两拨人在干两件事。
但现在,从"看路"到"动起来"、从2D到3D的这条路,正在被这些先锋企业悄悄打通。
01 PIX Moving:不造车,造"会跑的空间"
如果你还觉得PIX Moving只是一家自动驾驶公司,那说明你已经落后了。
贵阳的"奇遇环线"上奔跑的那些移动空间,本质上已经不是"车"了——它们没有驾驶舱,不需要为人类司机服务,内核是一个通用线控底盘+各种服务模块。
PIX Moving的野心从来不是"让车跑得更快",而是 "让空间动起来" 。
过去自动驾驶解决的是"从A到B不撞车";现在PIX Moving解决的是"到了B点,怎么给你做一杯咖啡"。
当车辆去掉了"人类驾驶"这个枷锁,它其实就是一台长了轮子的机器人。
这,就是自动驾驶向具身智能延伸的最有力证明。
02 2D和3D之间,曾经隔着一堵墙
为什么过去大家总觉得自动驾驶和机器人是两码事?
核心原因在于 数据模态不兼容 。
自动驾驶处理的主要是2.5D视觉流——识别车道线、红绿灯、障碍物。而机器人要处理的是3D点云和物理交互,是"力"和"扭矩",是抓取和操作。
一个只懂"看",一个只懂"干"。两者说的不是同一种语言,自然聊不到一块去。
但荣耀的打法很有意思。
他们把做手机这十几年积累的端侧AI、精密制造、散热管理经验,一股脑迁移到了机器人身上。这么做解决了一个最头疼的问题:3D操作数据太贵、太少、太难采集。
那怎么办?先用海量的2D数据——手机影像、自动驾驶视觉——把AI的"眼睛"和"大脑"练好,再让它去学"手脚"怎么动。
这是一种极其务实的 "迁移学习" 路径。既然真实的3D数据不好搞,那就先用2D把底子打扎实。
03 马拉松赛道,就是具身智能的"高考"
如果说PIX Moving的"奇遇环线"是城市机器人的日常演习,那2026年北京亦庄的人形机器人半程马拉松,就是一场针对"物理AI"的极限大考。
荣耀自研的"闪电"在这场比赛中的表现,值得细说。
全自主导航,零遥控。 比赛过程中没有操作员拿着手柄在后面操控,"闪电"完全像一台自动驾驶汽车一样,靠激光雷达+纯视觉在开放道路上自己跑,实时识别路面、规避动态障碍。
全栈自研液冷散热。 21公里的持续高强度运动,一般机器人早就"热瘫"了。"闪电"靠自家液冷系统扛住了热失效,从头到尾没掉链子。
这场比赛最说明问题的地方在于:不管是四个轮子还是两条腿,底层的逻辑其实一模一样——都是物理AI对三维世界的理解与交互。
马拉松的终点线,恰恰就是通用机器人技术的起跑线。
04 从2D到3D,升维是怎么发生的?
技术上来说,这条路径正在被三个关键引擎推动:
① BEV:从平面到立体的翻译官
以前的车载摄像头只能拍2D照片。现在通过BEV(鸟瞰图)Transformer,系统能把2D画面实时重建成3D空间。
相当于给AI装上了能测距的眼睛,让它真正理解物体的体积、深度和距离——这是物理交互的前提。
② 生成式仿真:无限试错的"元宇宙"
PIX Moving这类公司大量使用生成式AI和数字孪生。在虚拟世界里,AI可以经历无数次极端路况、碰撞、交互,生成海量3D训练数据。
测试成本低了,迭代速度快了,风险也小了。
③ 端到端架构:从"眼睛"直接连到"手脚"
传统方案是感知→决策→控制,每一步都写规则代码,死板又脆弱。
端到端的做法是用神经网络直接把感知和动作连起来。当自动驾驶的模型足够强,它就能从"踩刹车/打方向"泛化到机器人的"抓取/放置/行走"。
05 当车不再需要司机
当PIX Moving的车辆穿梭在贵阳街头,默默提供无人零售服务;当荣耀的"闪电"在赛道上以超越人类的速度奔跑——我们看到的是一个新时代的轮廓正在成形。
未来的赢家,不会是那些把车开得最快的人,而是那些把 "物理AI" 玩得最明白的人。毕竟,当一辆车不再需要司机,它本质上就是一台长了轮子的机器人。
哨声已响,下半场开始了。