设为首页加入收藏
  • 首页
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
  • {$vo.typename}
    • 当前位置:首页>肇庆>刚刚,机器人练成了「白眼」:∞帧画面边看񙴽D重建我们的世界!

      刚刚,机器人练成了「白眼」:∞帧画面边看񙴽D重建我们的世界!

      发布时间:2026-04-20 来源:鸾交凤友网作者:339883

      金磊 发自 凹非寺量子位 | 公众号 QbitAI

      刚刚,机器人的视觉,又达到了一个新的Level。

      因为现在,一个新模型已经实现了无尽流:看∞帧视频可以稳定实𿮟D重建!

      来,感受一下这个feel:

      视频地址:https://mp.weixin.qq.com/s/h3UIMZn46LA2m570p9pKkw

      或许有小伙伴要问了,这有啥用啊?

      简单来说啊,若是这个模型放到扫地机器人身上,那它就能边打扫边认清家里񊄫D结构;若是放到自动驾驶身上,那就是边开车边算清路面情况。

      有一种火影里宁次白眼的那种味道了。

      (注:白眼的能力�°无死角透视+极远的洞察力+看穿查克拉流动;对应这个模型的全方位空间感知、长序列不丢失细节的特点。)

      △图源由AI生成

      这,就是蚂蚁灵波最新开源的LingBot-Map,一个专为纯自回归的流𻚙D重建而打造的基础模型。

      不同于此前具身智能视觉񊄫D重建,这一次,LingBot-Map做到了快、准、狠——

      打破了“既要实时、又要记路、还要省显存”的不可能三角。

      这种Level的流𻚙D重建,并不简单

      在聊“流𻚙D重建为什么难”这个话题之前,咱们且需要先分清两个概念:普񚄇D重建和流𻚙D重建。

      因为它俩可以说是完全两个维度的技术。

      先来看传统离񏍹D重建(离线)。

      它的本质用一种微妙的形容,大概就是“事后诸葛亮”,因为必须先拍完完整视频、存储所有帧画面,再集中算力全局建模。

      这样做的缺点很明显就是速度慢、耗显存、无法实时交互,应用方面也能用在影视建模、数字孪生等静态场景,根本没法给需要实时决策的机器人、自动驾驶用。

      但流𻚙D重建(在线)就不一样了,它是真能满足具身智能的核心刚需:

      来一帧算一帧,边拍边建模、边感知边决策,和人类边走边认路的视觉逻辑高度一致。

      不过看似简单,但在实现的过程中,业内公认的有三座大山挡在面前。

      △图源由AI生成

      第一,记太多就爆显存。

      如果模型硬存所有历史帧,几千帧过后显存直接拉满,消费级显卡根本跑不动,工业设备也扛不住长时运行。

      第二,记太少就忘光光。

      若是只缓存最近几帧,模型会出现灾难性遗忘,长时间运行后轨迹疯狂漂移、重建场景扭曲变形,相当于人走久了忘了自己在哪。

      第三,精度速度不可兼得。

      要么建模精准但推理慢到卡顿,要么实时性够了但画面糊成马赛克,始终找不到平衡点。

      更关键的是,之前绝大多数的流式方案,不是依赖测试时优化,就是用未来帧信息做全局校准,亦或者加入人工设计的关键帧规则,并非端到端的纯推理。

      而LingBot-Map走的是纯自回归这条更难的路:严格遵循因果律,仅依赖历史帧信息推理当前帧,无任何后处理、无未来帧依赖、无人工优化规则,所有能力全靠模型端到端学习。

      也正因为有了纯自回归的约束,相当于让蒙眼的人仅凭过往记忆走迷宫,既要求走得快、又要求记准路、还不能多耗脑力……

      难,是真的难。

      但蚂蚁灵波这一次,还真就把这个硬骨头给啃下来了。

      像人一样选择性记忆

      LingBot-Map背后技术的灵感,来源于人。

      就好比咱们在大城市里逛街,却能做到不迷路,不是因为我们的大脑像录像机一样全程“录制”,关键在于大脑执行的是选择性记忆这个操作。

      说白了,就是只记住有效、关键的帧。

      LingBot-Map的核心,正是完美复刻了这种机制,名曰几何上下文注意力(Geometric Context Attention,GCA)。

      更具体而言,LingBot-Map通过GCA,对记忆进行了非常精妙的分层结构化管理。

      首先是锚点(Anchor),它的作用让机器人记住“我从哪来”。

      任𱥕D重建都需要一个绝对的坐标系和尺度基准,就好比人类进入陌生房间,会下意识记住门口位置当参照系,防止迷路。

      LingBot-Map的锚点模块,就是起到这样的一个作用。

      它会锁定初始几帧画面作为基准,固定全局坐标和尺度,如此一来,就解决了纯自回归模型容易出现的尺度模糊、坐标漂移等问题,给整个重建过程定好原点。

      其次是位姿参考窗口(Pose-reference Window),用来记住“我身边有什么”。

      因为光有起点是不够的,要想走得稳,还得看清脚下的路。

      于是团队便在LingBot-Map里设置了位姿参考窗口,它只保留最近的k帧的完整高维特征。

      这部分记忆虽然是短期的,但信息极其丰富密集,这样就可以确保模型能够精准地捕捉局部的几何细节,让当前帧能够丝滑地与前几帧拼接在一起,让每一步都踩得极准。

      最后就是轨迹记忆(Trajectory Memory),起到记住“我走过的路”的作用。

      这也是LingBot-Map中非常关键的一个步骤。

      对于那些既不是起点、也不在眼前,属于很久以前的中间历史画面,模型不再存储它们庞大具体的图像像素细节。

      取而代之的是,它将这些历史帧的宏大信息,极致压缩成了区𴁊个极简的Token(包含相机、锚点和寄存器 Token),并打上时间戳(位置编码)。

      对比传统因果注意力,LingBot-Map的单帧信息增长量直接降�倍,哪怕处理万帧长视频,显存消耗也几乎恒定。

      三大模块协同发力,便是LingBot-Map打破不可能三角的关键原因了。

      那么这套打法效果又如何呢?

      实测拿下新SOTA

      从论文中呈现的实验结果来看,LingBot-Map已经在多项权威基准测试中,全面碾压其它流式模型,稳坐SOTA之位。

      首先是长序列稳定性。

      �+帧的超长视频序列测试中,模型全程保持稳定重建质量,没有出现任何明显的轨迹漂移。要知道,同类纯自回归模型往往几百帧就开始扭曲,万帧稳定的表现,直接刷新了行业纪录。

      其次是速度与精度双突破。

      �×378的主流分辨率下,推理速度达�FPS,比同类流式方法基线快了近一倍,完全满足机器人、自动驾驶的实时性需求。

      在Oxford Spires、ETH3D、Tanks & Temples等权威数据集测试中,轨迹误差降低�%,3D点云建模精度、全局一致性远超所有流式竞品,甚至比部分离线优化模型表现更优。

      除此之外,模型运行显存仅�.28GB,普通消费级显卡即可流畅部署,彻底告别对高端专业显卡的依赖。

      对比同类方案动�GB+的显存需求,LingBot-Map实现了“技术顶尖、落地亲民”,让流𻚙D重建具备了规模化商用的基础。

      而且效率测试的数据更加直观。

      对比全历史帧缓存方案,LingBot-Map�帧窗口设计,将推理速度𱐏.12FPS提升�.95FPS,显存�.06GB压缩�.28GB,速度提𴃌倍、显存降�%,同时精度反而更高,印证了GCA记忆机制的优越性。

      在看完LingBot-Map背后的技术和展现的效果之后,还有一个话题值得聊一聊:

      LingBot-Map的开源绝不是为了单点刷榜、秀肌肉。

      补齐另一块具身智能关键拼图

      若是大家长期关注蚂蚁灵波,就不难发现它在下一盘大棋。

      仅仅在今𻂉月,蚂蚁灵波便已经陆续开源了多款模型:

      从感知世界的LingBot-Depth,到理解物理规律的LingBot-World,再到控制身体的LingBot-VLA和全球首个具身世界模型LingBot-VA。

      而今天LingBot-Map的开源,则补齐了“边走边记、理解并重建连续真实三维空间”的关键拼图。

      这就意味着蚂蚁灵波正式构建了“感知-建模-模拟-控制”全链路具身智能技术栈,从看懂世界、建模世界,到理解世界、操控身体,形成了完整的技术闭环。

      此举对全产业落地来说,亦是有着重要的价值。举三个例便一目了然了:

      机器人:仓库巡检、家庭服务,机器人不再需要昂贵的激光雷达,单靠摄像头就能边走边建图,真正实现低成本、大规模部署。AR/VR:戴上眼镜,虚拟物体可以零延迟、不漂移地叠加在真实桌面上,虚实融合的体验将被拉满。自动驾驶/无人机:城市级大场景的实时建模成为可能,为纯视觉的自动驾驶方案提供了更强大的时空理解能力。

      因此,综上所述,LingBot-Map的出现,可以说是机器理解真实物理世界迈出的关键一步。

      与此同时,蚂蚁灵波的持续开源,也让我们清晰地看到,具身智能的规模化落地,正在以前所未有的速度向我们驶来。

      Hugging Face:https://huggingface.co/robbyant/lingbot-map

      ModelScope:https://www.modelscope.cn/models/Robbyant/lingbot-map

      GitHub:https://github.com/Robbyant/lingbot-map

      Paper:https://arxiv.org/abs/2604.14141

      Homepage:https://technology.robbyant.com/lingbot-map

      • 上一篇:{loop type="arclist" row=1 }{$vo.title}