高德途途封神机器人半马,背后的 ABot-Claw 到底是什么
2026 北京亦庄机器人半程马拉松,高德放了个大招——全球首款开放环境全自主具身机器人「高德途途」正式亮相,同步发布了面向 AGI 的全栈具身技术体系 ABot。
途途能跑半马不是重点。重点是它背后的 ABot-Claw 框架已经开源了,而且架构设计相当漂亮。
本文提纲
- 高德途途是什么
- ABot-Claw 四大核心能力
- VLAC 闭环:机器人终于会"反思"了
- 多机器人协作:一个大脑控制一群机器人
- 技术架构拆解
- 开源了,能拿来做什么
高德途途是什么
高德途途本质上是一个智能导盲犬——在开放环境中自主导航、避障、协助视障人士出行的具身机器人。
但它的意义远不止导盲。途途是 ABot 技术体系的第一个落地产品,证明了高德的具身智能技术可以在真实开放环境中运行,不是实验室 demo。
在机器人半马上,途途展示了几个硬核能力:
- 开放环境自主导航(不是预设路线)
- 实时避障和路径规划
- 多模态感知(视觉 + 语义 + 几何)
- 长时间持续运行(半马 = 21 公里)
ABot-Claw 四大核心能力
ABot-Claw 是 ABot 体系的开源框架,基于 OpenClaw 构建。它解决了具身智能领域几个最棘手的问题:
1. VLAC 闭环反馈
传统机器人是开环的:下达指令 → 执行 → 祈祷成功。ABot-Claw 引入了 VLAC(Vision-Language-Action-Critic)闭环:
- Agent 实时评估任务完成进度
- 发现偏差自动调整策略
- 长周期任务的成功率大幅提升
这就像给机器人装了一个"自我检查"系统,不再是闷头干到底。
2. 端到端闭环交互
整合 VLA(Vision-Language-Action)和 WAM(World Action Model):
- 感知和动作紧密对齐
- 可以直接理解自然语言指令并执行
- 多步复杂任务无需人工干预
3. 多机器人协作
所有机器人共享同一个 Agent Runtime:
- 统一决策,联合推理
- 机器人可以热插拔——新加入的机器人不影响正在执行的任务
- 一个"大脑"同时控制机械臂、人形机器人、四足机器人
4. 视觉中心记忆
统一的 Memory System,包含:
- 几何地图(定位)
- 语义地图(理解)
- 图像特征索引(视觉记忆)
- 长上下文理解,能处理遮挡和延迟反馈
VLAC 闭环:机器人终于会"反思"了
VLAC 是这个框架最有创新性的部分,值得单独聊聊。
传统机器人系统的流程是:
感知 → 规划 → 执行 → 结束
ABot-Claw 加了一个 Critic 环节:
感知 → 规划 → 执行 → 评估 → [调整策略] → 继续执行
Critic 在每一步都问三个问题:
1. 任务完成了多少?
2. 当前执行是否偏离目标?
3. 需不需要调整策略?
这跟 Anthropic 最近提出的 Agent Loop 模式异曲同工——都是让 AI 在执行过程中持续监控和调整,而不是一口气跑完才发现结果不对。
多机器人协作:一个大脑控制一群机器人
ABot-Claw 的多机器人架构很巧妙——不是每个机器人独立决策,而是所有机器人共享一个 Agent Runtime:
支持的机器人类型:
| 机器人 | 类型 | 任务分工 |
|---|---|---|
| PiPer | 固定基座机械臂 | 操控任务(抓取、放置) |
| Unitree G1 | 人形机器人 | 全身交互任务 |
| Unitree Go2 | 四足机器人 | 移动、侦察、巡检 |
机器人之间通过共享的多模态记忆协作。一个机器人看到的地图,其他机器人立刻可用。新的机器人可以随时加入任务,不需要重新部署。
热插拔这个特性在工业场景很实用——机器人故障了,换一台上去,任务不中断。
技术架构拆解
ABot-Claw 采用分层微服务架构:
基础设施层(GPU 服务器 + 机器人):
- GPU 服务器运行 YOLO、Depth、VLA、Grasp Anything、VLN、WAM 等模型
- 机器人端包括机械臂、人形、四足和各类摄像头
运行时核心(Agent Runtime):
- Gateway:消息路由,支持 CLI / Web UI / Telegram / 钉钉 / 飞书
- Agent Loop:核心智能循环,包含 Context、Tools、Skills
- Scheduler:任务调度(心跳 + 定时)
- Device:本地设备交互(文件系统、Shell、浏览器)
记忆与知识层:
- 以视觉为中心的记忆系统
- 几何地图 + 语义地图 + 图像特征索引
- 全局共享,所有机器人可访问
开源了,能拿来做什么
项目地址:github.com/amap-cvlab/ABot-Claw
基于 OpenClaw 构建,配置流程:
# 合并 ABot-Claw workspace 到 OpenClaw
./setup.sh# 配置机器人端点
# 编辑 ~/.openclaw/workspace/skills/ROBOT.md
PIPER_BASE_URL=http://192.168.1.10:8880
G1_BASE_URL=http://192.168.1.20:8880
GO2_BASE_URL=http://192.168.1.30:8880# 重启网关
openclaw gateway restart
机器人端需要 ROS 环境,支持 PiPer 机械臂、Unitree G1 和 Go2。模型在 HuggingFace 上也放了(acvlab)。
实际可用的场景:
- 多机器人协作抓取和搬运
- 开放环境自主导航
- 视觉语义建图
- 人机协作(通过钉钉/飞书/Telegram 控制)
几点看法
ABot-Claw 有几个地方值得点赞:
-
VLAC 闭环是真正的新东西。大多数具身智能框架还停留在"感知-行动"阶段,ABot-Claw 加了 Critic 层,让机器人能自我评估和调整。这在长周期任务里价值巨大。
-
多机器人共享大脑比独立 Agent 协作更实用。去中心化协作听起来美好,但在真实场景中,集中决策 + 分布式执行的效率更高、更可靠。
-
基于 OpenClaw 而不是从零造轮子。OpenClaw 本身是一个成熟的 Agent 框架,ABot-Claw 在上面加具身智能层,复用了 Agent Loop、Tool、Skill 等基础设施。
-
高德做机器人是有底气的。多年地图和导航数据积累,在空间感知、路径规划、语义建图方面有天然优势。途途跑半马不是运气,是技术沉淀的结果。
项目刚开源(Star 还不多),如果做多机器人或具身智能方向,值得关注。
作者: itech001
来源: 公众号:AI人工智能时代
主页: https://www.theaiera.cn,每日分享最前沿的AI新闻和技术。
本文首发于 AI人工智能时代,转载请注明出处。
