【花雕动手做】AI Agent “云—边—端”协同创新:基于ESP32S3单芯片的低成本具身智能机器人实现
导语
具身智能的核心诉求是让 AI Agent 智能体“扎根物理世界”,实现“感知—决策—执行”的闭环联动,而低成本、高可靠性、可落地性是其规模化应用的关键瓶颈。传统具身智能方案多依赖多芯片组合或高成本专用硬件,难以实现广泛普及。ESP32-S3作为乐鑫推出的高性价比单芯片解决方案,凭借其集成的算力、通信与AI加速能力,成为搭建轻量化具身智能AI Agent的核心载体,可实现“云—边—端”协同架构的低成本创新落地。本文档系统梳理基于ESP32-S3单芯片的AI Agent “云—边—端”协同创新框架,详细阐述三级架构分工、核心优势、开源框架、工作流程、关键技术及具身智能机器人落地场景,为开发者提供全面的技术参考与落地指引。
本框架的核心设计理念是“云端赋能认知、边缘承载决策、终端执行动作”,通过三级协同打破“单一设备算力不足、云端依赖过高、终端响应滞后”的痛点,实现“离线自治保稳定、云端增强提智能”的双重目标,用低成本方案完成具身智能从原型到落地的全流程部署。
一、框架总览:云—边—端三级协同架构
“云—边—端”三级协同架构是本AI Agent的核心骨架,三者各司其职、无缝联动,既保障实时响应的可靠性,又兼顾复杂任务的智能性,具体分工如下:
1.1 云端:智能认知与全局调度中心(大脑)
云端作为AI Agent的“大脑”,承担高维度、非结构化数据的处理与复杂决策支持,核心价值是释放端侧算力压力,提供“常识级”智能能力,支撑Agent的高阶认知功能。
(1)核心能力:搭载大语言模型(LLM)、多模态理解模型(图像、语音、文本融合),具备长期记忆存储、复杂任务推理、全局任务规划、工具调用及OTA(远程在线升级)能力。其中,LLM负责解析用户自然语言意图、生成逻辑化任务流程,多模态模型负责处理终端采集的图像、语音等非结构化数据,实现“所见即理解、所言即执行”。
(2)典型组件:LLM服务(可对接OpenAI GPT-4o、Anthropic Claude、阿里通义千问等主流模型)、向量数据库(用于存储长期记忆与知识图谱)、用户会话管理模块(记录交互历史,实现多轮对话连贯性)、工具调用中心(集成搜索、日历、天气、设备控制等第三方工具)、云端管理平台(用于设备状态监控、指令下发、日志分析)。
(3)协同定位:不直接参与实时控制,仅在Agent遇到复杂任务(如模糊指令解析、跨场景规划)时提供认知支持,将复杂任务拆解为边缘侧可执行的结构化指令,同时同步长期记忆数据,实现“云端决策、边缘执行”的协同模式。
1.2 边缘:ESP32-S3 实时决策与协同网关(小脑)
ESP32-S3作为整个框架的“小脑”,是连接云端与终端的核心枢纽,承担实时决策、本地自治、云边通信、数据预处理等关键功能,是平衡延迟、成本与可靠性的核心环节。其硬件底座与核心能力完美适配轻量化具身智能的需求,无需额外扩展模块即可实现全链路协同。
1.2.1 硬件底座参数
ESP32-S3采用双核Xtensa LX7处理器,主频最高可达240MHz,内置512KB SRAM、8MB PSRAM(可扩展至16MB),集成WiFi 802.11 b/g/n(2.4GHz)与蓝牙5.0(BLE)双模通信模块,支持SIMD向量指令集(专门用于加速TinyML模型推理),同时具备丰富的外设接口(GPIO、I2C、SPI、UART等),可直接对接各类传感器与执行器,芯片成本仅约5美元,开发板价格在20-30元,具备极高的性价比。
1.2.2 核心能力
(1) 本地感知预处理:对接终端传感器阵列,完成语音(双麦降噪、关键词提取)、图像(压缩、灰度化、特征提取)、环境传感器(距离、碰撞、姿态、温湿度)数据的采集与预处理,减少无效数据传输,降低云边通信压力。
(2) 实时决策与控制:运行本地规则引擎与轻量AI模型,实现实时决策(如避障、紧急停止),直接驱动终端执行器(电机、舵机等)动作,响应延迟可达微秒级,无需依赖云端,保障离线场景下的正常运行。
(3)云边协同调度:通过WebSocket、MQTT等协议实现与云端的双向通信,负责上传终端状态数据、请求云端认知支持,接收云端指令并解析执行;同时具备本地缓存、断网容错能力,断网时自动切换至离线自治模式,联网后同步数据与指令。
(4)轻量AI推理:依托SIMD向量指令集,支持TensorFlow Lite Micro等框架,可本地运行TinyML模型(如语音唤醒、简单图像分类、姿态识别),实现“本地感知—本地决策”的快速闭环,进一步降低云端依赖。
1.3 终端:感知与执行载体(躯体)
终端作为AI Agent的“躯体”,是连接物理世界的直接接口,核心功能是完成环境感知与物理动作执行,将边缘侧的决策指令转化为实际动作,同时反馈环境与设备状态数据,构成“感知—决策—执行”的完整闭环。
(1)核心组件:分为感知组件与执行组件两大类。感知组件包括麦克风阵列(双麦/多麦,用于语音采集)、摄像头(OV2640等,用于图像采集)、环境传感器(TOF距离传感器、碰撞开关、IMU姿态传感器、温湿度传感器等);执行组件包括直流电机、舵机(用于运动控制)、LED指示灯、扬声器(用于反馈提示)、继电器(用于设备控制);同时配备电源管理模块(支持电池供电,适配便携场景)。
(2)核心能力:精准采集环境数据,将模拟信号转化为数字信号并传输至边缘侧(ESP32-S3);高效响应边缘侧指令,完成运动、报警、设备控制等动作;实时反馈自身运行状态(如电机转速、传感器数值、故障信息),为边缘侧决策与云端认知提供数据支撑。
1.4 协同逻辑说明
整个协同流程遵循“终端感知→边缘预处理→边缘决策(简单任务)/云端认知(复杂任务)→边缘解析→终端执行→状态反馈”的闭环逻辑。简单任务(如避障、语音唤醒后的基础响应)无需云端参与,边缘侧即可独立完成,保障实时性;复杂任务(如用户模糊指令解析、跨场景任务规划)由边缘侧上传数据至云端,云端完成认知推理后下发结构化指令,边缘侧解析执行并反馈结果,实现“云端赋能、边缘落地”的协同效果。
二、ESP32-S3 核心优势:边缘智能的首选载体
在具身智能AI Agent的边缘侧选型中,ESP32-S3相比其他单片机(如STM32)、专用AI芯片,具备“算力适配、通信原生、成本可控、生态成熟”四大核心优势,成为低成本具身智能落地的最优解,具体如下:
1. 算力与内存平衡,适配轻量AI需求:双核Xtensa LX7处理器(240MHz)搭配8MB PSRAM(可扩展),支持FreeRTOS多任务调度,可实现AI推理、网络通信、外设控制的物理隔离(Core0专门处理网络通信与外设驱动,Core1运行Agent决策逻辑与轻量模型推理),避免任务阻塞,保障实时性。同时,内存分区合理,512KB SRAM分配给系统与实时任务,8MB PSRAM用于Agent逻辑、记忆存储与模型缓存,完美适配TinyML模型与边缘决策需求。
2. 原生双模通信,无需额外扩展:集成WiFi与蓝牙5.0双模通信模块,无需额外添加通信模块,即可直接对接云端(WiFi)与蓝牙外设(如手机、蓝牙传感器、蓝牙执行器),简化硬件设计,降低开发成本;同时支持WebSocket、MQTT、HTTP等多种通信协议,适配不同场景下的云边通信需求,兼顾实时性与低功耗。
3. AI硬件加速,支撑本地轻量推理:内置SIMD向量指令集,可大幅加速TinyML模型的推理速度,相比普通单片机,推理效率提升30%以上,可本地流畅运行语音唤醒(如唤醒词识别)、简单图像分类(如物体识别)、姿态识别等轻量AI模型,减少云端依赖,降低通信延迟与功耗。
4. 低成本低功耗,适配规模化落地:芯片单价仅约5美元,开发板价格20-30元,远低于专用AI芯片与多芯片组合方案;同时支持低功耗模式(深度睡眠电流低至数微安),可通过电池供电,适配便携、移动、无人值守等场景(如桌面机器人、便携语音助手),降低部署成本与运维成本。
5. 生态成熟完善,降低开发门槛:依托乐鑫ESP-IDF开发框架,提供丰富的外设驱动、API接口与开发文档,支持C、C++、MicroPython等多种开发语言;同时拥有丰富的开源Agent项目(MimiClaw、ESPClaw、PycoClaw),开发者可基于开源项目快速二次开发,缩短开发周期,无需从零搭建框架。
三、ESP32-S3 原生开源 AI Agent 框架对比与选型
针对ESP32-S3的硬件特性,目前已有多款成熟的开源AI Agent框架,覆盖“高性能、离线自治、快速开发”三大核心需求,开发者可根据自身场景选型,无需从零搭建Agent逻辑。以下详细介绍三大主流开源框架的特点、架构与适用场景,并进行对比分析。
3.1 三大主流开源框架详解
3.1.1 MimiClaw(纯C语言,高性能,云端优先,可二次开发)
MimiClaw是专为ESP32-S3优化的高性能AI Agent框架,采用纯C语言开发,极致优化内存占用,适合对性能要求高、资源受限的场景,核心定位是“云端优先、本地辅助”。
(1)架构设计:采用分层模块化设计,包含20+核心模块(感知模块、通信模块、决策模块、记忆模块、执行模块等),基于FreeRTOS队列消息总线实现模块间通信,采用SPIFFS文件系统存储会话数据与长期记忆,保障数据持久化,重启后不丢失。
(2)核心流程:终端感知采集→ESP32-S3本地预处理(降噪、特征提取)→通过WebSocket上传数据至云端LLM→云端生成结构化指令→边缘侧解析指令→驱动终端执行→终端反馈状态数据→边缘侧同步至云端,更新长期记忆。
(3)核心特点:内存优化极致,8MB PSRAM运行后剩余约7.7MB,可同时运行多任务与轻量AI模型;支持多轮对话与长期记忆管理,可对接多个主流LLM服务,支持工具调用(搜索、定时、设备控制);纯C语言开发,无第三方依赖,二次开发运行效率高,响应速度快。
适用场景:智能家居控制、轻量语音助手、桌面小车、资源受限的嵌入式智能设备,适合对性能与内存占用要求严格的场景。
3.1.2 ESPClaw(C+Lua,离线优先,断网自治)
ESPClaw是一款以“离线自治”为核心的开源框架,采用C语言实现底层驱动与核心逻辑,Lua语言编写规则引擎,兼顾性能与灵活性,核心定位是“离线优先、云端增强”,适合无人值守、高可靠性场景。
(1)架构设计:采用本地事件总线+Lua规则引擎的架构,传感器事件采用发布/订阅模式,开发者可通过Lua脚本编写预设规则,实现本地自主响应;同时保留云边通信接口,复杂任务可请求云端支持,实现“离线自治+云端增强”的双重模式。
(2)核心流程:终端感知采集→传感器事件发布至本地事件总线→Lua规则引擎匹配预设逻辑(如“碰撞→停止→扬声器报警”)→立即执行动作(无需云端);若遇到复杂指令(如“整理桌面”)→ESP32-S3上传数据至云端LLM→云端生成新的Lua规则或结构化指令→边缘侧更新规则并执行→反馈状态至云端。
(3)核心特点:离线能力极强,断网时可通过预设规则实现自主运行,响应延迟低至微秒级(云端往返延迟约2秒),保障无人值守场景的可靠性;支持云端远程更新Lua规则与知识库,无需重新烧录固件;兼顾性能与灵活性,C语言保障底层效率,Lua语言简化规则编写。
(4)适用场景:移动机器人(避障小车、巡检机器人)、工业边缘节点、无人值守设备(如智能监控、环境监测),适合对可靠性与离线能力要求高的场景。
3.1.3 PycoClaw(MicroPython,低门槛,快速开发)
PycoClaw是一款面向开发者与教育场景的开源框架,基于MicroPython开发,封装了ESP32-S3的硬件操作与LLM API调用,核心定位是“快速开发、低门槛原型验证”。
(1)架构设计:采用事件驱动设计,Python层封装了传感器、执行器、网络通信的底层操作,开发者无需关注底层驱动,可直接调用API实现功能;原生支持多个LLM提供商的API(OpenAI、Anthropic、通义千问等),支持热切换,无需修改核心代码。
(2)核心特点:开发效率极高,语法简洁易懂,无需掌握复杂的C语言与底层驱动知识,适合快速搭建原型;支持多LLM热切换,可根据需求选择不同的云端模型;代码可读性强,便于调试与修改,适合教育场景与小型项目开发。
(3)适用场景:教育场景(学生实践、课程设计)、快速原型验证、小型智能项目(如简易语音助手、桌面摆件),适合非专业开发者与快速落地的小型需求。
3.2 三大框架对比表
3.3 选型建议
- 若追求高性能、低内存占用,且场景依赖云端认知(如语音助手、智能家居),优先选择MimiClaw;
- 若场景要求高可靠性、离线自治(如移动机器人、无人值守设备),优先选择ESPClaw;
- 若为教育场景、快速原型验证,或非专业开发者,优先选择PycoClaw,可快速实现功能落地。
四、核心工作流程(以ESPClaw为例,离线+云端双模式)
ESPClaw框架凭借“离线优先、云端增强”的特点,最能体现ESP32-S3“云—边—端”协同的核心优势,以下以该框架为例,详细拆解AI Agent的完整工作流程,涵盖“感知—决策—执行—反馈”的全闭环,清晰呈现三级协同的具体逻辑:
步骤1:感知采集与本地预处理终端传感器阵列(麦克风、摄像头、TOF距离传感器、碰撞开关)实时采集环境数据:麦克风拾音并传输至ESP32-S3,ESP32-S3完成语音降噪、关键词提取等预处理;摄像头采集图像,完成压缩、灰度化等轻量化处理;距离传感器、碰撞开关采集环境距离与碰撞信号,转化为数字信号。预处理的核心目的是过滤无效数据,减少云边通信的数据量,提升协同效率。
步骤2:本地决策(离线自治模式)ESP32-S3将预处理后的传感器数据发布至本地事件总线,Lua规则引擎实时匹配预设规则(如“TOF检测距离<10cm→电机停止+LED红灯闪烁+扬声器报警”“语音唤醒词‘小E小E’→启动对话模式”)。无需云端参与,边缘侧直接生成控制指令,驱动终端执行器动作,实现离线自治,保障实时响应与断网可靠性。
步骤3:云端交互(复杂任务处理)当用户发起复杂指令(如“帮我整理桌面”“识别前方物体并告诉我是什么”),ESP32-S3判断本地规则无法处理该任务,立即通过WebSocket协议(全双工、低延迟)将预处理后的语音/图像数据上传至云端LLM,同时携带当前设备状态信息(如电机当前转速、传感器数值)。
步骤4:云端认知与推理云端LLM接收数据后,解析用户意图,结合长期记忆(如用户过往习惯、设备参数)进行复杂推理,生成结构化任务规划(如“整理桌面:1. 控制电机移动至桌面边缘;2. 检测桌面物体;3. 控制舵机将物体归位”),若需要额外信息,可调用工具(如搜索“桌面物体整理规范”),最终输出结构化指令或新的Lua规则(用于后续同类任务的离线处理)。
步骤5:边缘解析与终端执行ESP32-S3接收云端下发的指令或Lua规则,将其解析为终端执行器可识别的控制信号(如电机转速、舵机角度、LED开关指令),驱动直流电机、舵机等执行器完成动作;同时实时采集终端执行状态(如“已到达桌面边缘”“物体已归位”),反馈至边缘侧。
步骤6:记忆更新与数据同步ESP32-S3将关键会话数据、设备状态、执行结果存储至本地SPIFFS文件系统,实现短期记忆持久化;同时将长期记忆数据(如用户习惯、新添加的Lua规则)同步至云端向量数据库,更新云端长期记忆,确保后续交互的连贯性与智能性,重启设备后记忆不丢失。
整个流程中,离线任务与复杂任务的切换由ESP32-S3自动判断,无需人工干预,既保障了简单任务的实时响应,又实现了复杂任务的智能处理,充分发挥了“云—边—端”协同的优势。
五、关键技术要点(落地核心)
基于ESP32-S3的“云—边—端”协同AI Agent,要实现稳定落地,需重点关注云边通信、离线与云端平衡、内存优化三大核心技术,以下详细阐述技术细节与实现方案:
5.1 云—边通信协议选型与优化
云边通信的核心需求是“低延迟、高可靠、低功耗”,需根据场景选择合适的通信协议,同时优化数据格式,减少通信压力,具体方案如下:
(1)协议选型:
- 主选协议:WebSocket,采用全双工、长连接模式,延迟低(往返延迟约100-500ms),适合实时对话、指令下发等场景,可实现云端与边缘侧的双向实时通信,避免频繁建立连接带来的延迟与功耗。
- 备选协议:MQTT,轻量级、低功耗,适合传感器数据上报、非实时指令下发等场景,占用带宽小,适合低功耗、网络不稳定的场景(如户外移动机器人);HTTP协议,适合简单的请求/响应场景(如OTA升级、单次指令查询),实现简单但延迟较高,不适合实时场景。
(2)数据格式优化:- 普通数据(如指令、状态信息):采用JSON格式,易解析、可读性强,适合人类调试与开发;
- 非结构化数据(如图像、语音):采用Protobuf格式,高效压缩,相比JSON可减少50%以上的数据量,降低带宽占用与通信延迟,适合大量非结构化数据的传输。
(3)通信容错设计:ESP32-S3内置重连机制,当云边通信中断时,自动缓存关键数据,待网络恢复后同步至云端;同时设置通信超时阈值,超时后自动切换至离线自治模式,避免因通信中断导致设备瘫痪。
5.2 离线自治与云端增强的平衡策略
平衡离线自治与云端增强,是保障Agent可靠性与智能性的核心,关键在于“明确任务划分、预留规则扩展接口”,具体策略如下:
(1)离线自治核心:将“基础安全、简单响应”类任务纳入本地规则引擎,确保断网时设备可正常运行。例如:碰撞避障、紧急停止、基础语音唤醒、预设场景联动(如“天黑→开灯”),这些任务无需复杂推理,通过预设规则即可实现,响应延迟低、可靠性高。
(2)云端增强核心:将“复杂推理、知识更新、远程控制”类任务交给云端,例如:模糊指令解析(如“帮我做些什么”)、跨场景规划(如“从卧室到客厅并打开电视”)、知识库更新(如新增语音指令)、远程调试与控制,这些任务需要大量算力与知识支撑,云端可提供更高效的处理能力。
(3)动态切换机制:ESP32-S3实时检测网络状态,联网时自动开启云端增强模式,优先请求云端认知支持;断网时自动切换至离线自治模式,仅运行本地规则,联网后自动同步数据与指令,实现无缝切换。
5.3 内存优化方案(ESP32-S3资源受限适配)
ESP32-S3的内存资源有限(512KB SRAM+8MB PSRAM),为保障Agent逻辑、轻量AI模型、通信任务的同时运行,需进行针对性的内存优化,具体方案如下:
(1)双核任务隔离:利用ESP32-S3的双核优势,将任务进行分区部署:Core0专门处理网络通信(WebSocket/MQTT连接、数据传输)与外设驱动(传感器、执行器控制),Core1专门运行Agent决策逻辑、轻量AI模型推理与记忆管理,避免不同任务之间的阻塞,提升运行效率。
(2)内存分区管理:对内存进行合理分区,避免资源浪费:
- 512KB SRAM:分配给系统内核、实时任务(如传感器数据采集、执行器控制)与中断处理,保障实时任务的响应速度;
- 8MB PSRAM:分配给Agent逻辑、轻量AI模型缓存、会话记忆与数据缓存,采用动态内存分配机制,按需分配内存,避免内存溢出。
(3) 轻量模型选型与优化:优先选择TinyML系列轻量模型,如TinyBERT(语音理解)、MobileNetV2(图像分类)的轻量化版本,通过模型量化(如INT8量化)减少模型体积与内存占用;同时将模型存储在Flash中,运行时加载至PSRAM,避免占用SRAM资源。
(4)数据缓存优化:对会话数据、传感器数据进行分级缓存,短期数据(如当前传感器数值)存储在SRAM中,长期数据(如历史会话、规则配置)存储在SPIFFS文件系统中,定期清理无效数据,释放内存资源。
六、典型应用场景(落地参考案例)
基于ESP32-S3的“云—边—端”协同AI Agent框架,凭借低成本、高可靠性、易落地的优势,可广泛应用于机器人、智能家居、工业边缘、教育等多个领域,以下为典型应用场景的详细介绍:
6.1 低成本具身智能机器人
核心需求:实现自主移动、语音交互、环境感知,低成本落地,适合教育、桌面娱乐等场景。
实现方案:以ESP32-S3为核心控制器,终端搭配直流电机(移动)、舵机(机械臂)、摄像头(图像感知)、双麦(语音采集)、TOF距离传感器(避障);采用ESPClaw框架,实现离线避障、语音唤醒,复杂指令(如“移动到指定位置”“抓取物体”)通过云端LLM生成规划指令,边缘侧解析执行;可通过手机蓝牙或WiFi远程控制,实时查看机器人状态。
典型案例:桌面避障小车、教育机器人、小型机械臂机器人,成本控制在100-200元,适合学生实践与家庭娱乐。
6.2 智能语音助手(便携/嵌入式)
核心需求:离线语音唤醒、云端对话、本地设备控制,低功耗、可便携,适配家庭、办公等场景。
实现方案:ESP32-S3搭配双麦阵列、扬声器、LED指示灯,采用MimiClaw框架;本地运行语音唤醒模型(如唤醒词“小乐小乐”),唤醒后通过WebSocket对接云端LLM,实现多轮对话;同时对接家庭WiFi设备(灯光、风扇、空调),通过语音指令控制设备开关与参数调节;支持电池供电,低功耗模式下可连续工作数天。
典型案例:嵌入式语音开关、便携语音助手,可集成在墙壁、桌面,成本低、安装便捷。
6.3 智能家居中控
核心需求:连接各类智能家居设备,实现本地场景联动、云端远程控制,提升家居智能化水平。
实现方案:ESP32-S3作为中控核心,通过WiFi/蓝牙对接灯光、窗帘、空调、传感器(人体感应、温湿度)等设备;采用ESPClaw框架,预设本地联动规则(如“人体感应检测到人→开灯+开空调”“温湿度高于28℃→开风扇”),实现离线自治;云端搭建管理平台,用户可通过手机APP远程控制设备、定制场景模式,同步设备运行状态。
典型案例:家庭智能中控盒,可替代传统中控主机,成本仅为传统方案的1/10,适配普通家庭。
6.4 工业边缘节点
核心需求:传感器数据采集、本地异常检测、云端远程监控,断网时保障基础监控功能,适配工业生产场景。
实现方案:ESP32-S3对接工业传感器(温度、压力、振动传感器),采集生产设备运行数据,本地进行异常检测(如温度超过阈值→报警);采用MQTT协议上传数据至云端监控平台,云端实现数据可视化、故障诊断、远程调试;断网时,本地存储数据,开启异常报警功能,联网后同步数据,保障生产监控不中断。
典型案例:工业设备监控节点、环境监测终端,适合中小型工厂,降低工业监控的部署成本。
七、总结与展望
7.1 总结
基于ESP32-S3的AI Agent “云—边—端”协同框架,核心价值在于“用低成本单芯片打破传统具身智能的高成本壁垒”,通过“云端认知、边缘决策、终端执行”的三级协同,实现“离线自治保可靠、云端增强提智能”的双重目标。该框架依托ESP32-S3的算力、通信与AI加速优势,搭配成熟的开源框架(MimiClaw、ESPClaw、PycoClaw),降低了具身智能的开发门槛与部署成本,覆盖从教育原型到工业场景的全需求,为具身智能下沉到低成本设备提供了可行的解决方案。
相比传统“上位机+下位机”的架构,本框架无需复杂的硬件组合,单芯片即可完成边缘侧核心功能,成本降低70%以上;同时兼顾实时性与智能性,离线自治能力保障设备稳定运行,云端增强能力提升智能水平,适合规模化落地。
7.2 展望
未来,随着ESP32-S3后续型号(如更高算力、更大内存版本)的推出,该框架可进一步拓展能力边界:一方面,可支持更复杂的TinyML模型本地运行,减少云端依赖,提升离线智能水平;另一方面,可实现多Agent协同(如多个ESP32-S3设备联动),覆盖更复杂的场景(如家庭全屋智能、工厂多节点监控)。
同时,随着开源生态的完善,将有更多适配ESP32-S3的AI Agent框架与工具出现,进一步降低开发门槛,推动具身智能在更多低成本场景的落地应用,让智能体真正走进日常生活与工业生产的各个角落。
