当前位置: 首页 > news >正文

阿里最强小钢炮上线!Qwen3.6-35B-A3B+OpenClaw本地部署全记录

性能强劲的新一代小钢炮

2026年4月16日,阿里正式发布高效轻量级开源模型Qwen3.6-35B-A3B。该模型总参数量为350亿,采用稀疏MoE(混合专家)架构,凭借仅30亿激活参数, 便可与Qwen3.5-27B、Gemma4等稠密模型一较高下。

评测数据显示,Qwen3.6-35B-A3B在多项主流基准测试中与Qwen3.5-27B表现十分接近,并在中文语义理解(C-Eval)上显著优于Gemma4模型。

Ollama自v0.17版本起支持OpenClaw部署(实测仍需较多手动配置)。考虑到Qwen新模型的优异性能,以及本地低成本运行OpenClaw的需求,本文将对基于Ollama的本地化部署进行详细实测。

模型在Ollama上的显示大小为24GB(实际占用约23GB),处于消费级显卡的能力边界,非常适合本地部署尝鲜。

安装与环境配置

环境说明

  • 系统:Windows 11

  • 工具:WSL (Ubuntu)、Ollama

部署步骤

  1. 硬件检查:按Win + R,输入dxdiag,确认内存与显卡配置满足运行要求。

  2. 安装WSL:OpenClaw是Linux原生应用,建议先配置WSL环境。在PowerShell中执行:

    wsl --install -d Ubuntu

    解释一下:

    WSL 是“Windows Subsystem for Linux”的缩写,即Windows的Linux子系统,是一个由微软开发的兼容层,允许用户在Windows上原生运行Linux语句和文件,而无需传统虚拟机或双系统。-d Ubuntu参数则指定在该子系统上安装Ubuntu发行版​作为具体的Linux环境。

  3. 安装依赖:由于Ollama的模型文件都使用zstd(Zstandard,Facebook开源的一种高速数据压缩算法工具)格式进行压缩。因此,需要在Linux终端模式下先安装zstd:

    sudo apt-get install zstd
  4. 安装 Ollama

    curl -fsSL https://ollama.ai/install.sh | sh

    注意:安装耗时较长,请确保设备不休眠(无断点续传功能)。

  5. 拉取模型

    ollama run qwen3.6:35b-a3b

    安装完成后会进入对话界面,输入/?可查看操作帮助:

实测模型具备基础代码能力,但仍存在少量“幻觉”现象。

6. 安装 Node.js(通过NVM)

# 安装 NVM curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash # 刷新配置 source ~/.bashrc # 安装LTS版本Node.js nvm install --lts # 验证安装 node -v

7. 部署 OpenClaw

# 方式一:Ollama 启动 ollama launch openclaw # 方式二:官方脚本(推荐) curl -fsSL https://openclaw.ai/install.sh | bash

安装过程中如有需要添加的依赖,跟着引导一直选择“Yes”即可。

最终会输出一个长串dashboard url,其中“token=”后面的内容为OpenClaw的token值,需要记下来。

如果没有出现token值,可运行以下命令,命令行窗口会打印出url值即可看到token:

openclaw dashboard

9. 确认服务已启动:

在浏览器中打开dashboard url(若需要手动连接,将token值输入后点击连接即可)

进入“概览”面板,看到如下页面说明服务已正常启动。

创建飞书机器人

进入飞书开放平台(https://open.feishu.cn/?lang=zh-CN),执行以下步骤:

  1. 进入开发者后台,创建企业自建应用,填写应用名称和简介
  2. 添加应用能力:机器人
  3. 在权限管理页面,选择“批量导入/导出权限”,清空原代码并粘贴以下代码:
{ "scopes": { "tenant": [ "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource" ], "user": [] } }

确认批量导入权限为聊天,若需要群聊、云文档等权限,后续可按需开通:

4. 进入“事件与回调”,“订阅方式”选择“使用长连接接收事件 (WebSocket)”,并添加事件,输入“im.message.receive_v1”(接收消息):

5. 创建并发布应用

6. 在飞书聊天界面可以搜索到刚才创建的机器人,但先别着急对话, 还需要在OpenClaw中将飞书机器人配置进来。

OpenClaw绑定飞书机器人

命令行窗口输入以下命令安装飞书官方插件,随后屏幕会出现一个二维码:

npx -y @larksuite/openclaw-lark install

使用飞书扫码后,可以创建机器人或添加已有机器人,在这里选择我们刚才在飞书中配置好的机器人。

回到飞书聊天界面发送消息,目前 Qwen3.6-35B-A3B 在本地环境的响应速度不太理想。部署流程虽已打通,但从“能跑通”到“高效生产力”仍需一条漫长的养虾之路。

后续,我会针对模型调用稳定性、效率以及OpenClaw高效使用等实际痛点,持续分享调优思路与实践。

参考资料:Qwen3.6-35B-A3B:智能体编程利器,现已开源:https://qwen.ai/blog?id=qwen3.6-35b-a3b

http://www.jsqmd.com/news/676279/

相关文章:

  • 2026年4月 | 视觉拆垛机器人TOP8厂家推荐 - 资讯焦点
  • abaqus应该怎样学,重点罗列来了!
  • AI驱动的制品库高效管理:智能分类、自动化追踪与全生命周期优化
  • 思源宋体CN终极指南:7种字重免费开源中文字体的完整应用方案
  • C++11列表初始化:告别混乱的终极方案
  • Apple-Mobile-Drivers-Installer:Windows苹果设备驱动“三分钟连接术“
  • 出海必看:德国VDE 2510-50储能新规,你的BMS和电池包设计过关了吗?
  • Real Anime Z风格泛化能力测试:跨种族/跨年龄/跨服饰的真实感表现
  • 从SYNC到同步头:手把手调试JESD204B/C链路,附ADRV9026实战排错记录
  • 在树莓派4B(ARM64)上搞定PyQt5:从源码编译到解决Qt::ItemDataRole报错的完整记录
  • Navicat无限试用终极指南:macOS用户必备的14天限制解决方案
  • 3分钟解锁《经济研究》论文排版超能力
  • 别再手动写寄存器测试了!手把手教你用UVM寄存器模型(RGM)搭建自动化验证环境
  • 保姆级教程:在RK3128 Android 7.1上搞定红外遥控(从DTS到.kl文件全流程)
  • 品冠装饰设计:黄埔区住宅装饰设计哪家好 - LYL仔仔
  • 5分钟快速上手:Res-Downloader全网资源下载神器终极指南
  • Amphenol RJE1Y16915152401线束选型解析
  • SpringBoot 2.x 项目里手动添加webapp目录,解决JSP页面访问404和‘WEB-INF’路径警告
  • 浏览器图片格式转换难题的终极解决方案:Save Image as Type
  • Agent工作流卡住了?试试AFlow:用蒙特卡洛树搜索自动帮你重构工作流拓扑
  • 保姆级教程:在Ubuntu 18.04上为ORB-SLAM2添加彩色点云地图(含PCL库避坑指南)
  • 如何快速掌握Figma中文界面:3分钟完成安装的完整指南
  • N_m3u8DL-RE深度解析:现代流媒体下载器的架构设计与实战应用
  • FigmaCN插件终极指南:3分钟快速实现Figma中文界面免费汉化
  • 饲料颗粒机设计(农业机械)(含CAD零件图,装配图,说明书
  • Phi-3.5-mini-instruct实战案例:Gradio ChatInterface多模态扩展预留接口
  • 别再为灰色按钮发愁!手把手教你搞定VMware Tools安装,解决Ubuntu虚拟机复制粘贴和共享文件夹问题
  • 2024必看!AI写专著全流程,AI工具助力20万字专著轻松完成!
  • 别再手动写CRUD了!用JeecgBoot的Online表单,5分钟搞定一个带复杂控件的管理页面
  • 网盘下载速度太慢?这个开源工具能让你免费获取真实下载地址!