当前位置: 首页 > news >正文

在线教程丨指令遵循/推理/编码三合一,Mistral Medium 3.5把Coding Agent搬上云端

随着 AI Agent 能力持续进化,大模型正在从「对话助手」逐渐变成真正能够执行任务的智能系统。近期,Mistral AI 发布的 Mistral Medium 3.5 再次将 AI Coding Agent 推向新的阶段。相比传统只能完成简单代码补全的编程助手,其已经能够在云端独立运行、并行处理任务,并持续完成复杂的软件开发流程,包括代码生成、调试、依赖安装、测试执行乃至 Pull Request 提交。

作为 Mistral 最新推出的旗舰级模型,Mistral Medium 3.5 采用 128B 稠密架构,拥有 256k 上下文窗口,并首次将指令遵循、推理与编码能力融合进单一模型之中。

与当前大量依赖 MoE 架构的大模型不同,Mistral 选择继续强化 Dense Model 路线,在保证推理稳定性的同时,进一步提升长时程任务处理能力。官方数据显示,Mistral Medium 3.5 在 SWE-Bench Verified 上取得了 77.6% 的成绩,超过 Devstral 2 以及 Qwen3.5 397B A17B 等模型,同时在 τ³-Telecom 等 Agent 能力测试中也展现出较强表现。

除了模型本身,此次更新更值得关注的是 Mistral 对 AI Agent 工作流的整体重构。通过 Vibe Remote Agents,开发者可以直接在云端运行异步 Coding Session,任务不再依赖本地电脑持续在线。用户既可以通过 CLI 发起任务,也能够直接在 Le Chat 中启动云端 Agent,让模型持续执行多步骤编码工作,包括模块重构、测试生成、CI 排查与 Bug 修复等。与此同时,新增的 Work Mode 还支持跨工具协同,能够调用邮件、日历、文档与协作平台等外部系统,逐步向真正的「执行型 AI 助手」演化。

某种程度上,Mistral Medium 3.5 所代表的,不只是一次模型升级,而是 AI Coding 从「Copilot」向「Autonomous Agent」转变的重要信号。过去,AI 更多承担辅助生成代码的角色;而现在,模型已经开始具备长时间执行任务、调用工具、管理流程与交付结果的能力。随着上下文长度、推理稳定性与 Agent Framework 的持续提升,未来的软件开发流程也可能因此发生新的变化。

目前,HyperAI 官网(hyper.ai)的教程版块已经上线了「一键部署 Mistral-Medium-3.5-128B」,完成环境配置,进一步降低模型使用门槛。

在线运行:

https://go.hyper.ai/lCn9c

demo 示例

更多在线教程:

https://hyper.ai/notebooks

欢迎登录官网查看更多内容:

https://hyper.ai/

Demo 运行

1.进入 hyper.ai 首页后,选择「教程」页面,或点击「查看更多教程」,选择「一键部署 Mistral-Medium-3.5-128B」,点击「运行此教程」。

2.页面跳转后,点击右上角「Clone」,将该教程克隆至自己的容器中。

注:页面右上角支持切换语言,目前提供中文及英文两种语言,本教程文章以英文为例进行步骤展示。

3.选择「NVIDIA RTX PRO 6000 -4」以及「vLLM」镜像,点击「Continue job execution(继续执行)」。

HyperAI 为新用户准备了注册福利,仅需 $1,即可获得 20 小时 RTX 5090 算力(原价 $7),资源永久有效。

4.等待分配资源,当状态变为「Running(运行中)」后,点击「Open Workspace」进入 Jupyter Workspace。

效果展示

1.页面跳转后,点击左侧 README 文件,进入后点击上方 Run(运行)。

2.待运行完成,根据 README 提示启动 Open WebUI,待出现实心方块样式的「OPENWEBUI」ASCII 字符即代表启动完成。随后即可点击右侧 API 地址跳转至 demo 页面。

README 文件中关于启动 Open WebUI 的提示

Open WebUI 启动成功

http://www.jsqmd.com/news/780083/

相关文章:

  • Engram:零摩擦行为数据采集与AI分析,打造个人效率外部大脑
  • SIGIR 2026 mKG-RAG:把“多模态知识图谱”装进 RAG,让视觉问答不再只靠模型记忆
  • Rust开发效率利器:Cursor编辑器插件实现文档无缝集成
  • 构建具备长期记忆的AI智能体:Electric-Hydrogen/GPTBot架构解析与实践
  • # SqlSugar 差异日志功能实现
  • LangGraph 调试指南:Graph 执行轨迹怎么看,问题怎么快速定位
  • 基于MCP协议构建AI工具服务器:从原理到实践,扩展大模型能力边界
  • wireshark 抓包学习报文
  • 2026论文降AI:保留排版格式,3大指令与4款工具深度测评
  • ClawBuild:AI代理自主协作网络架构与实现深度解析
  • XUnity.AutoTranslator:深度解析Unity游戏实时翻译插件的架构与设计哲学
  • 论文降AIGC教程:2026最新3个高阶指令与4款降AI工具实测盘点
  • ARM编译器语言扩展在嵌入式开发中的核心应用
  • 基于AI多模态模型的智能文件重命名工具:原理、部署与实战
  • OpenExt开源扩展框架:构建插件化系统的核心原理与实践
  • 蓝牙低能耗(BLE)技术解析与物联网应用实践
  • 量子通信协议实现与安全优化实践
  • 基于LLM的文本描述自动生成色彩方案:原理、实现与优化
  • Codesight:为AI编程助手生成结构化项目上下文,节省90%以上Token
  • 终极指南:如何永久备份你的微信聊天记录(免费开源方案)
  • GPU内核优化技术:自动化与性能提升实践
  • 2026 年 AIGC 迈入万亿赛道,阿里云百炼平台一站式工作流降低 AI 视频制作门槛
  • Windows用户终极指南:3分钟免费获取macOS风格鼠标指针完整方案
  • 移动端大语言模型部署优化:MobileLLM-Flash架构解析
  • Hugging Face推Reachy Mini应用商店,为具身智能普及开辟新路径
  • MPI并行编程与GPU加速集成技术解析
  • 上交大师生联手“整AI“:当学生把AI解决不了的作业变成测试题
  • (B站TinyML 教程学习笔记)C11 - Edge Impulse 中的特征选择+C12 - 机器学习全流程管道+C13 - 第一模块复习+C14 - 神经网络入门
  • 缓存增强生成(CAG)实战:预加载KV-Cache实现毫秒级知识问答
  • Page-UI:专为AI应用设计的React UI组件库实战指南