当前位置: 首页 > news >正文

MindSpeed LLM适配Qwen3-Coder-Next并上线魔乐社区,训练推理教程请查收

MindSpeed LLM作为昇腾AI生态的重要技术支撑,专为大规模语言模型设计,具有超强的计算能力和灵活的开发支持。Qwen3-Coder-Next一发布,MindSpeed LLM框架立刻支持跑通。MindSpeed LLM快速部署与应用Qwen3-Coder-Next的教程已上线魔乐社区,欢迎开发者体验!

🔗 模型权重链接:https://modelers.cn/models/Qwen-AI/Qwen3-Coder-Next

🔗 MindSpeed LLM训练推理教程:https://modelers.cn/models/MindSpeed/Qwen3-Coder-Next

01 MindSpeed LLM无缝支持跑通模型

MindSpeed LLM为开发者提供了一个稳定、高效的平台来快速部署和调优 Qwen3-Coder-Next模型。

  • 硬件与框架深度协同,立刻跑通:MindSpeed LLM与昇腾NPU的深度集成,使得 Qwen3-Coder-Next大语言模型在发布的第一时间内,就能够顺利跑通并高效运行。无论是在训练过程中,还是在推理阶段,MindSpeed LLM都为 Qwen3-Coder-Next提供了最佳的硬件加速支持,确保性能的最大化释放。
  • 开箱即用,无需复杂配置:开发者只需简单配置,即可在MindSpeed LLM上无缝运行 Qwen3-Coder-Next模型。框架提供了完整的工具链,帮助开发者快速将 Qwen3-Coder-Next应用到实际项目中,减少了复杂的调优过程,缩短了开发周期。
  • 分布式计算优化:MindSpeed LLM内置的分布式计算能力,能够有效利用多台昇腾AI硬件,确保 Qwen3-Coder-Next在大规模并发任务下的稳定运行,极大提升了处理效率和响应速度。

MindSpeed LLM框架与Qwen3-Coder-Next的同步发布并立刻支持跑通,标志着昇腾平台在大语言模型领域的技术实力再次提升。开发者可以在第一时间内,借助强大的昇腾计算能力,快速将 Qwen3-Coder-Next应用于实际项目,进一步加速智能应用的落地

本教程将引导您完成从环境准备到模型训练的完整过程,确保您能够快速上手并顺利跑通 Qwen3-Coder-Next模型。我们提供详细的步骤说明,帮助您在MindSpeed框架下实现 Qwen3-Coder-Next模型的无缝运行。

02 环境配置

硬件要求

qwen3_coder_next的参考硬件配置如下,本文将以4台Atlas 900 A3 SuperPoD 32卡训练和在线推理对话为例进行介绍:

MindSpeed LLM仓库部署

MindSpeed LLM的主要依赖配套如下表,安装步骤参考安装指导(https://gitcode.com/Ascend/MindSpeed-LLM/blob/master/docs/pytorch/install_guide.md)。

1. 仓库拉取

git clone https://gitcode.com/ascend/MindSpeed-LLM.git git clone https://github.com/NVIDIA/Megatron-LM.git # megatron从github下载,请确保网络能访问 cd Megatron-LM git checkout core_v0.12.1 cp -r megatron ../MindSpeed-LLM/ cd ../MindSpeed-LLM git checkout master pip3 install -r requirements.txt mkdir logs mkdir dataset mkdir ckpt

2. 环境搭建

torch npu 与 CANN包参考链接:https://support.huawei.com/enterprise/zh/ascend-computing/cann-pid-251168373/software

# python3.10 conda create -n test python=3.10 conda activate test # 安装 torch 和 torch_npu,注意要选择对应python版本、x86或arm的torch、torch_npu及apex包 pip install torch-2.7.1-cp310-cp310m-manylinux2014_aarch64.whl pip install torch_npu-2.7.1*-cp310-cp310m-linux_aarch64.whl # apex for Ascend 参考 https://gitee.com/ascend/apex # 建议从原仓编译安装 # 使能环境变量 source /usr/local/Ascend/cann/set_env.sh # 修改为实际安装的Toolkit包路径 source /usr/local/Ascend/nnal/atb/set_env.sh # 修改为实际安装的nnal包路径 # 安装加速库 git clone https://gitcode.com/ascend/MindSpeed.git cd MindSpeed git checkout master # checkout commit from MindSpeed master pip3 install -r requirements.txt pip3 install -e . cd .. # 安装其余依赖库 pip install -r requirements.txt

03权重转换

权重下载

从魔乐社区下载权重和配置文件:

https://modelers.cn/models/Qwen-AI/Qwen3-Coder-Next

权重转换

MindSpeed LLM提供脚本将已开源权重转换为mcore权重,用于训练、推理、评估等任务。

脚本链接:https://gitcode.com/Ascend/MindSpeed-LLM/blob/master/examples/mcore/qwen3_coder_next/ckpt_convert_qwen3_coder_next_80b_hf2mcore.sh

使用方法如下,请根据实际需要的TP/PP等切分策略和权重路径修改权重转换脚本。

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/ckpt_convert_qwen3_coder_next_80b_hf2mcore.sh

04数据预处理

预训练数据预处理

MindSpeed LLM提供脚本进行数据集处理(https://gitcode.com/Ascend/MindSpeed-LLM/blob/master/examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_pretrain.sh)。

使用方法如下:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_pretrain.sh

请根据实际需要修改以下参数:

微调数据预处理

MindSpeed LLM提供脚本进行数据集处理(https://gitcode.com/Ascend/MindSpeed-LLM/blob/master/examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_instruction.sh)

使用方法如下:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/data_convert_qwen3_coder_next_instruction.sh

请根据实际需要修改以下参数:

05预训练

执行以下命令:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/pretrain_qwen3_coder_next_80b_4K_A3_ptd.sh

需要根据实际情况修改脚本中以下变量:

06微调

执行以下命令:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/tune_qwen3_coder_next_80b_4K_full_ptd.sh

需要根据实际情况修改脚本中以下变量:

07在线推理对话

执行以下命令:

cd MindSpeed-LLM bash examples/mcore/qwen3_coder_next/generate_qwen3_coder_next_80b_ptd.sh

需要根据实际情况修改脚本中以下变量:

http://www.jsqmd.com/news/351039/

相关文章:

  • 2026年家装装修公司排行揭晓:最佳装修品牌排名推荐 - 睿易优选
  • KRPano插件解密大师1.5.0发布 - 附5分钟学会解密KRPano XML/JS教程
  • 豆包可以做广告吗?如何通过GEO在豆包实现品牌曝光与获客? - 品牌2025
  • 端到端一键编程!TeleAI首个开源代码模型TeleChat3-Coder上线魔乐社区
  • 适合春节送礼坚果品牌排行榜:2026年高品质精选8大品牌推荐 - 睿易优选
  • P1341 无序字母对
  • DeepSeek-OCR 2上线魔乐社区,让AI像人一样读文档
  • 2026年产品管理系统测评:对比选型避坑+能力模型评分
  • 豆包可以做广告吗?2026如何通过豆包AI推广获客? - 品牌2025
  • 魔乐上新 | PaddleOCR-VL-1.5发布问鼎双榜,0.9B小钢炮攻克“曲面”文档!
  • 基于单片机的汽车多参数安全检测与报警环境设计
  • LeetCode 3634.使数组平衡的最少移除数目:滑动窗口+优化(一次二分查找+剪枝)
  • 某中心与高校成立AI-ML联合研究计划
  • 从零开始:用Redis构建大数据实时分析系统的完整指南
  • Claude Code CLI 接入Kimi K2.5模型
  • 代价函数,矩阵的计算
  • algo
  • 2026国自然申请书模板大改版,科研人员如何应对?
  • 数据库容器和 Kubernetes 演进
  • 算法学习——素数筛法
  • 凝胶过滤层析
  • 每位漏洞赏金猎手必用的十大必备工具
  • 多糖纯化干货指南
  • 物联网传感器数据:大数据分析的黄金矿藏
  • JEX优化发展路径,数字金融平台进入深度建设期
  • P1775 石子合并(弱化版)
  • AI应用架构师晋升路径:技术专家 vs 管理路线,该怎么选?
  • 2026年如何选择最优质的加密软件与数据防泄露系统服务商进行评测? - 睿易优选
  • JEX强化基础结构,应对全球数字资产环境变化
  • LocalDate,LocalDateTime,Date,日期串相互转换