当前位置: 首页 > news >正文

瑞芯微(EASY EAI)RV1126B AI模型转换

1. AI模型转换

本章主要说明如何实现Hugging Face格式的大语言模型(Large Language Model, LLM)

如何转换为RKLLM模型,目前支持的模型包括Deepseek、LLaMA, Qwen, Qwen2, Phi-2, Phi-3, ChatGLM3, Gemma, InternLM2 和 MiniCPM等,本章以Deepseek-R1为例。

本章主要说明如何实现Deepseek-R1大语言模型如何转换为RKLLM模型。

1.1 模型下载

本节提供两种大模型文件,Hugging face的原始模型和转换完成的NPU模型。

下载链接: https://pan.baidu.com/s/1u05E5qZcilbxCWMW0Dl6ag?pwd=1234 (提取码: 1234)。

1.2 模型转换

下载完成后模型和脚本放到同一个目录:

在RKLLM-Toolkit环境,执行以下指令进行模型转换:

至此模型转换成功,生成deepseek_r1_rv1126b_w4a16.rkllm NPU化的大模型文件:

test.py转换脚本如下所示, 用于转换DeepSeek-R1-Distill-Qwen-1.5B模型:

from rkllm.api import RKLLM from datasets import load_dataset from transformers import AutoTokenizer from tqdm import tqdm import torch from torch import nn import os # os.environ['CUDA_VISIBLE_DEVICES']='1' modelpath = '/home/developer/RKLLM-Toolkit/DeepSeek-R1-Distill-Qwen-1.5B' llm = RKLLM() # Load model # Use 'export CUDA_VISIBLE_DEVICES=2' to specify GPU device # options ['cpu', 'cuda'] ret = llm.load_huggingface(model=modelpath, model_lora = None, device='cpu') # ret = llm.load_gguf(model = modelpath) if ret != 0: print('Load model failed!') exit(ret) # Build model dataset = "./data_quant.json" # Json file format, please note to add prompt in the input,like this: # [{"input":"Human: 你好!\nAssistant: ", "target": "你好!我是人工智能助手KK!"},...] qparams = None # qparams = 'gdq.qparams' # Use extra_qparams ret = llm.build(do_quantization=True, optimization_level=1, quantized_dtype='w4a16', quantized_algorithm='normal', target_platform='rv1126b', num_npu_core=1, extra_qparams=qparams, dataset=None) if ret != 0: print('Build model failed!') exit(ret) # Chat with model messages = "<|im_start|>system You are a helpful assistant.<|im_end|><|im_start|>user你好!\n<|im_end|><|im_start|>assistant" kwargs = {"max_length": 128, "top_k": 1, "top_p": 0.8, "temperature": 0.8, "do_sample": True, "repetition_penalty": 1.1} # print(llm.chat_model(messages, kwargs)) # Export rkllm model ret = llm.export_rkllm("./deepseek_r1_rv1126b_w4a16.rkllm") if ret != 0: print('Export model failed!') exit(ret)
http://www.jsqmd.com/news/813907/

相关文章:

  • 通信行业标准制定:从3GPP贡献到市场主导权的竞争逻辑
  • 生物学中的冗余、分形与软件系统的健壮性设计
  • 我的26岁女房客:在云端 2026.5.13最新破解版免费下载 (速下 随时失效)
  • QMCDecode:5步掌握QQ音乐加密文件转换的终极指南
  • 专业监控AMD Ryzen内存性能:ZenTimings帮你解决超频调试难题
  • 百度网盘直链解析技术:突破限速壁垒的Python实现方案
  • 字符型LCD防御性设计:从只写到可读的可靠性提升实践
  • Claude代码会话实战:结构化提示与上下文管理提升AI编程效率
  • Claude+Markdown高效工作流:从Awesome列表到实战应用
  • 3步搞定视频硬字幕提取:本地化AI工具video-subtitle-extractor完全指南
  • 阴阳师自动化脚本终极指南:5分钟快速上手解放双手的完整教程
  • 工程师工具哲学:从选型、使用到自制,构建高效可靠的硬件开发兵器库
  • 开源项目Shannon:信息论在数据压缩与编码中的工程实践
  • 模拟工程师的铂金时代:从电路工匠到系统架构师的技能演进与职业发展
  • 2026年最新爆火!6款AI写论文神器实测,真实参考文献+AIGC率低至6% - 麟书学长
  • 数据管理:从采集到特征存储
  • Skeleton UI组件库:现代Web开发的框架无关设计系统实践
  • 2026亲测:知网/维普AI率从60%降到5%!5款降AIGC工具深度测评(附免费手改技巧) - 降AI实验室
  • 使用curl命令直接测试taotoken聊天补全接口的配置与排错方法
  • NotebookLM如何3天完成文献综述初稿:清华/中科院团队实证的7步学术工作流
  • Umi-CUT:批量图片去黑边与裁剪的终极免费解决方案
  • 芯片巨头与创客运动:从生态博弈到商业共赢的十年演进
  • 还在问CTF是啥?这篇“网安扫盲贴”,带你从入门到入坑!小白收藏这篇就够了
  • 2026年北极绒费用分析,哪家更实惠 - mypinpai
  • 芯片设计RTL到GDSII流程演进:从物理感知到多物理域签核
  • 技术沟通中的语义陷阱:识别与清理“僵尸表达”的工程实践
  • IT行业年龄歧视的法律边界与合规实践:从招聘到解雇的风险防范指南
  • Amazon 内部金融团队的 RAG 实战:用 Bedrock 把监管审查从人工翻文件变成 AI 对话
  • 从波音737 MAX看复杂系统安全设计:冗余、验证与工程伦理
  • ARM调试寄存器详解:EDITCTRL与EDPRCR实战指南