当前位置: 首页 > news >正文

Llama、Qwen、DeepSeek bpe算法都不一样 怎么办 AutoTokenizer AutoModelForCausalLM “自动选择并加载正确分词器(tokenizer)”的工具类

Llama、Qwen、DeepSeek bpe算法都不一样 怎么办 AutoTokenizer AutoModelForCausalLM “自动选择并加载正确分词器(tokenizer)”的工具类

AutoTokenizerAutoModelForCausalLM是 Hugging Facetransformers库中最常用的两个“Auto”类,几乎所有加载大语言模型(LLM)的代码都会同时用到它们。下面用最直白的方式介绍它们的作用、区别和典型用法(2026 年视角,基于 transformers v4.4x ~ v5.x 主流写法)。

1. AutoTokenizer 是什么?

一句话
它是“自动选择并加载正确分词器(tokenizer)”的工具类。

主要功能

  • 把人类可读的文本 → 模型能理解的数字 token id
  • 把 token id → 人类可读的文本(解码)
  • 处理 padding、truncation、attention mask、special tokens 等

为什么用 AutoTokenizer 而不是具体的 XXXTokenizer?

  • 你不需要提前知道模型用的是什么分词方式(BPE、WordPiece、SentencePiece、tiktoken 风格……)
  • 同一个 checkpoint 名字,AutoTokenizer 会自动匹配对应的 tokenizer 类型

最常见写法

fromtransformersimportAutoTokenizer tokenizer=AutoTokenizer.from_pretrained("meta-llama/Llama-3.1-8B-Instruct")# 或 Qwen、DeepSeek、Mistral、Gemma、Phi-4 等任意模型

典型用法示例

text="你好,世界!"inputs=tokenizer(text,return_tensors="pt",# 返回 PyTorch 张量padding=True,truncation=True,max_length=512)print(inputs["input_ids"])# tensor([[ 1, 31514, ..., 198]])print(tokenizer.decode(inputs["input_ids"][0]))# 还原文本

2. AutoModelForCausalLM 是什么?

一句话
它是“自动加载适合自回归因果语言建模(next-token prediction)的模型”的工具类。

核心特点

  • 专门为GPT 风格的自回归生成模型设计(Llama、Qwen、Mistral、Gemma、Phi、DeepSeek、Grok 等几乎所有现代聊天/生成模型都属于这一类)
  • 模型自带LM Head(一个线性层),能直接输出每个位置的下一个 token 的 logits
  • 支持.generate()方法做方便的文本生成

和 AutoModel 的最大区别

类名包含的内容主要用途是否自带生成头(LM Head)是否能直接 .generate()
AutoModel只有 Transformer 骨干(隐藏状态输出)特征提取、embedding、继续预训练
AutoModelForCausalLM骨干 + LM Head(输出 vocab 大小的 logits)文本生成、聊天、SFT、RLHF

简单记忆:
想做聊天、写代码、续写故事→ 用AutoModelForCausalLM
只想拿隐藏状态做下游任务(分类、embedding 等) → 用AutoModel

最常见写法

fromtransformersimportAutoModelForCausalLM model=AutoModelForCausalLM.from_pretrained("deepseek-ai/DeepSeek-R1-Distill-Qwen-32B",torch_dtype="auto",# 自动选择 bf16/fp16device_map="auto"# 自动分布到多卡)

生成文本最经典写法(几乎所有 demo 都这样写):

fromtransformersimportAutoTokenizer,AutoModelForCausalLMimporttorch tokenizer=AutoTokenizer.from_pretrained("Qwen/Qwen2.5-14B-Instruct")model=AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-14B-Instruct",device_map="auto")messages=[{"role":"user","content":"用 Python 写一个快速排序"}]input_text=tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)inputs=tokenizer(input_text,return_tensors="pt").to(model.device)outputs=model.generate(**inputs,max_new_tokens=800,temperature=0.7,top_p=0.9,do_sample=True)print(tokenizer.decode(outputs[0],skip_special_tokens=True))

快速总结对比表

项目AutoTokenizerAutoModelForCausalLM
负责什么文本 ↔ token ids模型权重 + LM head(预测下一个 token)
典型导入方式AutoTokenizer.from_pretrained()AutoModelForCausalLM.from_pretrained()
是否支持 .generate()✓(最方便的生成接口)
主要场景所有模型都用聊天、代码生成、续写、对话类模型
如果误用会怎样AutoModel加载生成模型 → 没有生成能力

一句话口诀:
Tokenizer 管切词,CausalLM 管续写
现代 LLM 推理/微调基本永远是:

tokenizer=AutoTokenizer.from_pretrained(checkpoint)model=AutoModelForCausalLM.from_pretrained(checkpoint,...)

有具体模型或任务想深入了解用法,可以继续问!

http://www.jsqmd.com/news/357674/

相关文章:

  • iOS开发:动态加载SQLite扩展库的技巧
  • 2026年热门的取向电工钢厂家推荐及选择指南 - 行业平台推荐
  • PasteMD一文详解:如何用开源镜像实现安全、离线、高精度文本格式化
  • 【计算机网络 | 第九篇】PPP:点对点协议
  • SeqGPT-560M快速上手:Streamlit交互大屏操作图解与常见报错解决
  • Qwen3-TTS-12Hz-1.7B-CustomVoice实战案例:为开源翻译工具添加语音朗读插件
  • 对谈意识领军人物:我们探讨的意识问题,都是错的
  • Qwen2.5容器化部署实践:Docker镜像构建指南
  • 阿里小云KWS模型在智能零售中的语音导购应用
  • 【小程序毕设全套源码+文档】基于Android的大学生心理疏导防控小程序的设计与实现(丰富项目+远程调试+讲解+定制)
  • 输出整型数的二进制形式
  • 新“太空计算”模式,一文看懂
  • Xformers+VAE切片双优化:Anything to RealCharacters 2.5D引擎显存节省方案
  • Z-Image Turbo实现LaTeX论文图表自动生成
  • 【小程序毕设全套源码+文档】基于Android的高校校车订座系统的设计与实现(丰富项目+远程调试+讲解+定制)
  • 基于python的垃圾分类系统[python]-计算机毕业设计源码+LW文档
  • 循环链表怎么建立?详解创建与操作方法
  • 基于python的乐高玩具数据销售分析系统[python]-计算机毕业设计源码+LW文档
  • 阿里小云KWS模型在智能音箱中的实战:远场拾音优化
  • 【小程序毕设全套源码+文档】基于Android的食堂点餐系统的设计与实现(丰富项目+远程调试+讲解+定制)
  • 别再瞎找了!8个AI论文工具测评:研究生毕业论文与科研写作必备神器
  • FLUX.1-dev-fp8-dit实战:LangGraph多模型协作系统
  • ollama一键部署QwQ-32B:免conda、免torch编译的开发者友好方案
  • 基于SpringCloud的电子商城系统源码文档部署文档代码讲解等
  • vLLM优化GLM-4-9B-Chat-1M:PagedAttention内存管理与吞吐量实测对比
  • ResNet50人脸重建镜像保姆级教程:Mac M2芯片原生运行与Metal加速配置
  • GLM-4-9B-Chat-1M保姆级教程:Chainlit导出对话历史+GLM-4-9B-Chat-1M摘要
  • 通义千问3-Reranker-0.6B惊艳效果:低质量文档自动识别与过滤能力
  • 基于SpringCloud的美食分享交流平台源码文档部署文档代码讲解等
  • 别再瞎找了!AI论文平台 千笔 VS 灵感ai,专科生写作新选择!