当前位置: 首页 > news >正文

ChatOpenAI调用get_num_tokens_from_messages() is not presently implemented for model qwen-plus

使用langchain做历史会话管理时报错,代码及报错如下:

from langchain_openai import ChatOpenAI model = ChatOpenAI( base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", api_key="sk-ba5d2f5624d144c98fb196f4013b0e3d", model="qwen-plus", ) from langchain_core.messages import HumanMessage, SystemMessage ,AIMessage from langchain_core.messages import SystemMessage, trim_messages trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=model, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

报错

NotImplementedError: get_num_tokens_from_messages() is not presently implemented for model qwen-plus. See https://platform.openai.com/docs/guides/text-generation/managing-tokens for information on how messages are converted to tokens.

原因
根本原因是:LangChain 的 ChatOpenAI 类在使用非 OpenAI 官方模型(比如阿里云的 Qwen 系列)时,默认无法准确计算 token 数量,因为 get_num_tokens_from_messages() 方法依赖于 OpenAI 的 tokenizer。而像 qwen-plus 这样的第三方兼容模型,并没有被 LangChain 内置支持用于 token 计算

解决方法

如果你使用的是较新版本的 LangChain(>=0.2),可以考虑直接使用 Tongyi 官方提供的 LangChain 集成,而不是通过 OpenAI 兼容模式

pip install langchain-community pip install dashscope --upgrade pip install transformers

修改后代码

tongyi_model = ChatTongyi( base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", api_key="sk-ba5d2f5624d144c98fb196f4013b0e3d", model="qwen-plus", ) trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=tongyi_model, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

运行后,有警告

/home/runUser/anaconda3/envs/langchain/lib/python3.12/site-packages/langchain_core/language_models/base.py:328: UserWarning: Using fallback GPT-2 tokenizer for token counting. Token counts may be inaccurate for non-GPT-2 models. For accurate counts, use a model-specific method if available. return len(self.get_token_ids(text))

表明 ChatTongyi 虽然被用作 token_counter,但其底层 没有实现准确的 token 计数方法(或未正确注册 Qwen 的 tokenizer),于是 LangChain 回退到 GPT-2 的 tokenizer(对中文和 Qwen 模型不准确)
ChatTongyi 的 get_num_tokens_from_messages 方法仍未被正确实现(或依赖未安装的 tokenizer 包),导致它无法准确计算 Qwen 系列模型的 token 数量,只能回退到不合适的 GPT-2 tokenizer。
🔍 验证:Qwen 模型使用的是 基于 tiktoken 的 cl100k_base 编码(和 GPT-3.5/4 相同),不是 GPT-2 的 gpt2 编码。用 GPT-2 tokenizer 会严重低估 token 数(尤其对英文标点、空格等处理不同)。

处理方法:
增加自定义的计数方法实现准确计数,调整后代码如下:
from langchain_core.messages import SystemMessage, trim_messages
import tiktoken

✅ 准确的 token 计数函数(适用于 Qwen / GPT-3.5 / GPT-4)

def count_tokens_in_messages(messages): """估算 messages 的总 token 数(参考 OpenAI 官方方式)""" encoding = tiktoken.get_encoding("cl100k_base") # Qwen 使用此编码 tokens_per_message = 4 # 每条消息的固定开销(role + 分隔符等) tokens_per_name = -1 # Qwen 不支持 name 字段,可忽略 num_tokens = 0 for message in messages: num_tokens += tokens_per_message num_tokens += len(encoding.encode(message.content)) num_tokens += len(encoding.encode(message.type)) # 'system', 'user', 'assistant' # 注意:Qwen 不支持 'name',所以跳过 num_tokens += 3 # 每轮对话的额外开销(如 <|im_start|> 等) return num_tokens trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=count_tokens_in_messages, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

需要提醒的是Qwen的行为更“上下文驱动”而非“指令驱动”。它会优先模仿最近的语言风格,而不是严格遵行system规则

http://www.jsqmd.com/news/237031/

相关文章:

  • AI骨骼检测用于康复治疗?医疗场景落地部署案例
  • MediaPipe后处理优化:关节点抖动滤波算法部署案例
  • IQuest-Coder在软件开发中的5个实用场景分享
  • AI人体骨骼检测镜像优势解析:为何选择本地化CPU方案?
  • 健身动作矫正系统:MediaPipe Pose部署详细步骤
  • 使用L298N实现智能小车PWM调速的深度剖析
  • 人体骨骼检测入门:MediaPipe Pose快速部署
  • AI骨骼关键点检测完整流程:数据输入-推理-可视化输出详解
  • 人体动作分析应用:MediaPipe Pose在VR游戏中的集成
  • 零基础玩转IQuest-Coder:40B代码大模型实战教程
  • MediaPipe Pose性能对比:不同硬件下的表现
  • 开箱即用!HY-MT1.5-1.8B模型快速接入Web服务的三种方式
  • DownKyi视频下载神器:打造专属B站离线资源库的完整指南
  • AI人体骨骼检测压力测试:并发请求下系统稳定性评估
  • 开箱即用!IQuest-Coder一键启动代码生成神器
  • LeaguePrank英雄联盟美化工具终极使用指南
  • MediaPipe Pose与ROS集成:机器人动作模仿系统搭建
  • AI人体骨骼检测入门必看:33个3D关节点定位参数详解
  • AI人体骨骼检测轻量化实践:模型裁剪与推理加速教程
  • 5分钟部署IQuest-Coder:vLLM环境搭建与避坑指南
  • IQuest-Coder-V1效果展示:自动编程案例惊艳分享
  • ViGEmBus驱动安装配置全攻略:如何快速搭建虚拟游戏控制器环境
  • 破解Unity多语言难题:XUnity.AutoTranslator终极配置方案
  • AI姿态检测优化:MediaPipe Pose推理加速指南
  • XUnity游戏翻译插件终极指南:架构深度解析与技术实现
  • 5分钟上手IQuest-Coder:竞技编程大模型零基础入门指南
  • I2S协议快速理解:一文说清数据帧结构与通道
  • haxm is not installed怎么解决:深度剖析驱动安装失败原因
  • MediaPipe Pose技术揭秘:33个关键点定位原理详解
  • MediaPipe骨骼检测性能评测:CPU推理毫秒级响应实测