当前位置: 首页 > news >正文

LLM 采样参数详解:Temperature, Top-k 与 Top-p

在大型语言模型(LLM)的文本生成过程中,解码(Decoding)阶段决定了模型最终输出什么内容。为了平衡生成的准确性多样性,我们通常会使用三个关键参数:TemperatureTop-kTop-p

本文档详细解释这三个参数的原理,并着重分析 Top-k 与 Top-p 的区别。

1. Temperature (温度)

作用:全局控制概率分布的“平滑”程度。

模型输出的是一组 Logits(原始得分)。在转化为概率(Softmax)之前,我们会将 Logits 除以 Temperature (TTT)。

  • T<1T < 1T<1(低温)
    • 效果:放大高概率和低概率之间的差距。概率高的词会变得更高(更突出),概率低的词会变得更低。
    • 结果:生成内容非常保守确定性强。适合数学解题、代码生成等需要精确答案的场景。
  • T>1T > 1T>1(高温)
    • 效果:缩小差距,使概率分布趋于平坦(Uniform)。
    • 结果:低概率的词也有机会被选中。生成内容更随机有创造力,但也更容易产生幻觉或胡言乱语。

2. Top-k Sampling

作用:强行截断,只保留前 k 个可能的词。

  • 原理:将所有候选词按概率从高到低排序,只保留前kkk个(例如k=50k=50k=50)。将这kkk个词之后的词概率归零,然后重新归一化剩余的词。

Top-k 的局限性:无法适应不同的预测置信度

Top-k 的最大问题在于kkk是一个固定值,而模型对不同上下文的预测**确定性(Confidence)**是动态变化的。这会导致两种极端情况:

情况一:模型非常确定(k 太大,引入噪声)
  • 例子"床前明月光,疑是地上__"
  • 假设的概率分布
    1. : 0.90 (90%)
    2. 鞋: 0.005
    3. 糖: 0.005
    4. 脏: 0.001
  • Top-k (k=50) 的问题
    • 虽然 “霜” 显然是正确答案,但 Top-k 强行保留了前 50 个词。
    • 这意味后 49 个干扰项(虽然概率低)依然被保留在候选池中。
    • 如果此时Temperature 较高(例如 T=1.5),“霜” 的优势会被削弱,模型就有可能“抽风”选中第 30 名的“脏”字,导致生成完全离谱的内容。
情况二:模型很不确定(k 太小,抹杀多样性)
  • 例子"今天中午我准备吃__"
  • 假设的概率分布
    1. 米饭: 0.15
    2. 面条: 0.14
    3. 饺子: 0.13
    4. 寿司: 0.08
    5. 汉堡: 0.05
  • Top-k (k=5) 的问题
    • 前 5 个词的概率加起来可能只有0.15+0.14+0.13+0.12+0.11=0.650.15+0.14+0.13+0.12+0.11 = 0.650.15+0.14+0.13+0.12+0.11=0.65(65%)。
    • 排在第 10 名的“寿司” (8%) 和第 1 名的“米饭” (15%) 差别并不大,都是合理的选项。
    • 但因为k=5k=5k=5的死板限制,“寿司”被直接淘汰了。这极大地限制了生成的丰富性。

3. Top-p (Nucleus) Sampling

作用:动态截断,保留累积概率达到 p 的最小集合。

  • 原理:设定一个阈值ppp(例如 0.9)。将候选词按概率排序后,从高到低逐个累加,直到总概率超过ppp为止。只保留这组词。

Top-p 如何解决 Top-k 的问题?

Top-p 的候选集大小(Candidate Set Size)是动态变化的:

  • 应对“非常确定”的情况
    • "床前明月__"的例子中,"霜"(0.90) 一个词就达到了p=0.9p=0.9p=0.9的阈值。
    • 结果:候选集大小自动变为1。彻底剔除了“鞋”、“糖”等噪声。
  • 应对“很不确定”的情况
    • "中午吃什么"的例子中,为了凑够p=0.9p=0.9p=0.9,模型需要把前 15 个甚至前 20 个食物都选进来。
    • 结果:候选集大小自动变为20。保留了所有合理的选项。

总结:最佳实践

参数推荐配置场景
Temperature0.0 - 0.3代码、数学、事实问答 (精准)
0.7 - 1.0创意写作、聊天 (多样)
Top-k40 - 100传统的截断方式,通常配合 Temperature 使用
Top-p0.9 - 0.95现代 LLM 的首选,通常能比 Top-k 获得更好的生成质量

通常建议:优先使用Top-p来过滤候选词,然后再配合Temperature来调整分布的平滑度。

http://www.jsqmd.com/news/116394/

相关文章:

  • 11.CSS属性 (@property)
  • 企业级+高校线上心理咨询室设计与实现pf管理系统源码|SpringBoot+Vue+MyBatis架构+MySQL数据库【完整版】
  • BMM150三轴地磁传感器原理图设计,已量产(加速度传感器)
  • 免费在线文件解析 - 夸克网盘解析
  • ReLU 如何使神经网络能够逼近连续非线性函数?
  • 我停止使用 Docker 后,一切都变得更轻松了
  • Linly-Talker能否实现手势动作配合讲解?肢体驱动展望
  • Linly-Talker在电商直播中的潜力与落地场景
  • 数字人直播切片:自动生成精彩片段用于二次传播
  • 只需一张照片!Linly-Talker打造专属AI数字人
  • 集合进阶(一部分)
  • 学Simulink--风电电机控制场景实例:基于Simulink的DFIG网侧变流器单位功率因数控制仿真
  • 如何测试你的机器学习项目?初学者指南
  • 如何评估短期技术债务对长期发展的影响?有哪些量化指标?
  • 无需建模师!Linly-Talker让静态照片‘开口说话’
  • 性能提升 60%:前端性能优化终极指南
  • 【wxWidgets教程】控件基础知识
  • 如何用数据回答业务问题
  • AI法律顾问助手:帮助用户理解复杂合同条款
  • 化学元素周期表、分类和演进
  • 技术路线图在执行过程中遇到市场变化时,如何动态调整?
  • Spotify 如何实现个性化有声书推荐
  • Linly-Talker在公务员面试培训中的模拟考官应用
  • 亲测10款降ai率工具:AI率80%怎么降低ai?(2025最新论文去AI味攻略)
  • 为什么说Linly-Talker是未来数字人的基础设施?
  • 如何用Linly-Talker生成带情绪表达的数字人视频
  • C++课后习题训练记录Day55
  • Linly-Talker能否用于儿童教育内容创作?家长关心的问题
  • Linly-Talker vs 传统动画:效率提升90%的秘密
  • Linly-Talker生成视频的版权归属问题澄清