当前位置: 首页 > news >正文

AIGC大语言模型之词元和嵌入向量

AIGC大语言模型之词元和嵌入向量


前言

词元和嵌入向量是人工智能生成内容(AIGC)中使用LLM的两个核心概念。

一、LLM的分词

1、分词器

是在模型处理文本之前, 分词器会将文本分解成词或者子词。这个是根据特定的方法和训练过程进行的。

2、分词器如何分解文本

3、开源分词器

分词器/库核心思想/算法标志性特点主要使用者
OpenAI BPE(tiktoken)Byte-level BPE直接在字节流上操作,高效压缩GPT-2,GPT-3,GPT-4,GPT-40, GPT-5
SentencePieceBPE, Unigram语言无关,无需预分词,空格视为LLaMA, T5,多语言模型
WordPieceMax-Likelihood需要预分词,词中片段用 ## 标记BERT 及其家族
Hugging FacetokenizersBPE, WordPiece,Unigram…集大成者,高性能Rust 实现,完整流水线Hugging Face 生态所有模型

4、词级、子词级、字符级与字节级分词

二、词元嵌入向量

语言是词元的序列,如果我们子啊足够大的词元集上训练一个足够好的模型,它就会开始捕获训练数据集中出现的复杂模式:

1、文本嵌入(用于句子和整篇文档)

虽然词元嵌入是LLM运作的关键, 但许多LLM应用需要处理完整的句子,段落甚至文本文档,这催生了一下特殊的语言模型,他们能够生成文本嵌入-- 用单个向量来表示长度超过一个词元的文本片段。

我们可以这样理解文本嵌入模型:它接收一段文本, 最终生成单个向量, 这个向量以某种形式表示该文本并捕获其含义.生成文本嵌入有多种方法。常见的方法之一是对模型生成的所有词元嵌入的值取平均值,然而,高质量的文本嵌入模型往往是专门为文本嵌入任务训练的

2、这边我们自己预训练文本词

  1. 准备预训练数据集(清洗、去重、tokenizer)
  2. Tokenizer设置(词元、分词策略)
  3. 输出模型
# 导入 SentencePiece 库:用于无监督训练子词(BPE/Unigram)模型以及后续编码/解码 import sentencepiece as spm def train(input_file, vocab_size, model_name, model_type, character_coverage): """ 重要说明(官方参数文档可查): https://github.com/google/sentencepiece/blob/master/doc/options.md 参数含义: - input_file: 原始语料文件路径(每行一句,SentencePiece 会做 Unicode NFKC 规范化) 支持多文件逗号拼接:'a.txt,b.txt' - vocab_size: 词表大小,如 8000 / 16000 / 32000 - model_name: 模型前缀名,最终会生成 <model_name>.model 和 <model_name>.vocab - model_type: 模型类型:unigram(默认)/ bpe / char / word 注意:若使用 word,需要你在外部先分好词(预分词) - character_coverage: 覆盖的字符比例 * 中文/日文等字符集丰富语言建议 0.9995 * 英文等字符集小的语言建议 1.0 """ # 这里使用“字符串命令”式的调用来指定训练参数 # 固定 4 个特殊符号的 id:<pad>=0, <unk>=1, <bos>=2, <eos>=3 # 这与下游 Transformer 常用配置一致,便于对齐 input_argument = ( '--input=%s ' '--model_prefix=%s ' '--vocab_size=%s ' '--model_type=%s ' '--character_coverage=%s ' '--pad_id=0 --unk_id=1 --bos_id=2 --eos_id=3 ' ) # 将传入参数填充到命令字符串 cmd = input_argument % (input_file, model_name, vocab_size, model_type, character_coverage) # 开始训练;会在当前工作目录下生成 <model_name>.model / <model_name>.vocab spm.SentencePieceTrainer.Train(cmd) # ===== 英文分词器配置 ===== en_input = 'data/data.txt' # 英文语料:一行一句 en_vocab_size = 32000 # 词表大小:翻译任务常见为 16k/32k en_model_name = 'eng' # 输出前缀:会生成 eng.model / eng.vocab en_model_type = 'bpe' # 使用 BPE(也可尝试 unigram) en_character_coverage = 1.0 # 英文字符集小 → 用 1.0 train(en_input, en_vocab_size, en_model_name, en_model_type, en_character_coverage)

总结

https://chensongpoixs.github.io/

http://www.jsqmd.com/news/96310/

相关文章:

  • 提升开发效率!VSCode插件与LobeChat联动实现代码智能生成
  • EmotiVoice与LostLife2.0下载官网对比:哪个更适合中文语音生成?
  • SpringBoot+Vue 高校竞赛管理系统管理平台源码【适合毕设/课设/学习】Java+MySQL
  • SpringBoot+Vue 高校实习管理系统平台完整项目源码+SQL脚本+接口文档【Java Web毕设】
  • 高校汉服租赁网站信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】
  • 企业级高校教师教研信息填报系统管理系统源码|SpringBoot+Vue+MyBatis架构+MySQL数据库【完整版】
  • 基于SpringBoot+Vue的高校科研信息管理系统管理系统设计与实现【Java+MySQL+MyBatis完整源码】
  • Java SpringBoot+Vue3+MyBatis 房屋租赁管理系统系统源码|前后端分离+MySQL数据库
  • 21、抗生素抗性抑制的生物强化方法探索
  • 福泰轴承股份有限公司进销存系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】
  • 22、可再生电力的电网集成与分布式控制
  • Java SpringBoot+Vue3+MyBatis 甘肃旅游服务平台系统源码|前后端分离+MySQL数据库
  • 23、可再生电力电网集成与分布式控制及受攻击控制系统的安全子空间分析
  • 24、线性控制系统的可防护与不可防护子空间解析
  • 19、单输入单输出系统频率非参数优化与分层分散控制
  • 20、分层分散控制与生物强化抑制抗生素抗性策略解析
  • Display Driver Uninstaller深度解析:告别显卡驱动残留的终极方案
  • C#调用EmotiVoice API实现桌面端语音合成的技术路径
  • Blender 贝塞尔曲线终极工具:新手也能快速上手的完整指南
  • 基于Wan2.2-T2V-A14B构建自动广告视频生成系统
  • Vue Signature Pad 电子签名组件使用指南
  • Poppler Windows版:PDF处理难题的完美解决方案
  • Wan2.2-T2V-A14B + GPU算力:解锁大规模视频生成新范式
  • 通过LobeChat实现多模型切换的智能路由逻辑
  • C#串口通信入门:同步与异步收发详解
  • Wan2.2-T2V-A14B与传统T2V模型的五大核心优势对比
  • 告别‘此扩展程序不再受支持’问题:配置EmotiVoice兼容性运行环境
  • Java面试必看阻塞队列实现原理及生产者-消费者实战解析
  • 如何使用EmotiVoice实现零样本声音克隆?只需几秒音频即可复刻音色
  • B站视频解析终极指南:快速获取高清播放链接的完整解决方案