当前位置: 首页 > news >正文

大模型输入的“灵魂”步骤:Embedding如何让0、1、2变得有“意义”?

  • 什么是大模型
  • 什么是token
  • 什么是词表

到这里,整个输入流程已经走到这一步了:

文本 → 按词表切分 → token → token ID

比如一句话:

我 是 学生

经过词表后,可能变成:

我 → 0 是 → 1 学生 → 2

但是问题来了:

模型看到的0、1、2,真的能理解“我是学生”是什么意思吗?

答案是:不能。因为这些数字只是编号,不是含义。所以,下一步就很关键:把token ID变成向量。这一步,就叫Embedding

编号不是语义

先说一个很容易误解的点:token ID只是编号,不代表意思。比如:

猫 → 1024 狗 → 1025 汽车 → 1026

这些编号只是为了方便查找。不能因为1024和1025很接近,就说明猫和狗语义很接近。更不能因为1026离1024也很近,就说汽车和猫也差不多。所以,模型不能直接拿这些编号做理解。token ID更像是:

👉图书馆里书的编号。

编号只是告诉你去哪里找这本书,但编号本身不等于书的内容。

Embedding是什么?

Embedding就是把token变成一串数字向量。比如:

猫 → [0.12, -0.35, 0.88, 0.41, ...] 狗 → [0.10, -0.32, 0.84, 0.39, ...] 汽车 → [-0.76, 0.21, -0.14, 0.93, ...]

这些向量才是模型真正用来计算的东西。也就是说,模型不是直接处理猫这个字,也不是直接处理token ID 1024,而是处理:

[0.12, -0.35, 0.88, 0.41, ...]

这样一串数字。

为什么要变成向量?

因为模型本质上是数学模型。它不能直接理解文字、基因、蛋白质、分子结构这些符号。它真正能处理的是:

  • 数字
  • 矩阵
  • 向量
  • 加减乘除
  • 相似度计算

所以,Embedding做的事情就是:把符号世界翻译成数学世界。可以这样理解:

文字/符号 → token → token ID → 向量

这一步完成之后,模型才能继续往下算。

向量里到底装了什么?

很多人看到向量会觉得很抽象。比如:

[0.12, -0.35, 0.88, 0.41, ...]

这串数字到底代表什么?其实可以先不用把每一维都想得太具体。你只要先记住一个核心直觉:

👉相似的东西,向量会更接近。

比如在自然语言里:

  • 猫和狗经常出现在相似语境中
  • 都可能和宠物、动物、吃饭、睡觉这些词有关

所以经过训练后,它们的向量往往会更接近。而猫和发动机出现的语境差别很大,它们的向量距离通常会更远。

可以把embedding想象成一张语义地图

如果觉得向量空间太抽象,可以先把它想象成一张地图。在这张地图上:

  • 猫、狗、兔子,可能在一个区域
  • 汽车、发动机、轮胎,可能在另一个区域
  • 医生、医院、护士,可能又在另一个区域

也就是说:

👉每个token都被放到了一个位置上。

位置相近,说明它们在模型学到的世界里更相似。这就是为什么我们常说:

👉Embedding是一种表示。

它不是简单地把词换成数字,而是试图用数字位置表达它和其他词之间的关系。

Embedding是谁规定的?

不是人工规定的。不是有人手动告诉模型:

  • 猫和狗要近一点
  • 猫和汽车要远一点

Embedding是模型在训练过程中自己学出来的。模型会在大量文本里不断观察:

  • 哪些词经常一起出现
  • 哪些词出现在类似上下文
  • 哪些词可以完成类似句子
  • 哪些词之间存在稳定关系

比如:

小猫在沙发上睡觉小狗在沙发上睡觉

猫和狗经常出现在相似位置,模型就会逐渐学到:它们有某种相似性。这不是人直接教的,而是模型从大量数据里统计出来的。


不同领域的embedding,其实逻辑一样

Embedding不只用于自然语言。只要是符号化的数据,都可以走这条路:

符号 → token → ID → embedding 向量
  1. 自然语言

词/字/子词 → 语义向量

例如:

医生、护士、医院

在语义空间里可能更接近。

  1. 基因序列
A / T / C / G 或 k-mer → 序列向量

例如:

ATG可以作为一个token,变成向量。模型学习的可能是序列片段和功能之间的关系。
  1. 蛋白质序列

氨基酸 → token → embedding

比如:

A / R / N / D / ...

这些氨基酸token的向量,可能蕴含结构、功能、保守性等信息。

  1. 分子SMILES

对于分子来说,SMILES也可以看成一种化学语言。比如:

CC(=O)O

可以被拆成:

C / C / ( / = / O / ) / O

或者更复杂的片段token。这些token再变成embedding 后,模型就可以学习:

  • 哪些结构片段相似

  • 哪些结构组合可能影响活性

  • 哪些分子更可能具有相似性质


Embedding和词表是什么关系?

这两个概念很容易混。可以这样理解:

👉词表负责认识谁
👉embedding负责怎么表示它

比如词表里有:

ID 0 → 我 ID 1 → 是 ID 2 → 学生

Embedding层会为每个ID准备一个向量:

ID 0 → [0.21, -0.13, 0.77, ...] ID 1 → [-0.08, 0.45, 0.19, ...] ID 2 → [0.66, -0.31, 0.52, ...]

所以完整过程是:

文本 → token → token ID → 查表 → embedding向量

这里的查表非常关键。Embedding层本质上也可以理解成一张大表:

每一行 = 一个token的向量

模型拿到token ID后,并不是直接把这个编号拿去计算,而是先到

embedding表中查表,找到这个ID对应的向量表示。也就是说,输入阶段是:token ID → embedding向量

同理,模型在预测输出时,也不是直接吐出文字,而是先计算出下一个位置最可能对应的token ID,再通过词表把这个ID还原成具体的文字或符号。也就是说,输出阶段是:模型计算结果 → token ID → 文字

输入时:文字 → token → token ID → embedding 向量 → 模型计算 输出时:模型计算 → 预测 token ID → 查词表 → 生成文字

Embedding一开始就有意义吗?

不一定。很多模型刚开始训练时,embedding可能是随机初始化的。也就是说,一开始:

猫、狗、汽车

它们的向量位置可能是乱的。随着训练进行,模型不断调整这些向量。慢慢地:

  • 经常相似使用的 token 会靠近
  • 差异很大的 token 会分开
  • 某些关系会在空间中形成稳定结构

所以 embedding 不是固定死的,而是训练出来的。


为什么embedding很重要?

因为后面的Transformer、Attention、MLP,处理的都不是原始文字,而是embedding向量。如果embedding质量不好:

  • 语义关系会混乱
  • 相似性判断会出错
  • 后面模型再复杂也很难补救

可以打个比方:

**embedding是模型理解世界的坐标系。坐标系建得好,后面的计算才有意义。**坐标系如果乱了,模型就很难稳定工作。

一个容易忽略的问题:一个token的向量固定吗?

在最开始的 embedding 表里,每个 token 确实有一个固定的初始向量。但进入Transformer之后,情况就变了。同一个token在不同句子里,最终表示可能不同。比如:

苹果 很 甜 苹果 公司 发布 新手机

这里两个苹果一开始查到的embedding可能一样,但经过上下文计算之后,最终向量会不一样。这就是为什么大模型能根据上下文理解不同含义。所以可以这样说:

embedding是起点,不是终点。

初始embedding让token进入模型,上下文计算让它变成更具体的含义。

如果只记一句话:

Embedding就是把token从编号变成可计算的向量表示。它解决的是:模型如何把符号变成数学对象。完整链条是:

文本 → 按词表切分 → token → token ID → embedding 向量 → 进入 Transformer 计算

到了这里,模型终于不再只是看到文字编号,而是开始在一个向量空间里计算它们之间的关系。

2026年AI行业最大的机会,毫无疑问就在应用层

字节跳动已有7个团队全速布局Agent

大模型岗位暴增69%,年薪破百万!

腾讯、京东、百度开放招聘技术岗,80%与AI相关……

如今,超过60%的企业都在推进AI产品落地,而真正能交付项目的大模型应用开发工程师**,**却极度稀缺!

落地AI应用绝对不是写几个prompt,调几个API就能搞定的,企业真正需要的,是能搞定这三项核心能力的人:

✅RAG:融入外部信息,修正模型输出,给模型装靠谱大脑

✅Agent智能体:让AI自主干活,通过工具调用(Tools)环境交互,多步推理完成复杂任务。比如做智能客服等等……

✅微调:针对特定任务优化,让模型适配业务

目前,脉脉上有超过1000家企业发布大模型相关岗位,人工智能岗平均月薪7.8w!实习生日薪高达4000!远超其他行业收入水平!

技术的稀缺性,才是你「值钱」的关键!

具备AI能力的程序员,比传统开发高出不止一截!有的人早就转行AI方向,拿到百万年薪!👇🏻👇🏻

AI浪潮,正在重构程序员的核心竞争力!现在入场,仍是最佳时机!

我把大模型的学习全流程已经整理📚好了!抓住AI时代风口,轻松解锁职业新可能,希望大家都能把握机遇,实现薪资/职业跃迁~

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

⭐️从大模型微调到AI Agent智能体搭建

剖析AI技术的应用场景,用实战经验落地AI技术。从GPT到最火的开源模型,让你从容面对AI技术革新!

大模型微调

  • 掌握主流大模型(如DeepSeek、Qwen等)的微调技术,针对特定场景优化模型性能。

  • 学习如何利用领域数据(如制造、医药、金融等)进行模型定制,提升任务准确性和效率。

RAG应用开发

  • 深入理解检索增强生成(Retrieval-Augmented Generation, RAG)技术,构建高效的知识检索与生成系统。
  • 应用于垂类场景(如法律文档分析、医疗诊断辅助、金融报告生成等),实现精准信息提取与内容生成。

AI Agent智能体搭建

  • 学习如何设计和开发AI Agent,实现多任务协同、自主决策和复杂问题解决。
  • 构建垂类场景下的智能助手(如制造业中的设备故障诊断Agent、金融领域的投资分析Agent等)。

如果你也有以下诉求:

快速链接产品/业务团队,参与前沿项目

构建技术壁垒,从竞争者中脱颖而出

避开35岁裁员危险期,顺利拿下高薪岗

迭代技术水平,延长未来20年的新职业发展!

……

那这节课你一定要来听!

因为,留给普通程序员的时间真的不多了!

立即扫码,即可免费预约

「AI技术原理 + 实战应用 + 职业发展

「大模型应用开发实战公开课」

👇👇

👍🏻还有靠谱的内推机会+直聘权益!!

完课后赠送:大模型应用案例集、AI商业落地白皮书

http://www.jsqmd.com/news/760071/

相关文章:

  • 2026年5月全屋定制品牌权威盘点:精工智造如何定义家的品质 - 商业科技观察
  • 前端学习打卡 Day1:从0到1认识前端与HTML基础结构
  • 大语言模型逻辑验证框架:原理、实现与应用
  • 2026年5月全屋整装十大公认品牌——选对品牌,装好一个家 - 商业科技观察
  • 超表面技术在水下定位系统中的应用与优化
  • 前端已死?2026年,转型AI Agent工程师才是你的“续命”良方!
  • 基于Flutter的OpenClaw桌面控制台开发:架构设计与跨平台实践
  • 4J36低膨胀合金有哪些?符合国标的4J36低膨胀合金厂商推荐 - 品牌2026
  • CANoe诊断测试避坑指南:ISO 15765-2网络层时间参数(N_Ar, N_As, N_Br...)详解与实战监控
  • 2026年5月厨柜定制选购白皮书:从物理参数到精工交付的品质解码 - 商业科技观察
  • 利用Taotoken多模型能力为嵌入式系统设计文档寻找最优的生成模型
  • 告别Docker依赖!用tileserver-gl-light在Windows/Mac上5分钟搭建本地地图服务
  • 不只是建模:手把手教你用TCAD为GaN功率器件做‘虚拟实验’(DOE与参数校准篇)
  • GitHub汉化插件:3分钟告别英文界面,让中文开发者更高效
  • 别再手动配IP了!用Cloud-Init在OpenStack上5分钟搞定CentOS 7云主机初始化(附完整配置流程)
  • 用快马ai快速构建你的第一个android天气应用原型
  • 2026年5月橱柜定制品牌十大排名:金牌家居领跑高端厨房定制 - 商业科技观察
  • 【连续11届稳定EI检索、快至3个月】第十二届先进制造技术与应用材料国际学术会议(ICAMMT 2026)
  • 高效散热调校:Fan Control终极风扇控制软件深度解析
  • 2026园林树枝粉碎机厂家品牌排名 - 会飞的懒猪
  • 利用Taotoken CLI工具一键完成团队开发环境统一配置
  • AI赋能数字攻击面评估:MCP服务器实现自动化安全审计
  • VIEWE 4英寸圆形HDMI触摸屏开发与应用指南
  • 【成功实践版】workbuddy_把多张图片转成完整Markdown笔记
  • 2026年5月中国高端全屋定制品牌价值榜:金牌家居荣登榜首,智造研发实力第一 - 商业科技观察
  • 3大核心模块深度解析:LeagueAkari如何重塑英雄联盟游戏体验
  • 3大技巧彻底释放你的硬件潜能:Universal x86 Tuning Utility终极指南
  • 多模态视觉语言模型位置编码原理与实践
  • [理论篇-10]AI 工作流(AI Workflow)—— 让 AI 像流水线一样干活 ⚠️ 已逐步被多 Agent 架构替代
  • 月球基底建造 第四卷 第三章 木星遥望,外太阳系边界勘定与巨行星前哨预案