当前位置: 首页 > news >正文

AI 术语入门指南

AI 术语入门指南

文章目录

  • AI 术语入门指南
    • 一、先搞懂这些概念
      • 1.1 LLM —— 大语言模型
      • 1.2 Token —— 文字的"计量单位"
      • 1.3 Context —— 对话的记忆
      • 1.4 Temperature —— 回答的"创造力"
      • 1.5 Hallucination —— 幻觉
    • 二、Agent 智能体
      • 2.1 什么是 Agent?
      • 2.2 RAG —— 检索增强生成
    • 三、Embedding —— 把文字变成坐标
    • 四、Fine-tuning —— 给AI做"特训"
    • 五、常见AI架构图解
      • 5.1 聊天机器人架构
      • 5.2 RAG 系统架构
    • 六、名词速查表
    • 七、学习路径
    • 八、Claude Code 是什么?

从零认识大模型,说人话,不废话 —— Claude Code 学习方法论·第一篇


一、先搞懂这些概念

1.1 LLM —— 大语言模型

LLM = Large Language Model

把它想象成一个"读完了整个图书馆的人",它不会真的"思考",而是根据见过的内容,猜下一个最可能出现的字。

你输入:"今天天气真" 它猜:"好"(最可能) 或 "糟糕"(也可能) 哪个更合理?它根据学习过的内容判断

常见LLM一览:

模型爸爸公司一句话特点
GPT-4OpenAI公认最强,收费
Claude 3Anthropic长文本、代码强
GeminiGoogle谷歌出品
通义千问阿里中文友好
文心一言百度中文友好

1.2 Token —— 文字的"计量单位"

大模型不看字,看 Token。Token 是它处理信息的最小单元。

1个中文汉字 ≈ 1-2个 Token 1个英文单词 ≈ 1.5个 Token 1段话 ≈ 3-10个 Token

为什么重要?

  • API 按 Token 收费
  • 输入+输出都算 Token
  • 上下文窗口有上限(GPT-4 ≈ 128K tokens)

1.3 Context —— 对话的记忆

就像人的短期记忆,大模型在一次对话中能记住的内容有限。

你:第一天上班好累 它:加油! 你:昨天也是 它:连续上班确实辛苦 (它记住了"上班"这件事)

1.4 Temperature —— 回答的"创造力"

低温度(0-0.3):保守、精确 → "1+1=2" 高温度(0.7-1.0):创意、随机 → "1+1=2=王=爱"
  • 写代码、问事实 → 低温
  • 写小说、头脑风暴 → 高温

1.5 Hallucination —— 幻觉

大模型一本正经地"胡说八道"。它追求的是"听起来对",不是"真的对"。

为什么会这样?

  • 训练数据有错
  • 没找到答案时瞎编
  • 它觉得这样说"合理"

如何避免?

  1. 要求提供来源
  2. 用 RAG 检索验证
  3. 重要信息交叉确认

二、Agent 智能体

2.1 什么是 Agent?

如果 LLM 是"大脑",Agent = 大脑 + 手脚 + 记忆

┌─────────────────────────────────────┐ │ Agent 三件套 │ ├─────────────────────────────────────┤ │ 🧠 规划 (Planning) │ │ 把大任务拆成小步骤 │ ├─────────────────────────────────────┤ │ 🔧 工具 (Tools) │ │ 能调用搜索、计算、代码等 │ ├─────────────────────────────────────┤ │ 📝 记忆 (Memory) │ │ 记住之前做过什么 │ └─────────────────────────────────────┘

打个比方:

  • LLM = 只会出主意的军师
  • Agent = 军师 + 能自己出去打仗的将军

2.2 RAG —— 检索增强生成

先查资料,再回答—— 解决大模型"知识过时"的问题

传统:靠脑子里记的(可能过时) RAG: 先查资料库,再回答(更准确)

三、Embedding —— 把文字变成坐标

让电脑理解"哪些词意思相近"

苹果 → (0.8, 0.2, 0.1...) 香蕉 → (0.7, 0.3, 0.2...) 电脑 → (0.1, 0.9, 0.5...) 苹果和香蕉"距离近" → 意思相近 苹果和电脑"距离远" → 意思不同

应用场景:

  • 相似文章推荐
  • 智能客服理解问题
  • 内容自动分类

四、Fine-tuning —— 给AI做"特训"

通用大模型(什么都会一点)→ 特训 → 专业模型(垂直领域专家)
Fine-tuningPrompt Engineering
成本高(要重新训练)低(改文字即可)
效果永久改变行为每次对话要重复
适用大量相似场景灵活多变的场景

五、常见AI架构图解

5.1 聊天机器人架构

┌──────────┐ │ 用户提问 │ └────┬─────┘ ↓ ┌──────────┐ │ 对话管理 │ ← 记住上下文 └────┬─────┘ ↓ ┌──────────┐ │ Prompt │ ← 组装指令 └────┬─────┘ ↓ ┌──────────┐ │ LLM │ ← 生成回答 └────┬─────┘ ↓ ┌──────────┐ │ 返回答案 │ └──────────┘

5.2 RAG 系统架构

┌──────────┐ │ 用户问题 │ └────┬─────┘ ↓ ┌──────────┐ │ Embedding│ ← 变成向量 └────┬─────┘ ↓ ┌──────────┐ │ 向量数据库│ ← 检索相关文档 └────┬─────┘ ↓ ┌──────────┐ │ 组装Prompt│ ← 问题+文档 └────┬─────┘ ↓ ┌──────────┐ │ LLM │ ← 生成答案 └────┬─────┘ ↓ ┌──────────┐ │ 返回答案 │ └──────────┘

六、名词速查表

缩写全称人话
LLMLarge Language Model大语言模型
AIArtificial Intelligence人工智能
AGIArtificial General Intelligence像人一样聪明的AI
NLPNatural Language Processing自然语言处理
GPTGenerative Pre-trained Transformer生成式预训练模型
APIApplication Programming Interface程序接口
Token-文字计量单位
Prompt-给AI的指令
Agent-能自主行动的AI
RAGRetrieval-Augmented Generation先查后答
Embedding-文字变坐标
Fine-tuning-给AI特训
Temperature-创造力开关
Hallucination-AI胡说八道

七、学习路径

第一阶段:会用 ↓ 会写 Prompt,会调温度 第二阶段:会做 ↓ 搞懂 Agent、RAG 能做什么 第三阶段:理解原理 ↓ 搞懂大模型怎么工作 第四阶段:深度应用 ↓ Fine-tuning、架构设计

八、Claude Code 是什么?

重点来了!Claude Code 就是 Agent 的一种实现

┌─────────────────────────────────────────────────┐ │ Claude Code │ ├─────────────────────────────────────────────────┤ │ 🧠 LLM 大脑(Claude) │ │ 理解你的需求,生成代码 │ ├─────────────────────────────────────────────────┤ │ 🔧 工具集(Tools) │ │ 读写文件、执行命令、搜索代码 │ ├─────────────────────────────────────────────────┤ │ 📝 记忆(Memory) │ │ 记住项目上下文、之前的操作 │ ├─────────────────────────────────────────────────┤ │ 🎯 规划(Planning) │ │ 自动拆解任务步骤 │ └─────────────────────────────────────────────────┘

简单说:Claude Code = Claude(会思考)+ 工具(会执行)


记住这三句话

  1. LLM= 超级文字接龙高手
  2. Agent= 大脑 + 手脚(能自主干活)
  3. Claude Code= 你的专属 Agent 程序员

(文档1·完)后续更新文档2:Claude Code 实战方法论

http://www.jsqmd.com/news/647634/

相关文章:

  • 【医药AI实战系列④】医药NLP的天花板在哪里,从PubMed挖矿到监管文件解析,BioBERT到GPT-4o的能力边界
  • 面向AI电梯呼梯盒高效可靠电源与接口控制的MOSFET选型策略与器件适配手册
  • 2026 慢 SQL 优化手册:EXPLAIN 深度解读 + 9 类索引失效场景(生产避坑)
  • SYNBO 亮相上海以太坊高校行,与 ETHPanda、LXDAO 共建Web3青年交流场域
  • 黄金100小时!全球500支战队巅峰对决,黑马逆袭正当时,53 万美金终落谁家?
  • 带你读懂FDE,深入拆解FDE的应用
  • 技术重构中的架构调整与代码改进
  • 联邦学习后门防御的隐形杀手:模型权重符号翻转攻击的隐蔽性与突破性分析
  • 2025届毕业生推荐的AI辅助论文工具推荐榜单
  • MySQL 8.0/8.4/9.0 核心区别:面试官必问(版本选型 + 升级理由)
  • 从一次性活动到长期增长:品牌推广如何让推荐裂变计划真正跑起来?
  • Prompt工程师正在被淘汰?不——掌握这6类动态模态路由Prompt设计法的人,薪资已突破¥125K/月
  • Linux基础开发工具(编写一个简易进度条)
  • 哈佛教授获诺奖的研究:你看到的不是全部,用心看才是真的看
  • Redis怎样实现短链接映射_通过String类型存储Key-Value对
  • 2026年抗老面霜终极排雷榜:拆开配方表,谁在真抗老,谁在收智商税
  • 发布计划管理化技术版本规划与依赖管理
  • C语言条件编译精讲
  • AI大模型-6:MCP原理和开发
  • Web前端技术第四次作业:表单实验报告
  • CANopen | 网络管理NMT实战 - 从命令解析到自主状态控制
  • 突破传统化学研究的终极AI助手:深度解析ChemBERTa如何实现分子智能预测的革命
  • awk以及ansible
  • 多模态大模型云端协同部署的“隐性成本黑洞”:带宽错配、冷启动惩罚、跨AZ语义一致性丢失(独家压测报告)
  • Sunshine终极配置指南:如何搭建专业级游戏串流服务器
  • 前后端连通性测试以及前端页面总体设计
  • 第一阶段:Java入门基础
  • 模型并行不是万能药,但这次是:详解MoE+CLIP架构下跨模态梯度同步失效的5大陷阱及修复补丁
  • 慧视项目的图片上传与前后端联通实现
  • WindowResizer技术解密:打破Windows窗口限制的数字助手