AI技能开发必看:从“僵尸文件”到“效率神器”,3大误区+5核心标准+AI辅助开发全解析!
在 AI 原生应用爆发的今天,“Skill” 早已不是陌生词汇 —— 它是连接用户需求与模型能力的核心桥梁,是让 AI 精准干活的 “操作手册”。但现实是:很多团队花几周开发的 Skill,要么触发率低到离谱,要么执行结果飘忽不定,最后沦为仓库里的 “僵尸文件”。
问题到底出在哪?不是模型不够强,而是我们对 Skill 的认知和设计逻辑全错了!
有人把 Skill 当成一次性 Prompt,用完就扔;有人把它写成给人看的说明书,模型根本读不懂;还有人觉得 Skill 越复杂越强大,堆砌一堆功能反而让模型无从下手。
这篇文章,从定义厘清到避坑指南,从设计标准到迭代流程,再到 AI 辅助开发技巧,一站式解决 Skill 开发的所有核心问题。
不管你是 AI 产品经理、算法工程师,还是想提升 AI 效率的开发者,读完就能直接落地,让你的 Skill 命中率翻倍、稳定性拉满!
重新理解 Skill:它不是 Prompt,而是 “AI 能力模块”。
Skill 的本质定义:3 个核心要素缺一不可
很多人对 Skill 的理解停留在 “给模型的指令”,但真正的 Skill,是一份清晰、严谨、可执行的标准化文档,核心要回答 3 个问题:
When(触发条件):什么场景下模型必须用这个 Skill?什么场景绝对不能用?
How(执行步骤):模型要按什么流程、什么规则完成任务?
What(输出结果):执行后要产出什么格式、什么标准的结果?
举个直观的例子:一个 “代码审查 Skill”,不是简单一句 “帮我审查代码”,而是明确规定:
When:用户提交 PR、重构代码,或询问代码实现细节、潜在 bug 时触发;用户仅查看代码、修改注释时不触发。
How:先检查安全性(SQL 注入、权限漏洞),再看可读性(命名规范、注释完整性),最后验证逻辑正确性(边界条件、异常处理)。
What:输出结构化报告,包含 “问题清单 + 风险等级 + 修改建议”,每条建议需标注对应代码行号。
只有同时明确这三点,Skill 才能脱离 “即兴指令” 的范畴,成为可复用、可维护的工程化模块。
3 个致命认知误区,90% 的人都在踩
误区一:Skill = 一段 Prompt?大错特错!
Prompt 是 “一次性对话指令”,比如 “帮我写一篇产品推文”,侧重即兴交互;而 Skill 是 “长期复用的能力单元”,强调稳定、确定、可工程化。
举个对比:
Prompt:“帮我跑一下测试”(模糊、临时,模型可能不知道跑什么测试、怎么跑)
Skill:“running-unit-tests”(明确、可复用,包含触发条件、执行步骤、输出格式)
两者的核心差异在于:Prompt 依赖上下文和模型临场判断,结果不可复现;而 Skill 通过标准化约束,让模型每次执行都能得到一致结果。
误区二:Skill 是写给人看的文档?模型看不懂等于白做!
很多开发者把 Skill 写成 “技术说明书”,堆砌一堆原理、背景,却忘了核心受众是 “模型”。模型不理解 “通俗易懂的解释”,只认 “结构化的指令”。
错误示例(写给人看):“这个 Skill 是用来生成报告的,主要帮助用户整理数据。报告要包含核心信息、分析过程和建议,大家可以根据实际情况调整。”
正确示例(写给模型看):name: report-generator
description: 当用户需要生成报告时,按以下结构输出内容,不可调整格式。
template:摘要:简要概述核心信息(不超过 3 句话)
分析:分点列出背景、原因、关键数据(每点不超过 50 字)
建议:提出 3 条具体可行的行动方案,标注优先级(P0/P1/P2)
误区三:Skill 越复杂越强大?复杂度 = 故障率!
模型的上下文窗口是有限的,复杂的 Skill 会让模型 “抓不住重点”—— 要么触发时犹豫不决,要么执行时遗漏步骤。
我们做过一个实验:把 “代码审查 + 测试执行 + PR 更新 + 通知发送”4 个功能打包成一个 Skill,触发率仅 32%,且 30% 的执行结果出现遗漏;而拆分成 4 个单一职责的 Skill 后,触发率提升至 89%,执行准确率 100%。
结论:职责单一、边界清晰的 Skill,才是高可用的关键。
Skill 设计的 “黄金标准”:5 大核心 + 3 级自由度
设计 Skill 的终极目标是:让模型 “该触发时必触发,该执行时不跑偏”。以下 5 个核心标准 + 3 级自由度分级,是我们评审 100+Skill 总结的 “通过率 100%” 准则。
元数据设计:决定 Skill 的 “触发命中率”
元数据是模型识别 Skill 的 “入口”,包含 name 和 description 两个字段,看似简单,却直接影响触发准确率。
| 字段 | 设计规范(必看) | 正面示例 | 反面示例 |
| name | 1. 简洁唯一,小写字母 + 数字 + 连字符 > 2. 动名词形式(doing sth)3. 不超过 64 字符 | running-tests | test-helper(模糊)(大小写混用) |
| description | 1. 第三人称(模型视角) 包含核心功能 + 触发关键词不超过 1024 字符 | “Review code for quality, correctness, and maintainability. Use when evaluating pull requests, refactoring existing code, or when the user asks for feedback on implementation details.” | “I can help you review code”(第一人称)ps with code review"(无触发时机) |
关键技巧:description 里一定要埋 “触发关键词”,比如代码审查 Skill 要包含 “pull requests、refactoring、feedback on implementation details”,模型会通过用户输入匹配这些关键词,提升触发精准度。
3级自由度分级:给模型 “恰到好处的约束”
不同任务需要不同的约束强度 —— 约束太松,模型会跑偏;约束太紧,又会限制灵活性。我们总结了 3 级自由度分级,按需选择:
| 自由度等级 | 适用场景 | 指导方 | 实战示例 |
| 高自由度 | 多种有效方法,依赖上下文决策 | 给 “原则”(启发式策略) | 代码审查:“先看安全性,再看可读性,最后验证逻辑正确性”>(模型可自主判断审查顺序和重点) |
| 中自由度 | 有首选模式,允许适度变通 | 给 “框架”(模板 / 伪代码) | 报告生成:“按‘摘要 - 分析 - 建议’结构,摘要不超过 3 句话,分析分 3-5 点” 可调整内容,不可改变结构) |
| 低自由度 | 操作易错,一致性至关重要 | 给 “代码”(可执行脚本) | 数据库迁移:“1. 备份数据库→2. 执行 001 脚本→3. 执行 002 脚本→4. 验证数据完整性”>(模型必须按顺序执行,一步不能错) |
核心原则:任务越关键、越容易出错,约束越严格。比如数据库迁移、支付相关的 Skill,必须用低自由度;而创意生成、方案分析类 Skill,可用高自由度。
5大核心设计标准:缺一不可的 “硬指标”
这 5 个标准是 Skill 稳定运行的基石,可直接作为评审 checklist:
(1)边界明确:模型 “知道什么时候该做,什么时候不做”
模型最容易犯的错不是 “不会做”,而是 “乱做”—— 在不该触发的场景下强行执行。因此,Skill 必须明确 “正向条件” 和 “负向条件”:
✅ 正确示例:Use this skill when:
用户意图是触发 CI/CD 流水线执行单元测试
PR 状态为 “待合并”,需要执行自动检查或 lint 校验
Do NOT use this skill when:
用户只是查看测试报告或 CI/CD 状态
PR 仅修改文档 / 注释,无代码改动
❌ 错误示例:Use this skill when:
用户想让流水线跑一下测试
PR 有代码或文档改动
(边界模糊,模型会在 “查看测试报告” 时误触发)
(2)输入输出结构化:避免 “鸡同鸭讲”
模型和人一样,需要 “共同语言” 才能高效配合。输入输出必须结构化,推荐用 “函数签名” 的方式定义:
✅ 正确示例(输入输出结构化):
Input:
prId: string branch: string runTests: boolean Output: success: boolean testReport?: object [] errorMessage?: string❌ 错误示例(模糊描述):“帮用户跑测试并返回结果”
(模型不知道要什么参数,也不知道返回什么格式)
(3)步骤明确:指令式动作,而非概括性描述
Skill 的核心是 “步骤”,必须是具体、可执行的动作,不能是模糊的描述:
✅ 正确示例(指令式步骤):
Steps:
Validate PR:检查 prId 和 branch 是否有效 Checkout branch:切换到指定分支 Run tests:根据 runTests 参数执行单元测试 Collect results:收集测试通过率、失败用例等数据 Update PR status:将测试结果回写到 PR 评论区❌ 错误示例(描述性语言):“检查 PR,运行测试,然后更新状态”
(模型不知道 “如何检查”“如何更新”,执行结果混乱)
(4)失败策略完备:告诉模型 “出错了该怎么办”
模型执行任务时难免失败,若不定义失败策略,模型会 “自由发挥”,导致不可预期的结果。必须明确不同失败场景的处理方式:
✅ 失败策略示例:
Validation fails(参数无效):返回 400 错误,提示 “请提供有效的 prId 和 branch” Test execution fails(测试失败):自动重试 1 次,仍失败则返回 “单元测试未通过,失败用例:xxx”CI/CD 服务不可用:重试 3 次(每次间隔 5 秒),仍失败则记录日志并通知管理员
(5)职责绝对单一:一个 Skill 只做一件事
这是最核心的原则!一个 Skill 对应一个核心动作,避免功能捆绑:
✅ 正确示例(单一职责):
running-unit-tests:仅执行单元测试 updating-pr-status:仅更新 PR 状态 sending-notification:仅发送通知❌ 错误示例(功能捆绑):一个 Skill 同时负责 “运行测试 + 更新 PR 状态 + 发送通知 + 执行 lint 校验”
三、让 Skill “活下来”:可维护、可扩展的 3 个关键技巧
很多 Skill 刚开发完能用,但迭代几次就变得混乱不堪 —— 要么文件臃肿,要么依赖复杂,最后不得不重构。以下 3 个技巧,让你的 Skill 长期保持 “健康状态”。
- 渐进式披露:信息 “按需加载”,不浪费上下文
模型的上下文窗口是宝贵资源,不应是 “大而全的百科全书”,而应是 “入口导航”—— 核心信息放在,细节拆分成独立文件,让模型按需读取。
SKILL.md应当作为 Skill 的入口和导航,而不是一个包罗万象的大文件。详细的参考资料、示例、脚本或文档应拆分成独立文件,从而减轻模型初次加载的负担,让信息按需流动。
信息架构原则:从简单到复杂
一个 Skill 的目录可以随着功能扩展逐步演化:从单一文件 → 多个参考文件和脚本组成的结构。通过渐进式披露,模型能快速抓住核心信息,再深入了解细节。
避免深度嵌套所有引用文件最好直接由SKILL.md链接,保持一层引用深度,避免链式引用(A → B → C),防止模型只读取部分内容。
为长文件添加目录对于超过 100 行的参考文件,在文件顶部添加一个目录(Table of Contents),帮助模型快速了解文件结构。
示例(SKILL.md 结构):SKILL.md(CI/CD 流水线执行)
SKILL.md## 基础用法描述如何触发 CI/CD 流水线:- 检查 PR 状态- 执行单元测试- 更新 PR 测试状态## 高级功能详细说明请参见 ci-advanced-features.md:- 并行执行多分支测试- 条件触发不同类型的测试- 自定义失败处理策略## API 参考所有方法与参数说明请参见 ci-api-reference.md:- startPipeline(prId: string, branch: string)- getPipelineStatus(pipelineId: string)- cancelPipeline(pipelineId: string)- 工作流 + 反馈闭环:避免模型 “跑偏”
复杂任务(如技术方案评估、依赖升级)仅靠步骤描述不够,需定义 “工作流 + 检查清单”,引导模型按顺序执行,并在关键节点验证:
(1)分析类任务工作流(如技术方案评估):
技术方案评估工作流
执行前复制清单,完成后标记状态:
Step 1:明确业务目标(性能 / 成本 / 时限)→ ✅ 完成 /❌ 未完成 Step 2:列出所有可行方案→ ✅ 完成 /❌ 未完成 Step 3:从复杂度、可维护性、风险角度评估→ ✅ 完成 /❌ 未完成 Step 4:对比关键差异点(反馈闭环:信息不足则返回 Step 2)→ ✅ 完成 /❌ 未完成 Step 5:给出结论性建议(反馈闭环:结论不满足目标则返回 Step 1)→ ✅ 完成 /❌ 未完成(2)代码类任务工作流(如依赖版本升级):
依赖升级工作流(Plan→Validate→Execute)
Step 1(Plan):识别依赖版本→阅读 Release Notes→标注受影响模块 Step 2(Plan):更新配置文件(package.json) Step 3(Validate):执行依赖冲突检查(运行)→ 校验失败则回退 Step 2 Step 4(Execute):安装新版本依赖→运行测试集 Step 5(Validate):检查核心功能→出现回归则回滚升级- 可执行脚本加固:让模型 “不猜谜”
当 Skill 依赖脚本(如 Shell、Python)时,脚本的健壮性直接影响 Skill 稳定性。核心原则:失败可预期、输出可理解、参数可解释。
(1)显式处理错误,不抛给模型
脚本要捕获常见异常(文件缺失、权限不足、版本不兼容),并转化为 “可决策的输出”:
✅ 正确示例(配置文件校验脚本):
ERROR: Config file not found: ./deploy.yamlHINT: 1. 检查文件路径是否正确;2. 执行生成默认配置
❌ 错误示例:
FileNotFoundError: [Errno 2] No such file or directory: './deploy.yaml'(直接抛出技术异常,模型无法理解)
(2)输出自解释,包含 “原因 + 方案”
脚本输出不仅要说明 “发生了什么”,还要解释 “为什么” 和 “怎么办”:
✅ 正确示例(构建环境检查脚本):
CHECK FAILED: Node.js version mismatch Required: >= 18.0.0(因项目依赖 ES6 模块特性) Detected: 16.14.0 SOLUTIONS: 执行 nvm install 18.0.0 && nvm use 18.0.0 切换至兼容 Node.js 16 的构建镜像(镜像名:xxx:v2)(3)避免 “魔法数字”,参数有依据
脚本中的常量(如超时时间、阈值)要标注来源,必要时允许通过参数覆盖:
✅ 正确示例:
TIMEOUT_SECONDS = 30 服务启动通常需 10-20 秒,预留 10 秒缓冲 或输出中说明: INFO: 等待服务健康检查(超时 30 秒,基于历史启动数据设定)四、Skill 迭代的 “最佳流程”:评测驱动,失败优先
Skill 不是 “一写定终身”,而是持续迭代的工程化产物。我们总结的 “6 步迭代法”,核心是 “以失败为起点,以评测为牵引”,确保每一次迭代都能解决真实问题。
Step 1:建立无 Skill 基线,找到 “真问题”
在写任何 Skill 前,先让模型 “裸奔”—— 不使用 Skill,直接执行目标任务,记录以下问题:
模型在哪些场景表现不稳定(如时而正确、时而错误)?
哪些输入会让模型误解意图(如用户说 “看看 PR”,模型却执行了测试)?
模型是否 “过度热情”(如用户没要求,却主动执行额外操作)?
这些 “失败点” 就是 Skill 要解决的核心问题,也是后续评测用例的来源。
Step 2:失败优先,先写评测用例
很多人习惯 “先写 Skill,再测试”,但正确的顺序是 “先写评测用例,再写 Skill”—— 评测用例是 “约束”,Skill 是 “实现”,脱离约束的 Skill 就是 “无的放矢”。
评测用例设计要点:
针对 Step 1 发现的失败点,设计 3-5 个可复现的用例;
每个用例明确 “通过 / 失败” 标准(如 “用户仅查看 PR 时,Skill 不触发→通过”);
优先覆盖 “模型最易误用” 的场景(如负向触发条件)。
示例(代码审查 Skill 评测用例):
| 用例 ID | 输入场景 | 预期结果(通过标准) |
| UC001 | 用户提交 PR,含代码改动 | Skill 触发,输出结构化审查报告 |
| UC002 | 用户修改 PR 注释,无代码改动 | Skill 不触发 |
| UC003 | 用户询问 “代码有没有安全问题” | Skill 触发,重点审查安全性 |
| UC004 | 用户仅查看历史测试报告 | Skill 不触发 |
Step 3:编写 “最小化 Skill”,打通最短成功路径
有了评测用例,再编写 Skill—— 此时不追求 “大而全”,只实现 “刚好能通过评测用例” 的最小规则:
明确负向条件(When NOT to use):把评测用例中的 “不触发场景” 写进 Skill;
定义最短成功路径:只保留核心步骤,确保最简输入能得到稳定输出;
坚守单一职责:不添加任何额外功能,避免复杂度。
这个阶段的 Skill 是 “评测用例的直接产物”,而非 “凭经验预判的方案”,能最大程度避免无用功。
Step 4:补充边界条件与结构化示例
当最小化 Skill 通过评测后,再逐步扩展:
补充更多边界场景(如异常输入、极端条件);
完善输入输出的结构化定义(如必填参数、可选参数、输出格式);
添加典型示例(如正确输入示例、输出示例、失败处理示例),帮助模型对齐预期。
核心原则:所有新增规则,都必须对应评测用例—— 不允许在无评测支撑的情况下 “凭空加功能”。
Step 5:评测回归,持续迭代
Skill 的迭代必须与评测强绑定:
新增问题→新增评测用例→修改 Skill;
修改 Skill→必须通过所有已有评测用例(回归验证);
评测未通过→优先简化 Skill,而非叠加新规则。
通过对比 “无 Skill 基线” 和 “当前 Skill + 评测” 的表现,验证 Skill 是否真的提升了成功率和稳定性。
Step 6:真实场景校准,形成闭环
评测只能覆盖已知问题,真实场景会暴露新问题。在 Skill 上线后,持续观察:
模型是否在非预期场景误触发?
执行时是否遗漏关键文件 / 上下文?
是否存在隐性依赖(如反复读取某段内容)?
将这些新问题转化为新的评测用例,重新进入 Step 2,形成 “发现问题→定义评测→优化 Skill” 的闭环。
五、AI 辅助开发:让 AI 帮你写 Skill,效率提升 10 倍
很多人觉得 “写 Skill 是手动活”,但其实 AI 是最好的 “Skill 助手”—— 你负责定义问题和验收结果,AI 负责拆解步骤、总结规律、生成文档,甚至迭代优化。
阶段 1:初次创建 Skill(从具体任务中抽象)
(1)让 AI 先执行真实任务
给 AI 提供完整的任务目标和上下文,让它自行完成。比如:“帮我评审这份 PR 代码(附上代码链接),重点看安全性和可读性,给出改进建议”。
AI 执行过程中的追问、走偏、修正,本质上是一次 “隐式评测”,能帮你发现任务的核心步骤和潜在问题。
(2)引导 AI 结构化复盘
任务完成后,让 AI 按以下维度复盘:
成功执行的完整步骤;
执行过程中的不确定性(如 “不确定某段代码的设计意图”);
可抽象的固定流程(如 “先查安全漏洞,再看命名规范”);
适用场景与不适用场景。
(3)让 AI 生成 Skill 初稿
要求 AI 按 Skill 规范生成,明确 When、How、What、失败策略。例如:“根据刚才的代码审查任务复盘,生成一个代码审查 Skill,遵循以下规范:name 用动名词,description 用第三人称,步骤明确,输入输出结构化”。
(4)人工评审入库
你只需关注 3 点:边界是否合理、步骤是否可执行、失败策略是否完备。确认后,让 AI 调用 skills-creator 工具创建 Skill 并入库。
阶段 2:持续迭代(从反馈中优化)
当 Skill 暴露新问题时,按以下步骤让 AI 优化:
告诉 AI 问题现象(如 “用户仅查看 PR 时,Skill 误触发了”);
引导 AI 分析问题来源(是 When 定义模糊,还是触发关键词过多);
让 AI 修改,并验证回归(确保不破坏原有功能);
新增评测用例,纳入迭代闭环。
附录:Skill 开发反模式检查清单(避坑必备)
| 反模式 | 危害 | 正确示例 | 错误示例 |
| 使用 Windows 风格路径 | 跨平台兼容性差,Linux 系统报错 | configs/deploy.yaml | configs\deploy.yaml |
| 提供过多选择 | 模型决策成本高,易跑偏 | “默认使用 PostgreSQL,仅兼容性要求时用 MySQL” | “可使用 PostgreSQL/MySQL/SQLite/Oracle…” |
| 包含时效性信息 | 信息过期导致 Skill 失效 | 旧版本配置放入 deprecated / 文件夹,注明 “不再推荐” | “2025 年 8 月前用旧 API,之后用新 API” |
| 术语不一致 | 模型理解成本高 | 统一使用 “Service Endpoint” | 混用 “Service Endpoint/API URL/Endpoint Path” |
| SKILL.md 过于臃肿 | 模型加载慢,抓不住重点 | 核心信息 + 链接外部文件 | 所有细节、示例都写在 SKILL.md |
| 步骤模糊 | 模型执行时遗漏操作 | “Step 1:检查 prId 是否为 6 位字符串” | “Step 1:检查 prId 是否有效” |
| 无失败策略 | 模型出错后自由发挥 | “参数无效时返回错误提示 + 解决方案” | 未定义任何失败处理逻辑 |
结语:Skill 的核心,是 “让 AI 做确定的事”
AI 的优势是灵活,但灵活的代价是不确定。而 Skill 的本质,就是用工程化的方法,把 AI 的 “不确定性” 转化为 “确定性”—— 明确什么时候做、怎么做、做什么,让 AI 成为可靠的 “工具人”。
这篇文章的所有方法,都来自踩坑无数到形成标准化流程,我们深刻体会到:好的 Skill 不是 “写出来的”,而是 “迭代出来的”。
遵循 “定义清晰、设计标准、迭代闭环” 的原则,再加上 AI 的辅助,你也能快速打造高命中、稳运行、可维护的 Skill。
如何系统的学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
