当前位置: 首页 > news >正文

Agent之skill:HuggingFaceSkills的简介、安装和使用方法、案例应用之详细攻略

Agent之skill:HuggingFaceSkills的简介、安装和使用方法、案例应用之详细攻略

目录

HuggingFaceSkills的简介

1、特点

HuggingFaceSkills的安装和使用方法

1、安装

2、使用方法

(1)、重要技能模块

(2)、其它技能(简要)

3、使用建议与注意事项

HuggingFaceSkills的案例应用

1、快速示例—常见操作


HuggingFaceSkills的简介

HuggingFaceSkills是将多个 技能(skills) 做为自包含的目录,每个目录含 SKILL.md(带 YAML frontmatter)与辅助脚本/模板,描述何时使用该技能、所需依赖、并给出可直接运行的命令或脚本片段,便于编码代理按需载入与执行

目标是与主流“编码代理”互操作(Claude Code 的 plugin/skills、OpenAI Codex 的 Agent Skills、Google Gemini 的 gemini-extension.json 等都支持或兼容)。README 列出了对 Claude Code、Codex、Gemini CLI、Cursor 的安装使用说明。

Github地址:https://github.com/huggingface/skills

1、特点

标准化格式:遵循 Agent Skill 规范(SKILL.md + 文件夹)使不同代理能发现并加载。

可执行脚本 + PEP 723 inline 依赖:脚本常以 PEP 723 header(uv run)方式声明依赖,代理/Jobs 在执行时会自动安装依赖。

针对 Hugging Face 生态的深度集成:包含与 Hub、Jobs、vLLM、lighteval、Trackio、Artificial Analysis 等的互操作脚本与流程。

多代理安装方式:支持通过 Claude 插件市场、Codex 的 .agents/skills 路径、Gemini CLI 的 extension 安装、Cursor 的 plugin manifests 等多种方式部署/安装。

HuggingFaceSkills的安装和使用方法

1、安装

Claude Code(示例):

注册仓库为 plugin marketplace:/plugin marketplace add huggingface/skills
安装某个 skill:/plugin install <skill-name>@huggingface/skills(例如 hugging-face-cli@huggingface/skills)。

OpenAI Codex:

将需要的 skill 目录复制或软链到 Codex 的标准 .agents/skills 位置(如 $REPO_ROOT/.agents/skills 或 $HOME/.agents/skills),Codex 会基于 Agent Skills 标准发现并加载 SKILL.md。

Google Gemini CLI:

仓库包含 gemini-extension.json,可通过 gemini extensions install https://github.com/huggingface/skills.git --consent 安装。

Cursor:

仓库内含 .cursor-plugin/plugin.json 与 .mcp.json,可按 Cursor 插件流程从仓库 URL 安装。

2、使用方法

(1)、重要技能模块

下列内容均直接基于仓库中对应 SKILL.md 的说明与脚本片段(已标注来源)。

简介

安装与使用

案例应用

hugging-face-cli — HF CLI 操作(SKILL.md)

用于在终端通过 hf CLI 执行 Hub 操作:下载模型/dataset/space、上传文件、创建仓库、管理缓存、运行 Jobs 等。

提供全面的命令参考(登录、下载、上传、repo 管理、cache 管理、列举模型/数据/space、运行 Jobs 等)。

典型命令示例(摘录):

登录:hf auth login / 非交互:hf auth login --token $HF_TOKEN

下载:hf download <repo-id> 或 hf download <repo-id> --local-dir ./models

上传:hf upload . . --repo-type dataset / hf upload model.safetensors

Jobs:hf jobs run --flavor a10g-small <script> / 列表 hf jobs ps / 日志 hf jobs logs <id>。

将本地模型发布到 Hub:hf repo create username/my-model → hf upload ./output . --commit-message="Initial release"。或用 hf download 把模型拉到本地。

hugging-face-datasets — 数据集创建与管理(SKILL.md)

管理 Hugging Face Hub 上的数据集:初始化数据集仓库、配置(包括 system prompts)、流式写入新增行、以及基于 SQL 的查询与转换。设计上与 HF MCP server 协同工作。

支持流式更新(不需下载整个数据集)、配置存储、SQL 风格查询/转换、与 MCP server 的互操作。

脚本采用 PEP 723 的 inline 依赖格式,使用时可通过 uv run scripts/script_name.py 自动安装依赖(仓库内脚本会自带 header)。具体命令/脚本位于该 skill 的 scripts/下(详见 SKILL.md)。

初始化新数据集 repo、定义数据集配置并通过脚本进行行流式更新,或使用 SQL 把多列/多条记录转换为需要的结构(SKILL.md 中有示例脚本与说明)。

hugging-face-evaluation — 模型评估与 model-card 更新(SKILL.md)

将评测结果添加到模型卡:从 README 中提取表格、从 Artificial Analysis 导入基准分数、或使用 vLLM / lighteval / inspect-ai 运行自定义评测并生成 model-index 格式的 YAML。

支持解析 README 中的 Markdown 表格(inspect-tables / extract-readme),自动生成 model-index YAML;支持导入第三方基准(Artificial Analysis);支持在 Hugging Face Jobs 上直接运行评测并创建 PR。

推荐用 uv run scripts/evaluation_manager.py <subcommand>:

inspect-tables:列出 README 中的表格结构;

extract-readme --table N:把第 N 个表转换为 YAML(默认打印,--apply 或 --create-pr 可写回或创建 PR)。

注意事项:在创建 PR 前务必先运行 get-prs 检查是否已有打开的 PR(避免重复)。

从 README 抽取基准表,自动生成 model-index 条目并创建 Pull Request;或通过 import-aa 从 Artificial Analysis 导入并提交 PR。

hugging-face-model-trainer — 在 HF Jobs 上用 TRL 训练(SKILL.md)

面向在 Hugging Face Jobs 上使用 TRL(Transformer Reinforcement Learning)进行模型训练/微调(SFT、DPO、GRPO、reward modeling),并支持训练后将模型转为 GGUF 以便本地部署。

包含 UV(PEP 723)脚本模板、Trackio 监控集成、硬件选择建议、成本估算脚本、数据校验工具与 GGUF 转换脚本。强调必须在 Job 配置中安全传递 HF_TOKEN 并将模型 push_to_hub=True,否则作业环境为临时,训练结果会丢失。

使用 MCP 工具 hf_jobs() 提交(脚本内容应以内联字符串形式传入),而非把脚本当作本地文件路径。

提交时必须在 job config 中包含 secrets={"HF_TOKEN": "$HF_TOKEN"},并在训练 config 中启用 push_to_hub 与 hub_model_id。

每个训练脚本应包含 trackio 用于实时监控。

训练方式(仓库给出三种推荐方法):

Approach 1(推荐):直接用 hf_jobs("uv", {...}) 提交内联 UV 脚本(PEP 723 header 声明依赖)。示例脚本展示如何用 SFTTrainer、LoRA、Trackio 等。

Approach 2:使用 TRL 官方维护脚本(通过 URL 引入)的 CLI/Jobs 方式。

Approach 3:直接使用 hf jobs uv run CLI(注意 flag 的位置与 --secrets 用法)。

重要提示:默认 job timeout 很短(如 30m),训练需显式设置更长超时(建议 1-2 小时及以上),否则会超时导致训练失败与数据丢失。并提供硬件选择与成本估算脚本 scripts/estimate_cost.py。

使用 scripts/train_sft_example.py(模板)在 a10g-large 上训练并自动 push 到 Hub;训练结束后调用 scripts/convert_to_gguf.py 将模型转为 GGUF 以便离线/本地部署。仓库给出示范 Job 提交与常用故障排查建议(OOM、timeout、Hub push failure 等)。

hugging-face-jobs — 通用 Job 提交与管理(SKILL.md)

用于在 Hugging Face Jobs 基础设施上运行任意 Python 工作负载(数据处理、批量推理、实验、训练等),并给出提交、秘密管理、timeout、硬件选择等规范。

推荐用 hf_jobs("uv", {...}) 或 hf jobs uv run;脚本可内联或为公开 URL(本地脚本需先 push 到 Hub)。

强调 secrets(HF_TOKEN) 的正确传递与作业超时时间设置;并在提交后返回 job id、监控 url。

用 Jobs 运行数据转换脚本、批量推理任务,或把某些 CPU/ GPU 作业定时调度为 recurring jobs。

(2)、其它技能(简要)

huggingface-gradio:用于构建 Gradio Web UI / demo(含在 SKILL.md 中的使用建议与示例,适合创建 chatbots、组件、布局等)。
hugging-face-tool-builder:帮助构建可复用的 Hugging Face API 脚本/工具(用于链式调用或自动化重复任务)。
hugging-face-paper-publisher:帮助在 Hub 发布/管理论文页面、链接模型/数据集、生成 Markdown 形式的研究文章。
hugging-face-trackio:Trackio 集成(记录训练指标并同步到 HF Spaces 仪表板)。
(以上模块均有对应 SKILL.md 和 scripts/ 目录中示例脚本,可直接参考与运行。)

3、使用建议与注意事项

在创建/提交 PR 前先检查已有 PR(evaluation skill 强调避免重复 PR)。
Jobs 环境是临时的 → 必须 push_to_hub;若忘记配置 HF_TOKEN 或 push_to_hub,训练结果会丢失。
脚本以内联或公开 URL 形式传入 Jobs(本地路径不可直接传入),UV 脚本头部会自动安装依赖。
在用 hf jobs uv run 时 flag 顺序很重要(flags 必须在脚本 URL 之前)。

HuggingFaceSkills的案例应用

1、快速示例—常见操作

用 HF CLI 下载模型:hf download meta-llama/Llama-3.2-1B-Instruct --local-dir ./model。
在 Jobs 提交 UV 内联训练脚本(简化示例)(摘自 model-trainer):

hf_jobs("uv", { "script": """ # /// script # dependencies = ["trl>=0.12.0", "peft>=0.7.0", "trackio"] # /// from trl import SFTTrainer, SFTConfig # ... (训练脚本内容) """, "flavor": "a10g-large", "timeout": "2h", "secrets": {"HF_TOKEN": "$HF_TOKEN"} })

(实际请参考 scripts/train_sft_example.py 模板并确保 push_to_hub=True 和 hub_model_id 已配置)。

从 README 提取评测表并生成 YAML(evaluation):

uv run scripts/evaluation_manager.py inspect-tables --repo-id "username/model" uv run scripts/evaluation_manager.py extract-readme --repo-id "username/model" --table 1 --create-pr

(先用 get-prs 检查是否已有 PR)。

http://www.jsqmd.com/news/425564/

相关文章:

  • 上位机知识篇---租用服务器
  • LLMs之RAG:PageIndex的简介、安装和使用方法、案例应用之详细攻略
  • 基于springboot框架的校园食堂点餐平台_98xr323n
  • 【认知雷达】The Case for Cognition and Radar Sensing 认知雷达传感的必要性
  • 基于springboot框架的校园二手交易系统的设计与开发_42194l18
  • 学Simulink——基于Simulink的PMSM无位置传感器(滑模观测器)控制仿真建模示例
  • 2026年2月文章一览
  • 1.2 从 BERT 到 ChatGPT:发展脉络与典型应用范式
  • 基于springboot框架的大学生在线摄影活动报名系统网站的设计与实现_p456017u
  • MySQL 慢日志分析工具---pt-query-digest
  • 基于springboot框架的宠物商城 论坛领养系统_07ggc7q2
  • 给定一个字符串,求最长交替子序列
  • 分布式AI系统中的短期记忆共享机制设计
  • 基于springboot框架的宠物领养及健康管理系统_3890qn5o
  • 基于springboot框架的成都某民宿预订系统的设计与实现_r93v34dv
  • 基于springboot框架的景区购物商城系统 小程序的设计与实现_2103p0gh
  • MySQL 慢日志统计分析利器---pt-query-digest
  • 基于springboot框架的流浪猫领养系统_ct8whxh8
  • 大数据领域 OLAP 工具的性能评测与对比
  • 2.1 自注意力、位置编码与前馈网络:Transformer 三件套一次搞懂
  • 基于springboot框架的精诺企业数字化精益制造生产系统_i36pxop6
  • 2.2 GPT、LLaMA 与 MOE:自回归模型与混合专家架构演进
  • 基于springboot框架的茶叶购物网上商城系统 潇湘知茶小程序_dyo5sig5
  • 1.1 大模型不是「大一点的 BERT」:定义、边界与能力从哪来
  • 第1章:三高设计概述
  • AI驱动数字藏品平台智能合约设计:架构师的实践经验(附合约代码)
  • 9.标识符
  • 扩展中国剩余定理 ExCRT 总结
  • 搭建WSL2环境
  • MarkDown基本语法之我的第一篇博客