当前位置: 首页 > news >正文

Hugging Face 模型下载太慢?2026 最全 4 种加速方案对比(建议收藏)

🤵‍♂️ 个人主页:小李同学_LSH的主页

✍🏻 作者简介:LLM学习者
🐋 希望大家多多支持,我们一起进步!😄
如果文章对你有帮助的话,
欢迎评论 💬点赞👍🏻 收藏 📂加关注+

从龟速 100KB/s 到飙到 100MB/s+,国内下载大模型,这篇就够了。

目录

📖 前言:一个让所有 AI 学习者崩溃的场景

🎯 一张表,看懂四种方案该选哪个

🤔 为什么 Hugging Face 在国内这么慢?(原理篇)

延迟与带宽的数学关系

丢包带来的雪上加霜

架构示意

🌟 方案一:HF-Mirror 镜像站(99% 的人首选)

✨ 核心原理:一行环境变量搞定

🔧 三种使用姿势

姿势 1️⃣:环境变量(推荐,一劳永逸)

姿势 2️⃣:Python 代码内设置(临时用)

姿势 3️⃣:命令行直接下载

📊 实测速度

🔐 下载需授权的模型(Gated Model)

⚡ 方案二:官方 hf_transfer(速度王者)

🧪 什么是 hf_transfer?

🔧 使用方法(三行代码)

⚠️ 使用前必看

🎨 方案三:ModelScope 魔搭社区(国产之光)

🎯 什么时候用 ModelScope?

🔧 使用方法

💡 与 transformers 的无缝对接

🏆 方案四:hfd + aria2c 多线程(终极方案)

🧠 原理:多线程 + 断点续传

🔧 安装与使用

🎯 四大方案终极对比

💡 不同场景怎么选?一张图搞定

🛠️ 组合拳:终极速度配方

❓ 常见问题 FAQ

Q1:设置了 HF_ENDPOINT 还是走官方地址?

Q2:下载到一半报错 Connection refused?

Q3:hf_transfer 没有进度条咋办?

Q4:公司内网能用吗?

🎁 总结



📖 前言:一个让所有 AI 学习者崩溃的场景

做过 AI 的同学都懂这种痛:

$ from transformers import AutoModel $ model = AutoModel.from_pretrained("meta-llama/Llama-2-7b-hf") Downloading model.safetensors: 0%| | 12.5M/13.5G [05:23<98:21:47, 38.2KB/s]

🥲38 KB/s,13.5 GB 的模型,下载要98 小时

等你终于下完了,老师都换下一个研究方向了。

别急,这篇文章给你四个亲测有效的方案,总有一个能把你的下载速度提升 100 倍以上

本文适合:

  • 🎓 正在学 AI 的学生党
  • 🧑‍💻 在国内做大模型开发的工程师
  • 🔧 折腾过但效果一般的老玩家(文末有组合拳)

🎯 一张表,看懂四种方案该选哪个

方案速度评级难度稳定性适用场景
① HF-Mirror 镜像站⭐⭐⭐⭐🟢 极简⭐⭐⭐⭐绝大多数情况首选
② 官方 hf_transfer⭐⭐⭐⭐⭐🟡 中等⭐⭐⭐带宽足、追求极速
③ ModelScope 魔搭⭐⭐⭐⭐🟢 极简⭐⭐⭐⭐⭐下载国产模型
④ hfd + aria2 多线程⭐⭐⭐⭐⭐🔴 较高⭐⭐⭐⭐超大模型 / 不稳网络

👇 下面逐个拆解,每种方案都给出完整可复制代码


🤔 为什么 Hugging Face 在国内这么慢?(原理篇)

先讲清楚原理,你才能对症下药。

延迟与带宽的数学关系

TCP 协议下,单连接下载的理论最大速度由下式决定:

其中:

  • Window Size:TCP 窗口大小(通常 64 KB ~ 几 MB)
  • RTT(Round-Trip Time):往返时延

国内访问huggingface.co的 RTT 通常在250~400 ms,而访问国内镜像只有5~30 ms

代入公式:

速度差距 30 倍以上。这就是为什么"换个镜像"就能起飞。

丢包带来的雪上加霜

考虑丢包率 p 和传输次数 k,有效吞吐率为:

跨境链路丢包率常年在 5%~20%,,单是丢包就把速度砍掉 65%

架构示意


🌟 方案一:HF-Mirror 镜像站(99% 的人首选)

官网:https://hf-mirror.com/https://hf-mirror.com/

这是国内 AI 社区自发维护的公益镜像站,完整镜像了 HuggingFace 的模型和数据集,速度飞快,不需要任何账号

✨ 核心原理:一行环境变量搞定

HuggingFace 的工具链会读取HF_ENDPOINT环境变量来决定从哪里下载。我们把它指向镜像站即可。

🔧 三种使用姿势

姿势 1️⃣:环境变量(推荐,一劳永逸)

Linux / macOS:

# 临时生效(当前终端) export HF_ENDPOINT=https://hf-mirror.com # 永久生效(写入配置文件) echo 'export HF_ENDPOINT=https://hf-mirror.com' >> ~/.bashrc source ~/.bashrc

Windows PowerShell:

# 临时生效 $env:HF_ENDPOINT = "https://hf-mirror.com" # 永久生效 [Environment]::SetEnvironmentVariable("HF_ENDPOINT", "https://hf-mirror.com", "User")
姿势 2️⃣:Python 代码内设置(临时用)
import os os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com' # 注意:必须在 import transformers 之前设置! from transformers import AutoModel model = AutoModel.from_pretrained("bert-base-uncased")

⚠️血泪坑:如果你先import transformers再设置环境变量,是不会生效的,因为库已经读取过变量了。

姿势 3️⃣:命令行直接下载
# 先安装官方 CLI pip install -U huggingface_hub # 下载模型 huggingface-cli download --resume-download Qwen/Qwen2-7B-Instruct \ --local-dir ./Qwen2-7B-Instruct \ --local-dir-use-symlinks False

📊 实测速度

📸配图建议:在这里插入一张下载进度条截图,显示速度从几十 KB/s 跳到 50+ MB/s 的瞬间。 截图命令:huggingface-cli download ...跑起来之后直接截屏就行。

实测下载 Qwen2-7B-Instruct(约 15 GB):

方案平均速度总耗时
直连 huggingface.co50 KB/s ~ 2 MB/s💀几乎不可能
HF-Mirror30 ~ 80 MB/s约 5~8 分钟

🔐 下载需授权的模型(Gated Model)

meta-llama/Llama-2-7b-hf这种需要申请的模型,镜像站不支持登录,流程是:

  1. 官网huggingface.co登录并申请许可
  2. 在 Settings → Access Tokens 创建 Token
  3. 回到镜像站,用--token参数下载:
huggingface-cli download --token hf_xxxxxxxxxxxxxx \ --resume-download meta-llama/Llama-2-7b-hf \ --local-dir ./Llama-2-7b-hf

⚡ 方案二:官方 hf_transfer(速度王者)

HF-Mirror 已经很快了,但如果你的机器带宽是千兆/万兆(比如实验室服务器、云主机),想榨干带宽,上hf_transfer

https://github.com/huggingface/hf_transferhttps://github.com/huggingface/hf_transfer

🧪 什么是 hf_transfer?

hf_transfer是 HuggingFace 官方用Rust 编写的底层加速库,专为高带宽环境设计,使用多连接并行 + 大块分片技术。

并行下载的时间复杂度:

其中 N 是并行连接数,是启动开销。实测在千兆网下可以轻松跑满带宽

🔧 使用方法(三行代码)

# 1. 安装 pip install -U huggingface_hub hf_transfer # 2. 开启加速(环境变量) export HF_HUB_ENABLE_HF_TRANSFER=1 export HF_ENDPOINT=https://hf-mirror.com # 搭配镜像站效果更佳 # 3. 正常下载即可 huggingface-cli download Qwen/Qwen2-7B-Instruct --local-dir ./Qwen2-7B

⚠️ 使用前必看

特性说明
✅ 优点速度极快,能跑满千兆带宽
❌ 缺点 1不支持进度条(版本低时)
❌ 缺点 2错误处理较差,网络抖动容易整个失败
❌ 缺点 3需要带宽足够,低带宽下反而可能慢

💡建议:家庭宽带 100M 以下的同学,hf_transfer提升不明显,用方案一就够了。


🎨 方案三:ModelScope 魔搭社区(国产之光)

官网:https://modelscope.cn/studios?from=google_sem&gad_source=1&gad_campaignid=23130013561&gbraid=0AAAAA-G-q9s5NCUm7NS8eQfnJG3HaOgW8&gclid=Cj0KCQjw-pHPBhCdARIsAHXYWP84ieuh2wZ3ALVDGbgz7jscSzs1ufX3CGYWYE0tAVjn-xgsoTv_BXgaAtvFEALw_wcBhttps://modelscope.cn/studios?from=google_sem&gad_source=1&gad_campaignid=23130013561&gbraid=0AAAAA-G-q9s5NCUm7NS8eQfnJG3HaOgW8&gclid=Cj0KCQjw-pHPBhCdARIsAHXYWP84ieuh2wZ3ALVDGbgz7jscSzs1ufX3CGYWYE0tAVjn-xgsoTv_BXgaAtvFEALw_wcB

ModelScope 是阿里达摩院出品的模型社区,带宽堆料堆得很猛,国内 CDN 节点遍布,下载速度稳定飞快。

🎯 什么时候用 ModelScope?

情况推荐度
下载国产模型(Qwen、ChatGLM、Baichuan、DeepSeek、Yi)⭐⭐⭐⭐⭐ 必用
下载国外冷门模型⭐⭐ 可能没有
追求稳定(镜像站挂了)⭐⭐⭐⭐⭐ 最佳备胎

🔧 使用方法

# 1. 安装 pip install modelscope # 2. Python 下载
from modelscope import snapshot_download # 直接下载整个模型仓库 model_dir = snapshot_download( 'qwen/Qwen2-7B-Instruct', cache_dir='./models', revision='master' ) print(f"模型已下载到:{model_dir}")

命令行方式:

modelscope download --model qwen/Qwen2-7B-Instruct --local_dir ./Qwen2-7B

💡 与 transformers 的无缝对接

下载完后,可以直接用transformers加载:

from transformers import AutoModelForCausalLM, AutoTokenizer # 加载本地路径即可,不用重新下载 model = AutoModelForCausalLM.from_pretrained("./models/qwen/Qwen2-7B-Instruct") tokenizer = AutoTokenizer.from_pretrained("./models/qwen/Qwen2-7B-Instruct")

🏆 方案四:hfd + aria2c 多线程(终极方案)

如果你要下载几十 GB 甚至上百 GB 的大模型(比如 Llama-3-70B、DeepSeek-V3),并且网络不太稳定、经常中断,上这个组合拳。

🧠 原理:多线程 + 断点续传

hfd是 HF-Mirror 官方开发的 Shell 脚本,底层用aria2c实现:

  • 🧵16 线程并发下载同一文件
  • ♻️断点续传,网络断了不用重来
  • 📦 自动处理 git-lfs 大文件

速度模型(理想情况):

其中 N 是线程数,是带宽上限。只要带宽没跑满,线程越多越快

🔧 安装与使用

# 1. 安装 aria2 # Ubuntu/Debian sudo apt-get install aria2 git-lfs # macOS brew install aria2 git-lfs # 2. 下载 hfd 脚本 wget https://hf-mirror.com/hfd/hfd.sh chmod +x hfd.sh # 3. 设置环境变量 export HF_ENDPOINT=https://hf-mirror.com # 4. 开始下载(16 线程) ./hfd.sh meta-llama/Llama-2-7b-hf --tool aria2c -x 16 # 下载数据集 ./hfd.sh wikitext --dataset --tool aria2c -x 16 # 带 Token 下载 ./hfd.sh meta-llama/Llama-2-7b-hf --hf_username YOUR_USER --hf_token hf_xxxx --tool aria2c -x 16

🎯 四大方案终极对比

维度HF-Mirrorhf_transferModelScopehfd+aria2
🚀 速度30-80 MB/s100+ MB/s50-100 MB/s100+ MB/s
🎓 学习成本⭐⭐⭐⭐⭐
🔧 配置步骤1 步3 步2 步4 步
💪 稳定性一般极好
📦 断点续传⚠️ 有坑
🌍 模型覆盖全量镜像全量(走官方或镜像)国产为主全量镜像
🔐 Gated Repo✅ 支持✅ 支持-✅ 支持
💰 费用免费免费免费免费

💡 不同场景怎么选?一张图搞定


🛠️ 组合拳:终极速度配方

实战中,我通常这样组合:

# 一劳永逸的 .bashrc 配置 export HF_ENDPOINT=https://hf-mirror.com # 方案一:走国内镜像 export HF_HUB_ENABLE_HF_TRANSFER=1 # 方案二:开启 Rust 加速 export HF_HOME=~/.cache/huggingface # 统一缓存路径 # 然后正常用 huggingface-cli 或 transformers 即可

这套组合下来,单文件 80 MB/s,千兆网下 120 MB/s 稳稳的


❓ 常见问题 FAQ

Q1:设置了 HF_ENDPOINT 还是走官方地址?

A:99% 是先 import 再设置环境变量了,改成在代码最开头设置,或者写到~/.bashrc里。

# ❌ 错误示范 from transformers import AutoModel import os os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com' # 太晚了 # ✅ 正确示范 import os os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com' from transformers import AutoModel # 在这之后导入

Q2:下载到一半报错Connection refused?

A:检查是否有残留的代理变量:

env | grep -i proxy # 如果有输出,先清掉 unset http_proxy https_proxy HTTP_PROXY HTTPS_PROXY

Q3:hf_transfer 没有进度条咋办?

A:升级到最新版pip install -U hf_transfer,0.1.4+ 版本已支持进度条。

Q4:公司内网能用吗?

A:要看内网是否允许访问hf-mirror.com。如果不允许,只能申请白名单或用内部镜像。


🎁 总结

TL;DR
🟢新手直接抄这两行export HF_ENDPOINT=https://hf-mirror.com<br/>pip install -U huggingface_hub
🔵千兆网加这一行export HF_HUB_ENABLE_HF_TRANSFER=1
🟣下 Qwen/ChatGLM直接用 ModelScope
🔴下 100GB 大模型hfd.sh + aria2c -x 16

再也不用看着 38 KB/s 的进度条发呆了 🚀


http://www.jsqmd.com/news/670972/

相关文章:

  • 从论文被拒到图表被赞:我用Matplotlib调整坐标轴字体属性的血泪史
  • 终极指南:CTranslate2支持的10大主流AI模型框架详解
  • League Akari:英雄联盟玩家必备的智能效率工具包
  • MYSQL学习8 MYSQL存储函数
  • 3分钟搞定暗黑破坏神2存档修改:d2s-editor终极使用指南
  • Unity团队协作效率翻倍:手把手教你用CacheServer解决资源导入卡顿问题
  • Spark 4.0 深度解析:从“大数据计算引擎“正式进化为 “现代云原生数据平台“(2026 最新,附完整代码)
  • 用Apktool和AssetStudio拆解Unity手游资源:一份给游戏开发者的逆向分析入门指南
  • AI时代品牌传播优选:快易播GEO发稿平台,解锁高效信源传播新路径 - 新闻快传
  • Delphi Indy组件HTTPS通信保姆级教程:从IdHTTP控件配置到SSL版本(TLSv1.2)匹配全流程
  • PullZoomView:Android下拉缩放库完全指南,打造惊艳用户体验
  • 终极指南:Golang系统编程中系统调用与VDSO的完整实现解析
  • 告别虚拟机!用一台M1 Mac搞定iOS应用安装:iTunes旧版提取IPA包全攻略
  • 终极指南:Lilishop商城中Elasticsearch搜索优化的5个实用技巧
  • 3D-ResNets-PyTorch性能优化指南:10个实用技巧加速动作识别模型训练
  • 告别臃肿模拟器:APK Installer让你的Windows电脑秒变安卓设备
  • 抖音直播自动录制工具完整指南:24小时智能监控与多平台录制终极方案
  • FireRed-OCR Studio应用场景:航空维修手册PDF故障树结构化建模
  • 新手避坑指南:用Docker快速搭建CTFHub同款RCE练习环境(附完整复现步骤)
  • 选购水处理公司要注意什么,看看湖南乐浪水处理科技有限公司口碑 - mypinpai
  • R 4.5并行计算瓶颈诊断全流程,深度解析future::plan()、doParallel与BiocParallel的调度差异及内存泄漏定位技巧
  • 终极指南:如何利用PINRemoteImage实现弱网络环境下的渐进式图片加载与模糊效果优化
  • 有实力的水处理公司盘点,乐浪水处理行业口碑排名如何揭秘 - 工业品网
  • Android布局优化避坑指南:为什么你的<include>和<ViewStub>用错了反而更卡?
  • 别再傻傻分不清!BIOS里的SCI、SMI和IRQ到底啥区别?用大白话给你讲明白
  • Vivado时序约束实战:用set_multicycle_path解决跨时钟域数据采集难题
  • ShapeNetCore.v2 vs ShapeNetSem:3D视觉研究,你的项目该选哪个数据集?
  • Performance-Fish实战:重构《环世界》400%性能突破的底层逻辑
  • Zotero-SciHub插件:智能文献获取的完全实战指南
  • 开源像素艺术终端落地实操:像素幻梦·创意工坊企业级AI绘图方案