当前位置: 首页 > news >正文

深度学习环境搭建与 Hugging Face 本地模型实战全记录

目录

一、前言

二、环境搭建

三、网络问题与解决方案

四、本地模型实践

五、总结与期望


一、前言

作为一名计算机专业的学生,在准备进入实验室开展深度学习相关项目之前,我深刻意识到,搭建一个稳定、可复现的开发环境是至关重要的第一步。同时,为了快速建立信心并掌握核心工具,我决定先从跑通一个 Hugging Face 的预训练模型 Demo 开始。本文将详细记录我从环境搭建到成功运行本地模型的全过程,希望能为遇到类似问题的同学提供一些参考。

二、环境搭建

1.核心组件安装

我的开发环境基于 Anaconda,这能很好地隔离不同项目的依赖。

2.配置国内镜像(解决网络超时)

3.创建并激活虚拟环境

4.安装依赖(在激活的环境下执行)

李沐老师课程需要的包

大模型需要的库

5. 验证环境

6.退出Python交互模式之后启动Jupyter Notebook

总的学习章节

整理一下目前d2l-zh环境里的核心库和它们的用途

· 深度学习基础库

库名版本核心用途
torch2.8.0+cpuPyTorch 深度学习框架,是所有模型的底层基础,负责张量运算、自动求导和模型训练。
torchvision0.23.0PyTorch 的计算机视觉工具库,提供了常用的数据集(如 MNIST、CIFAR)和预训练模型。
d2l1.0.3《动手学深度学习》配套库,封装了书中的常用函数,让代码更简洁,方便学习。

·大模型工具链

库名版本核心用途
transformers4.57.6Hugging Face 核心库,提供了海量预训练模型(如 GPT、BERT、Qwen 等)的加载和推理接口,是大模型开发的必备工具。
datasets4.5.0提供了丰富的 NLP 和 CV 数据集,方便你快速加载和处理数据,用于模型训练和评估。
peft0.17.1参数高效微调库,让你用很少的算力就能对大模型进行微调,是科研和项目中常用的轻量化技术。
huggingface-hub0.36.2用于和 Hugging Face 模型仓库交互,方便下载、分享和管理预训练模型。

· 数据与计算工具

库名版本核心用途
numpy1.23.5数值计算基础库,提供高效的数组运算,是所有科学计算的基石。
pandas2.0.3数据处理与分析库,擅长处理表格型数据,常用于数据清洗和预处理。
scipy1.10.1科学计算库,提供了线性代数、优化、统计等高级数学函数。
matplotlib3.7.0数据可视化库,用于绘制图表,帮助你直观地理解数据和模型结果。

· 交互式学习环境

工具名核心用途
jupyter交互式代码运行和文档编写工具,你现在用的 笔记就是它的文件格式,让你可以边看边跑代码。
notebookJupyter 的经典界面,就是你现在浏览器里看到的这个,用于管理和运行代码笔记。

三、网络问题与解决方案

在尝试从 Hugging Face Hub 直接下载模型时,我遇到了 MaxRetryError 和 429 Rate Limit 等网络访问问题。为了彻底解决这个问题,我采用了本地模型加载的方案。

1. 手动下载模型文件
我选择了 distilbert-base-uncased-finetuned-sst-2-english 这个轻量级情感分析模型,并从国内镜像站手动下载了以下核心文件到本地文件夹 E:/LLM/local_models/distilbert-sst2 :
· config.json
· pytorch_model.bin
· tokenizer_config.json
· vocab.txt
2. 解决文件缺失问题
初次运行时,我遇到了 TypeError ,这是因为缺少了 special_tokens_map.json 文件。我通过手动创建该文件并填入必要的特殊标记映射信息解决了这个问题:

四、本地模型实践

文件齐全后,我编写了以下代码,成功从本地加载并运行了模型

from transformers import pipeline classifier = pipeline("sentiment-analysis", model="E:/LLM/local_models/distilbert-sst2") result = classifier("I love deep learning!") print("✅ 从本地加载模型测试通过:", result)

结果显示,模型成功将输入文本分类为积极(POSITIVE),置信度高达 0.99986,证明了环境和模型的有效性。

五、总结与期望

通过这次实践,我不仅成功搭建了深度学习环境,还掌握了在受限网络环境下使用 Hugging Face 模型的关键技能。这为我进入实验室打下了坚实的基础。
下一步计划:
1. 深入学习:继续学习深度学习的数学基础(线性代数、微积分等),理解模型背后的原理。
2. 中文模型实践:尝试下载并运行 bert-base-chinese 等中文预训练模型,进行更贴近实际应用的任务。
3. 模型微调:在掌握基础后,尝试对预训练模型进行微调,以适应特定的实验室项目需求。

http://www.jsqmd.com/news/459418/

相关文章:

  • 2026年口碑好的税务问题品牌推荐:税务需求/专业税务公司/成都税务公司项目推荐 - 行业平台推荐
  • 2026年比较好的高品质气压棒厂家推荐:电竞椅子气压棒/自动回位气压棒厂家选购参考汇总 - 行业平台推荐
  • computed 的缓存哲学:如何避免不必要的重复计算?
  • 2026年比较好的追背气弹簧品牌推荐:橱柜气弹簧/支架气弹簧/老板椅气弹簧品牌厂商推荐(更新) - 行业平台推荐
  • Big Data Mining and Analytics 2025|GPT-NAS:结合生成预训练模型的进化式神经架构搜索
  • 第十九章: Kubernetes - Rook Ceph 云原生存储
  • 阿里云 H5 一键登录接入实战:前后端完整实现
  • GE IC693PBS201从站通信模块
  • 第一篇文章
  • Spring AI 第 8 篇 ChatMemory 详解:如何让模型记住你的每一次对话
  • 鸿蒙APP开发经验分享:HarmonyOS Location Kit 端侧与云侧双方案落地指南
  • OpenClaw零基础教程:从一键部署,到7*24小时不间断运行!
  • APN(Access Point Name)详解:从基础原理到实际应用场景
  • 数据资产管理——172页详解数据资产管理深度解读【附全文阅读】
  • 用OpenClaw白嫖世界顶级模型,一个月省了2万块!
  • 嵌入式八股文学习-自学长期更新-2026
  • GitHub Browser-Use 部署踩坑实录:从失败到成功的曲折历程
  • Tower I3C Host Adapter 使用范例 (19)
  • 轻量级AI服务落地实战:Qwen2.5-0.5B-Instruct私有化部署与性能调优指南
  • 8集自然纪录片--Our Planet
  • “养虾”热潮的AB面:大厂抢滩、造富神话和万元账单
  • Java基础面试题之===集合篇
  • LoRaWAN协议-MAC帧加密与校验机制深度解析
  • OpenClaw大龙虾又爱又恨?揭秘两大开源神器,让你的AI智能体智商暴增、Token消耗狂降96%!
  • 【Apple】苹果新品盘点
  • “养龙虾”选模型指南:从OpenRouter榜单看AI Agent选型
  • Java基础面试题之===高并发
  • Windows Hello 登录功能 (简单示例)
  • 鸿蒙 架构摘要2-arkui源码追踪
  • (100分)- 攀登者1(Java JS Python C)