当前位置: 首页 > news >正文

如何在 WSL-Ubuntu 上安装 CUDA ?

0. 查看自己的Ubuntu系统版本和架构

在开始下载CUDA之前,有一个前置步骤,那就是确定自己的WSL-Ubuntu的版本和架构。

  • 通过lsb_release -a命令可以查看Ubuntu的版本信息。系统会返回如下输出:

    Distributor ID: Ubuntu Description: Ubuntu 24.04.3 LTS Release: 24.04 Codename: noble

    可以看到这台设备的Ubuntu版本是24.04的第3个小版本更新,24.04版本的代号是Noble Numbat(尊贵的袋食蚁兽)。Ubuntu的每个大版本都会选择一个“形容词+动物名”的名称作为该版本的代号。

    注意⚠:这里的24.04版本不是下面安装CUDA的版本,这条输出仅仅只是演示效果,避免遇到CUDA版本和Ubuntu版本冲突问题。

  • Ubuntu系统架构可以使用uname -m命令来查询,系统会直接输出架构名,如:x86_64

1. 检查显卡驱动状态,也可查看当前设备的显卡

WSL2可以直接使用Windows系统上的显卡驱动,使用命令提示符(CMD)输入命令:nvidia-smi

nvidia-smi命令是英伟达系统管理界面的命令行工具,用来监控和管理英伟达的显卡(类比于Windows上Esc+Shift+Ctrl快捷键打开的CPU任务管理器)。你在小红📕和抖🎶上面看到那些晒自己的计算卡配置的,就是使用这条命令查看的。

输出:

Mon Apr 27 22:55:19 2026 +---------------------------------------------------------------------------------------+ | NVIDIA-SMI 535.119 Driver Version: 537.53 CUDA Version: 12.2 | |-----------------------------------------+----------------------+----------------------+ | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |=========================================+======================+======================| | 0 NVIDIA GeForce RTX 4060 ... On | 00000000:01:00.0 On | N/A | | N/A 42C P8 5W / 70W | 948MiB / 8188MiB | 5% Default | | | | N/A | +-----------------------------------------+----------------------+----------------------+ +---------------------------------------------------------------------------------------+ | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | |=======================================================================================| | 0 N/A N/A 74 G /Xwayland N/A | +---------------------------------------------------------------------------------------+

根据输出信息可以看到设备当前的显卡驱动版本Driver Version为537.53,最高支持的CUDA版本CUDA Version为12.2。

2,检查是否有CUDA工具包

命令:nvcc --version

NVCC是英伟达CUDA编译器的命令行工具,用来将.cu的CUDA程序源文件编译成能在英伟达显卡上运行的可执行文件(.cu文件 → PTX汇编指令集 → 机器码cubin)。NVCC编译器的强大之处在于支持分离编译:NVCC能够自动分离CUDA代码中CPU的部分和GPU的部分,将CPU部分的代码交给传统的C++编译器(gcc)来处理,最后再将CPU部分和GPU部分链接再一起。

输出:

Command 'nvcc' not found, but can be installed with: sudo apt install nvidia-cuda-toolkit

系统告诉我们不能找到nvcc命令,说明设备当前没有安装CUDA工具包。需要下载安装CUDA。

3. 查看驱动对应的CUDA版本

  1. 访问:https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html

  2. 直接下拉到Table 3 CUDA Toolkit and Corresponding Driver Versions,根据前面在Windows宿主机使用nvidia-smi命令查到的显卡驱动版本和当前显卡驱动支持的最高版本的CUDA版本,查表。根据查表可得,我的设备当前适合安装的CUDA版本可以是CUDA 12.2 Update 2

4. 下载指定版本的CUDA

  1. 访问:https://developer.nvidia.com/cuda-toolkit-archive

  2. 找到并点击 CUDA Toolkit 12.2.2

  1. 依次点击:Linux → x86_64 → WSL-Ubuntu → 2.0 → deb(local),可以得到如下安装脚本命令:
    wgethttps://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pinsudomvcuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600wgethttps://developer.download.nvidia.com/compute/cuda/12.2.2/local_installers/cuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.debsudodpkg-icuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.debsudocp/var/cuda-repo-wsl-ubuntu-12-2-local/cuda-*-keyring.gpg /usr/share/keyrings/sudoapt-getupdatesudoapt-get-yinstallcuda

5. 将nvcc加入到PATH环境变量

命令:

echo'export PATH=/usr/local/cuda/bin:$PATH'>>~/.bashrcecho'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH'>>~/.bashrcsource~/.bashrc

再次输入:nvcc --version,可以查看如下输出信息说明CUDA安装成功:

nvcc: NVIDIA(R)Cuda compiler driver Copyright(c)2005-2023 NVIDIA Corporation Built on Tue_Aug_15_22:02:13_PDT_2023 Cuda compilation tools, release12.2, V12.2.140 Build cuda_12.2.r12.2/compiler.33191640_0

6. 删除.deb文件

安装成功后,文件cuda-repo-wsl-ubuntu-12-2-local_12.2.2-1_amd64.deb可以删除。

作者的哔哔赖赖

Ubuntu是一个在人工智能深度学习领域广泛使用的Linux操作系统,你可以在网上很多做人工智能深度学习的视频中看到Ubuntu那标志性的深紫色终端命令行窗口。在Kaggle这种大型数据科学和机器学习网站上的Jupyter Notebook也是基于Ubuntu的Linux系统,英伟达的DGX Spark工作站预装的DGX OS系统同样是一个在Ubuntu上为AI开发任务深度定制的系统,而且很多深度学习库或者工具框架(如大模型推理框架vLLM)对Windows来说并不完全兼容。对于刚开始学习或者从事生产开发的人来说,一台设备使用Windows和Ubuntu双系统显得繁琐,两个系统间切换、文件传输也很不方便。使用VMware虚拟机虽然可以省很多事,但是VMware有一个致命的缺点————没有GPU直通,无法在虚拟机中直接使用物理GPU的CUDA加速,这使得想通过VMware运行Ubuntu进行深度学习操作显得鸡肋。好在微软开发了WSL2,它可以直接在Windows上运行Ubuntu,WSL2也可以直接访问Windows下的数据集、代码文件,无需任何复制粘贴,通过VScode的Remote-WSL插件还可以直接远程连接开发。最重要的是英伟达官方提供了WSL2专用的CUDA驱动和工具包,性能接近原生Linux环境。

什么是CUDA?这是英伟达推出的“计算统一设备架构(Compute Unified Device Architecture)”的简称。人工智能的运行本质上就是计算,对大量复杂的数学公式的计算,AI算法充满着如:卷积conv()、激活relu()、矩阵相乘mul()之类的函数或者计算操作,这些统称为算子Operator。如果要在CPU上运行这些算子,由于CPU电路设计只支持简单的加法和乘法,看不懂这些复杂的运算,人们就在计算复杂的公式和CPU的中间加一个中间角色——写各种“翻译程序”来实现使用CPU的加法和乘法来实现复杂的计算。但是CPU的电路设计没有并行计算的能力,算子在CPU上的运行速度令人捉急,这时人们注意到了拥有并行计算的GPU,发现在GPU上运行的速度比CPU快很多(AI教父杰弗里·辛顿团队使用两块GTX 580显卡训练出来的AlexNet模型在2012年ImageNet大赛上以断崖式领先的成绩夺得冠军,标志着使用GPU训练深度学习模型的范式正式成为主流)。类似于前面CPU的逻辑,人们在算子和GPU的中间重构了一套“翻译程序”。但这里藏着一个大坑:GPU也看不懂我们平时写的C语言或者Python代码。早期的时候,GPU根本没有对应的编译器(也就是那个“翻译官”)。厂家只会自己用汇编语言写好一些基础算子,然后扔给你用。换句话说,厂家提供什么算子,你就只能用这些算子,如果模型里需要一个厂家没实现的算子,你就只能干瞪眼——要么求厂家帮你写,要么放弃你的模型。这显然不行。英伟达意识到了这个问题,于是推出了CUDA。它包含了一套专门为GPU设计的高级编程语言(叫CUDA C/C++)和一个对应的编译器NVCC。你可以用这套语言自由地编写各种复杂的算子,然后NVCC编译器会把这些代码翻译成GPU能听懂的指令。除此之外,英伟达还提供了庞大的基础算子库cuDNN,覆盖了绝大多数常见的深度学习操作。这样一来,开发者既能直接用现成的算子快速搭模型,也能在需要的时候自己写定制算子,彻底解放了生产力。这就是CUDA被称为英伟达“护城河”的原因。

我第一次听说CUDA这个词还是2025年过年期间,DeepSeek-R1横空出世的时候(我从2024年9月开始上大一接触人工智能专业,第一个学期屁也不懂,结果DeepSeek-R1引爆了全世界的中国开源大模型的热度,正是那个寒假期间,开始跟着B站的教学视频,一点一点接触模型的本地部署、了解、pytorch、tensorflow等等。可以说2025年是我人工智能的启蒙之年。),那时候网上的营销号都在传DeepSeek绕过了CUDA,把英伟达的护城河打破了。其实当时的深度求索团队并未彻底绕开或在软件层面取代CUDA,而是绕过CUDA生态中较为上层的CUDA C/C++编程,直接操作CUDA生态中更底层的“中间语言”PTX(并行线程执行语言 Parallel Thread Execution)进一步挖掘显卡算力的性能极限。类似的事情在视频《「DeepSeek」幻方量化内部采访📹天才们的头型都很前沿❗️内含招聘地址》中亦有介绍。

我不生产知识,我只是知识的搬运工。之所以写博客是对人工智能这门学科还是挺感兴趣的,想要在大学期间留下点什么,不要以后回顾大学生活时想到没有干成什么事,没有留下点记录点什么。作者对自己博客的定位是学习笔记和操作说明文档,希望能够帮助大家解决问题,也希望得到大家的反馈。

参考资料

[1] 从英伟达CUDA到昇腾CANN,计算架构为何这么重要?@工科男孙老师

http://www.jsqmd.com/news/751630/

相关文章:

  • 高效管理CS2存储单元的智能开源工具:CASEMOVE深度解析
  • 如何用手机快速识别电阻值:Resistor Scanner开源项目详解
  • LLM2LLM:基于迭代式数据增强的大语言模型高效微调实战
  • 3个理由告诉你为什么d2s-editor是暗黑2玩家的必备工具
  • 企业如何利用 Taotoken 多模型聚合能力优化内部知识问答系统
  • 紧急预警:未启用[InlineArray(N)]特性的C# 13项目正悄悄泄漏栈内存!3分钟自查+热修复方案
  • 为HermesAgent工具配置Taotoken作为自定义模型供应方
  • 如何在Windows上完美使用PS4手柄:3步完成游戏控制器映射的终极指南
  • 立创EDA画PCB拿省奖?我分析了三届蓝桥杯真题,发现这些高频考点和易错点
  • 魔兽世界GSE宏编译器终极指南:三步实现智能连招自动化
  • 3分钟快速搞定Masa Mods完整中文汉化:终极免费指南
  • 如何快速掌握BilibiliDown:从新手到高手的完整指南
  • 对比不同模型在Taotoken平台上的调用成本与效果平衡
  • freeDictionaryAPI:构建全球多语言词典服务的完整技术指南
  • 告别纸上谈兵:从3GPP Release 17看5G如何真正走进工厂、卫星和可穿戴设备
  • 2026年5月阿里云快速攻略:OpenClaw搭建及大模型API Key、Skill集成指南
  • 独立开发者如何借助 Taotoken 模型广场低成本试验多种大模型
  • 紧急!C# 13默认允许unsafe已成历史:2024 Q3起所有Azure App Service强制启用/unsafe:deny——你还在用旧csproj模板吗?
  • 从智能手环到车载中控:实战解析BLE蓝牙‘服务’与‘特征’在不同IoT场景下的配置差异
  • Docker化部署ElectrumX服务器:从原理到实战的完整指南
  • 安卓手机怎么隐藏应用不被发现?试试这个方法
  • 钉钉Stream机器人实战:手把手教你用Python SDK写一个‘计算器’机器人(附完整代码)
  • 西门子/罗克韦尔PLC直连失败?C# OPC UA统一适配方案:UA TCP vs HTTPS vs WebSockets三协议压测对比报告
  • 终极字体转换方案:ttf2woff助你3分钟完成Web字体优化
  • Tonzhon音乐播放器架构解密:React Hooks驱动的现代化音频管理实现机制
  • V4L2应用程序开发(一):数据采集流程与 `v4l2.c` 代码详解
  • 国内开发者如何通过ClawGate中转服务低成本高效使用OpenClaw AI编程助手
  • 用W801和AD7124搞定PT100高精度测温:从寄存器配置到温度换算的保姆级避坑指南
  • RIR-Mega-Speech:混响语音数据集构建与应用解析
  • 如何5分钟解决网盘下载限速问题:LinkSwift直链解析工具使用指南