当前位置: 首页 > news >正文

张量GPU

张量GPU

二、GPU 为什么不能直接用 NumPy?

GPU 有自己的:

👉 显存(VRAM)
👉 CUDA 内存管理器
👉 独立计算单元

GPU 只能计算:

在 GPU 显存里的数据

而 NumPy 数组在:

CPU 内存

所以 GPU 根本访问不到。


三、那“张量”是什么?

PyTorch 举例:

 
import torch
a = torch.tensor([1,2,3])
 

这时候创建的是:

👉 Tensor 对象
👉 由 PyTorch 管理
👉 可以在 CPU 或 GPU

放到 GPU:

 
a = a.cuda()
 

现在发生了什么?

  • 数据从 CPU 拷贝到 GPU 显存

  • Tensor 绑定到 CUDA device

  • 后续运算交给 GPU 执行