张量GPU
二、GPU 为什么不能直接用 NumPy?
GPU 有自己的:
👉 显存(VRAM)
👉 CUDA 内存管理器
👉 独立计算单元
GPU 只能计算:
在 GPU 显存里的数据
而 NumPy 数组在:
CPU 内存
所以 GPU 根本访问不到。
三、那“张量”是什么?
以 PyTorch 举例:
import torch
a = torch.tensor([1,2,3])
a = torch.tensor([1,2,3])
这时候创建的是:
👉 Tensor 对象
👉 由 PyTorch 管理
👉 可以在 CPU 或 GPU
放到 GPU:
a = a.cuda()
现在发生了什么?
-
数据从 CPU 拷贝到 GPU 显存
-
Tensor 绑定到 CUDA device
-
后续运算交给 GPU 执行
