第二十一篇—GPU计算
2023-02-18 22:57 作者:YouOnly_LiveOnce | 我要投稿
部分一:
Pytorch可指定用来存储和计算的设备,如使用内存的CPU或使用显存的GPU;默认情况下,Pytorch会将数据创建在内存,然后利用CPU来计算;
通过"nvidia-smi"指令可查看显卡信息,具体可参考Ubuntu搭建深度学习开发环境(pytorch),pytorch常用指令如下:
torch.cuda.is_available():查看GPU是否可用;
torch.cuda.device_count():查看GPU数量;
torch.cuda.current_device():查看当前GPU索引号,从0开始;
torch.cuda.get_device_name(0):根据索引号查看GPU名字;
代码实现:
结果:

部分二:tensor的GPU计算
代码实现
结果:

需要注意,.cuda()会将CPU上的tensor转移到GPU上;如果有多块GPU,用.cuda(i)表示第i块GPU;.cuda()与.cuda(0)等价。
CPU上的数据不能与GPU上的数据进行计算,tensor只能在同设备上才能计算,如:
部分三:模型的GPU计算
代码实现
结果:
