欢迎光临散文网 会员登陆 & 注册

第二十一篇—GPU计算

2023-02-18 22:57 作者:YouOnly_LiveOnce  | 我要投稿


部分一:

Pytorch可指定用来存储和计算的设备,如使用内存的CPU或使用显存的GPU;默认情况下,Pytorch会将数据创建在内存,然后利用CPU来计算;

通过"nvidia-smi"指令可查看显卡信息,具体可参考Ubuntu搭建深度学习开发环境(pytorch),pytorch常用指令如下:

torch.cuda.is_available():查看GPU是否可用;

torch.cuda.device_count():查看GPU数量;

torch.cuda.current_device():查看当前GPU索引号,从0开始;

torch.cuda.get_device_name(0):根据索引号查看GPU名字;

代码实现:

结果:



部分二:tensor的GPU计算

代码实现

结果:

需要注意,.cuda()会将CPU上的tensor转移到GPU上;如果有多块GPU,用.cuda(i)表示第i块GPU;.cuda()与.cuda(0)等价。

CPU上的数据不能与GPU上的数据进行计算,tensor只能在同设备上才能计算,如:



部分三:模型的GPU计算

代码实现

结果:


第二十一篇—GPU计算的评论 (共 条)

分享到微博请遵守国家法律