欢迎光临散文网 会员登陆 & 注册

Pytorch学习笔记8:MNIST多分类实践(GPU版本)

2020-12-03 10:02 作者:车科技2020  | 我要投稿

#需要import的lib 

import torch 

import numpy as np 

from matplotlib import pyplot as plt 

from mpl_toolkits.mplot3d import Axes3D 

from torchvision import datasets, transforms 

from torch.utils.data import DataLoader 

 #需要import的lib

print('——————————用GPU加速MNIST——————————')
#加载数据
batch_size=200
learning_rate=0.01
epochs=10

train_loader=torch.utils.data.DataLoader(
   datasets.MNIST('../data',train=True,download=True,
                  transform=transforms.Compose(
                      [
                          transforms.ToTensor(),
                          transforms.Normalize((0.1307,),(0.3081,))
                      ]
                  )

   ),
   batch_size=batch_size,shuffle=True #每个batch load的数据,是不是打乱每个batch的数据
)
test_loader=torch.utils.data.DataLoader(
   datasets.MNIST('../data',train=False,
                  transform=transforms.Compose(
                      [
                          transforms.ToTensor(),
                          transforms.Normalize((0.1307,),(0.3081,))
                      ]
                  )

   ),
   batch_size=batch_size,shuffle=True #每个batch load的数据,是不是打乱每个batch的数据
)
#写网络模型
class MLP1(torch.nn.Module):
   def __init__(self):
       super(MLP1, self).__init__()
       self.model= torch.nn.Sequential(
           torch.nn.Linear(784, 200),
           torch.nn.LeakyReLU(inplace=True),
           torch.nn.Linear(200, 200),
           torch.nn.LeakyReLU(inplace=True),
           torch.nn.Linear(200, 10),
           torch.nn.LeakyReLU(inplace=True),
       )
def forward(self,x):#自定义forword函数
   x=self.model(x)
   return x
device=torch.device('cuda:0')
net=MLP1().to(device)
optimizer=torch.optim.SGD(net.parameters(),lr=learning_rate)
criteon=torch.nn.CrossEntropyLoss().to(device)

#迭代优化过程
for epoch in range(epochs):
   for batch_idx,(data,target) in enumerate(train_loader):
       data=data.view(-1,28*28)
       data,target=data.to(device),target.to(device)

       logits=forward(net,data) #把数据放入神经网络得出pred的值
       loss=criteon(logits,target) #用loss函数计算pred和target的差
       optimizer.zero_grad() #清零梯度
       loss.backward() #重新计算梯度

       optimizer.step() #用新的梯度计算新的w b,然后迭代

       if batch_idx % 100 == 0:
           #print('epoch:',epoch)
           #print('batch_idx:', batch_idx)
           #print('len data', len(data))
           #print('len(train_loader.dataset)', len(train_loader.dataset))
           #print('len(train_loader)', len(train_loader))
           print(
               'train epoch:{}[{}/{}({:.0f}%)]\tLoss:{:.6f}'.format(
                   epoch,batch_idx * len(data), len(train_loader.dataset),
                   100. * batch_idx / len(train_loader),loss.item()
               )
           )

   test_loss=0
   correct=0
   for data,target in test_loader:
       data=data.view(-1,28*28)
       data, target = data.to(device), target.to(device)
       logits = forward(net,data)#把数据放入神经网络得出pred的值
       test_loss +=criteon(logits,target).item()#?累加loss

       pred =logits.data.max(1)[1]#得出pred的最大值,就是网络识别出来的数字
       correct +=pred.eq(target.data).sum()#?target.data
   test_loss /=len(test_loader.dataset)
   #print('len(test_loader.dataset):', len(test_loader.dataset))
   print(
       '\ntest set:avg loss:{:.4f},accu:{}/{} ({:.0f}%)\n'.format(
           test_loss,correct,len(test_loader.dataset),
           100.*correct/len(test_loader.dataset)
       )
   )

print('——————————用GPU加速MNIST——————————')


Pytorch学习笔记8:MNIST多分类实践(GPU版本)的评论 (共 条)

分享到微博请遵守国家法律