前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Pytorch 神经网络训练过程

Pytorch 神经网络训练过程

作者头像
Michael阿明
发布2021-02-19 15:03:15
4120
发布2021-02-19 15:03:15
举报
文章被收录于专栏:Michael阿明学习之路

文章目录

参考 http://pytorch123.com/

1. 定义模型

代码语言:javascript
复制
import torch
import torch.nn as nn
import torch.nn.functional as F

class Net_model(nn.Module):
    def __init__(self):
        super(Net_model, self).__init__()
        self.conv1 = nn.Conv2d(1,6,5) # 卷积
        		# in_channels, out_channels, kernel_size, stride=1,
                # padding=0, dilation=1, groups=1,
                # bias=True, padding_mode='zeros'
        self.conv2 = nn.Conv2d(6,16,5)
        self.fc1 = nn.Linear(16*5*5, 120) # FC层
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)
    def forward(self, x):
        x = self.conv1(x)
        x = F.relu(x)
        x = F.max_pool2d(x, (2,2))
        x = self.conv2(x)
        x = F.relu(x)
        x = F.max_pool2d(x, 2)
        x = x.view(-1, self.num_flat_features(x)) # 展平
        x = self.fc1(x)
        x = F.relu(x)
        x = self.fc2(x)
        x = F.relu(x)
        x = self.fc3(x)
        return x
    def num_flat_features(self, x):
        size = x.size()[1:] # 除了batch 维度外的维度
        num_features = 1
        for s in size:
            num_features *= s
        return num_features

model = Net_model()
print(model)

输出:

代码语言:javascript
复制
Net_model(
  (conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))
  (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
  (fc1): Linear(in_features=400, out_features=120, bias=True)
  (fc2): Linear(in_features=120, out_features=84, bias=True)
  (fc3): Linear(in_features=84, out_features=10, bias=True)
)

1.1 绘制模型

代码语言:javascript
复制
from torchviz import make_dot
vis_graph = make_dot(model(input),params=dict(model.named_parameters()))
vis_graph.view()

1.2 模型参数

代码语言:javascript
复制
params = list(model.parameters())
print(len(params))
for i in range(len(params)):
    print(params[i].size())

输出:

代码语言:javascript
复制
10
torch.Size([6, 1, 5, 5])
torch.Size([6])
torch.Size([16, 6, 5, 5])
torch.Size([16])
torch.Size([120, 400])
torch.Size([120])
torch.Size([84, 120])
torch.Size([84])
torch.Size([10, 84])
torch.Size([10])

2. 前向传播

代码语言:javascript
复制
input = torch.randn(1,1,32,32)
out  = model(input)
print(out)

输出:

代码语言:javascript
复制
tensor([[-0.1100,  0.0273,  0.1260,  0.0713, -0.0744, -0.1442, -0.0068, -0.0965,
         -0.0601, -0.0463]], grad_fn=<AddmmBackward>)

3. 反向传播

代码语言:javascript
复制
# 清零梯度缓存器
model.zero_grad()
out.backward(torch.randn(1,10)) # 使用随机的梯度反向传播

4. 计算损失

代码语言:javascript
复制
output = model(input)
target = torch.randn(10) # 举例用
target = target.view(1,-1) # 形状匹配 output
criterion = nn.MSELoss() # 定义损失类型
loss = criterion(output, target)
print(loss)
# tensor(0.5048, grad_fn=<MseLossBackward>)
  • 测试 .zero_grad() 清零梯度缓存作用
代码语言:javascript
复制
model.zero_grad()
print(model.conv1.bias.grad)
loss.backward()
print(model.conv1.bias.grad)

输出:

代码语言:javascript
复制
tensor([0., 0., 0., 0., 0., 0.])
tensor([-0.0067,  0.0114,  0.0033, -0.0013,  0.0076,  0.0010])

5. 更新参数

代码语言:javascript
复制
learning_rate = 0.01
for f in model.parameters():
    f.data.sub_(f.grad.data*learning_rate)

6. 完整简洁代码

代码语言:javascript
复制
criterion = nn.MSELoss() # 定义损失类型
import torch.optim as optim
optimizer = optim.SGD(model.parameters(), lr=0.1)# 优化目标,学习率

# 循环执行以下内容 训练
optimizer.zero_grad() # 清空梯度缓存
output = model(input) # 输入,输出,前向传播

loss = criterion(output, target) # 计算损失

loss.backward() # 反向传播

optimizer.step() # 更新参数
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020/12/25 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 文章目录
  • 1. 定义模型
    • 1.1 绘制模型
      • 1.2 模型参数
      • 2. 前向传播
      • 3. 反向传播
      • 4. 计算损失
      • 5. 更新参数
      • 6. 完整简洁代码
      相关产品与服务
      腾讯云服务器利旧
      云服务器(Cloud Virtual Machine,CVM)提供安全可靠的弹性计算服务。 您可以实时扩展或缩减计算资源,适应变化的业务需求,并只需按实际使用的资源计费。使用 CVM 可以极大降低您的软硬件采购成本,简化 IT 运维工作。
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档