本小节使用torch搭建线性回归模型,训练和测试:
(1)定义模型超参数:输入大小、输出、迭代次数、学习率。
(2)定义训练数据:或者使用自己的数据集:(可参考:https://cloud.tencent.com/developer/article/1997099)
(3)定义模型。
(4)定义损失函数,选用适合回归问题的损失函数。
(5)定义优化算法(SGD、Adam等)。
(6)保存模型。
---------------------------------我是可爱的分割线---------------------------------
代码部分:
# coding=utf-8
import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt
# 超参数的设置
input_size = 1
output_size = 1
num_epochs = 60
learning_rate = 0.001
# 样本和标签 (回归问题)
x_train = np.array([[3.3], [4.4], [5.5], [6.71], [6.93], [4.168],
[9.779], [6.182], [7.59], [2.167], [7.042],
[10.791], [5.313], [7.997], [3.1]], dtype=np.float32)
y_train = np.array([[1.7], [2.76], [2.09], [3.19], [1.694], [1.573],
[3.366], [2.596], [2.53], [1.221], [2.827],
[3.465], [1.65], [2.904], [1.3]], dtype=np.float32)
# 定义线性回归模型
model = nn.Linear(input_size, output_size)
# 损失函数:选用适合的回归问题的损失函数,此处选用平房误差
criterion = nn.MSELoss()
# 优化算法
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
# 开始训练模型
for epoch in range(num_epochs):
# 转数组为tensor
inputs = torch.from_numpy(x_train)
targets = torch.from_numpy(y_train)
# 前向传播
outputs = model(inputs)
# 计算loss
loss = criterion(outputs, targets)
# 后向传播、 调节权重
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 定义每五个opoch打印一次
if (epoch+1) % 5 == 0:
print ('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item()))
# 画曲线
predicted = model(torch.from_numpy(x_train)).detach().numpy()
plt.plot(x_train, y_train, 'ro', label='Original data')
plt.plot(x_train, predicted, label='Fitted line')
plt.legend()
plt.show()
# 保存权重
torch.save(model.state_dict(), 'model.ckpt')
总结:
在我们学习的过程中,记住新知识相对来说是很快的一件事情,但是知道什么时候用,怎么用恰到好处确实一件难事。
以前也经常说,做图像或者深度学习tricks太多,知道什么问题用什么模型、用什么损失函数、用什么优化算法、或者说用什么trick说是很重要的事情,这些问题记住了不难,但是怎么用好则是关键。
如何你想训练其他模型,只需要把上面模型部分替换掉就可以了,这是一个简单的实现,里边有很多功能没加,想更快的提升自己的能力,可以考虑自己基于torch搭建一个通用训练框架。
torch系列: