总结9个最重要的PyTorch操作:
PyTorch的张量类似于Numpy数组,但它们提供了GPU加速和自动求导的功能。张量的创建可以通过torch.Tensor,也可以使用torch.zeros、torch.ones等函数。
import torch
# 创建张量
a = torch.tensor([1, 2, 3])
b = torch.tensor([4, 5, 6])
# 张量加法
c = a + b
print(c)
x = torch.tensor([1.0], requires_grad=True)
y = x**2
y.backward()
print(x.grad)
import torch.nn as nn
class SimpleNN(nn.Module):
def __init__(self):
super(SimpleNN, self).__init__()
self.fc = nn.Linear(10, 5)
def forward(self, x):
return self.fc(x)
model = SimpleNN()
import torch.optim as optim
optimizer = optim.SGD(model.parameters(), lr=0.01)
损失函数用于衡量模型输出与目标之间的差距。例如,交叉熵损失适用于分类问题。
loss_function = nn.CrossEntropyLoss()
from torch.utils.data import DataLoader, Dataset
class CustomDataset(Dataset):
# 实现数据集的初始化和__getitem__方法
dataloader = DataLoader(dataset, batch_size=64, shuffle=True)
# 保存模型
torch.save(model.state_dict(), 'model.pth')
# 加载模型
loaded_model = SimpleNN()
loaded_model.load_state_dict(torch.load('model.pth'))
from torch.optim import lr_scheduler
scheduler = lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.1)
model.eval()
with torch.no_grad():
# 运行模型并计算性能指标
参考:DOWHAT小壮