首页
学习
活动
专区
圈层
工具
发布

pytorch学习笔记(六):多维特征的分类问题

一步步将多个特征的数据进行逻辑斯蒂回归 引入矩阵:

矩阵的本质:将改变数据的空间维度

具体使用:

1、加载数据集

代码语言:javascript
代码运行次数:0
复制
xy = np.loadtxt('diabetes.csv.gz', delimiter=',', dtype=np.float32)
x_data = torch.from_numpy(xy[:, :-1])
y_data = torch.from_numpy(xy[:, [-1]])

这里面的数据以’,'分隔,最后一列为y值

2、定义模型

代码语言:javascript
代码运行次数:0
复制
class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.linear1 = torch.nn.Linear(8, 6)
        self.linear2 = torch.nn.Linear(6, 4)
        self.linear3 = torch.nn.Linear(4, 1)
        self.sigmoid = torch.nn.Sigmoid()

    def forward(self, x):
        x = self.sigmoid(self.linear1(x))
        x = self.sigmoid(self.linear2(x))
        x = self.sigmoid(self.linear3(x))
        return x

model = Model()

这里定义了3个Linear,注意输出维度和下一层的输入维度匹配 forward很巧妙地使用单个变量x,即这一层的输出即下一层的输入

3、构建损失函数和优化器

代码语言:javascript
代码运行次数:0
复制
criterion = torch.nn.BCELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

4、训练

代码语言:javascript
代码运行次数:0
复制
for epoch in range(100):
    # Forward
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print(epoch, loss.item())

    # Backward
    optimizer.zero_grad()
    loss.backward()

    # Update
    optimizer.step()

本例中,采用了sigmoid作激活函数,还有其它激活函数可以使用:

下一篇
举报
领券