用PyTorch解决回归问题

PyTorch是Python的主要开源机器学习库。PyTorch通常用作其他机器学习库的替代品,例如TensorFlow。

特别是,由于与其他库相比,执行某些任务的记录速度更快,因此PyTorch在机器学习爱好者中获得了一些青睐。PyTorch是由Facebook开发的,作为谷歌TensorFlow的竞争性深度学习软件包。

文章的目的

在本文中,您将了解神经网络,以及如何使用PyTorch库构建此类机器学习模型。

神经网络简介

那么,什么是神经网络呢?神经网络是一种基于现有数据创建预测的系统。

具体地说,神经网络模型是通过一种称为反向传播的技术来工作的——当新的信息被输入到模型中时,神经网络的权重会不断调整——因此,随着迭代次数的增加,可以进行更精确的预测。

神经网络包括:

  • 输入层:根据现有数据获取输入的层
  • 隐藏层:使用反向传播优化输入变量权重的层,以提高模型的预测能力
  • 输出层:基于输入和隐藏层数据的预测输出

当我们提到“深度“神经网络时,我们的意思是说有一个隐藏层,这是我们将在我们的例子中使用的神经网络的类型。

基于神经网络的回归建模

为了理解神经网络如何用于自然语言处理等更高级的任务,首先要了解神经网络如何用于更传统的建模是很重要的。

在这方面,让我们探讨如何使用神经网络来解决回归问题。

什么是回归问题?

回归问题是我们试图以区间形式预测因变量的值,也就是说,我们的变量取值范围很广。这与分类问题不同,分类问题中我们的变量只能取与特定类别对应的值(例如0 =女性,1 =男性)。

让我们考虑以下问题。

假设我们希望根据以下自变量预测一个人的每月互联网使用量(以兆字节为单位):

  • 年龄
  • 性别(0 =女性,1 =男性)
  • 每周访问的网页
  • 每周视频小时数
  • 每月收入

此处提供了此问题的数据集(http://www.kankanyun.com/data/internet.csv)。让我们澄清术语依赖和自变量的含义:

  • 因变量:受其他变量影响的变量。在这种情况下,数据使用受到其他因素的影响。
  • 自变量:影响另一个变量的变量。例如,一个人每周观看的视频时间越多,这将增加消耗的数据量。

在我们将库加载到Python之前,我们必须首先确保安装了所有适当的库。

用pip安装库

请注意,我使用的是Python 3.6.5版。对于本教程,为了无缝地运行Python代码,我建议您在运行时使用此版本。

我们将使用pip命令安装适当的库。

对于torch 库(PyTorch),打开命令行并键入以下内容:

pip3 install torch torchvision

pip命令还用于将其他库安装到Python环境中。例如,假设您还需要安装scikit-learn库。为此,您将相应地输入:

pip3 install scikit-learn

一旦安装了所有适当的库,就可以将它们加载到Python环境中了。

导入库和预处理数据

我们将从加载Python并导入以下库开始:

import torch
import torch.nn as nn
import numpy as np
import pandas as pd
from sklearn import preprocessing
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt
import os;

然后,我们可以设置文件路径以导入CSV:

path="/home/yourdirectory"
os.chdir(path)
os.getcwd()
dataset=np.loadtxt("internet.csv", delimiter=",")

一旦我们完成了这项工作,我们现在需要在将数据提供给神经网络之前正确准备我们的数据。

x=dataset[:,0:5]
y=dataset[:,5]
y=np.reshape(y, (-1,1))
scaler = preprocessing.Normalizer()
yscale=scaler.fit_transform(y)
xscale=scaler.fit_transform(x)

首先,我们定义了x(自变量)和y(因变量)。然后,我们使用sklearn中的预处理库来归一化我们的数据并缩放变量,以便神经网络可以正确地解释它们。

如果运行这些,您将看到我们的新变量xscale和yscale现在在0和1之间,这允许神经网络更容易地解释我们的变量,从而产生更准确的结果。

训练/测试拆分

完成此操作后,我们需要将数据拆分为训练和测试数据。基本上,我们将在训练数据上构建神经网络模型,然后将其与测试数据进行交叉验证,以确定神经模型对不见数据的准确性。

要执行80%训练/ 20%测试拆分,我们使用以下命令:

X_train, X_test, y_train, y_test = train_test_split(xscale, yscale, test_size=0.2)

将numpy转换为张量

然后,我们将数据从numpy转换为tensor格式,如下所示:

xtrain = torch.Tensor(X_train)
ytrain = torch.Tensor(y_train)
>>> xtrain
tensor([[0.0029, 0.0000, 0.0029, 0.0002, 1.0000],
[0.0028, 0.0001, 0.0040, 0.0014, 1.0000],
[0.0040, 0.0000, 0.0048, 0.0004, 1.0000],
...,
[0.0062, 0.0000, 0.0055, 0.0000, 1.0000],
[0.0099, 0.0000, 0.0030, 0.0005, 0.9999],
[0.0055, 0.0000, 0.0067, 0.0003, 1.0000]])
>>> ytrain
tensor([[1.],
[1.],
[1.],
[1.],
[1.],
......
[1.],
[1.],
[1.]])

神经网络

现在,让我们运行神经网络模型。

对于这个特定的例子,我们使用具有5个输入层和10个隐藏层的线性神经网络,具有ReLU和sigmoid 函数作为附加层。

model = nn.Sequential(nn.Linear(5, 10),
nn.ReLU(),
nn.Linear(10, 1),
nn.Sigmoid())

一旦建立了模型本身,我们将在多次迭代(也称为epoch)上训练模型,并且我们将使用所谓的损失函数来判断模型的准确性。

在这种情况下,损失函数是均方误差。换句话说,我们的模型的估计值与实际值之间的平均平方差。

对于这个例子,我们训练模型超过500个epochs并为每个epoch生成损失读数。损失越低越好,因为在这种情况下,我们正在寻求最小化实际值和预测值之间的均方误差。我们执行以下操作:

数据的损失函数

criterion = torch.nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
for epoch in range(500):
 y_pred = model(xtrain)
 loss = criterion(y_pred, ytrain)
 print('epoch: ', epoch,' loss: ', loss.item())
 optimizer.zero_grad()
 loss.backward()
 optimizer.step()

用PyTorch解决回归问题

我们看到随着epochs数量的增加,我们的损失读数相应下降:

epoch: 0 loss: 0.17553377151489258

epoch: 1 loss: 0.17494110763072968

epoch: 2 loss: 0.17435060441493988

epoch: 3 loss: 0.1737622767686844

epoch: 4 loss: 0.173176109790802

epoch: 5 loss: 0.17259210348129272

epoch: 6 loss: 0.17201022803783417

......

epoch: 494 loss: 0.03921870142221451

epoch: 495 loss: 0.03911843150854111

epoch: 496 loss: 0.03901850804686546

epoch: 497 loss: 0.038918931037187576

epoch: 498 loss: 0.03881969302892685

epoch: 499 loss: 0.03872080147266388

现在,让我们看看当我们在测试数据而不是训练数据上运行此模型时会发生什么。

我们以相同的方式设置模型,只是这次我们输入测试数据而不是训练数据:

#PyTorch array
xtest = torch.Tensor(X_test)
xtest.size
ytest = torch.Tensor(y_test)
ytest.size
model = nn.Sequential(nn.Linear(5, 10),
 nn.ReLU(),
 nn.Linear(10, 1),
 nn.Sigmoid())
criterion = torch.nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
## Loss function for test data
for epoch in range(500):
 y_pred = model(xtest)
 loss = criterion(y_pred, ytest)
 print('epoch: ', epoch,' loss: ', loss.item())
 optimizer.zero_grad()
 loss.backward()
 optimizer.step()

用PyTorch解决回归问题

现在,让我们看看这次我们的损失读数显示了什么。

epoch: 0 loss: 0.3186935484409332

epoch: 1 loss: 0.3175300061702728

epoch: 2 loss: 0.31636855006217957

epoch: 3 loss: 0.31520920991897583

epoch: 4 loss: 0.31405195593833923

epoch: 5 loss: 0.31289681792259216

epoch: 6 loss: 0.3117437958717346

......

epoch: 494 loss: 0.040621303021907806

epoch: 495 loss: 0.040476154536008835

epoch: 496 loss: 0.04033173993229866

epoch: 497 loss: 0.040188051760196686

epoch: 498 loss: 0.04004509001970291

epoch: 499 loss: 0.03990283980965614

我们发现,在分析测试数据时,在epoch 499显示出与我们训练数据相似的读数。

让我们为我们的训练和测试数据绘制我们的损失函数:

用PyTorch解决回归问题

如上所述,我们可以看到,虽然我们的测试数据的损失读数最初高于我们的训练数据,但两者最终会随着我们增加epochs数而收敛,这表明我们的神经网络模型在预测测试方面做得很好。

相关推荐