如果要做人工智能,为什么深度学习框架 PyTorch 为何值得学?

人工智能专栏推荐

1. Pytorch的安装

可以登录pytorch官方网站根据自己的实际情况组合安装pytorch的命令,如下图所示。

如果要做人工智能,为什么深度学习框架 PyTorch 为何值得学?

2. Pytorch的基础知识

1. 张量Tensor的类型介绍

常用的tensor类型有一下几种:

32 位浮点型 torch.FloatTensor(默认)

64 位浮点型 torch.DoubleTensor

16 位整型 torch.ShortTensor

32 位整型 torch.lntTensor

64 位整型 torch.LongTensor

2. 创建Tensor

创建一个三行两列的元素矩阵(默认类型是FloatTensor)

a=torch.Tensor([[1,2],[3,4],[5,6]])

创建一个LongTensor类型的Tensor

b=torch.LongTensor([[1,2],[3,4],[5,6]])

创建全是0的Tensor

c=torch.zeros((3,2))

创建符合正太分布的Tensor

d=torch.randn((3,2))

如果要做人工智能,为什么深度学习框架 PyTorch 为何值得学?

3. Numpy和Tensor之间类型转换

a=np.array([[2,3],[4,5]])

torch_e=torch.from_numpy(a)#将numpy转成tensor类型

b=torch_e.numpy()#将tensor转成numpy类型

4. 将tensor放到Gpu上

a=torch.Tensor([[1,2],[3,4],[5,6]])

a_cuda=a.cuda()#这就将张量a放到Gpu上了

5. 数据预处理和数据的读取

要想实现数据的读取操作,可以定义一个类继承和重写torch.utils.data.Dataset,然后只需要定义__init__,__len__和__getitem__这三个函数,init用于读取原始数据,并将数据赋值给类属性,方便len和getitem方法获取到。len用于返回该数据集的样本数量,getitem用于根据索引返回指定索引位置的样本。具体来说如下所示:

如果要做人工智能,为什么深度学习框架 PyTorch 为何值得学?

6. DataLoader

刚刚定义的myDataset搭配使用DataLoader可以快速加载一个batch_size大小的数据样本。

dataiter=DataLoader(myDataset,batch_size=32, shuffle=True , collate_fn=default collate)

其中参数batch_size表示每次加载32个样本,shuffle表示打乱数据,就是不按顺序从头到尾取数据。collate fn 是表示如何取样本的,我们可以定义 自己的函数来准确地实现想要的功能,默认的函数在一般情况下都是可以使用的。

7. torchvision包

torchvision主要包含三个方面

第一个方面是models:提供深度学习中各种经典网络的网络结构以及预训练好的模型,包括AlexNet、VGG系列、ResNet系列、Inception系列等。

第二个方面是:datasets: 提供常用的数据集加载,设计上都是继承torhc.utils.data.Dataset,主要包括`MNIST`、`CIFAR10/100`、`ImageNet`、`COCO`等。

第三个方面是transforms:提供常用的数据预处理操作,主要包括对Tensor以及PIL Image对象的操作。

比如现在加载已经预训练好的Resnet模型用于迁移学习,可以model=models.resnet18(pretrained=True)

#pretrained=True表示不光加载模型同时加载模型参数

#pretrained=False表示只加载模型

比如下载要加载常用的CIFAR10数据集,可以

train_set = CIFAR10('./adata', train=True,download=True)

test_set = CIFAR10('./adata', train=False,download=True)

./adata表示数据存储的位置

train=True表示训练集,train=False表示测试集

download=True表示若数据存储位置没有数据则下载数据,若有数据则直接加载使用

8. 保存模型和加载模型

在 PyTorch 里面使用 torch.save 来保存模型的结构和参数,有两种保存方式:

方式一

即保存模型又保存模型的参数

torch.save(model , './model.pth ' )

方式二

只保存模型参数

torch.save(model.state_dict(),'./model_state.pth')

相应的加载模型也有两种方式:

方式一:

加载完整的模型结构和参数信息,使用 load model = torch.load('model. pth' )

方式二:

加载模型参数信息,需要先导人模型的结构,然后通过 model.load state dic (torch.load('model_state.pth')) 来导入

9. Pytorch的nn模块

在PyTorch里面编写神经网络,所有的层结构都来自于torch.nn,所有的模型构建都是从这个基类 nn.Module,比如搭建一个普通的卷积神经网络。

如果要做人工智能,为什么深度学习框架 PyTorch 为何值得学?

10. torch.optim (优化)

在pytorch中使用torch.optim指定优化方式

优化方式一

随机梯度下降优化算法:optimzier = torch.optim.SGD(net.parameters(), 1e-2)

#net.parameters()也就是神经网络的所有的参数

#1e-2表示学习率

优化方式二

动量梯度下将优化算法:optimizer = torch.optim.SGD(net.parameters(), lr=1e-2, momentum=0.9)#momentum表示设置动量为0.9

优化方式三

Adam优化算法:optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)

11. 固定神经网络的参数

每个神经网络模型的参数都有一个属性requires_grad,只要设置这个属性的值为False,就表示关闭这个参数的梯度,这样在反向传播的过程中就不会对这个参数进行更新,这就起到了冻结的作用了。比如我们想要冻结神经网络的所有层,我们只需要设置神经网络所有层的参数require_grad=False就可以了。具体实现代码如下

for param in model.parameters():

param.requires_grad=False

我们要想训练哪层,只需要把该层的神经网络的参数的属性require_grad设置为True就可以了,这样在反向传播的过程中就可以进行该层参数的更新了。

相关推荐