如果要做人工智能,为什么深度学习框架 PyTorch 为何值得学?
人工智能专栏推荐
1. Pytorch的安装
可以登录pytorch官方网站根据自己的实际情况组合安装pytorch的命令,如下图所示。
2. Pytorch的基础知识
1. 张量Tensor的类型介绍
常用的tensor类型有一下几种:
32 位浮点型 torch.FloatTensor(默认)
64 位浮点型 torch.DoubleTensor
16 位整型 torch.ShortTensor
32 位整型 torch.lntTensor
64 位整型 torch.LongTensor
2. 创建Tensor
创建一个三行两列的元素矩阵(默认类型是FloatTensor)
a=torch.Tensor([[1,2],[3,4],[5,6]])
创建一个LongTensor类型的Tensor
b=torch.LongTensor([[1,2],[3,4],[5,6]])
创建全是0的Tensor
c=torch.zeros((3,2))
创建符合正太分布的Tensor
d=torch.randn((3,2))
3. Numpy和Tensor之间类型转换
a=np.array([[2,3],[4,5]])
torch_e=torch.from_numpy(a)#将numpy转成tensor类型
b=torch_e.numpy()#将tensor转成numpy类型
4. 将tensor放到Gpu上
a=torch.Tensor([[1,2],[3,4],[5,6]])
a_cuda=a.cuda()#这就将张量a放到Gpu上了
5. 数据预处理和数据的读取
要想实现数据的读取操作,可以定义一个类继承和重写torch.utils.data.Dataset,然后只需要定义__init__,__len__和__getitem__这三个函数,init用于读取原始数据,并将数据赋值给类属性,方便len和getitem方法获取到。len用于返回该数据集的样本数量,getitem用于根据索引返回指定索引位置的样本。具体来说如下所示:
6. DataLoader
刚刚定义的myDataset搭配使用DataLoader可以快速加载一个batch_size大小的数据样本。
dataiter=DataLoader(myDataset,batch_size=32, shuffle=True , collate_fn=default collate)
其中参数batch_size表示每次加载32个样本,shuffle表示打乱数据,就是不按顺序从头到尾取数据。collate fn 是表示如何取样本的,我们可以定义 自己的函数来准确地实现想要的功能,默认的函数在一般情况下都是可以使用的。
7. torchvision包
torchvision主要包含三个方面
第一个方面是models:提供深度学习中各种经典网络的网络结构以及预训练好的模型,包括AlexNet、VGG系列、ResNet系列、Inception系列等。
第二个方面是:datasets: 提供常用的数据集加载,设计上都是继承torhc.utils.data.Dataset,主要包括`MNIST`、`CIFAR10/100`、`ImageNet`、`COCO`等。
第三个方面是transforms:提供常用的数据预处理操作,主要包括对Tensor以及PIL Image对象的操作。
比如现在加载已经预训练好的Resnet模型用于迁移学习,可以model=models.resnet18(pretrained=True)
#pretrained=True表示不光加载模型同时加载模型参数
#pretrained=False表示只加载模型
比如下载要加载常用的CIFAR10数据集,可以
train_set = CIFAR10('./adata', train=True,download=True)
test_set = CIFAR10('./adata', train=False,download=True)
./adata表示数据存储的位置
train=True表示训练集,train=False表示测试集
download=True表示若数据存储位置没有数据则下载数据,若有数据则直接加载使用
8. 保存模型和加载模型
在 PyTorch 里面使用 torch.save 来保存模型的结构和参数,有两种保存方式:
方式一:
即保存模型又保存模型的参数
torch.save(model , './model.pth ' )
方式二:
只保存模型参数
torch.save(model.state_dict(),'./model_state.pth')
相应的加载模型也有两种方式:
方式一:
加载完整的模型结构和参数信息,使用 load model = torch.load('model. pth' )
方式二:
加载模型参数信息,需要先导人模型的结构,然后通过 model.load state dic (torch.load('model_state.pth')) 来导入
9. Pytorch的nn模块
在PyTorch里面编写神经网络,所有的层结构都来自于torch.nn,所有的模型构建都是从这个基类 nn.Module,比如搭建一个普通的卷积神经网络。
10. torch.optim (优化)
在pytorch中使用torch.optim指定优化方式
优化方式一:
随机梯度下降优化算法:optimzier = torch.optim.SGD(net.parameters(), 1e-2)
#net.parameters()也就是神经网络的所有的参数
#1e-2表示学习率
优化方式二:
动量梯度下将优化算法:optimizer = torch.optim.SGD(net.parameters(), lr=1e-2, momentum=0.9)#momentum表示设置动量为0.9
优化方式三:
Adam优化算法:optimizer = torch.optim.Adam(net.parameters(), lr=1e-3)
11. 固定神经网络的参数
每个神经网络模型的参数都有一个属性requires_grad,只要设置这个属性的值为False,就表示关闭这个参数的梯度,这样在反向传播的过程中就不会对这个参数进行更新,这就起到了冻结的作用了。比如我们想要冻结神经网络的所有层,我们只需要设置神经网络所有层的参数require_grad=False就可以了。具体实现代码如下
for param in model.parameters():
param.requires_grad=False
我们要想训练哪层,只需要把该层的神经网络的参数的属性require_grad设置为True就可以了,这样在反向传播的过程中就可以进行该层参数的更新了。