机器学习系列12:反向传播算法
机器学习系列12:反向传播算法
当我们要运用高级算法进行梯度下降时,需要计算两个值,代价函数和代价函数的偏导数:
代价函数我们之前已经知道怎么求了,现在只需要求代价函数的偏导数即可。
采用如下方法,先进行前向传播算法,然后再进行反向传播算法(Backpropagation Algorithm),反向传播算法与前向传播算法方向相反,它用来求代价函数的偏导数。具体过程看下图:
用 δ 作为误差,计算方法为:
有时我们在运用反向传播算法时会遇到 bug,而且这个 bug 还不容易被发现,因此我们就需要用梯度检验(Gradient Checking)。这种算法的思想就是运用导数估计值去对导数真实值进行检验,去检查反向传播算法运行时是否存在 bug。
都知道,函数在某点的导数近似于该点相邻的两点所连直线的斜率。
在函数图像上蓝色线代表该点的导数,红色线代表导数的近似值:
在向量中进行计算就需要对向量中每一个元素都计算一遍,这就需要进行一个循环,而这个循环会非常慢。
循环之后得到的结果与运用反向传播得到的结果进行比较,如果两个结果近似相等,那我们就可以认为反向传播算法运行正常,之后就可以关闭梯度检验,继续运行反向传播算法。因为梯度检验的循环导致运行速度太慢了。
神经网络的总结
在训练一个完整的神经网络之前,我们首先要选择一个神经网络结构,也就是选择一个神经元之间关系的模型,通常会是以下这几种情况:
一般地来讲,最左边这种隐藏层只有一层的结构是最常见的,也是使用最多的。
在选好神经网络结构后,就可以训练神经网络模型了,一共有 6 个步骤:
1.随机初始化权重;
2.运用前向传播算法对每一个输入值 x^((i)) 得到输出值;
3.计算代价函数;
4.运用反向传播算法计算代价函数的偏导数;
5.使用梯度检验确定反向传播算法是否正常工作,如果检验没有问题,就要关闭梯度检验,因为梯度检验算法运行速度非常慢;
6.使用高级优化算法去进行梯度下降,使得代价函数最小化,从而得到参数向量。