深度学习的反向传播手动推导
反向传播算法是深度学习求解最重要的方法。这里我们手动推导一下。
一般来说,我们讲神经网络的层数,是包含输出层,但是不包含输入层的。因此,神经网络第一层的输入是数据,最后一层的输出就是预测结果了。在这里我们主要讲反向传播的推导,因此为了简便,忽略了维度的表示。以下符号并没有考虑维度。
一、符号说明
假设我们的输入数据是$X$,真实的标签是$y$。
首先假设神经网络有$L$层,最后一层是输出层,只有一个神经元。每层的变量和函数都使用上标表示其所在的层。每一层的激活函数的输出为$A$,激活函数的输入是$Z$,它是由权重矩阵$W$和偏移$b$一起,作用于输入得到的。当这个层是第一层的时候,输入是数据$X$,当这个层不是第一层的时候,其输入是前一层的激活函数的输出。假设输出层的输出是$\hat{y}$,即预测结果。
二、前向传播表示
那么,假设我们考虑第$l$个隐层,其输入是$A^{[l-1]}$,那么,其前向传播(forward propagation)的表示为:
Z^{[l]} = W^{[l]} A^{[l-1]} + b^{[l]}
A^{[l]} = g^{[l]}(Z^{[l]})
当$l=1$的时候,$A^{[0]}=X$。当$l=L$的时候,$A^{[L]}=\hat{y}$。
三、反向传播推导
反向传播是从输出层开始,逐层计算梯度,并更新权重。我们首先定义损失函数,假设这里的标签是连续值,我们采用“平方损失函数(Square Loss)”:
J = \frac{1}{2}(\hat{y} - y )^2 = \frac{1}{2}(A^{[L]} - y )^2
我们先说明一下输出层的前向传播结果。输出层为$L$层,其输入是$A^{[L-1]}$,权重和偏移分别为$W^{[L]}$和$b^{[L]}$,激活函数为$g^{[L-1]}(\cdot)$,那么其前向传播的表示为:
Z^{[L]} = W^{[L]} A^{[L-1]} + b^{[L]}
A^{[L]} = \hat{y} = g^{[L]}(Z^{[L]})
反向传播的第一步,初始化计算最后一层的$dA^{[L]} = \partial J / \partial A^{[L]}$:
\begin{aligned}
dA^{[L]} &= \frac{\partial J }{ \partial A^{[L]}}\\
&\\
&= (\hat{y} - y )\hat{y}'\\
&\\
&= (\hat{y} - y )
\end{aligned}
接下来,就是给定$dA^{[L]}$,计算$dZ^{[L]}$,也就是损失函数对$Z^{[L]}$的偏导:
\begin{aligned}
dZ^{[L]} &= \frac{\partial J}{\partial Z^{[L]}}\\
&\\
&= (\hat{y} - y) \cdot \frac{\partial \hat{y}}{\partial Z^{[L]}} \\
&\\
&=(\hat{y} - y) \cdot g^{[L]'}(Z^{[L]}) \\
&\\
&= dA^{[L]} \cdot g^{[L]'}(Z^{[L]})
\end{aligned}
接下来就是求$dW^{[L]}$:
\begin{aligned}
dW^{[L]} &= \frac{\partial J}{\partial W^{[L]}}\\
&\\
&= (\hat{y} - y) \cdot \frac{\partial \hat{y}}{\partial W^{[L]}} \\
&\\
&=(\hat{y} - y) \cdot g^{[L]'}(Z^{[L]}) \cdot \frac{\partial Z^{[L]}}{\partial W^{[L]}} \\
&\\
&=dZ^{[L]} \cdot A^{[L-1]}
\end{aligned}
继续求$db^{[L]}$:
\begin{aligned}
db^{[L]} &= \frac{\partial J}{\partial b^{[L]}}\\
&\\
&= (\hat{y} - y) \cdot \frac{\partial \hat{y}}{\partial b^{[L]}} \\
&\\
&=(\hat{y} - y) \cdot g^{[L]'}(Z^{[L]}) \cdot \frac{\partial Z^{[L]}}{\partial b^{[L]}} \\
&\\
&=dZ^{[L]}
\end{aligned}
最后求$dA^{[L-1]}$:
\begin{aligned}
dA^{[L-1]} &= \frac{\partial J}{\partial A^{[L-1]}}\\
&\\
&= (\hat{y} - y) \cdot \frac{\partial \hat{y}}{\partial A^{[L-1]}} \\
&\\
&=(\hat{y} - y) \cdot g^{[L]'}(Z^{[L]}) \cdot \frac{\partial Z^{[L]}}{\partial A^{[L-1]}} \\
&\\
&=dZ^{[L]} \cdot W^{[L]}
\end{aligned}
然后就要更新参数了:
W^{[L]} = W^{[L]} - \alpha dW^{[L]}
b^{[L]} = b^{[L]} - \alpha db^{[L]}
至此,就是根据$dA^{[L-1]}$,继续计算剩下的$dA^{[L-2]}$、$dW^{[L-1]}$和$db^{[L-1]}$,然后更新参数。直到第一层为止。
注意:这里都是矩阵计算的方式,一个批次的数据一起计算求和之后需要除以批次中数据的数据量。
四、总结
根据上述计算,我们知道,在计算反向传播的时候,第一步需要我们计算前向传播的结果并保存。以第$l$层为例,我们保存前向传播中的$A^{[l]}$、$Z^{[l]}$、$W^{[l]}$和$b^{[l]}$。
在反向传播中,我们先初始化计算最后一层的$dA^{[L]}$。剩下的就是循环计算:
给定$dA^{[L]}$,求$dA^{[L-1]}$、$dW^{[L]}$和$db^{[L]}$,计算过程中,我们会用到前面保存的前向传播结果,计算方法如下:
dZ^{[l]} = dA^{[l]} \cdot g^{[l]'}(Z^{[l]})
dW^{[l]} = dZ^{[L]} \cdot A^{[L-1]}
db^{[l]} = dZ^{[L]}
dA^{[l-1]} = dZ^{[L]} \cdot W^{[L]}
至此,反向传播计算完成。
