深度学习的反向传播手动推导

标签:#反向传播##梯度下降##深度学习# 时间:2019/06/04 11:37:14 作者:小木

反向传播算法是深度学习求解最重要的方法。这里我们手动推导一下。

一般来说,我们讲神经网络的层数,是包含输出层,但是不包含输入层的。因此,神经网络第一层的输入是数据,最后一层的输出就是预测结果了。在这里我们主要讲反向传播的推导,因此为了简便,忽略了维度的表示。以下符号并没有考虑维度。

[TOC]

一、符号说明

假设我们的输入数据是X,真实的标签是y

首先假设神经网络有L层,最后一层是输出层,只有一个神经元。每层的变量和函数都使用上标表示其所在的层。每一层的激活函数的输出为A,激活函数的输入是Z,它是由权重矩阵W和偏移b一起,作用于输入得到的。当这个层是第一层的时候,输入是数据X,当这个层不是第一层的时候,其输入是前一层的激活函数的输出。假设输出层的输出是\hat{y},即预测结果。

二、前向传播表示

那么,假设我们考虑第l个隐层,其输入是A^{[l-1]},那么,其前向传播(forward propagation)的表示为:

Z^{[l]} = W^{[l]} A^{[l-1]} + b^{[l]}

A^{[l]} = g^{[l]}(Z^{[l]})

l=1的时候,A^{[0]}=X。当l=L的时候,A^{[L]}=\hat{y}

三、反向传播推导

反向传播是从输出层开始,逐层计算梯度,并更新权重。我们首先定义损失函数,假设这里的标签是连续值,我们采用“平方损失函数(Square Loss)”:

J = \frac{1}{2}(\hat{y} - y )^2 = \frac{1}{2}(A^{[L]} - y )^2

我们先说明一下输出层的前向传播结果。输出层为L层,其输入是A^{[L-1]},权重和偏移分别为W^{[L]}b^{[L]},激活函数为g^{[L-1]}(\cdot),那么其前向传播的表示为:

Z^{[L]} = W^{[L]} A^{[L-1]} + b^{[L]}

A^{[L]} = \hat{y} = g^{[L]}(Z^{[L]})

反向传播的第一步,初始化计算最后一层的dA^{[L]} = \partial J / \partial A^{[L]}

\begin{aligned} dA^{[L]} &= \frac{\partial J }{ \partial A^{[L]}}\\ &\\ &= (\hat{y} - y )\hat{y}'\\ &\\ &= (\hat{y} - y ) \end{aligned}

接下来,就是给定dA^{[L]},计算dZ^{[L]},也就是损失函数对Z^{[L]}的偏导:

\begin{aligned} dZ^{[L]} &= \frac{\partial J}{\partial Z^{[L]}}\\ &\\ &= (\hat{y} - y) \cdot \frac{\partial \hat{y}}{\partial Z^{[L]}} \\ &\\ &=(\hat{y} - y) \cdot g^{[L]'}(Z^{[L]}) \\ &\\ &= dA^{[L]} \cdot g^{[L]'}(Z^{[L]}) \end{aligned}

接下来就是求dW^{[L]}:

\begin{aligned} dW^{[L]} &= \frac{\partial J}{\partial W^{[L]}}\\ &\\ &= (\hat{y} - y) \cdot \frac{\partial \hat{y}}{\partial W^{[L]}} \\ &\\ &=(\hat{y} - y) \cdot g^{[L]'}(Z^{[L]}) \cdot \frac{\partial Z^{[L]}}{\partial W^{[L]}} \\ &\\ &=dZ^{[L]} \cdot A^{[L-1]} \end{aligned}

继续求db^{[L]}:

\begin{aligned} db^{[L]} &= \frac{\partial J}{\partial b^{[L]}}\\ &\\ &= (\hat{y} - y) \cdot \frac{\partial \hat{y}}{\partial b^{[L]}} \\ &\\ &=(\hat{y} - y) \cdot g^{[L]'}(Z^{[L]}) \cdot \frac{\partial Z^{[L]}}{\partial b^{[L]}} \\ &\\ &=dZ^{[L]} \end{aligned}

最后求dA^{[L-1]}

\begin{aligned} dA^{[L-1]} &= \frac{\partial J}{\partial A^{[L-1]}}\\ &\\ &= (\hat{y} - y) \cdot \frac{\partial \hat{y}}{\partial A^{[L-1]}} \\ &\\ &=(\hat{y} - y) \cdot g^{[L]'}(Z^{[L]}) \cdot \frac{\partial Z^{[L]}}{\partial A^{[L-1]}} \\ &\\ &=dZ^{[L]} \cdot W^{[L]} \end{aligned}

然后就要更新参数了:

W^{[L]} = W^{[L]} - \alpha dW^{[L]}

b^{[L]} = b^{[L]} - \alpha db^{[L]}

至此,就是根据dA^{[L-1]},继续计算剩下的dA^{[L-2]}dW^{[L-1]}db^{[L-1]},然后更新参数。直到第一层为止。

注意:这里都是矩阵计算的方式,一个批次的数据一起计算求和之后需要除以批次中数据的数据量。

四、总结

根据上述计算,我们知道,在计算反向传播的时候,第一步需要我们计算前向传播的结果并保存。以第l层为例,我们保存前向传播中的A^{[l]}Z^{[l]}W^{[l]}b^{[l]}

在反向传播中,我们先初始化计算最后一层的dA^{[L]}。剩下的就是循环计算:

给定dA^{[L]},求dA^{[L-1]}dW^{[L]}db^{[L]},计算过程中,我们会用到前面保存的前向传播结果,计算方法如下:

dZ^{[l]} = dA^{[l]} \cdot g^{[l]'}(Z^{[l]})

dW^{[l]} = dZ^{[L]} \cdot A^{[L-1]}

db^{[l]} = dZ^{[L]}

dA^{[l-1]} = dZ^{[L]} \cdot W^{[L]}

至此,反向传播计算完成。

欢迎大家关注DataLearner官方微信,接受最新的AI技术推送