MENU

Neural Networks Overview

April 6, 2019 • Read: 162 • Deep Learning


神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多一层,多出来的中间那层称为隐藏层或中间层。这样从计算上来说,神经网络的正向传播和反向传播过程只是比逻辑回归多了一次重复的计算。对于隐藏层的第一个节点,有

$$ z _1^{[1]} = (W _1^{[1]})^TX+b _1^{[1]} \\ a _1^{[1]} = \sigma(z _1^{[1]}) $$

我们可以类推得到,对于第一个隐藏层有下列公式:

$$ z^{[1]} = (W^{[1]})^Ta^{[0]}+b^{[1]} \\ a^{[1]} = \sigma(z^{[1]}) $$

第二层是输出层,用上标$^{[2]}$来表示:

$$ z^{[2]} = (W^{[2]})^Ta^{[1]}+b^{[2]} \\ \hat{y} = a^{[2]} = \sigma(z^{[2]}) $$

Archives Tip
QR Code for this page
Tipping QR Code