首端和末端 有输入层和输出层 中间的为引层 每层神经元与下一层神经元全互连,同层神经元不存在连接
1.从输入层到达隐层:激活函数f ,参数 v , w 隐层中每一个神经元的输出: f ( ∑ v x ) f(\sum vx) f(∑vx) 其中f 取simoid函数 2.从隐层到输出层: f ( ∑ w f ∑ v x ) f(\sum wf\sum vx) f(∑wf∑vx)
1.假定要完成回归任务,取损失函数SME loss 2. 将误差展开到隐层 3.将误差展开到输入层 至此可以看到,整个输出 o o o 是怎么得到的,即经过隐层权重叠加再 经过激活函数的处理 得到输出层的输入,再次经过权重相加 激活函数得到最终的 o o o,同时我们能够清晰的看到损失函数 值的来历 之后就可以经过梯度下降迭代优化
有如下的简单神经网络:
1.到达隐层输出值 2.到达输出层输出值
3.损失函数 计算
待续。。。