深度学习-第五章 BP面试题(大厂必问,历经半年整理)

1.NN

神经网络最全面面试题

2.CNN

卷积神经网络最全面面试题

3.RNN

循环神经网络最全面面试题

4.LSTM

长短期记忆网络最全面面试题

5.反向传播

5.1 什么是反向传播?‍

通俗解释:
类比几个人站成一排,第一个人看一幅画(输入数据),描述给第二个人(隐层)……依此类推,到最后一个人(输出)的时候,画出来的画肯定不能看了(误差较大)。
反向传播就是:把画拿给最后一个人看(求取误差),然后最后一个人就会告诉前面的人下次描述时需要注意哪里(权值修正
一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。
目的是更新神经元参数,而神经元参数正是 z=wx+b 中的 (w,b).对参数的更新,利用损失值loss对参数的导数, 并沿着负梯度方向进行更新。
“正向传播”求损失,“反向传播”回传误差

5.2 反向传播是如何工作的?

1.输入层接收x
2.使用权重w对输入进行建模
3**.每个隐藏层计算输出**,数据在输出层准备就绪
4.实际输出期望输出之间的差异称为误差
5.返回隐藏层并调整权重,以便在以后的运行中减少此错误
这个过程一直重复,直到我们得到所需的输出。训练阶段在监督下完成。一旦模型稳定下来,就可以用于生产。

5.3 为什么需要反向传播?

•反向传播快速、简单且易于实现
•没有要调整的参数
•不需要网络的先验知识
•模型不需要学习函数的特性

5.4 手推BP

推导:链式求导法则反复用
在这里插入图片描述
在这里插入图片描述
伪代码:
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/cc13186851239/article/details/114227726