总结
习题
第 31 题
在我们的前向传播和后向传播实现中使用的“缓存”是什么?
A.它用于在训练期间缓存成本函数的中间值。
B.我们用它将在正向传播过程中计算的变量传递到相应的反向传播步骤。它包含了反向传播计算导数的有用值。
C.它用于跟踪我们正在搜索的超参数,以加快计算速度。
D.我们用它将反向传播过程中计算的变量传递到相应的正向传播步骤。它包含用于计算正向传播的激活的有用值。
第 32 题
以下哪些是“超参数”?(选出所有正确项)
A.隐藏层规模
B.神经网络的层数
C.激活向量
D.权重矩阵
E.学习率
F.迭代次数
G.偏置向量
第 33 题
下列哪个说法是正确的?
A.神经网络的更深层通常比前面的层计算更复杂的特征
B.神经网络的前面的层通常比更深层计算更复杂的特性
第 34 题
向量化允许您在L层神经网络中计算前向传播时,不需要在层
间显式的使用for循环(或任何其他显式迭代循环)
A.对 B.不对
第 35 题
假设我们将
的值存储在名为
的数组中,如下所示:
。 因此,第1层有4个隐藏单元,第2层有3个隐藏单元,依此类推。 您可以使用哪个for循环初始化模型参数?
A.
for(i in range(1, len(layer_dims/2))):
parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01
parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
B.
for(i in range(1, len(layer_dims/2))):
parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01
parameter[‘b’ + str(i)] = np.random.randn(layers[i-1], 1) * 0.01
C.
for(i in range(1, len(layer_dims))):
parameter[‘W’ + str(i)] = np.random.randn(layers[i-1], layers[i])) * 0.01
parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
D.
for(i in range(1, len(layer_dims))):
parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01
parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01
第 36 题
考虑以下神经网络:
该神经网络有几层?
A.层数 是4,隐藏层数是3
B.层数 是3,隐藏层数是3
C.层数 是4,隐藏层数是4
D.层数 是5,隐藏层数是4
第 37 题
在前向传播期间,在层 的前向传播函数中,您需要知道 层中的激活函数(Sigmoid,tanh,ReLU等)是什么。在反向传播期间,相应的反向传播函数也需要知道第 层的激活函数是什么,因为梯度是根据它来计算的
A.对 B.不对
第 38 题
有一些函数具有以下特性:
(i) 当使用浅网络计算时,需要一个大网络(我们通过网络中的逻辑门数量来度量大小),但是(ii)当使用深网络来计算时,我们只需要一个指数级小的网络
A.对 B.不对
第 39 题
在以下2层隐藏层的神经网络中,以下哪句话是正确的?
A.
的形状是 (4, 4)
B. 的形状是 (4, 1)
C. 的形状是 (3, 4)
D. 的形状是 (3, 1)
E. 的形状是 (1, 1)
F. 的形状是 (1, 3)
第 40 题
前面的问题使用了一个特定的网络,一般情况下,层 的权重矩阵 的维数是多少?
A.
的形状是
B.
的形状是
C.
的形状是
D.
的形状是
31-40题 答案
31.B 32.ABEF 33.A 34.B 35.D 36.A 37.A 38.A 39.ABCD 40.A