【原】Coursera—Andrew Ng机器学习—Week 10 习题—大规模机器学习

【1】大规模数据

【2】随机梯度下降

【3】小批量梯度下降

【4】随机梯度下降的收敛

Answer:BD

A 错误。学习率太小,算法容易很慢

B 正确。学习率小,效果更好

C 错误。应该是确定阈值吧

D 正确。曲线不下降,说明学习率选的太大

 【5】在线学习

 【6】


 

Answer:BC

A 错误。随机梯度下降,J(θ)不一定每次都减小

D 错误。随机梯度下降适合大数据量任务

Answer:CD

A 错误。

B 错误。不是因为使用parallelizaion

Answer:AD

B 错误。不需要保存每次的结果

C 错误。online learning不适合固定的m

 

Answer:BC

AD 错误。随机梯度下降的不适合

Answer:AB

Answer:ACD

B 错误。不一定获得N倍的速度

Answer:ABC

 D 错误。神经网络也可以使用map-reduce

猜你喜欢

转载自www.cnblogs.com/maxiaodoubao/p/10181723.html