Andrew Ng 的个人经验和偏好是:
第一梯队: learning rate α
第二梯队: hidden units
mini-batch size
momentum β
第三梯队: number of layers
learning rate decay
other optimizer hyperparameters
参考文献: [关于神经网络的调参顺序?]
Andrew Ng 的个人经验和偏好是:
第一梯队: learning rate α
第二梯队: hidden units
mini-batch size
momentum β
第三梯队: number of layers
learning rate decay
other optimizer hyperparameters
参考文献: [关于神经网络的调参顺序?]