keras Adam 参数设置

keras.optimizers.Adam(learning_rate=0.001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)
  • learning_rate: float >= 0. 学习率。
  • beta_1: float, 0 < beta < 1. 通常接近于 1。
  • beta_2: float, 0 < beta < 1. 通常接近于 1。
  • epsilon: float >= 0. 模糊因子. 若为 None, 默认为 K.epsilon()。
  • decay: float >= 0. 每次参数更新后学习率衰减值。假如learning_rate是0.001,epoch是3000,那么学习率衰减速率为 0.001/3000。也就是始学习速率除以当前训练的总次数。
  • amsgrad: boolean. 是否应用此算法的 AMSGrad 变种,来自论文 “On the Convergence of Adam and Beyond”。

https://blog.csdn.net/leadai/article/details/79178787

猜你喜欢

转载自blog.csdn.net/qq_42363032/article/details/121532568