DL:深度学习模型优化之模型训练技巧总结之适时自动调整学习率实现代码

DL:深度学习模型优化之模型训练技巧总结之适时自动调整学习率实现代码

目录

深度学习模型优化之模型训练技巧总结之适时自动调整学习率

实现代码


深度学习模型优化之模型训练技巧总结之适时自动调整学习率

实现代码


def scheduler(epoch):
    # 每隔50个epoch,学习率减小为原来的1/10
    if epoch % 50 == 0 and epoch != 0:
        lr = K.get_value(GRU.optimizer.lr)
        if lr>1e-5:
            K.set_value(GRU.optimizer.lr, lr * 0.1)
            print("lr changed to {}".format(lr * 0.1))
    return K.get_value(GRU.optimizer.lr)

reduce_lr = LearningRateScheduler(scheduler)
early_stopping = EarlyStopping(monitor='loss', 
                               patience=20, 
                               min_delta=1e-5,
                               mode='auto',
#                                restore_best_weights=False,#是否从具有监测数量的最佳值的时期恢复模型权重
                               verbose=2)

猜你喜欢

转载自blog.csdn.net/qq_41185868/article/details/125531657