keras.opimizers里面的Adam优化器参数
用法:
keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08)
参数:
lr:大于0的浮点数,学习率
beta_1和beta_2:浮点数,接近1
epsilon:大于0的小浮点数,防止除0错误
我们所度过的每个平凡的日常,也许就是连续发生的奇迹。
用法:
keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08)
参数:
lr:大于0的浮点数,学习率
beta_1和beta_2:浮点数,接近1
epsilon:大于0的小浮点数,防止除0错误