欢迎光临散文网 会员登陆 & 注册

小象学院Python编程从入门到实践

2023-02-23 10:24 作者:id母人  | 我要投稿

定义优化函数

这次我们使用的是Adam优化方法,同时指定学习率为0.001

In[16]

#使用Adam算法进行优化, learning_rate 是学习率(它的大小与网络的训练收敛速度有关系) optimizer = fluid.optimizer.AdamOptimizer(learning_rate=0.001)   opts = optimizer.minimize(avg_cost)

在上述模型配置完毕后,得到两个fluid.Program:fluid.default_startup_program() 与fluid.default_main_program() 配置完毕了。


小象学院Python编程从入门到实践的评论 (共 条)

分享到微博请遵守国家法律