找回密码
 立即注册
查看: 736|回复: 12

Deep Learning 最优化方法之AdaGrad

[复制链接]
发表于 2021-12-3 13:40 | 显示全部楼层 |阅读模式
总括

首先我们来看一下AdaGrad算法


我们可以看出该优化算法与普通的sgd算法差别就在于标黄的哪部分,采取了累积平方梯度。
简单来讲,设置全局学习率之后,每次通过,全局学习率逐参数的除以历史梯度平方和的平方根,使得每个参数的学习率不同

作用

那么它起到的作用是什么呢?
起到的效果是在参数空间更为平缓的方向,会取得更大的进步(因为平缓,所以历史梯度平方和较小,对应学习下降的幅度较小),并且能够使得陡峭的方向变得平缓,从而加快训练速度。
下面通过例子讲解一下:
假设我们现在采用的优化算法是最普通的梯度下降法mini-batch。它的移动方向如下面蓝色所示:


假设我们现在就只有两个参数w,b,我们从图中可以看到在b方向走的比较陡峭,这影响了优化速度。
而我们采取AdaGrad算法之后,我们在算法中使用了累积平方梯度r=:r + g.g。
从上图可以看出在b方向上的梯度g要大于在w方向上的梯度。
那么在下次计算更新的时候,r是作为分母出现的,越大的反而更新越小,越小的值反而更新越大,那么后面的更新则会像下面绿色线更新一样,明显就会好于蓝色更新曲线。


在参数空间更为平缓的方向,会取得更大的进步(因为平缓,所以历史梯度平方和较小,对应学习下降的幅度较小),并且能够使得陡峭的方向变得平缓,从而加快训练速度。
这就是AdaGrad优化算法的直观好处。
参考:Deep Learning 最优化方法之AdaGrad
吴恩达老师DeepLearning.ai课程slides

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2021-12-3 13:48 | 显示全部楼层
请问一下为什么adagrad适合于稀疏数据呢?
发表于 2021-12-3 13:49 | 显示全部楼层
这个不知道
发表于 2021-12-3 13:59 | 显示全部楼层
很直观,感谢!!!
发表于 2021-12-3 14:08 | 显示全部楼层
很开心对你有帮助~
发表于 2021-12-3 14:10 | 显示全部楼层
AdaGrad Diagonal Version(也即常用的AdaGrad)对于稀疏数据有较好的理论保障: regret bound中与数据维度d的依赖要远优于SGD。AdaGrad的期刊版本论文为JMLR11-Adaptive Subgradient Methods for Online Learning and Stochastic Optimization,其中有具体的分析。
发表于 2021-12-3 14:15 | 显示全部楼层
赞 谢谢 很有帮助
发表于 2021-12-3 14:18 | 显示全部楼层
不客气~
发表于 2021-12-3 14:23 | 显示全部楼层
缺点是由于是累积平方梯度,导致学习率过快接近0
发表于 2021-12-3 14:28 | 显示全部楼层
用adam就完美解决了,融合momentum和adagrad
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2024-9-23 02:33 , Processed in 0.096405 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表