找回密码
 立即注册
查看: 781|回复: 17

深度学习中的优化算法

[复制链接]
发表于 2021-8-25 07:15 | 显示全部楼层 |阅读模式
深度学习中的优化算法
发表于 2021-8-25 07:22 | 显示全部楼层
请问Adam有比较么?优化算法的差异有理论结果么?
发表于 2021-8-25 07:23 | 显示全部楼层
这篇文章还没有研究那么细致,Adam 或者其余算法后续会持续调研一下。
发表于 2021-8-25 07:32 | 显示全部楼层
研究这些可带劲了,能否用数学模式,计算基因DNA这些生命密码。
发表于 2021-8-25 07:35 | 显示全部楼层
这个估计要问生物学的同学了~~~
发表于 2021-8-25 07:35 | 显示全部楼层
请问AdaGrad中学习率的分母中,除了平滑项之后,根号内的内容,到底是之前各个时刻坐标的平方和呢,还是之前各个时刻梯度的平方和?如果这里所举例子鞍点不是在(0,0),感觉两者差距是很大的
发表于 2021-8-25 07:43 | 显示全部楼层
从原始的算法描述来看,根号内的内容应该就是历史上所有梯度的平方求和(平方和求和按照分量来分别计算)。
发表于 2021-8-25 07:44 | 显示全部楼层
有 No Free Lunch 定理
发表于 2021-8-25 07:51 | 显示全部楼层
你好,很好的文章,看的时候发现多元函数Taylor展开公式的写法容易让人误解,H(x)(x-x0)....
发表于 2021-8-25 07:55 | 显示全部楼层
又去看了一眼,好像是会让人产生误解,不过也没想到更好的写法。一般学过微积分或者数学分析的人,都明白这个在说的是什么。
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2024-9-23 07:30 , Processed in 0.068434 second(s), 22 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表