yukamu 发表于 2022-1-19 10:28

机器学习中的优化算法-----学习笔记

本文借鉴于https://zhuanlan.zhihu.com/p/42689565,自己再复述一遍增加理解。建议去阅读原文。
机器学习要求解的数学模型

几乎所有的机器学习算法最后都归结为求一个目标函数的极值,即最优化问题,例如对于有监督学习,我们要找到一个最佳的映射函数f(x),使得对训练样本的损失函数最小化(最小化经验风险或结构风险):

https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cmin+_w%7D%5Cfrac%7B1%7D%7BN%7D%5Csum%5Climits_%7Bi+%3D+1%7D%5EN+%7BL%5Cleft%28+%7Bw%2C%7Bx_i%7D%2C%7By_i%7D%7D+%5Cright%29%7D++%2B+%5Clambda+%5Cleft%5C%7C+w+%5Cright%5C%7C_2%5E2%5C%5D
其中, https://www.zhihu.com/equation?tex=N 为训练样本个数, https://www.zhihu.com/equation?tex=L 是对于单个样本的损失函数, https://www.zhihu.com/equation?tex=w 是要求解的参数模型,是样本的特征向量,是对应样本的标签值。
或者是找到一个最优的概率密度函数 https://www.zhihu.com/equation?tex=p%5Cleft%28+x+%5Cright%29 ,使得对训练样本的对数似然函数极大化(最大似然估计):

https://www.zhihu.com/equation?tex=%5C%5B%5Cmax+%5Csum%5Climits_%7Bi+%3D+1%7D%5EN+%7B%5Cln+p%5Cleft%28+%7B%7Bx_i%7D%3B%5Ctheta+%7D+%5Cright%29%7D+%5C%5D
其中, https://www.zhihu.com/equation?tex=%5Ctheta 是要求解的模型参数,是概率密度函数的参数。
对于无监督学习,以聚类算法为例,算法要使得每个类的样本离类中心的距离之和最小化:

https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cmin+_s%7D%5Csum%5Climits_%7Bi+%3D+1%7D%5Ek+%7B%5Csum%5Climits_%7Bx+%5Cin+%7BS_i%7D%7D+%7B%7B%7B%5Cleft%5C%7C+%7Bx+-+%7B%5Cmu+_i%7D%7D+%5Cright%5C%7C%7D%5E2%7D%7D+%7D+%5C%5D
其中, https://www.zhihu.com/equation?tex=k 为样本类型个数, https://www.zhihu.com/equation?tex=x 为样本向量, https://www.zhihu.com/equation?tex=%5Cmu_%7Bi%7D 为类中心向量, https://www.zhihu.com/equation?tex=S_%7Bi%7D 为第i个类的样本集合。
对于强化学习,我们要找到一个最优的策略,即状态s到动作a的映射函数(确定性策略,对于非确定性策略,是执行每个动作的概率):

https://www.zhihu.com/equation?tex=%5C%5Ba+%3D+%5Cpi+%5Cleft%28+s+%5Cright%29%5C%5D
使得任意给定一个状态,执行这个策略函数所确定的动作a之后,得到的累计回报最大化:
状态价值函数: https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cmax+_%5Cpi+%7D%7BV_%5Cpi+%7D%5Cleft%28+s+%5Cright%29%5C%5D
总体来看,机器学习的核心目标是给出一个模型(一般是映射函数),然后定义对这个模型好坏的评价函数(目标函数),求解目标函数的极大值或者极小值,以确定模型的参数,从而得到我们想要的模型。在这三个关键步骤中,前两个是机器学习要研究的问题,建立数学模型。第三个问题是纯数学问题,即最优化方法,为本文所讲述的核心。
最优化算法的分类

对于形式和特点各异的机器学习算法优化目标函数,我们找到了适合它们的各种求解算法。除了极少数问题可以用暴力搜索来得到最优解之外,我们将机器学习中使用的优化算法分成两种类型(不考虑随机优化算法如模拟退火、遗传算法等):

[*]公式解
[*]数值优化
前者给出一个最优化问题精确的公式解,也称为解析解,一般是理论结果。后者是在要给出极值点的精确计算公式非常困难的情况下,用数值计算方法近似求解得到最优点。除此之外,还有其他一些求解思想,如分治法,动态规划等。我们在后面单独列出。一个好的优化算法需要满足:

[*]能正确的找到各种情况下的极值点
[*]速度快
下图给出了这些算法的分类与它们之间的关系:


接下来我们将按照这张图来展开进行讲解。
费马定理

对于一个可导函数,寻找其极值的统一做法是寻找导数为0的点,即费马定理。微积分中的这一定理指出,对于可导函数,在极值点处导数必定为0:

https://www.zhihu.com/equation?tex=%5C%5Bf%27%5Cleft%28+x+%5Cright%29+%3D+0%5C%5D
对于多元函数,则是梯度为0:

https://www.zhihu.com/equation?tex=%5C%5B%5Cnabla+f%5Cleft%28+x+%5Cright%29+%3D+0%5C%5D
导数为0的点称为驻点。需要注意的是,导数为0只是函数取得极值的必要条件而不是充分条件,它只是疑似极值点。是不是极值,是极大值还是极小值,还需要看更高阶导数。对于一元函数,假设x是驻点:

[*]如果(x)>0,则在该点处去极小值
[*]如果(x)<0,则在该点处去极大值
[*]如果(x)=0,还要看更高阶导数
对于多元函数,假设x是驻点:

[*]如果Hessian矩阵正定,函数在该点有极小值
[*]如果Hessian矩阵负定,函数在该点有极大值
[*]如果Hessian矩阵不定,则不是极值点
在导数为0的点处,函数可能不取极值,这称为鞍点,下图是鞍点的一个例子(来自SIGAI云端实验室):


除鞍点外,最优化算法可能还会遇到另外一个问题:局部极值问题,即一个驻点是极值点,但不是全局极值。如果我们对最优化问题加以限定,可以有效的避免这两种问题。典型的是凸优化,它要求优化变量的可行域是凸集,目标函数是凸函数。关于凸优化的详细讲解可以阅读SIGAI之前的公众号文章“理解凸优化”。
虽然驻点只是函数取得极值的必要条件而不是充分条件,但如果我们找到了驻点,再判断和筛选它们是不是极值点,比之前要容易多了。无论是理论结果,还是数值优化算法,一般都以找驻点作为找极值点的目标。对于一元函数,先求导数,然后解导数为0的方程即可找到所有驻点。对于多元函数,对各个自变量求偏导数,令它们为0,解方程组,即可达到所有驻点。这都是微积分中所讲授的基础方法。幸运的是,在机器学习中,很多目标函数都是可导的,因此我们可以使用这套方法。
拉格朗日乘数法

费马定理给出的不带约束条件下的函数极值的必要条件。对于一些实际应用问题,一般还带有等式或者不等式约束条件。对于带等式约束的极值问题,经典的解决方案是拉格朗日乘数法。
对于如下问题:

https://www.zhihu.com/equation?tex=%5C%5B%5Cbegin%7Barray%7D%7Bl%7D+%5Cmin+f%5Cleft%28+x+%5Cright%29%5C%5C+%7Bh_i%7D%5Cleft%28+x+%5Cright%29+%3D+0%2Ci+%3D+1%2C...%2Cp+%5Cend%7Barray%7D%5C%5D
构造拉格朗日乘子函数:

https://www.zhihu.com/equation?tex=%5C%5BL%5Cleft%28+%7Bx%2C%5Clambda+%7D+%5Cright%29+%3D+f%5Cleft%28+x+%5Cright%29+%2B+%5Csum%5Climits_%7Bi+%3D+1%7D%5Ep+%7B%7B%5Clambda+_i%7D%7Bh_i%7D%5Cleft%28+x+%5Cright%29%7D+%5C%5D
在最优点处对x和乘子变量 https://www.zhihu.com/equation?tex=%5Clambda_%7Bi%7D 的导数都必须为0:

https://www.zhihu.com/equation?tex=%5C%5B%5Cbegin%7Barray%7D%7Bl%7D+%7B%5Cnabla+_x%7Df+%2B+%5Csum%5Climits_%7Bi+%3D+1%7D%5Ep+%7B%7B%5Clambda+_i%7D%7B%5Cnabla+_x%7D%7Bh_i%7D+%3D+0%7D+%5C%5C+%7Bh_i%7D%5Cleft%28+x+%5Cright%29+%3D+0+%5Cend%7Barray%7D%5C%5D
解这个方程即可得到最优解。对拉格朗日乘数法更详细的讲解可以阅读任何一本高等数学教材。机器学习中用到拉格朗日乘数法的地方有:

[*]主成分分析
[*]线性判别分析
[*]流形学习中的拉普拉斯特征映射
[*]隐马尔可夫模型
KKT条件

KKT条件是拉格朗日乘数法的推广,用于求解既带有等式约束,又带有不等式约束的函数极值。对于如下优化问题:

https://www.zhihu.com/equation?tex=%5C%5B%5Cbegin%7Barray%7D%7Bl%7D+%5Cmin+f%5Cleft%28+x+%5Cright%29%5C%5C+%7Bg_i%7D%5Cleft%28+x+%5Cright%29+%5Cle+0%5Cquad+i+%3D+1%2C...%2Cq%5C%5C+%7Bh_i%7D%5Cleft%28+x+%5Cright%29+%3D+0%5Cquad+i+%3D+1%2C...%2Cp+%5Cend%7Barray%7D%5C%5D
和拉格朗日对偶的做法类似,KKT条件构如下乘子函数:

https://www.zhihu.com/equation?tex=%5C%5BL%5Cleft%28+%7Bx%2C%5Clambda+%2C%5Cmu+%7D+%5Cright%29+%3D+f%5Cleft%28+x+%5Cright%29+%2B+%5Csum%5Climits_%7Bj+%3D+1%7D%5Ep+%7B%7B%5Clambda+_j%7D%7Bh_j%7D%7D+%5Cleft%28+x+%5Cright%29+%2B+%5Csum%5Climits_%7Bk+%3D+1%7D%5Eq+%7B%7B%5Cmu+_k%7D%7Bg_k%7D%5Cleft%28+x+%5Cright%29%7D+%5C%5D

和称为KKT乘子。在最优处 https://www.zhihu.com/equation?tex=x%5E%7B%2A%7D 应该满足如下条件:

https://www.zhihu.com/equation?tex=%5C%5B%5Cbegin%7Barray%7D%7Bl%7D+%7B%5Cnabla+_x%7DL%5Cleft%28+%7B%7Bx%5E%2A%7D%7D+%5Cright%29+%3D+0%5C%5C+%7B%5Cmu+_k%7D+%5Cge+0%5C%5C+%7B%5Cmu+_k%7D%7Bg_k%7D%5Cleft%28+%7B%7Bx%5E%2A%7D%7D+%5Cright%29+%3D+0%5C%5C+%7Bh_j%7D%5Cleft%28+%7B%7Bx%5E%2A%7D%7D+%5Cright%29+%3D+0%5C%5C+%7Bg_k%7D%5Cleft%28+%7B%7Bx%5E%2A%7D%7D+%5Cright%29+%5Cle+0+%5Cend%7Barray%7D%5C%5D
等式约束 https://www.zhihu.com/equation?tex=%5C%5B%7Bh_j%7D%5Cleft%28+%7B%7Bx%5E%2A%7D%7D+%5Cright%29+%3D+0%5C%5D 和不等式约束 https://www.zhihu.com/equation?tex=%5C%5B%7Bg_k%7D%5Cleft%28+%7B%7Bx%5E%2A%7D%7D+%5Cright%29+%5Cle+0%5C%5D 是本身应该满足的约束, https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cnabla+_x%7DL%5Cleft%28+%7B%7Bx%5E%2A%7D%7D+%5Cright%29+%3D+0%5C%5D 和之前的拉格朗日乘数法一样。唯一多了关于 https://www.zhihu.com/equation?tex=%5C%5B%7Bg_i%7D%5Cleft%28+%7B%7Bx%7D%7D+%5Cright%29%5C%5D 的条件:

https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cmu+_k%7D%7Bg_k%7D%5Cleft%28+%7B%7Bx%5E%2A%7D%7D+%5Cright%29+%3D+0%5C%5D
KKT条件只是取得极值的必要条件而不是充分条件。在机器学习中用到KKT条件的地方有:
支持向量机(SVM)
具体的推导可以阅读SIGAI之前的公众号文章“用一张图理解SVM的脉络”。
数值优化算法

前面讲述的三种方法在理论推导、某些可以得到方程组的求根公式的情况(如线性函数,正态分布的最大似然估计)中可以使用,但对绝大多数函数来说,梯度等于0的方程组是没法直接解出来的,如方程里面含有指数函数、对数函数之类的超越函数。对于这种无法直接求解的方程组,我们只能采用近似的算法来求解,即数值优化算法。这些数值优化算法一般都利用了目标函数的导数信息,如一阶导数和二阶导数。如果采用一阶导数,则称为一阶优化算法。如果使用了二阶导数,则称为二阶优化算法。
工程上实现时通常采用的是迭代法,它从一个初始点https://www.zhihu.com/equation?tex=x_%7B0%7D开始,反复使用某种规则从移动到下一个点,构造这样一个数列,直到收敛到梯度为0的点处。即有下面的极限成立:

https://www.zhihu.com/equation?tex=%5C%5B%5Cmathop+%7B%5Clim+%7D%5Climits_%7Bk+%5Cto+%5Cinfty+%7D+%5Cnabla+f%5Cleft%28+%7B%7Bx_k%7D%7D+%5Cright%29+%3D+0%5C%5D
这些规则一般会利用一阶导数信息即梯度;或者二阶导数信息即Hessian矩阵。这样迭代法的核心是得到这样的由上一个点确定下一个点的迭代公式:

https://www.zhihu.com/equation?tex=%5C%5B%7Bx_%7Bk+%2B+1%7D%7D+%3D+h%5Cleft%28+%7B%7Bx_k%7D%7D+%5Cright%29%5C%5D
梯度下降法

梯度下降法沿着梯度的反方向进行搜索,利用了函数的一阶导数信息。梯度下降法的迭代公式为:

https://www.zhihu.com/equation?tex=%5C%5B%7Bx_%7Bk+%2B+1%7D%7D+%3D+%7Bx_k%7D+-+%5Cgamma+%5Cnabla+f%5Cleft%28+%7B%7Bx_k%7D%7D+%5Cright%29%5C%5D
根据函数的一阶泰勒展开,在负梯度方向,函数值是下降的。只要学习率https://www.zhihu.com/equation?tex=%5Cgamma设置的足够小,并且没有到达梯度为0的点处,每次迭代时函数值一定会下降。需要设置学习率为一个非常小的正数的原因是要保证迭代之后的位于迭代之前的值的邻域内,从而可以忽略泰勒展开中的高次项,保证迭代时函数值下降。
在机器学习中我们常用到的梯度下降法包括随机梯度下降法、miniBatch梯度下降法等。
动量项

为了加快梯度下降法的收敛速度,减少震荡,引入了动量项。动量项累积了之前迭代时的梯度值,加上此项之后的参数更新公式为:

https://www.zhihu.com/equation?tex=%5C%5B%7BW_%7Bt+%2B+1%7D%7D+%3D+%7BW_t%7D+%2B+%7BV_%7Bt+%2B+1%7D%7D%5C%5D
其中, https://www.zhihu.com/equation?tex=%5C%5B%7BV_%7Bt+%2B+1%7D%7D%5C%5D 是动量项,它取代了之前的梯度项。动量项的计算公式为:

https://www.zhihu.com/equation?tex=%5C%5B%7BV_%7Bt+%2B+1%7D%7D+%3D++-+%5Calpha+%7B%5Cnabla+_W%7DL%5Cleft%28+%7B%7BW_t%7D%7D+%5Cright%29+%2B+%5Cmu+%7BV_t%7D%5C%5D
它是上一时刻的动量项与本次梯度值的加权平均值,其中是学习率,是动量项系数。如果按照时间t进行展开,则第t次迭代时使用了从1到t次迭代时的所有梯度值,且老的梯度值安https://www.zhihu.com/equation?tex=%5Cmu%5E%7Bt%7D的系数指数级衰减:

https://www.zhihu.com/equation?tex=%5C%5B%5Cbegin%7Barray%7D%7Bl%7D+%7BV_%7Bt+%2B+1%7D%7D+%3D++-+%5Calpha+%7B%5Cnabla+_W%7DL%5Cleft%28+%7B%7BW_t%7D%7D+%5Cright%29+%2B+%5Cmu+%7BV_t%7D%5C%5C+%5Cqquad+%3D++-+%5Calpha+%7B%5Cnabla+_W%7DL%5Cleft%28+%7B%7BW_t%7D%7D+%5Cright%29+%2B+%5Cmu+%5Cleft%28+%7B+-+%5Calpha+%7B%5Cnabla+_W%7DL%5Cleft%28+%7B%7BW_%7Bt+-+1%7D%7D%7D+%5Cright%29+%2B+%5Cmu+%7BV_%7Bt+-+1%7D%7D%7D+%5Cright%29%5C%5C+%5Cqquad+%3D++-+%5Calpha+%7B%5Cnabla+_W%7DL%5Cleft%28+%7B%7BW_t%7D%7D+%5Cright%29+-+%5Calpha+%5Cmu+%7B%5Cnabla+_W%7DL%5Cleft%28+%7B%7BW_%7Bt+-+1%7D%7D%7D+%5Cright%29+%2B+%5Calpha+%7B%5Cmu+%5E2%7D%7B%5Cnabla+_W%7DL%5Cleft%28+%7B%7BW_%7Bt+-+2%7D%7D%7D+%5Cright%29+%2B+...+%5Cend%7Barray%7D%5C%5D
动量项累积了之前迭代时的梯度值,使得本次迭代时沿着之前的惯性方向向前走。
AdaGrad算法

AdaGrad算法是梯度下降法最直接的改进。梯度下降法依赖于人工设定的学习率,如果设置过小,收敛太慢,而如果设置太大,可能导致算法那不收敛,为这个学习率设置一个合适的值非常困难。
daGrad算法根据前几轮迭代时的历史梯度值动态调整学习率,且优化变量向量x的每一个分量都有自己的学习率。参数更新公式为:

https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cleft%28+%7B%7Bx_%7Bt+%2B+%7B%5Crm%7B1%7D%7D%7D%7D%7D+%5Cright%29_i%7D+%3D+%7B%5Cleft%28+%7B%7Bx_t%7D%7D+%5Cright%29_i%7D+-+%5Calpha+%5Cfrac%7B%7B%7B%7B%5Cleft%28+%7B%7Bg_t%7D%7D+%5Cright%29%7D_i%7D%7D%7D%7B%7B%5Csqrt+%7B%5Csum%5Climits_%7Bj+%3D+1%7D%5Et+%7B%7B%7B%5Cleft%28+%7B%7B%7B%5Cleft%28+%7B%7Bg_j%7D%7D+%5Cright%29%7D_i%7D%7D+%5Cright%29%7D%5E2%7D+%2B+%5Cvarepsilon+%7D+%7D+%7D%7D%5C%5D
其中是学习因子,是第t次迭代时参数的梯度向量,https://www.zhihu.com/equation?tex=%5Cxi是一个很小的正数,为了避免除0操作,下标i表示向量的分量。和标准梯度下降法唯一不同的是多了分母中的这一项,它累积了到本次迭代为止梯度的历史值信息用于生成梯度下降的系数值。根据上式,历史导数值的绝对值越大分量学习率越小,反之越大。虽然实现了自适应学习率,但这种算法还是存在问题:需要人工设置一个全局的学习率,随着时间的累积,上式中的分母会越来越大,导致学习率趋向于0,参数无法有效更新。
RMSProp算法

RMSProp算法是对AdaGrad的改进,避免了长期累积梯度值所导致的学习率趋向于0的问题。具体做法是由梯度值构造一个向量RMS,初始化为0,按照衰减系数累积了历史的梯度平方值。更新公式为:

https://www.zhihu.com/equation?tex=%5C%5BRMS%5Cleft%28+%7B%7B%7B%5Cleft%28+%7B%7Bx_t%7D%7D+%5Cright%29%7D_i%7D%7D+%5Cright%29+%3D+%5Cdelta+RMS%5Cleft%28+%7B%7B%7B%5Cleft%28+%7B%7Bx_%7Bt+-+1%7D%7D%7D+%5Cright%29%7D_i%7D%7D+%5Cright%29+%2B+%5Cleft%28+%7B1+-+%5Cdelta+%7D+%5Cright%29%5Cleft%28+%7B%7Bg_t%7D%7D+%5Cright%29_i%5E2%5C%5D
AdaGrad直接累加所有历史梯度的平方和,而这里将历史梯度平方值按照https://www.zhihu.com/equation?tex=%5Cdelta%5E%7Bt%7D衰减之后再累加。参数更新公式为:

https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cleft%28+%7B%7Bx_%7Bt+%2B+1%7D%7D%7D+%5Cright%29_i%7D+%3D+%7B%5Cleft%28+%7B%7Bx_t%7D%7D+%5Cright%29_i%7D+-+%5Calpha+%5Cfrac%7B%7B%7B%7B%5Cleft%28+%7B%7Bg_t%7D%7D+%5Cright%29%7D_i%7D%7D%7D%7B%7B%5Csqrt+%7BRMS%5Cleft%28+%7B%7B%7B%5Cleft%28+%7B%7Bx_t%7D%7D+%5Cright%29%7D_i%7D%7D+%5Cright%29%7D+%7D%7D%5C%5D
其中https://www.zhihu.com/equation?tex=%5Cdelta是人工设定的参数,与AdaGrad一样,这里也需要人工指定的全局学习率。
AdaDelta算法

AdaDelta算法也是对AdaGrad的改进,避免了长期累积梯度值所导致的学习率趋向于0的问题,另外,还去掉了对人工设置的全局学习率的依赖。假设要优化的参数为x,梯度下降法第t次迭代时计算出来的参数梯度值为。算法首先初始化如下两个向量为0向量:

https://www.zhihu.com/equation?tex=%5C%5B%5Cbegin%7Barray%7D%7Bl%7D+E%7B%5Cleft%5B+%7B%7Bg%5E2%7D%7D+%5Cright%5D_0%7D+%3D+0%5C%5C+E%7B%5Cleft%5B+%7B%5CDelta+%7Bx%5E2%7D%7D+%5Cright%5D_0%7D+%3D+0+%5Cend%7Barray%7D%5C%5D
其中 https://www.zhihu.com/equation?tex=%5C%5BE%5Cleft%5B+%7B%7Bg%5E2%7D%7D+%5Cright%5D%5C%5D 是梯度平法(对每个分量分别平分)的累计值,更新公式为:

https://www.zhihu.com/equation?tex=%5C%5BE%7B%5Cleft%5B+%7B%7Bg%5E2%7D%7D+%5Cright%5D_t%7D+%3D+%5Crho+EE%7B%5Cleft%5B+%7B%7Bg%5E2%7D%7D+%5Cright%5D_%7Bt+-+1%7D%7D+%2B+%5Cleft%28+%7B1+-+%5Crho+%7D+%5Cright%29g_t%5E2%5C%5D
在这里https://www.zhihu.com/equation?tex=g%5E%7B2%7D是向量每个元素分别计算平方,后面所有的计算公式都是对向量的每个分量进行。接下来计算如下RMS量:

https://www.zhihu.com/equation?tex=%5C%5BRMS%7B%5Cleft%5B+g+%5Cright%5D_t%7D+%3D+%5Csqrt+%7BE%7B%7B%5Cleft%5B+%7B%7Bg%5E2%7D%7D+%5Cright%5D%7D_t%7D+%2B+%5Cvarepsilon+%7D+%5C%5D
这也是一个向量,计算时分别对向量的每个分量进行。然后计算参数的更新值:

https://www.zhihu.com/equation?tex=%5C%5B%5CDelta+%7Bx_t%7D+%3D++-+%5Cfrac%7B%7BRMS%7B%7B%5Cleft%5B+%7B%5CDelta+x%7D+%5Cright%5D%7D_%7Bt+-+1%7D%7D%7D%7D%7B%7BRMS%7B%7B%5Cleft%5B+g+%5Cright%5D%7D_t%7D%7D%7D%7Bg_t%7D%5C%5D
RMShttps://www.zhihu.com/equation?tex=%5B%E2%96%B3x%5D_%7Bt-1%7D的计算公式和这个类似。这个更新值同样通过梯度来构造,只不过学习率是通过梯度的历史值确定的。更新公式为:

https://www.zhihu.com/equation?tex=%5C%5BE%7B%5Cleft%5B+%7B%5CDelta+%7Bx%5E2%7D%7D+%5Cright%5D_t%7D+%3D+%5Crho+E%7B%5Cleft%5B+%7B%5CDelta+%7Bx%5E2%7D%7D+%5Cright%5D_%7Bt+-+1%7D%7D+%2B+%5Cleft%28+%7B1+-+%5Cbeta+%7D+%5Cright%29%5CDelta+x_t%5E2%5C%5D
参数更新的迭代公式为:

https://www.zhihu.com/equation?tex=%5C%5B%7Bx_%7Bt+%2B+1%7D%7D+%3D+%7Bx_t%7D+%2B+%5CDelta+%7Bx_t%7D%5C%5D
Adam算法

Adam算法整合了自适应学习率与动量项。算法用梯度构造了两个向量m和v,前者为动量项,后者累积了梯度的平方和,用于构造自适应学习率。它们的初始值为0,更新公式为:

https://www.zhihu.com/equation?tex=%5C%5B%5Cbegin%7Barray%7D%7Bl%7D+%7B%5Cleft%28+%7B%7Bm_t%7D%7D+%5Cright%29_i%7D+%3D+%7B%5Cbeta+_1%7D%7B%5Cleft%28+%7B%7Bm_%7Bt+-+1%7D%7D%7D+%5Cright%29_i%7D+%2B+%5Cleft%28+%7B1+-+%7B%5Cbeta+_1%7D%7D+%5Cright%29%7B%5Cleft%28+%7B%7Bg_t%7D%7D+%5Cright%29_i%7D%5C%5C+%7B%5Cleft%28+%7B%7Bv_t%7D%7D+%5Cright%29_i%7D+%3D+%7B%5Cbeta+_2%7D%7B%5Cleft%28+%7B%7Bv_%7Bt+-+1%7D%7D%7D+%5Cright%29_i%7D+%2B+%5Cleft%28+%7B1+-+%7B%5Cbeta+_2%7D%7D+%5Cright%29%5Cleft%28+%7B%7Bg_t%7D%7D+%5Cright%29_i%5E2+%5Cend%7Barray%7D%5C%5D
其中https://www.zhihu.com/equation?tex=%5Cbeta_%7B1%7D,https://www.zhihu.com/equation?tex=%5Cbeta_%7B2%7D是人工指定的参数,i为向量的分量下标。依靠这两个值构造参数的更新值,参数的更新公式为:

https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cleft%28+%7B%7Bx_%7Bt+%2B+1%7D%7D%7D+%5Cright%29_i%7D+%3D+%7B%5Cleft%28+%7B%7Bx_t%7D%7D+%5Cright%29_i%7D+-+%5Calpha+%5Cfrac%7B%7B%5Csqrt+%7B1+-+%5Cleft%28+%7B%7B%5Cbeta+_2%7D%7D+%5Cright%29_i%5Et%7D+%7D%7D%7B%7B1+-+%5Cleft%28+%7B%7B%5Cbeta+_1%7D%7D+%5Cright%29_i%5Et%7D%7D%5Cfrac%7B%7B%7B%7B%5Cleft%28+%7B%7Bm_t%7D%7D+%5Cright%29%7D_i%7D%7D%7D%7B%7B%5Csqrt+%7B%7B%7B%5Cleft%28+%7B%7Bv_t%7D%7D+%5Cright%29%7D_i%7D%7D++%2B+%5Cvarepsilon+%7D%7D%5C%5D
在这里,m类似于动量项,用v来构造学习率。
随机梯度下降法

假设训练样本集有N个样本,有监督学习算法训练时优化的目标是这个数据集上的平均损失函数:

https://www.zhihu.com/equation?tex=%5C%5BL%5Cleft%28+w+%5Cright%29+%3D+%5Cfrac%7B1%7D%7BN%7D%5Csum%5Climits_%7Bi+%3D+1%7D%5EN+%7BL%5Cleft%28+%7Bw%2C%7Bx_i%7D%2C%7By_i%7D%7D+%5Cright%29+%2B+%5Clambda+r%5Cleft%28+w+%5Cright%29%7D+%5C%5D
其中 https://www.zhihu.com/equation?tex=%5C%5B%7BL%5Cleft%28+%7Bw%2C%7Bx_i%7D%2C%7By_i%7D%7D+%5Cright%29%7D%5C%5D 是对单个训练样本(,)的损失函数,w是需要学习的参数,r(w)是正则化项,是正则化项的权重。在训练样本数很大时,如果训练时每次迭代都用所有样本,计算成本太高,作为改进可以在每次迭代时选取一批样本,将损失函数定义在这些样本上。
批量随机梯度下降法在每次迭代中使用上面目标函数的随机逼近值,即只使用 https://www.zhihu.com/equation?tex=%5C%5BW+%5Cll+N%5C%5D 个随机选择的样本来近似计算损失函数。在每次迭代时要优化的目标函数变为:

https://www.zhihu.com/equation?tex=%5C%5BL%5Cleft%28+w+%5Cright%29+%5Capprox+%5Cfrac%7B1%7D%7BM%7D%5Csum%5Climits_%7Bi+%3D+1%7D%5EN+%7BL%5Cleft%28+%7Bw%2C%7Bx_i%7D%2C%7By_i%7D%7D+%5Cright%29+%2B+%5Clambda+r%5Cleft%28+w+%5Cright%29%7D+%5C%5D
随机梯度下降法在概率意义下收敛。
牛顿法

牛顿法是二阶优化技术,利用了函数的一阶和二阶导数信息,直接寻找梯度为0的点。牛顿法的迭代公式为:

https://www.zhihu.com/equation?tex=%5C%5B%7Bx_%7Bk+%2B+1%7D%7D+%3D+%7Bx_k%7D+-+%5Cgamma+H_k%5E%7B+-+1%7D%7Bg_k%7D%5C%5D
其中H为Hessian矩阵,g为梯度向量。牛顿法不能保证每次迭代时函数值下降,也不能保证收敛到极小值点。在实现时,也需要设置学习率,原因和梯度下降法相同,是为了能够忽略泰勒展开中的高阶项。学习率的设置通常采用直线搜索(line search)技术。
在实现时,一般不直接求Hessian矩阵的逆矩阵,而是求解下面的线性方程组:

https://www.zhihu.com/equation?tex=%5C%5B%7BH_k%7Dd+%3D++-+%7Bg_k%7D%5C%5D
其解d称为牛顿方向。迭代终止的判定依据是梯度值充分接近于0,或者达到最大指定迭代次数。
牛顿法比梯度下降法有更快的收敛速度,但每次迭代时需要计算Hessian矩阵,并求解一个线性方程组,运算量大。另外,如果Hessian矩阵不可逆,则这种方法失效。对牛顿法更全面的介绍可以阅读SIGAI之前的公众号文章“理解牛顿法”。
牛顿法在logistic回归,AdaBoost算法等机器学习算法中有实际应用。
拟牛顿法

牛顿法在每次迭代时需要计算出Hessian矩阵,并且求解一个以该矩阵为系数矩阵的线性方程组,Hessian矩阵可能不可逆。为此提出了一些改进的方法,典型的代表是拟牛顿法。拟牛顿法的思路是不计算目标函数的Hessian矩阵然后求逆矩阵,而是通过其他手段得到一个近似Hessian矩阵逆的矩阵。具体做法是构造一个近似Hessian矩阵或其逆矩阵的正定对称矩阵,用该矩阵进行牛顿法的迭代。
通过构造目标函数,指定优化算法的参数与初始化迭代值,可以可视化的显示出算法的运行过程,并对不同参数时的求解结果进行比较。



可信域牛顿法

标准牛顿法可能不会收敛到一个最优解,也不能保证函数值会按照迭代序列递减。解决这个问题可以通过调整牛顿方向的步长来实现,目前常用的方法有两种:直线搜索和可信区域法。可信域牛顿法是截断牛顿法的一个变种,用于求解带界限约束的最优化问题。在可信域牛顿法的每一步迭代中,有一个迭代序列https://www.zhihu.com/equation?tex=x%5E%7Bk%7D,一个可信域的大小,以及一个二次目标函数:

https://www.zhihu.com/equation?tex=%5C%5B%7Bq_k%7D%5Cleft%28+s+%5Cright%29+%3D+%7B%5Cleft%28+%7B%5Cnabla+f%5Cleft%28+%7B%7Bx%5Ek%7D%7D+%5Cright%29%7D+%5Cright%29%5ET%7Ds+%2B+%5Cfrac%7B1%7D%7B2%7D%7Bs%5ET%7D%7B%5Cnabla+%5E2%7Df%5Cleft%28+%7B%7Bx%5Ek%7D%7D+%5Cright%29s%5C%5D
的近似。算法寻找一个https://www.zhihu.com/equation?tex=s%5E%7Bk%7D,在满足约束条件 https://www.zhihu.com/equation?tex=%5C%5B%5Cleft%5C%7C+s+%5Cright%5C%7C+%5Cle+%7B%5CDelta+_k%7D%5C%5D 下近似最小化https://www.zhihu.com/equation?tex=q_%7Bk%7D(s)。接下来检查如下比值以更新https://www.zhihu.com/equation?tex=w%5E%7Bk%7D和:

https://www.zhihu.com/equation?tex=%5C%5B%7B%5Crho+_k%7D+%3D+%5Cfrac%7B%7Bf%5Cleft%28+%7B%7Bw%5Ek%7D+%2B+%7Bs%5Ek%7D%7D+%5Cright%29+-+f%5Cleft%28+%7B%7Bw%5Ek%7D%7D+%5Cright%29%7D%7D%7B%7B%7Bq_k%7D%5Cleft%28+%7B%7Bs%5Ek%7D%7D+%5Cright%29%7D%7D%5C%5D
是函数值的实际减少量和二次近似模型预测方向导致的函数减少量的比值。根据之前的计算结果,再动态调整可信域的大小。
可信域牛顿法在logistic回归,线性支持向量的求解时有实际的应用,具体可以阅读liblinear开源库。
分治法

分治法是一种算法设计思想,它将一个大的问题分解成子问题进行求解。根据子问题解构造出整个问题的解。在最优化方法中,具体做法是每次迭代时只调整优化向量x的一部分分量,其他的分量固定住不动。
坐标下降法

坐标下降法的基本思想是每次对一个变量进行优化,这是一种分治法。假设要求解的优化问题为;

https://www.zhihu.com/equation?tex=%5C%5B%5Cmin+f%5Cleft%28+x+%5Cright%29%2Cx+%3D+%7B%5Cleft%28+%7B%7Bx_1%7D%2C%7Bx_2%7D%2C...%2C%7Bx_n%7D%7D+%5Cright%29%5ET%7D%5C%5D
坐标下降法求解流程为每次选择一个分量进行优化,将其他分量固定住不动,这样将一个多元函数的极值问题转换为一元函数的极值问题。如果要求解的问题规模很大,这种做法能有效的加快速度。
坐标下降法在logistic回归,线性支持向量的求解时有实际的应用,具体可以阅读liblinear开源库。
SMO算法

SMO算法也是一种分治法,用于求解支持向量机的对偶问题。加上松弛变量和核函数后的对偶问题为:

https://www.zhihu.com/equation?tex=%5C%5B%5Cbegin%7Barray%7D%7Bl%7D+%7B%5Cmin+_%5Calpha+%7D%5Cfrac%7B1%7D%7B2%7D%7B%5Calpha+%5ET%7DQ%5Calpha++-+%7Be%5ET%7D%5Calpha+%5C%5C+%7By%5ET%7D%5Calpha++%3D+0%5C%5C+0+%5Cle+%7B%5Calpha+_i%7D+%5Cle+C%2Ci+%3D+1%2C...%2Cl+%5Cend%7Barray%7D%5C%5D
SMO算法的核心思想是每次在优化变量中挑出两个分量和进行优化,让其他分量固定,这样能保证满足等式约束条件。之所以要选择两个变量进行优化而不是选择一个变量,是因为这里有等式约束,如果只调整一个变量的值,将会破坏等式约束。
假设选取的两个分量为和,其他分量都固定即当成常数。对这两个变量的目标函数是一个二元二次函数。这个问题还带有等式和不等式约束条件。对这个子问题可以直接求得公式解,就是某一区间内的一元二次函数的极值。
分阶段优化

分阶段优化的做法是在每次迭代时,先固定住优化变量x一部分分量a不动,对另外一部分变量b进行优化;然后再固定住b不动,对b进行优化。如此反复,直至收敛到最优解处。
AdaBoost算法是这种方法的典型代表。AdaBoost算法在训练时采用了指数损失函数:

https://www.zhihu.com/equation?tex=%5C%5BL%5Cleft%28+%7By%2CF%5Cleft%28+x+%5Cright%29%7D+%5Cright%29+%3D+%5Cexp+%5Cleft%28+%7B+-+yF%5Cleft%28+x+%5Cright%29%7D+%5Cright%29%5C%5D
由于强分类器是多个弱分类器的加权和,代入上面的损失函数中,得到算法训练时要优化的目标函数为:

https://www.zhihu.com/equation?tex=%5C%5B%5Cleft%28+%7B%7B%5Cbeta+_j%7D%2C%7Bf_j%7D%7D+%5Cright%29+%3D+%5Carg+%7B%5Cmin+_%7B%5Cbeta+%2Cf%7D%7D%5Csum%5Climits_%7Bi+%3D+1%7D%5El+%7B%5Cexp+%5Cleft%28+%7B+-+%7By_i%7D%7D+%5Cright%29%5Cleft%28+%7B%7BF_%7Bj+-+1%7D%7D%5Cleft%28+%7B%7Bx_i%7D%7D+%5Cright%29+%2B+%5Cbeta+f%5Cleft%28+%7B%7Bx_i%7D%7D+%5Cright%29%7D+%5Cright%29%7D+%5C%5D
这里将指数损伤函数拆成了两部分,已有的强分类器 https://www.zhihu.com/equation?tex=F_%7Bj-1%7D ,以及当前弱分类器f对训练样本的损失函数,前者在之前的迭代中已经求出,因此可以看成常数。这样目标函数可以简化为:

https://www.zhihu.com/equation?tex=%5C%5B%7B%5Cmin+_%7B%5Cbeta+%2Cf%7D%7D%5Csum%5Climits_%7Bi+%3D+1%7D%5El+%7Bw_i%5E%7Bj+-+1%7D%5Cexp+%5Cleft%28+%7B+-+%5Cbeta+%7By_i%7Df%5Cleft%28+%7B%7Bx_i%7D%7D+%5Cright%29%7D+%5Cright%29%7D+%5C%5D
其中:

https://www.zhihu.com/equation?tex=%5C%5Bw_i%5E%7Bj+-+1%7D+%3D+%5Cexp+%5Cleft%28+%7B+-+%7By_i%7D%7BF_%7Bj+-+1%7D%7D%5Cleft%28+%7B%7Bx_i%7D%7D+%5Cright%29%7D+%5Cright%29%5C%5D
这个问题可以分两步求解,首先将弱分类器权重看成常数,得到最优的弱分类器f。得到弱分类器之后,再优化它的权重系数。
动态规划算法

动态规划也是一种求解思想,它将一个问题分解成子问题求解,如果整个问题的某个解是最优的,则这个解的任意一部分也是子问题的最优解。这样通过求解子问题,得到最优解,逐步扩展,最后得到整个问题的最优解。
隐马尔可夫模型的解码算法(维特比算法),强化学习中的动态规划算法是这类方法的典型代表,此类算法一般是离散变量的优化,而且是组合优化问题。前面讲述的基于导数的优化算法都无法使用。动态规划算法能高效的求解此类问题,其基础是贝尔曼最优化原理。一旦写成了递归形式的最优化方程,就可以构造算法进行求解。
页: [1]
查看完整版本: 机器学习中的优化算法-----学习笔记