机器学习中的优化算法(1)-优化算法重要性,SGD,Momentum ...
本系列文章已转至优化算法在机器学习中扮演着至关重要的角色,了解常用的优化算法对于机器学习爱好者和从业者有着重要的意义。
这系列文章先讲述优化算法和机器学习的关系,然后罗列优化算法分类,尤其是机器学习中常用的几类.接下来明确下数学符号,开始按照历史和逻辑顺序,依次介绍各种机器学习中常用的优化算法.
这篇先讲其中基于一阶导数的标准梯度下降法和Momentum,其中穿插学习率退火方法和基于二阶导数的优化算法来辅助说明各算法的意义和背后的想法.
优化算法和机器学习的关系
机器学习的过程往往是
[*]建模实际问题,定义损失函数
[*]代入训练数据,利用优化算法来优化损失函数并更新参数,直到终止条件(比如迭代数或者更新的收益或者损失函数的大小)
可见优化算法和损失函数在机器学习中占有重要的地位.
损失函数比较的一个例子请参看
优化算法分类
优化算法有很多种,常见的包括
[*]基于导数的,比如基于一阶导数的梯度下降法(GD, Grandient Descent)和基于二阶导数的牛顿法等,要求损失函数(运筹学中更多叫做目标函数)可导
[*]群体方法(population method),比如遗传算法(Genetic Algo)和蚁群算法(Ant Colony Optimization),不依赖于问题(problem-independent),不需要对目标函数结构有太多的了解
[*]单体方法(single-state method),比如模拟退火算法(Simulated Annealing),同样,不依赖于问题(problem-independent),不需要对目标函数结构有太多的了解
等.
机器学习中常用的是基于导数,尤其是基于一阶导数的优化算法,包括
[*]标准梯度下降法(GD, standard Gradient Descent)
[*]带有momentum的GD
[*]RMSProp (Root Mean Square Propagation)
[*]AdaM (Adaptive Moment estimates)
[*]AdaGrad (Adaptive Gradient Algo)
[*]AdaDelta
符号规定
在具体解释前先规定下符号
[*]损失函数为 https://www.zhihu.com/equation?tex=L%28x%29 (很多地方也会写作 https://www.zhihu.com/equation?tex=J%28x%29 )
[*]梯度为 https://www.zhihu.com/equation?tex=g%28x%29+%3D+%5Cfrac%7B%5Cpartial+L%28x%29%7D%7B%5Cpartial+x%7D
[*] 表示第t次迭代的梯度,
[*]第t次迭代时, https://www.zhihu.com/equation?tex=x_%7Bt%2B1%7D+%3D+x_t+%2B+%5CDelta+x_t
[*]学习率为
[*]https://www.zhihu.com/equation?tex=o%28f%28x%29%29 表示的高阶无穷小,也就是当无限接近0时, https://www.zhihu.com/equation?tex=g%28x%29+%3D+o%28f%28x%29%29%2C+%5Clim_%7Bf%28x%29%5Cto0%7D+%5Cfrac%7Bg%28x%29%7D%7Bf%28x%29%7D+%3D+0 ,比如 https://www.zhihu.com/equation?tex=x%5E2 就是的高阶无穷小
标准梯度下降法(GD, standard Gradient Descent)
每次迭代的更新为
https://www.zhihu.com/equation?tex=%5CDelta+x_t+%3D++-+%5Ceta%2A+g_t
其中表示第t次迭代的梯度,为人工预先设定的学习率(learning rate).
图1
标准GD的想法来源于一阶泰勒展开
https://www.zhihu.com/equation?tex=f%28x_1%29+%3D+f%28x_0%29+%2B+f%27%28x%29%7C_%7Bx%3Dx_0%7D+%2A+%28x_1+-+x_0%29+%2B+o%28x_1-x_0%29
其中 https://www.zhihu.com/equation?tex=o%28x_1-x_0%29 叫做皮亚诺(Peano)余项,当 https://www.zhihu.com/equation?tex=x_1+-+x_0+ 很小时,这个余项可以忽略不计.
当 https://www.zhihu.com/equation?tex=x_1+-+x_0 和一阶导数也就是梯度相反方向时,(在机器学习中指的的损失函数)下降最快.
一个经典的解释是:想象我们从山上下来,每步都沿着坡度最陡的方向.这时,水平面是我们的定义域,海拔是值域.
GD缺点
但GD有两个主要的缺点:
[*]优化过程中,保持一定的学习率,并且这个学习率是人工设定.当学习率过大时,可能在靠近最优点附近震荡(想象一步子太大跨过去了);学习率过小时,优化的速度太慢
[*]学习率对于每个维度都一样,而我们经常会遇到不同维度的曲率(二阶导数)差别比较大的情况,这时GD容易出现zig-zag路径.(参考图2,优化路径呈现zig-zag形状,该图绘制代码放在附录1中)
图2
考虑
所以人们考虑
[*]动态选择更好的学习率,比如前期大些来加速优化,靠近低点了小些避免在低点附近来回震荡,甚至
[*]为每个维度选择合适的学习率.
学习率退火 (Learning Rate Annealing)
出于考虑1,人们参考了单体优化方法中的模拟退火(Simulated Annealing),学习率随着迭代次数的增加或者损失函数在验证集上的表现变好而衰减(decay).
学习率退化可以直接加在GD上.
改进方向
AdaGrad等算法(
介绍)就借鉴了退火的学习率衰减的思想.不过这个不是这篇的重点.
牛顿法 (Newton's Method)
出于考虑2(为每个维度选择合适的学习率),基于二阶导数的牛顿法被提出.它来源于泰勒二阶展开.
https://www.zhihu.com/equation?tex=f%28x_1%29+%3D+f%28x_0%29+%2B+f%27%28x%29%7C_%7Bx%3Dx_0%7D+%2A+%28x_1+-+x_0%29+%2B+%5Cfrac%7B%28x_1-x_0%29%5E2%7D%7B2%21%7D+f%27%27%28x%29%7C_%7Bx%3D%7Bx_0%7D%7D+%2B+o%28%28x_1-x_0%29%5E2%29
对于多元函数,
https://www.zhihu.com/equation?tex=f%28x_1%29+%3D+f%28x_0%29+%2B+g%28x_0%29+%2A+%28x_1+-+x_0%29+%2B+%5Cfrac%7B1%7D%7B2%21%7D+%28x_1-x_0%29+H%28x_0%29+%28x_1-x_0%29%5Et%2B+o%28%28x_1-x_0%29%5E2%29
其中 https://www.zhihu.com/equation?tex=H%28x%29 为
我们有 https://www.zhihu.com/equation?tex=H%5Bi%2C+j%5D+%3D+%5Cfrac%7B%5Cpartial%5E2%7BL%7D%7D%7B%5Cpartial%7Bx%5Ei%7D%5Cpartial%7Bx%5Ej%7D%7D .
这样每次迭代都会考虑损失函数的曲率(二阶导数)来选择步长.对比图2中的标准GD,牛顿法可以一步就到达最优点.
牛顿法缺点
但是牛顿法的计算复杂度很高,因为Hessian矩阵的维度是参数个数的平方,而参数的个数往往很多.
改进方向
不同的方法随即被提出,比如
[*]Becker和LeCun提出的
[*]依靠历史的梯度信息来模拟二阶方法,包括Momentum,RMSProp(用二阶距来模拟二阶导数),AdaM(用一阶矩和二阶矩的比例来模拟二阶导数)等.
我们先介绍Momentum
Momentum
,借鉴了物理中动量(momentum)的概念,让 https://www.zhihu.com/equation?tex=%5CDelta+x_t 保留一部分之前的方向和速度.
Classical Momentum每次迭代的更新为
https://www.zhihu.com/equation?tex=%5CDelta+x_t+%3D++-+%5Ceta%2A+g_t+%2B+%5Crho+%2A+%5CDelta+x_%7Bt-1%7D
这样预期可以达到两个效果:
[*]某个维度在近几次迭代中正负号总是改变时,说明二阶导数可能相对其他维度比较大或者说每次步子迈得太大了,需要改变幅度小些或者迈得小点来避免zig-zag路径
[*]某个维度在近几次迭代中符号几乎不变,说明二阶导数可能相对其他维度比较小或者说大方向是正确的,这个维度改变的幅度可以扩大些,来加速改进.
图3
如图3所示,加入了Classical Momentum,前期的训练加快了,靠近低点时也减小了震荡.
关于NAG(Nesterov's Accelerated Gradient)可参看附录1中的代码.
附录1
import math
import numpy as np
import matplotlib.pyplot as plt
RATIO = 3 # 椭圆的长宽比
LIMIT = 1.2 # 图像的坐标轴范围
class PlotComparaison(object):
"""多种优化器来优化函数 x1^2 + x2^2 * RATIO^2.
每次参数改变为(d1, d2).梯度为(dx1, dx2)
t+1次迭代,
标准GD,
d1_{t+1} = - eta * dx1
d2_{t+1} = - eta * dx2
带Momentum,
d1_{t+1} = eta * (mu * d1_t - dx1_{t+1})
d2_{t+1} = eta * (mu * d2_t - dx2_{t+1})
带Nesterov Momentum,
d1_{t+1} = eta * (mu * d1_t - dx1^{nag}_{t+1})
d2_{t+1} = eta * (mu * d2_t - dx2^{nag}_{t+1})
其中(dx1^{nag}, dx2^{nag})为(x1 + eta * mu * d1_t, x2 + eta * mu * d2_t)处的梯度
"""
def __init__(self, eta=0.1, mu=0.9, angles=None, contour_values=None,
stop_condition=1e-4):
# 全部算法的学习率
self.eta = eta
# 启发式学习的终止条件
self.stop_condition = stop_condition
# Nesterov Momentum超参数
self.mu = mu
# 用正态分布随机生成初始点
self.x1_init, self.x2_init = np.random.uniform(LIMIT / 2, LIMIT), np.random.uniform(LIMIT / 2, LIMIT) / RATIO
self.x1, self.x2 = self.x1_init, self.x2_init
# 等高线相关
if angles == None:
angles = np.arange(0, 2 * math.pi, 0.01)
self.angles = angles
if contour_values == None:
contour_values =
self.contour_values = contour_values
setattr(self, "contour_colors", None)
def draw_common(self, title):
"""画等高线,最优点和设置图片各种属性"""
# 坐标轴尺度一致
plt.gca().set_aspect(1)
# 根据等高线的值生成坐标和颜色
# 海拔越高颜色越深
num_contour = len(self.contour_values)
if not self.contour_colors:
self.contour_colors = [(i / num_contour, i / num_contour, i / num_contour) for i in range(num_contour)]
self.contour_colors.reverse()
self.contours = [
[
list(map(lambda x: math.sin(x) * math.sqrt(val), self.angles)),
list(map(lambda x: math.cos(x) * math.sqrt(val) / RATIO, self.angles))
]
for val in self.contour_values
]
# 画等高线
for i in range(num_contour):
plt.plot(self.contours,
self.contours,
linewidth=1,
linestyle='-',
color=self.contour_colors,
label="y={}".format(round(self.contour_values, 2))
)
# 画最优点
plt.text(0, 0, 'x*')
# 图片标题
plt.title(title)
# 设置坐标轴名字和范围
plt.xlabel("x1")
plt.ylabel("x2")
plt.xlim((-LIMIT, LIMIT))
plt.ylim((-LIMIT, LIMIT))
# 显示图例
plt.legend(loc=1)
def forward_gd(self):
"""SGD一次迭代"""
self.d1 = -self.eta * self.dx1
self.d2 = -self.eta * self.dx2
self.ite += 1
def draw_gd(self, num_ite=5):
"""画基础SGD的迭代优化.
包括每次迭代的点,以及表示每次迭代改变的箭头
"""
# 初始化
setattr(self, "ite", 0)
setattr(self, "x1", self.x1_init)
setattr(self, "x2", self.x2_init)
# 画每次迭代
self.point_colors = [(i / num_ite, 0, 0) for i in range(num_ite)]
plt.scatter(self.x1, self.x2, color=self.point_colors)
for _ in range(num_ite):
self.forward_gd()
# 迭代的箭头
plt.arrow(self.x1, self.x2, self.d1, self.d2,
length_includes_head=True,
linestyle=':',
label='{} ite'.format(self.ite),
color='b',
head_width=0.08
)
self.x1 += self.d1
self.x2 += self.d2
print("第{}次迭代后,坐标为({}, {})".format(self.ite, self.x1, self.x2))
plt.scatter(self.x1, self.x2)# 迭代的点
if self.loss < self.stop_condition:
break
def forward_momentum(self):
&#34;&#34;&#34;带Momentum的SGD一次迭代&#34;&#34;&#34;
self.d1 = self.eta * (self.mu * self.d1_pre - self.dx1)
self.d2 = self.eta * (self.mu * self.d2_pre - self.dx2)
self.ite += 1
self.d1_pre, self.d2_pre = self.d1, self.d2
def draw_momentum(self, num_ite=5):
&#34;&#34;&#34;画带Momentum的迭代优化.&#34;&#34;&#34;
# 初始化
setattr(self, &#34;ite&#34;, 0)
setattr(self, &#34;x1&#34;, self.x1_init)
setattr(self, &#34;x2&#34;, self.x2_init)
setattr(self, &#34;d1_pre&#34;, 0)
setattr(self, &#34;d2_pre&#34;, 0)
# 画每次迭代
self.point_colors = [(i / num_ite, 0, 0) for i in range(num_ite)]
plt.scatter(self.x1, self.x2, color=self.point_colors)
for _ in range(num_ite):
self.forward_momentum()
# 迭代的箭头
plt.arrow(self.x1, self.x2, self.d1, self.d2,
length_includes_head=True,
linestyle=&#39;:&#39;,
label=&#39;{} ite&#39;.format(self.ite),
color=&#39;b&#39;,
head_width=0.08
)
self.x1 += self.d1
self.x2 += self.d2
print(&#34;第{}次迭代后,坐标为({}, {})&#34;.format(self.ite, self.x1, self.x2))
plt.scatter(self.x1, self.x2)# 迭代的点
if self.loss < self.stop_condition:
break
def forward_nag(self):
&#34;&#34;&#34;Nesterov Accelerated的SGD一次迭代&#34;&#34;&#34;
self.d1 = self.eta * (self.mu * self.d1_pre - self.dx1_nag)
self.d2 = self.eta * (self.mu * self.d2_pre - self.dx2_nag)
self.ite += 1
self.d1_pre, self.d2_pre = self.d1, self.d2
def draw_nag(self, num_ite=5):
&#34;&#34;&#34;画Nesterov Accelerated的迭代优化.&#34;&#34;&#34;
# 初始化
setattr(self, &#34;ite&#34;, 0)
setattr(self, &#34;x1&#34;, self.x1_init)
setattr(self, &#34;x2&#34;, self.x2_init)
setattr(self, &#34;d1_pre&#34;, 0)
setattr(self, &#34;d2_pre&#34;, 0)
# 画每次迭代
self.point_colors = [(i / num_ite, 0, 0) for i in range(num_ite)]
plt.scatter(self.x1, self.x2, color=self.point_colors)
for _ in range(num_ite):
self.forward_nag()
# 迭代的箭头
plt.arrow(self.x1, self.x2, self.d1, self.d2,
length_includes_head=True,
linestyle=&#39;:&#39;,
label=&#39;{} ite&#39;.format(self.ite),
color=&#39;b&#39;,
head_width=0.08
)
self.x1 += self.d1
self.x2 += self.d2
print(&#34;第{}次迭代后,坐标为({}, {})&#34;.format(self.ite, self.x1, self.x2))
plt.scatter(self.x1, self.x2)# 迭代的点
if self.loss < self.stop_condition:
break
@property
def dx1(self, x1=None):
return self.x1 * 2
@property
def dx2(self):
return self.x2 * 2 * (RATIO ** 2)
@property
def dx1_nag(self, x1=None):
return (self.x1 + self.eta * self.mu * self.d1_pre) * 2
@property
def dx2_nag(self):
return (self.x2 + self.eta * self.mu * self.d2_pre) * 2 * (RATIO ** 2)
@property
def loss(self):
return self.x1 ** 2 + (RATIO * self.x2) ** 2
def show(self):
# 设置图片大小
plt.figure(figsize=(20, 20))
# 展示
plt.show()
def main_2():
&#34;&#34;&#34;画图2&#34;&#34;&#34;
xixi = PlotComparaison()
xixi.draw_gd()
xixi.draw_common(&#34;Optimize x1^2+x2^2*{} Using SGD&#34;.format(RATIO ** 2))
xixi.show()
def main_3(num_ite=15):
&#34;&#34;&#34;画图3&#34;&#34;&#34;
xixi = PlotComparaison()
xixi.draw_gd(num_ite)
xixi.draw_common(&#34;Optimize x1^2+x2^2*{} Using SGD&#34;.format(RATIO ** 2))
xixi.show()
xixi.draw_momentum(num_ite)
xixi.draw_common(&#34;Optimize x1^2+x2^2*{} Using SGD With Momentum&#34;.format(RATIO ** 2))
xixi.show()附录2
带Momentum机制的GD在pytorch中的实现为
import torch
torch.optim.SGD(lr, momentum) # lr为学习率,momentum为可选参数 先赞后看,已成习惯 哈哈,什么情况 抱歉,把标准梯度下降(standard GD)写成了随机梯度下降(SGD).文中的图片不修改了.
页:
[1]