JoshWindsor 发表于 2021-12-30 20:24

从零开始学Pytorch(十四)之优化算法进阶

动量

目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisy gradient,我们需要谨慎的选取学习率和batch size, 来控制梯度方差和收敛的结果。

https://www.zhihu.com/equation?tex=%5Cmathbf%7Bg%7D_t+%3D+%5Cpartial_%7B%5Cmathbf%7Bw%7D%7D+%5Cfrac%7B1%7D%7B%7C%5Cmathcal%7BB%7D_t%7C%7D+%5Csum_%7Bi+%5Cin+%5Cmathcal%7BB%7D_t%7D+f%28%5Cmathbf%7Bx%7D_%7Bi%7D%2C+%5Cmathbf%7Bw%7D_%7Bt-1%7D%29+%3D+%5Cfrac%7B1%7D%7B%7C%5Cmathcal%7BB%7D_t%7C%7D+%5Csum_%7Bi+%5Cin+%5Cmathcal%7BB%7D_t%7D+%5Cmathbf%7Bg%7D_%7Bi%2C+t-1%7D.+%5C%5C
%matplotlib inline
import sys
sys.path.append("/home/input")
import d2lzh1981 as d2l
import torch

eta = 0.4

def f_2d(x1, x2):
    return 0.1 * x1 ** 2 + 2 * x2 ** 2

def gd_2d(x1, x2, s1, s2):
    return (x1 - eta * 0.2 * x1, x2 - eta * 4 * x2, 0, 0)

d2l.show_trace_2d(f_2d, d2l.train_2d(gd_2d))



可以看到,同一位置上,目标函数在竖直方向(轴方向)比在水平方向(轴方向)的斜率的绝对值更大。因此,给定学习率,梯度下降迭代自变量时会使自变量在竖直方向比在水平方向移动幅度更大。那么,我们需要一个较小的学习率从而避免自变量在竖直方向上越过目标函数最优解。然而,这会造成自变量在水平方向上朝最优解移动变慢。
下面我们试着将学习率调得稍大一点,此时自变量在竖直方向不断越过最优解并逐渐发散。
eta = 0.6
d2l.show_trace_2d(f_2d, d2l.train_2d(gd_2d))


Momentum Algorithm

动量法的提出是为了解决梯度下降的上述问题。设时间步的自变量为 https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bx%7D_t,学习率为 https://www.zhihu.com/equation?tex=%5Ceta_t。 在时间步 https://www.zhihu.com/equation?tex=t%3D0,动量法创建速度变量 ,并将其元素初始化成 0。在时间步 https://www.zhihu.com/equation?tex=t%3E0,动量法对每次迭代的步骤做如下修改:

https://www.zhihu.com/equation?tex=%5Cbegin%7Baligned%7D+%5Cboldsymbol%7Bm%7D_t+%26%5Cleftarrow+%5Cbeta+%5Cboldsymbol%7Bm%7D_%7Bt-1%7D+%2B+%5Ceta_t+%5Cboldsymbol%7Bg%7D_t%2C+%5C%5C+%5Cboldsymbol%7Bx%7D_t+%26%5Cleftarrow+%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+-+%5Cboldsymbol%7Bm%7D_t%2C+%5Cend%7Baligned%7D+%5C%5C
Another version:

https://www.zhihu.com/equation?tex=%5Cbegin%7Baligned%7D+%5Cboldsymbol%7Bm%7D_t+%26%5Cleftarrow+%5Cbeta+%5Cboldsymbol%7Bm%7D_%7Bt-1%7D+%2B+%281-%5Cbeta%29+%5Cboldsymbol%7Bg%7D_t%2C+%5C%5C+%5Cboldsymbol%7Bx%7D_t+%26%5Cleftarrow+%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+-+%5Calpha_t+%5Cboldsymbol%7Bm%7D_t%2C+%5Cend%7Baligned%7D+%5C%5C
其中,动量超参数 https://www.zhihu.com/equation?tex=%5Cbeta满足 。当 https://www.zhihu.com/equation?tex=%5Cbeta%3D0 时,动量法等价于小批量随机梯度下降。
在解释动量法的数学原理前,让我们先从实验中观察梯度下降在使用动量法后的迭代轨迹。
def momentum_2d(x1, x2, v1, v2):
    v1 = beta * v1 + eta * 0.2 * x1
    v2 = beta * v2 + eta * 4 * x2
    return x1 - v1, x2 - v2, v1, v2

eta, beta = 0.4, 0.5
d2l.show_trace_2d(f_2d, d2l.train_2d(momentum_2d))



可以看到使用较小的学习率 https://www.zhihu.com/equation?tex=%5Ceta%3D0.4 和动量超参数 https://www.zhihu.com/equation?tex=%5Cbeta%3D0.5 时,动量法在竖直方向上的移动更加平滑,且在水平方向上更快逼近最优解。
Exponential Moving Average

为了从数学上理解动量法,让我们先解释一下指数加权移动平均(exponential moving average)。给定超参数 ,当前时间步的变量是上一时间步 https://www.zhihu.com/equation?tex=t-1 的变量 https://www.zhihu.com/equation?tex=y_%7Bt-1%7D 和当前时间步另一变量的线性组合:

https://www.zhihu.com/equation?tex=y_t+%3D+%5Cbeta+y_%7Bt-1%7D+%2B+%281-%5Cbeta%29+x_t.+%5C%5C
我们可以对展开:

https://www.zhihu.com/equation?tex=%5Cbegin%7Baligned%7D+y_t++%26%3D+%281-%5Cbeta%29+x_t+%2B+%5Cbeta+y_%7Bt-1%7D%5C%5C++++++++++%26%3D+%281-%5Cbeta%29x_t+%2B+%281-%5Cbeta%29+%5Ccdot+%5Cbeta+x_%7Bt-1%7D+%2B+%5Cbeta%5E2y_%7Bt-2%7D%5C%5C++++++++++%26%3D+%281-%5Cbeta%29x_t+%2B+%281-%5Cbeta%29+%5Ccdot+%5Cbeta+x_%7Bt-1%7D+%2B+%281-%5Cbeta%29+%5Ccdot+%5Cbeta%5E2x_%7Bt-2%7D+%2B+%5Cbeta%5E3y_%7Bt-3%7D%5C%5C++++++++++%26%3D+%281-%5Cbeta%29+%5Csum_%7Bi%3D0%7D%5E%7Bt%7D+%5Cbeta%5E%7Bi%7Dx_%7Bt-i%7D+%5Cend%7Baligned%7D+%5C%5Chttps://www.zhihu.com/equation?tex=%281-%5Cbeta%29%5Csum_%7Bi%3D0%7D%5E%7Bt%7D+%5Cbeta%5E%7Bi%7D+%3D+%5Cfrac%7B1-%5Cbeta%5E%7Bt%7D%7D%7B1-%5Cbeta%7D+%281-%5Cbeta%29+%3D+%281-%5Cbeta%5E%7Bt%7D%29+%5C%5C
Supp

Approximate Average of https://www.zhihu.com/equation?tex=%5Cfrac%7B1%7D%7B1-%5Cbeta%7D Steps
令 https://www.zhihu.com/equation?tex=n+%3D+1%2F%281-%5Cbeta%29,那么 https://www.zhihu.com/equation?tex=%5Cleft%281-1%2Fn%5Cright%29%5En+%3D+%5Cbeta%5E%7B1%2F%281-%5Cbeta%29%7D。因为

https://www.zhihu.com/equation?tex=+%5Clim_%7Bn+%5Crightarrow+%5Cinfty%7D++%5Cleft%281-%5Cfrac%7B1%7D%7Bn%7D%5Cright%29%5En+%3D+%5Cexp%28-1%29+%5Capprox+0.3679%2C+%5C%5C
所以当 https://www.zhihu.com/equation?tex=%5Cbeta+%5Crightarrow+1时,https://www.zhihu.com/equation?tex=%5Cbeta%5E%7B1%2F%281-%5Cbeta%29%7D%3D%5Cexp%28-1%29,如 https://www.zhihu.com/equation?tex=0.95%5E%7B20%7D+%5Capprox+%5Cexp%28-1%29。如果把 https://www.zhihu.com/equation?tex=%5Cexp%28-1%29 当作一个比较小的数,我们可以在近似中忽略所有含和比更高阶的系数的项。例如,当 https://www.zhihu.com/equation?tex=%5Cbeta%3D0.95 时,

https://www.zhihu.com/equation?tex=y_t+%5Capprox+0.05+%5Csum_%7Bi%3D0%7D%5E%7B19%7D+0.95%5Ei+x_%7Bt-i%7D.+%5C%5C
因此,在实际中,我们常常将看作是对最近个时间步的值的加权平均。例如,当 https://www.zhihu.com/equation?tex=%5Cgamma+%3D+0.95 时, 可以被看作对最近20个时间步的值的加权平均;当 https://www.zhihu.com/equation?tex=%5Cbeta+%3D+0.9 时, 可以看作是对最近10个时间步的值的加权平均。而且,离当前时间步越近的值获得的权重越大(越接近1)。
由指数加权移动平均理解动量法

现在,我们对动量法的速度变量做变形:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bm%7D_t+%5Cleftarrow+%5Cbeta+%5Cboldsymbol%7Bm%7D_%7Bt-1%7D+%2B+%281+-+%5Cbeta%29+%5Cleft%28%5Cfrac%7B%5Ceta_t%7D%7B1+-+%5Cbeta%7D+%5Cboldsymbol%7Bg%7D_t%5Cright%29.++%5C%5C
Another version:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bm%7D_t+%5Cleftarrow+%5Cbeta+%5Cboldsymbol%7Bm%7D_%7Bt-1%7D+%2B+%281+-+%5Cbeta%29+%5Cboldsymbol%7Bg%7D_t.++%5C%5Chttps://www.zhihu.com/equation?tex=%5Cbegin%7Baligned%7D+%5Cboldsymbol%7Bx%7D_t+%26%5Cleftarrow+%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+-+%5Calpha_t+%5Cboldsymbol%7Bm%7D_t%2C+%5Cend%7Baligned%7D+%5C%5C
由指数加权移动平均的形式可得,速度变量实际上对序列 https://www.zhihu.com/equation?tex=%5C%7B%5Ceta_%7Bt-i%7D%5Cboldsymbol%7Bg%7D_%7Bt-i%7D+%2F%281-%5Cbeta%29%3Ai%3D0%2C%5Cldots%2C1%2F%281-%5Cbeta%29-1%5C%7D 做了指数加权移动平均。换句话说,相比于小批量随机梯度下降,动量法在每个时间步的自变量更新量近似于将前者对应的最近个时间步的更新量做了指数加权移动平均后再除以 https://www.zhihu.com/equation?tex=1-%5Cbeta。所以,在动量法中,自变量在各个方向上的移动幅度不仅取决当前梯度,还取决于过去的各个梯度在各个方向上是否一致。在本节之前示例的优化问题中,所有梯度在水平方向上为正(向右),而在竖直方向上时正(向上)时负(向下)。这样,我们就可以使用较大的学习率,从而使自变量向最优解更快移动。
Implement

相对于小批量随机梯度下降,动量法需要对每一个自变量维护一个同它一样形状的速度变量,且超参数里多了动量超参数。实现中,我们将速度变量用更广义的状态变量states表示。
def get_data_ch7():
    data = np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat', delimiter='\t')
    data = (data - data.mean(axis=0)) / data.std(axis=0)
    return torch.tensor(data[:1500, :-1], dtype=torch.float32), \
      torch.tensor(data[:1500, -1], dtype=torch.float32)

features, labels = get_data_ch7()

def init_momentum_states():
    v_w = torch.zeros((features.shape, 1), dtype=torch.float32)
    v_b = torch.zeros(1, dtype=torch.float32)
    return (v_w, v_b)

def sgd_momentum(params, states, hyperparams):
    for p, v in zip(params, states):
      v.data = hyperparams['momentum'] * v.data + hyperparams['lr'] * p.grad.data
      p.data -= v.data
我们先将动量超参数momentum设0.5
d2l.train_ch7(sgd_momentum, init_momentum_states(),
            {'lr': 0.02, 'momentum': 0.5}, features, labels)



将动量超参数momentum增大到0.9
d2l.train_ch7(sgd_momentum, init_momentum_states(),
            {'lr': 0.02, 'momentum': 0.9}, features, labels)


Pytorch Class

在Pytorch中,torch.optim.SGD已实现了Momentum。
d2l.train_pytorch_ch7(torch.optim.SGD, {'lr': 0.004, 'momentum': 0.9},
                  features, labels)


AdaGrad

在之前介绍过的优化算法中,目标函数自变量的每一个元素在相同时间步都使用同一个学习率来自我迭代。举个例子,假设目标函数为https://www.zhihu.com/equation?tex=f,自变量为一个二维向量https://www.zhihu.com/equation?tex=%5Bx_1%2C+x_2%5D%5E%5Ctop,该向量中每一个元素在迭代时都使用相同的学习率。例如,在学习率为的梯度下降中,元素和都使用相同的学习率来自我迭代:

https://www.zhihu.com/equation?tex=+x_1+%5Cleftarrow+x_1+-+%5Ceta+%5Cfrac%7B%5Cpartial%7Bf%7D%7D%7B%5Cpartial%7Bx_1%7D%7D%2C+%5Cquad+x_2+%5Cleftarrow+x_2+-+%5Ceta+%5Cfrac%7B%5Cpartial%7Bf%7D%7D%7B%5Cpartial%7Bx_2%7D%7D.++%5C%5C
我们看到当和的梯度值有较大差别时,需要选择足够小的学习率使得自变量在梯度值较大的维度上不发散。但这样会导致自变量在梯度值较小的维度上迭代过慢。动量法依赖指数加权移动平均使得自变量的更新方向更加一致,从而降低发散的可能。本节我们介绍AdaGrad算法,它根据自变量在每个维度的梯度值的大小来调整各个维度上的学习率,从而避免统一的学习率难以适应所有维度的问题 。
Algorithm

AdaGrad算法会使用一个小批量随机梯度按元素平方的累加变量。在时间步0,AdaGrad将中每个元素初始化为0。在时间步,首先将小批量随机梯度按元素平方后累加到变量:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bs%7D_t+%5Cleftarrow+%5Cboldsymbol%7Bs%7D_%7Bt-1%7D+%2B+%5Cboldsymbol%7Bg%7D_t+%5Codot+%5Cboldsymbol%7Bg%7D_t%2C+%5C%5C
其中https://www.zhihu.com/equation?tex=%5Codot是按元素相乘。接着,我们将目标函数自变量中每个元素的学习率通过按元素运算重新调整一下:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bx%7D_t+%5Cleftarrow+%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+-+%5Cfrac%7B%5Ceta%7D%7B%5Csqrt%7B%5Cboldsymbol%7Bs%7D_t+%2B+%5Cepsilon%7D%7D+%5Codot+%5Cboldsymbol%7Bg%7D_t%2C+%5C%5C
其中是学习率,是为了维持数值稳定性而添加的常数,如。这里开方、除法和乘法的运算都是按元素运算的。这些按元素运算使得目标函数自变量中每个元素都分别拥有自己的学习率。
Feature

需要强调的是,小批量随机梯度按元素平方的累加变量出现在学习率的分母项中。因此,如果目标函数有关自变量中某个元素的偏导数一直都较大,那么该元素的学习率将下降较快;反之,如果目标函数有关自变量中某个元素的偏导数一直都较小,那么该元素的学习率将下降较慢。然而,由于一直在累加按元素平方的梯度,自变量中每个元素的学习率在迭代过程中一直在降低(或不变)。所以,当学习率在迭代早期降得较快且当前解依然不佳时,AdaGrad算法在迭代后期由于学习率过小,可能较难找到一个有用的解。
下面我们仍然以目标函数为例观察AdaGrad算法对自变量的迭代轨迹。我们实现AdaGrad算法并使用和上一节实验中相同的学习率0.4。可以看到,自变量的迭代轨迹较平滑。但由于的累加效果使学习率不断衰减,自变量在迭代后期的移动幅度较小。
%matplotlib inline
import math
import torch
import sys
sys.path.append("/home/kesci/input")
import d2lzh1981 as d2l

def adagrad_2d(x1, x2, s1, s2):
    g1, g2, eps = 0.2 * x1, 4 * x2, 1e-6# 前两项为自变量梯度
    s1 += g1 ** 2
    s2 += g2 ** 2
    x1 -= eta / math.sqrt(s1 + eps) * g1
    x2 -= eta / math.sqrt(s2 + eps) * g2
    return x1, x2, s1, s2

def f_2d(x1, x2):
    return 0.1 * x1 ** 2 + 2 * x2 ** 2

eta = 0.4
d2l.show_trace_2d(f_2d, d2l.train_2d(adagrad_2d))


下面将学习率增大到2。可以看到自变量更为迅速地逼近了最优解。
eta = 2
d2l.show_trace_2d(f_2d, d2l.train_2d(adagrad_2d))


Implement

同动量法一样,AdaGrad算法需要对每个自变量维护同它一样形状的状态变量。我们根据AdaGrad算法中的公式实现该算法。
def get_data_ch7():
    data = np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat', delimiter='\t')
    data = (data - data.mean(axis=0)) / data.std(axis=0)
    return torch.tensor(data[:1500, :-1], dtype=torch.float32), \
      torch.tensor(data[:1500, -1], dtype=torch.float32)
      
features, labels = get_data_ch7()

def init_adagrad_states():
    s_w = torch.zeros((features.shape, 1), dtype=torch.float32)
    s_b = torch.zeros(1, dtype=torch.float32)
    return (s_w, s_b)

def adagrad(params, states, hyperparams):
    eps = 1e-6
    for p, s in zip(params, states):
      s.data += (p.grad.data**2)
      p.data -= hyperparams['lr'] * p.grad.data / torch.sqrt(s + eps)


Pytorch Class

通过名称为“adagrad”的Trainer实例,我们便可使用Pytorch提供的AdaGrad算法来训练模型。
d2l.train_pytorch_ch7(torch.optim.Adagrad, {'lr': 0.1}, features, labels)


RMSProp

我们在“AdaGrad算法”一节中提到,因为调整学习率时分母上的变量一直在累加按元素平方的小批量随机梯度,所以目标函数自变量每个元素的学习率在迭代过程中一直在降低(或不变)。因此,当学习率在迭代早期降得较快且当前解依然不佳时,AdaGrad算法在迭代后期由于学习率过小,可能较难找到一个有用的解。为了解决这一问题,RMSProp算法对AdaGrad算法做了修改。该算法源自Coursera上的一门课程,即“机器学习的神经网络”。
Algorithm

我们在“动量法”一节里介绍过指数加权移动平均。不同于AdaGrad算法里状态变量是截至时间步所有小批量随机梯度按元素平方和,RMSProp算法将这些梯度按元素平方做指数加权移动平均。具体来说,给定超参数https://www.zhihu.com/equation?tex=0+%5Cleq+%5Cgamma+0计算

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bv%7D_t+%5Cleftarrow+%5Cbeta+%5Cboldsymbol%7Bv%7D_%7Bt-1%7D+%2B+%281+-+%5Cbeta%29+%5Cboldsymbol%7Bg%7D_t+%5Codot+%5Cboldsymbol%7Bg%7D_t.++%5C%5C
和AdaGrad算法一样,RMSProp算法将目标函数自变量中每个元素的学习率通过按元素运算重新调整,然后更新自变量

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bx%7D_t+%5Cleftarrow+%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+-+%5Cfrac%7B%5Calpha%7D%7B%5Csqrt%7B%5Cboldsymbol%7Bv%7D_t+%2B+%5Cepsilon%7D%7D+%5Codot+%5Cboldsymbol%7Bg%7D_t%2C++%5C%5C
其中是学习率,是为了维持数值稳定性而添加的常数,如。因为RMSProp算法的状态变量是对平方项的指数加权移动平均,所以可以看作是最近个时间步的小批量随机梯度平方项的加权平均。如此一来,自变量每个元素的学习率在迭代过程中就不再一直降低(或不变)。
照例,让我们先观察RMSProp算法对目标函数中自变量的迭代轨迹。回忆在“AdaGrad算法”一节使用的学习率为0.4的AdaGrad算法,自变量在迭代后期的移动幅度较小。但在同样的学习率下,RMSProp算法可以更快逼近最优解。
%matplotlib inline
import math
import torch
import sys
sys.path.append("/home/kesci/input")
import d2lzh1981 as d2l

def rmsprop_2d(x1, x2, s1, s2):
    g1, g2, eps = 0.2 * x1, 4 * x2, 1e-6
    s1 = beta * s1 + (1 - beta) * g1 ** 2
    s2 = beta * s2 + (1 - beta) * g2 ** 2
    x1 -= alpha / math.sqrt(s1 + eps) * g1
    x2 -= alpha / math.sqrt(s2 + eps) * g2
    return x1, x2, s1, s2

def f_2d(x1, x2):
    return 0.1 * x1 ** 2 + 2 * x2 ** 2

alpha, beta = 0.4, 0.9
d2l.show_trace_2d(f_2d, d2l.train_2d(rmsprop_2d))


Implement

接下来按照RMSProp算法中的公式实现该算法。
def get_data_ch7():
    data = np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat', delimiter='\t')
    data = (data - data.mean(axis=0)) / data.std(axis=0)
    return torch.tensor(data[:1500, :-1], dtype=torch.float32), \
      torch.tensor(data[:1500, -1], dtype=torch.float32)
      
features, labels = get_data_ch7()

def init_rmsprop_states():
    s_w = torch.zeros((features.shape, 1), dtype=torch.float32)
    s_b = torch.zeros(1, dtype=torch.float32)
    return (s_w, s_b)

def rmsprop(params, states, hyperparams):
    gamma, eps = hyperparams['beta'], 1e-6
    for p, s in zip(params, states):
      s.data = gamma * s.data + (1 - gamma) * (p.grad.data)**2
      p.data -= hyperparams['lr'] * p.grad.data / torch.sqrt(s + eps)
我们将初始学习率设为0.01,并将超参数设为0.9。此时,变量可看作是最近https://www.zhihu.com/equation?tex=1%2F%281-0.9%29+%3D+10个时间步的平方项的加权平均。
d2l.train_ch7(rmsprop, init_rmsprop_states(), {'lr': 0.01, 'beta': 0.9},
            features, labels)


Pytorch Class

通过名称为“rmsprop”的Trainer实例,我们便可使用Gluon提供的RMSProp算法来训练模型。注意,超参数通过gamma1指定。
d2l.train_pytorch_ch7(torch.optim.RMSprop, {'lr': 0.01, 'alpha': 0.9},
                  features, labels)


AdaDelta

除了RMSProp算法以外,另一个常用优化算法AdaDelta算法也针对AdaGrad算法在迭代后期可能较难找到有用解的问题做了改进 。有意思的是,AdaDelta算法没有学习率这一超参数。
Algorithm

AdaDelta算法也像RMSProp算法一样,使用了小批量随机梯度按元素平方的指数加权移动平均变量。在时间步0,它的所有元素被初始化为0。给定超参数https://www.zhihu.com/equation?tex=0+%5Cleq+%5Crho+0,同RMSProp算法一样计算

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bs%7D_t+%5Cleftarrow+%5Crho+%5Cboldsymbol%7Bs%7D_%7Bt-1%7D+%2B+%281+-+%5Crho%29+%5Cboldsymbol%7Bg%7D_t+%5Codot+%5Cboldsymbol%7Bg%7D_t.++%5C%5C
与RMSProp算法不同的是,AdaDelta算法还维护一个额外的状态变量,其元素同样在时间步0时被初始化为0。我们使用https://www.zhihu.com/equation?tex=%5CDelta%5Cboldsymbol%7Bx%7D_%7Bt-1%7D来计算自变量的变化量:

https://www.zhihu.com/equation?tex=+%5Cboldsymbol%7Bg%7D_t%27+%5Cleftarrow+%5Csqrt%7B%5Cfrac%7B%5CDelta%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+%2B+%5Cepsilon%7D%7B%5Cboldsymbol%7Bs%7D_t+%2B+%5Cepsilon%7D%7D+++%5Codot+%5Cboldsymbol%7Bg%7D_t%2C++%5C%5C
其中是为了维持数值稳定性而添加的常数,如https://www.zhihu.com/equation?tex=10%5E%7B-5%7D。接着更新自变量:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bx%7D_t+%5Cleftarrow+%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+-+%5Cboldsymbol%7Bg%7D%27_t.++%5C%5C
最后,我们使用来记录自变量变化量https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bg%7D%27_t按元素平方的指数加权移动平均:

https://www.zhihu.com/equation?tex=%5CDelta%5Cboldsymbol%7Bx%7D_t+%5Cleftarrow+%5Crho+%5CDelta%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+%2B+%281+-+%5Crho%29+%5Cboldsymbol%7Bg%7D%27_t+%5Codot+%5Cboldsymbol%7Bg%7D%27_t.++%5C%5C
可以看到,如不考虑的影响,AdaDelta算法与RMSProp算法的不同之处在于使用https://www.zhihu.com/equation?tex=%5Csqrt%7B%5CDelta%5Cboldsymbol%7Bx%7D_%7Bt-1%7D%7D来替代超参数。
Implement

AdaDelta算法需要对每个自变量维护两个状态变量,即和。我们按AdaDelta算法中的公式实现该算法。
def init_adadelta_states():
    s_w, s_b = torch.zeros((features.shape, 1), dtype=torch.float32), torch.zeros(1, dtype=torch.float32)
    delta_w, delta_b = torch.zeros((features.shape, 1), dtype=torch.float32), torch.zeros(1, dtype=torch.float32)
    return ((s_w, delta_w), (s_b, delta_b))

def adadelta(params, states, hyperparams):
    rho, eps = hyperparams['rho'], 1e-5
    for p, (s, delta) in zip(params, states):
      s[:] = rho * s + (1 - rho) * (p.grad.data**2)
      g =p.grad.data * torch.sqrt((delta + eps) / (s + eps))
      p.data -= g
      delta[:] = rho * delta + (1 - rho) * g * g
d2l.train_ch7(adadelta, init_adadelta_states(), {'rho': 0.9}, features, labels)
Pytorch Class

通过名称为“adadelta”的Trainer实例,我们便可使用pytorch提供的AdaDelta算法。它的超参数可以通过rho来指定。
d2l.train_pytorch_ch7(torch.optim.Adadelta, {'rho': 0.9}, features, labels)



Adam
Adam算法在RMSProp算法基础上对小批量随机梯度也做了指数加权移动平均 。下面我们来介绍这个算法。
Algorithm

Adam算法使用了动量变量和RMSProp算法中小批量随机梯度按元素平方的指数加权移动平均变量,并在时间步0将它们中每个元素初始化为0。给定超参数https://www.zhihu.com/equation?tex=0+%5Cleq+%5Cbeta_1+%3C+1(算法作者建议设为0.9),时间步的动量变量即小批量随机梯度的指数加权移动平均:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bm%7D_t+%5Cleftarrow+%5Cbeta_1+%5Cboldsymbol%7Bm%7D_%7Bt-1%7D+%2B+%281+-+%5Cbeta_1%29+%5Cboldsymbol%7Bg%7D_t.++%5C%5C
和RMSProp算法中一样,给定超参数https://www.zhihu.com/equation?tex=0+%5Cleq+%5Cbeta_2+%3C+1(算法作者建议设为0.999), 将小批量随机梯度按元素平方后的项做指数加权移动平均得到:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bv%7D_t+%5Cleftarrow+%5Cbeta_2+%5Cboldsymbol%7Bv%7D_%7Bt-1%7D+%2B+%281+-+%5Cbeta_2%29+%5Cboldsymbol%7Bg%7D_t+%5Codot+%5Cboldsymbol%7Bg%7D_t.++%5C%5C
由于我们将和中的元素都初始化为0, 在时间步我们得到https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bm%7D_t+%3D++%281-%5Cbeta_1%29+%5Csum_%7Bi%3D1%7D%5Et+%5Cbeta_1%5E%7Bt-i%7D+%5Cboldsymbol%7Bg%7D_i。将过去各时间步小批量随机梯度的权值相加,得到 https://www.zhihu.com/equation?tex=%281-%5Cbeta_1%29+%5Csum_%7Bi%3D1%7D%5Et+%5Cbeta_1%5E%7Bt-i%7D+%3D+1+-+%5Cbeta_1%5Et。需要注意的是,当较小时,过去各时间步小批量随机梯度权值之和会较小。例如,当https://www.zhihu.com/equation?tex=%5Cbeta_1+%3D+0.9时,https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bm%7D_1+%3D+0.1%5Cboldsymbol%7Bg%7D_1。为了消除这样的影响,对于任意时间步,我们可以将再除以https://www.zhihu.com/equation?tex=1+-+%5Cbeta_1%5Et,从而使过去各时间步小批量随机梯度权值之和为1。这也叫作偏差修正。在Adam算法中,我们对变量和均作偏差修正:

https://www.zhihu.com/equation?tex=%5Chat%7B%5Cboldsymbol%7Bm%7D%7D_t+%5Cleftarrow+%5Cfrac%7B%5Cboldsymbol%7Bm%7D_t%7D%7B1+-+%5Cbeta_1%5Et%7D%2C++%5C%5Chttps://www.zhihu.com/equation?tex=%5Chat%7B%5Cboldsymbol%7Bv%7D%7D_t+%5Cleftarrow+%5Cfrac%7B%5Cboldsymbol%7Bv%7D_t%7D%7B1+-+%5Cbeta_2%5Et%7D.++%5C%5C
接下来,Adam算法使用以上偏差修正后的变量和,将模型参数中每个元素的学习率通过按元素运算重新调整:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bg%7D_t%27+%5Cleftarrow+%5Cfrac%7B%5Ceta+%5Chat%7B%5Cboldsymbol%7Bm%7D%7D_t%7D%7B%5Csqrt%7B%5Chat%7B%5Cboldsymbol%7Bv%7D%7D_t%7D+%2B+%5Cepsilon%7D%2C+%5C%5C
其中是学习率,是为了维持数值稳定性而添加的常数,如https://www.zhihu.com/equation?tex=10%5E%7B-8%7D。和AdaGrad算法、RMSProp算法以及AdaDelta算法一样,目标函数自变量中每个元素都分别拥有自己的学习率。最后,使用https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bg%7D_t%27迭代自变量:

https://www.zhihu.com/equation?tex=%5Cboldsymbol%7Bx%7D_t+%5Cleftarrow+%5Cboldsymbol%7Bx%7D_%7Bt-1%7D+-+%5Cboldsymbol%7Bg%7D_t%27.++%5C%5C
Implement

我们按照Adam算法中的公式实现该算法。其中时间步通过hyperparams参数传入adam函数。
%matplotlib inline
import torch
import sys
sys.path.append("/home/kesci/input")
import d2lzh1981 as d2l

def get_data_ch7():
    data = np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat', delimiter='\t')
    data = (data - data.mean(axis=0)) / data.std(axis=0)
    return torch.tensor(data[:1500, :-1], dtype=torch.float32), \
      torch.tensor(data[:1500, -1], dtype=torch.float32)
      
features, labels = get_data_ch7()

def init_adam_states():
    v_w, v_b = torch.zeros((features.shape, 1), dtype=torch.float32), torch.zeros(1, dtype=torch.float32)
    s_w, s_b = torch.zeros((features.shape, 1), dtype=torch.float32), torch.zeros(1, dtype=torch.float32)
    return ((v_w, s_w), (v_b, s_b))

def adam(params, states, hyperparams):
    beta1, beta2, eps = 0.9, 0.999, 1e-6
    for p, (v, s) in zip(params, states):
      v[:] = beta1 * v + (1 - beta1) * p.grad.data
      s[:] = beta2 * s + (1 - beta2) * p.grad.data**2
      v_bias_corr = v / (1 - beta1 ** hyperparams['t'])
      s_bias_corr = s / (1 - beta2 ** hyperparams['t'])
      p.data -= hyperparams['lr'] * v_bias_corr / (torch.sqrt(s_bias_corr) + eps)
    hyperparams['t'] += 1
d2l.train_ch7(adam, init_adam_states(), {'lr': 0.01, 't': 1}, features, labels)


Pytorch class

d2l.train_pytorch_ch7(torch.optim.Adam, {'lr': 0.01}, features, labels)

页: [1]
查看完整版本: 从零开始学Pytorch(十四)之优化算法进阶