#梯度下降迭代
for i in range(max_iters):
dw = 0
db = 0
#遍历训练集
for j in range(m):
#计算每个数据集的权重向量梯度w_grad和偏置梯度b_grad
#将w_grad和b_grad分别累加到dw和db累加器中
w = w - alpha * (dw / m) #更新权重向量
b = b - alpha * (db / m) #更新偏置
return w,b<hr/>深度学习面对的实际问题是有大量局部最优解和鞍点;梯度下降算法很容易被困在局部最优解,或是停留在鞍点不能动弹;因此基于梯度下降算法的许多改进版发展起来。