【Pytorch学习】用随机梯度下降算法思想求函数极值
随机梯度下降(Stochastic gradient descent,SGD)算法,在深度学习中,经常被用来对神经网络模型的参数进行更新。这里,为了便于学习理解,我们用参照这种算法思想和原理来求解函数的极值。
已知函数 f(x),定义域 {-11 < x < 10}
首先,我们借助 python 将函数图像绘制出来,如下图所示:

接下来,我们用 pytorch 提供的自动求导功能,根据随机梯度下降算法的思想来求函数的极值。
经过多轮的 x 值的更新迭代之后,可以看到 y 的值已经逼近函数的最小值了。

如果不确定这个值是否正确,我们可以手动计算一下。
极值点为:
时,
