梯度下降

沿坡向下滚动找到最小值——机器学习的核心引擎

梯度下降通过反复沿最陡下坡方向迈步来找到函数的最小值。梯度(导数)告诉你哪个方向是"下坡",学习率控制每步的大小。

图形显示 f(x) = x⁴ − 3x² + 2,它有两个谷(局部最小值)。从某个点出发,算法沿坡一步步向下,直到到达谷底。这正是神经网络的学习方式——在损失曲面上"向下滚动"。

试着问 AI "从 x = 2 开始下降""学习率过大会发生什么?"

什么是梯度下降?
一种优化算法,通过迭代找到函数的最小值:x_{n+1} = x_n − α · f'(x_n),其中 α 是学习率。每一步都沿梯度的反方向(向下坡)移动。
什么是学习率?
学习率 α 控制步长。太小:收敛缓慢,需要很多步。太大:会越过最小值并可能发散。找到合适的学习率是机器学习中的关键挑战。
局部最小值和全局最小值有什么区别?
局部最小值是比其周围低的谷,但可能不是绝对最低点。全局最小值是整体最低点。梯度下降可能会陷入局部最小值——它只能看到局部坡度。
这在机器学习中如何应用?
神经网络有一个"损失函数"来衡量预测误差。梯度下降调整模型参数以最小化损失——字面意义上是在高维曲面上向下滚动。你使用的每一个 AI 模型都是用这种方式训练的。
What can it graph?
It can plot explicit, implicit, and parametric functions, add points and geometry, and animate sliders on the same graph.
Can I use voice or a photo?
Yes. You can talk to the tutor, upload a worksheet or handwritten problem, and let the graph update from that input.
Will it explain the steps?
Yes. The AI explains what it is drawing and why, so you see the answer on the graph instead of getting only a final number.