勾配降下法

坂を転がり落ちて最小値を見つける——機械学習のエンジン

勾配降下法は、最急降下方向に繰り返しステップを踏むことで関数の最小値を求めます。勾配(微分)が「下り坂」の方向を教えてくれ、学習率が各ステップの大きさを制御します。

グラフは f(x) = x⁴ − 3x² + 2 を示しています——2つの谷(局所最小値)を持つ地形です。ある点から出発して、アルゴリズムは坂を一歩ずつ下り、谷底に達するまで進みます。これがニューラルネットワークの学習方法——損失景観の上を「坂道を転がり落ちる」のです。

AIに 「x = 2 から降下して」 または 「学習率を大きくするとどうなる?」 と聞いてみましょう。

勾配降下法とは何ですか?
関数の最小値を反復で求める最適化アルゴリズムです:x_{n+1} = x_n − α · f'(x_n)(α は学習率)。各ステップで勾配の逆方向(下り坂)に移動します。
学習率とは何ですか?
学習率 α はステップサイズを制御します。小さすぎると収束が遅くなり多くのステップが必要です。大きすぎると最小値を通り越して発散することがあります。適切な学習率を見つけることが機械学習の重要な課題です。
局所最小値と大域最小値の違いは?
局所最小値はその周囲より低い谷ですが、絶対的な最低点ではないかもしれません。大域最小値は全体の最低点です。勾配降下法は局所最小値に捕まることがあります——局所的な傾きしか見えないからです。
これは機械学習でどう使われますか?
ニューラルネットワークには予測誤差を測定する「損失関数」があります。勾配降下法はモデルのパラメータを調整してこの損失を最小化します——高次元の景観の上を文字通り転がり落ちるのです。あなたが使うすべての AI モデルはこの方法で訓練されています。
What can it graph?
It can plot explicit, implicit, and parametric functions, add points and geometry, and animate sliders on the same graph.
Can I use voice or a photo?
Yes. You can talk to the tutor, upload a worksheet or handwritten problem, and let the graph update from that input.
Will it explain the steps?
Yes. The AI explains what it is drawing and why, so you see the answer on the graph instead of getting only a final number.