Den Hang hinunterrollen, um das Minimum zu finden — der Motor des maschinellen Lernens
Der Gradientenabstieg findet das Minimum einer Funktion, indem er wiederholt Schritte in Richtung des steilsten Abstiegs macht. Der Gradient (Ableitung) zeigt, welche Richtung "bergab" ist, und die Lernrate steuert die Schrittgröße.
Der Graph zeigt f(x) = x⁴ − 3x² + 2, das zwei Täler (lokale Minima) hat. Ausgehend von einem Punkt folgt der Algorithmus der Steigung bergab, Schritt für Schritt, bis er ein Tal erreicht. Genau so lernen neuronale Netze — sie "rollen bergab" auf einer Verlustlandschaft.
Frage die KI „Starte bei x = 2 und steige ab" oder „Was passiert mit einer großen Lernrate?"