Rueda cuesta abajo para encontrar el mínimo — el motor del machine learning
El descenso de gradiente encuentra el mínimo de una función dando pasos repetidamente en la dirección de mayor descenso. El gradiente (derivada) te dice cuál es la dirección "cuesta abajo", y la tasa de aprendizaje controla el tamaño de cada paso.
El gráfico muestra f(x) = x⁴ − 3x² + 2, que tiene dos valles (mínimos locales). Comenzando desde un punto, el algoritmo sigue la pendiente cuesta abajo, paso a paso, hasta llegar a un valle. Así es exactamente como aprenden las redes neuronales — "ruedan cuesta abajo" sobre el paisaje de pérdida.
Pregúntale al AI "Empieza en x = 2 y desciende" o "¿Qué pasa con una tasa de aprendizaje grande?"