Descenso de gradiente estocástico (SGD)

¿Qué es Descenso de gradiente estocástico (SGD)?

El «Descenso de Gradiente Estocástico» (en inglés, Stochastic Gradient Descent, SGD) es un algoritmo de optimización utilizado en el entrenamiento de modelos de aprendizaje automático.

La idea principal detrás del descenso de gradiente estocástico es minimizar una función de costo al ajustar los parámetros del modelo de manera iterativa en función de la retroalimentación que se obtiene del conjunto de datos de entrenamiento. En lugar de actualizar los parámetros del modelo de manera exhaustiva con todos los datos de entrenamiento en cada iteración (como ocurre en el descenso de gradiente regular), el descenso de gradiente estocástico utiliza pequeñas muestras aleatorias de los datos de entrenamiento (conocidas como «minilotes» o «batches») en cada iteración para actualizar los parámetros del modelo.

El descenso de gradiente estocástico es especialmente útil cuando el conjunto de datos de entrenamiento es muy grande, ya que permite que el modelo se entrene de manera más eficiente al procesar pequeñas muestras de los datos a la vez. Además, el descenso de gradiente estocástico puede ayudar a evitar que el modelo se quede atrapado en óptimos locales y a converger más rápido hacia un óptimo global.

El descenso de gradiente estocástico es un algoritmo ampliamente utilizado en la optimización de modelos de aprendizaje profundo, y es esencial para el entrenamiento de grandes redes neuronales que requieren grandes conjuntos de datos de entrenamiento.

Scroll al inicio