Retropropagación

¿Qué es Retropropagación?

La retropropagación (backpropagation en inglés) es un algoritmo utilizado en las redes neuronales artificiales supervisadas para ajustar los pesos de las conexiones entre las neuronas, con el fin de reducir el error en la predicción de un modelo. El objetivo de la retropropagación es minimizar una función de error o función de costo que mide la diferencia entre la salida real y la salida esperada.

La retropropagación funciona propagando el error hacia atrás a través de la red neuronal, comenzando por la capa de salida y retrocediendo hacia las capas ocultas. Para cada capa, se calcula la contribución relativa de cada neurona a la función de costo, y se utilizan estas contribuciones para ajustar los pesos de las conexiones.

La retropropagación se basa en la regla de la cadena de la derivada, que permite calcular la tasa de cambio de una función compuesta en términos de las tasas de cambio de sus componentes individuales. En el contexto de la retropropagación, la regla de la cadena se utiliza para calcular la contribución de cada neurona a la función de costo, en función de sus entradas y de los pesos de las conexiones que la conectan con las capas siguientes.

La retropropagación es uno de los algoritmos más utilizados en el entrenamiento de redes neuronales supervisadas, y ha demostrado ser efectivo en una amplia variedad de aplicaciones, como el reconocimiento de patrones, la clasificación de imágenes y el procesamiento del lenguaje natural.

Scroll al inicio