
Antes de aprender la Red Neuronal de Retropropagación (BPNN), vamos a entender:
Una red neuronal es un grupo de unidades de entrada/salida conectadas, donde cada conexión tiene un peso asociado con sus programas informáticos. Te ayuda a construir modelos predictivos a partir de grandes bases de datos. Este modelo se basa en el sistema nervioso humano. Te ayuda a realizar comprensión de imágenes, aprendizaje humano, habla informática, etc.
Retropropagación es la esencia del entrenamiento de redes neuronales. Es el método de ajustar los pesos de una red neuronal en función de la tasa de error obtenida en la época anterior (es decir, iteración). El ajuste adecuado de los pesos te permite reducir las tasas de error y hacer que el modelo sea confiable al aumentar su generalización.
La retropropagación en la red neuronal es una forma abreviada de «propagación hacia atrás de errores». Es un método estándar para entrenar redes neuronales artificiales. Este método ayuda a calcular el gradiente de una función de pérdida con respecto a todos los pesos de la red.
En este tutorial, aprenderás:
El algoritmo de retropropagación en la red neuronal calcula el gradiente de la función de pérdida para un solo peso mediante la regla de la cadena. Calcula eficientemente una capa a la vez, a diferencia de un cálculo directo nativo. Calcula el gradiente, pero no define cómo se utiliza el gradiente. Generaliza el cálculo en la regla delta.
Considera el siguiente ejemplo de diagrama de red neuronal de retropropagación para entender:
ErrorB= Salida real - Salida deseada
Repetir el proceso hasta lograr la salida deseada.
Las ventajas más destacadas de la retropropagación son:
Una red neuronal de avance es una red neuronal artificial donde los nodos nunca forman un ciclo. Este tipo de red neuronal tiene una capa de entrada, capas ocultas y una capa de salida. Es el primer y más simple tipo de red neuronal artificial.
Dos tipos de redes de retropropagación son:
Es un tipo de red de retropropagación que produce un mapeo de una entrada estática a una salida estática. Es útil para resolver problemas de clasificación estática como el reconocimiento óptico de caracteres.
La retropropagación recurrente en la minería de datos avanza hasta que se logra un valor fijo. Después de eso, se calcula el error y se propaga hacia atrás.
La diferencia principal entre ambos métodos es que el mapeo es rápido en la retropropagación estática, mientras que es no estable en la retropropagación recurrente.
La retropropagación en la red neuronal se puede explicar con la ayuda de la analogía del «cordón de zapato»
Calle Eloy Gonzalo, 27
Madrid, Madrid.
Código Postal 28010
Paseo de la Reforma 26
Colonia Juárez, Cuauhtémoc
Ciudad de México 06600
Real Cariari
Autopista General Cañas,
San José, SJ 40104
Av. Jorge Basadre 349
San Isidro
Lima, LIM 15073