Ir al contenido

Diferencia entre revisiones de «Dropout (redes neuronales)»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
JKmimel (discusión · contribs.)
Creado al traducir la página «Dilution (neural networks)»
(Sin diferencias)

Revisión del 09:54 6 feb 2021

Dilución (tambien conocido como Dropout) es una técnica de regularización para reducir el sobreajuste en redes neuronales artificiales. Es una forma eficiente de realizar promedios de modelos con redes neuronales. El término dropout significa "abandonar" u omitir aleatoriamente neuronas(tanto ocultas como visibles) durante el proceso de entrenamiento de una red neuronal. [1]​ Tanto la reducción de los pesos como omitir unidades obtienen el mismo tipo de regularización.

Tipos y usos

La dilución normalmente se separa en dilución débil y dilución fuerte. La dilución débil describe el proceso en qué la cantidad de conexiones eliminadas es pequeña, y la dilución fuerte refiere a cuándo esta cantidad es grande. No hay una clara distinción sobre dónde esta el limite entre la dilución débil y la fuerte. Aunque la distinción no tiene sentido, tiene implicaciones a la hora de elegir una solución para resolver el problema.

A veces la dilución se utiliza para añadir ruido. En aquel caso, la dilución débil añade una cantidad pequeña de ruido, mientras que la dilución fuerte añade una cantidad más grande.

Se suele referir a estas técnicas como un proceso de poda aleatoria de pesos. Se poda la red, y se mantiene si produce una mejora sobre el modelo anterior. Dilución y dropout ambas se refieren a un proceso iterativo. La poda de los pesos típicamente no implica que la red continúe aprendiendo, mientras que en dilución/dropout, la red continúa aprendiendo.

Red lineal generalizada

La salida de una capa de nodos lineales, en una red neuronal artificial puede ser descrita como

 

 

 

 

(1)

  • – Salida del nodo
  • – Peso real antes de que dilución, también llamado fuerza de conexión de Hebb
  • – Entrada del nodo

Esto puede ser escrito en notación de vector como

 

 

 

 

(2)

  • – Vector de salida
  • – Matriz de pesos
  • – Vector de entrada

Las ecuaciones anteriores son utilizadas en las secciones subsiguientes.

Dilución débil

Durante la dilución débil, la cantidad de conexiones eliminadas(neuronas) es pequeña, dando lugar a una pequeña incertidumbre. Esta incertidumbre puede ser solucionada aplicando lateoría de campo malo. En dilución débil el impacto en los pesos puede ser descrito como

 

 

 

 

(3)

  • - peso diluido
  • - peso real antes de la dilución
  • - la probabilidad de , la probabilidad de mantener un peso

Se puede interpretar como la poda del peso en vez de la probabilidad de mantenerlo

En notación vectorial, esto se puede escribir como

 

 

 

 

(4)

Donde impone la dilución anterior.

Cuando el número de términos en la suma llega a infinito (los pesos de cada neurona), sigue siendo infinito (la fracción es fija), por lo que se puede aplicar la teoría de campo medio . En la notación de Hertz et al. [2]​ esto se escribiría como

 

 

 

 

(5)

  • la temperatura media del campo
  • - un factor de escala para la temperatura a partir de la probabilidad de mantener el peso
  • - peso real antes de la dilución, también llamado fuerza de conexión Hebb
  • - los estados de equilibrio estable medio

Hay algunas suposiciones que no se enumeran aquí. [3][4]

Dilución fuerte

Cuando la dilución es fuerte, la cantidad de conexiones eliminadas es grande, lo que genera mucha más incertidumbre.

Dropout

Dropout es un caso especial de la ecuación anterior (3), donde la ecuaciónse ajusta para eliminar una fila completa en la matriz, y no solo ponderaciones al azar.

 

 

 

 

(6)

  • - la probabilidad para mantener una fila en la matriz de peso
  • - fila real en la matriz de peso antes de la eliminación
  • - fila diluida en la matriz de peso

Debido a que la técnica de dropout elimina una fila completa de la matriz los supuestos anteriores para la dilución débil y el uso de la teoría del campo medio no son aplicables.

El proceso por el cual el nodo se lleva a cero, ya sea estableciendo los pesos en cero, "eliminando el nodo" o por algún otro medio, no afecta al resultado final. Si la red neuronal es procesada por un multiplicador de matrices digital de alto rendimiento, entonces es probable que sea más efectivo llevar el valor a cero más tarde en el gráfico del proceso. Si la red es procesada por un procesador restringido, tal vez incluso por un procesador analógico, entonces es probable que una solución más eficiente sea llevar el valor a cero al principio del proceso.

Patente de Google

Aunque ha habido ejemplos de eliminación aleatoria de conexiones entre neuronas en una red neuronal para mejorar los modelos, [2]​ esta técnica fue introducida por primera vez con el nombre de dropout por Geoffrey Hinton, et al. en 2012. Google tiene actualmente la patente de la técnica de dropout. [note 1]

Ver también

Notas

  1. The patent is most likely not valid due to previous art. “Dropout” has been described as “dilution” in previous publications. It is described by Hertz, Krogh, and Palmer in Introduction to the Theory of Neural Computation (1991) ISBN 0-201-51560-1, pp. 45, Weak Dilution. The text references Sompolinsky The Theory of Neural Networks: The Hebb Rules and Beyond in Heidelberg Colloquium on Glossy Dynamics (1987) and Canning and Gardner Partially Connected Models of Neural Networks in Journal of Physics (1988). It goes on to describe strong dilution. This predates Hinton's paper.

Referencias

  1. «Dropout: Una forma facil de preveer el sobreajuste». Jmlr.org. Consultado el 26 de julio de 2015. 
  2. a b Hertz, John; Krogh, Anders; Palmer, Richard (1991). Introducción a la teoría de la computación neuronal. Redwood City, California: Addison-Wesley Pub. Co. pp. 45-46. ISBN 0-201-51560-1.  Error en la cita: Etiqueta <ref> no válida; el nombre «:1» está definido varias veces con contenidos diferentes
  3. Sompolinsky, H. (1987), «La teoría de las redes neuronales: La regla de Hebb», Coloquio de Heidelberg en Glassy Dynamics, Notas de lectura en fisicas (Berlin, Heidelberg: Springer Berlin Heidelberg) 275: 485-527, Bibcode:1987LNP...275..485S, ISBN 978-3-540-17777-7, doi:10.1007/bfb0057531 .
  4. Canning, A; Gardner, E (7 de agosto de 1988). «Modelos parcialmente conectados en redes neuronales». Journal of Physics A: Mathematical and General 21 (15): 3275-3284. Bibcode:1988JPhA...21.3275C. ISSN 0305-4470. doi:10.1088/0305-4470/21/15/016.