Modelo de difusión

De Wikipedia, la enciclopedia libre

En el aprendizaje automático, los modelos de difusión, también conocidos como modelos probabilísticos de difusión, son una clase de modelos de variables latentes. Son cadenas de Markov entrenadas mediante inferencia variacional.[1]​ El objetivo de los modelos de difusión es aprender la estructura latente de un conjunto de datos modelando la forma en que los puntos de datos se difunden a través del espacio latente. En visión artificial, esto significa que se entrena una red neuronal para eliminar el ruido de las imágenes borrosas con ruido gaussiano aprendiendo a invertir el proceso de difusión.[2][3]

Los modelos de difusión se introdujeron en 2015 con una motivación de la termodinámica del no equilibrio.[4]

Los modelos de difusión se pueden aplicar a una variedad de tareas, incluida la eliminación de ruido de imágenes, la pintura, la superresolución y la generación de imágenes. Por ejemplo, un modelo de generación de imágenes comenzaría con una imagen de ruido aleatorio y, después de haber sido entrenado invirtiendo el proceso de difusión en imágenes naturales, el modelo sería capaz de generar nuevas imágenes naturales. Anunciado el 13 de abril de 2022, el modelo de texto a imagen DALL-E 2 de OpenAI es un ejemplo reciente. Utiliza modelos de difusión tanto para el modelo a priori (que produce una imagen incrustada dada una leyenda) como para el descodificador que genera la imagen final.[5]

Véase también[editar]

Referencias[editar]

  1. Ho, Jonathan; Jain, Ajay; Abbeel, Pieter (19 de junio de 2020). Denoising Diffusion Probabilistic Models (en inglés). arXiv:2006.11239. 
  2. Song, Yang; Ermon, Stefano (2020). Improved Techniques for Training Score-Based Generative Models (en inglés). arXiv:2006.09011. 
  3. Gu, Shuyang; Chen, Dong; Bao, Jianmin; Wen, Fang; Zhang, Bo; Chen, Dongdong; Yuan, Lu; Guo, Baining (2021). Vector Quantized Diffusion Model for Text-to-Image Synthesis. arXiv:2111.14822. 
  4. Sohl-Dickstein, Jascha; Weiss, Eric; Maheswaranathan, Niru; Ganguli, Surya (1 de junio de 2015). «Deep Unsupervised Learning using Nonequilibrium Thermodynamics». Proceedings of the 32nd International Conference on Machine Learning (en inglés) (PMLR) 37: 2256-2265. 
  5. Ramesh, Aditya; Dhariwal, Prafulla; Nichol, Alex; Chu, Casey; Chen, Mark (2022). Hierarchical Text-Conditional Image Generation with CLIP Latents (en inglés). arXiv:2204.06125.