To install click the Add extension button. That's it.

The source code for the WIKI 2 extension is being checked by specialists of the Mozilla Foundation, Google, and Apple. You could also do it yourself at any point in time.

4,5
Kelly Slayton
Congratulations on this excellent venture… what a great idea!
Alexander Grigorievskiy
I use WIKI 2 every day and almost forgot how the original Wikipedia looks like.
Live Statistics
Spanish Articles
Improved in 24 Hours
Added in 24 Hours
What we do. Every page goes through several hundred of perfecting techniques; in live mode. Quite the same Wikipedia. Just better.
.
Leo
Newton
Brights
Milds

Modelo de difusión

De Wikipedia, la enciclopedia libre

En el aprendizaje automático, los modelos de difusión, también conocidos como modelos probabilísticos de difusión, son una clase de modelos de variables latentes. Son cadenas de Markov entrenadas mediante inferencia variacional.[1]​ El objetivo de los modelos de difusión es aprender la estructura latente de un conjunto de datos modelando la forma en que los puntos de datos se difunden a través del espacio latente. En visión artificial, esto significa que se entrena una red neuronal para eliminar el ruido de las imágenes borrosas con ruido gaussiano aprendiendo a invertir el proceso de difusión.[2][3]

Los modelos de difusión se introdujeron en 2015 con una motivación de la termodinámica del no equilibrio.[4]

Los modelos de difusión se pueden aplicar a una variedad de tareas, incluida la eliminación de ruido de imágenes, la pintura, la superresolución y la generación de imágenes. Por ejemplo, un modelo de generación de imágenes comenzaría con una imagen de ruido aleatorio y, después de haber sido entrenado invirtiendo el proceso de difusión en imágenes naturales, el modelo sería capaz de generar nuevas imágenes naturales. Anunciado el 13 de abril de 2022, el modelo de texto a imagen DALL-E 2 de OpenAI es un ejemplo reciente. Utiliza modelos de difusión tanto para el modelo a priori (que produce una imagen incrustada dada una leyenda) como para el descodificador que genera la imagen final.[5]

Véase también

Referencias

  1. Ho, Jonathan; Jain, Ajay; Abbeel, Pieter (19 de junio de 2020). Denoising Diffusion Probabilistic Models (en inglés). arXiv:2006.11239. 
  2. Song, Yang; Ermon, Stefano (2020). Improved Techniques for Training Score-Based Generative Models (en inglés). arXiv:2006.09011. 
  3. Gu, Shuyang; Chen, Dong; Bao, Jianmin; Wen, Fang; Zhang, Bo; Chen, Dongdong; Yuan, Lu; Guo, Baining (2021). Vector Quantized Diffusion Model for Text-to-Image Synthesis. arXiv:2111.14822. 
  4. Sohl-Dickstein, Jascha; Weiss, Eric; Maheswaranathan, Niru; Ganguli, Surya (1 de junio de 2015). «Deep Unsupervised Learning using Nonequilibrium Thermodynamics». Proceedings of the 32nd International Conference on Machine Learning (en inglés) (PMLR) 37: 2256-2265. 
  5. Ramesh, Aditya; Dhariwal, Prafulla; Nichol, Alex; Chu, Casey; Chen, Mark (2022). Hierarchical Text-Conditional Image Generation with CLIP Latents (en inglés). arXiv:2204.06125. 
Esta página se editó por última vez el 10 oct 2023 a las 17:06.
Basis of this page is in Wikipedia. Text is available under the CC BY-SA 3.0 Unported License. Non-text media are available under their specified licenses. Wikipedia® is a registered trademark of the Wikimedia Foundation, Inc. WIKI 2 is an independent company and has no affiliation with Wikimedia Foundation.