2.2 Conceptos clave
Aunque en el BLOQUE 1 pudiste acceder a un glosario de términos, hemos creído conveniente añadir, repasar y ampliar algunos conceptos relativos a la IA generativa.
Modelo generativo: es un modelo que aprende a generar nuevas muestras de datos que se asemejan a un conjunto de datos dado. Captura patrones y estructuras subyacentes en los datos y puede generar nuevas muestras que siguen la misma distribución.
Creación propia usando Stable Diffusion vía Clipdrop
Modelo discriminativo: en contraste con un modelo generativo, se centra en modelado del límite o superficie de decisión entre diferentes clases o categorías en el dato. Los modelos discriminatorios pretenden clasificar o etiquetar los datos en función de sus características en lugar de ir generando nuevas muestras. Un ejemplo de modelo discriminatorio es el clasificador de imágenes. Si, por ejemplo, tenemos un conjunto de imágenes de gatos y perros, y queremos entrenar un modelo para distinguir entre estas dos clases, el modelo discriminatorio se centrará en aprender las características que diferencian a los gatos de los perros, como la forma de las orejas, el pelo y otras características visuales. Luego, cuando se le presente una nueva imagen, el modelo evaluará esas características y determinará si es más probable que sea un gato o un perro. En este caso, el modelo no es de IA generativa, pero se menciona para entender mejor el siguiente término, las redes adversarias generativas.
Redes adversarias generativas (GAN): son un tipo de modelo generativo que consta de dos redes neuronales: un generador y un discriminador. El generador crea nuevas muestras, mientras que el discriminador trata de distinguir entre ejemplos reales y las muestras generadas. Las dos redes están entrenadas juntas en un proceso competitivo para mejorar la calidad de las muestras generadas.
Estructura de una GAN, creación propia
Modelo autorregresivo: es un tipo de modelo que se utiliza para predecir o generar secuencias de datos como texto, imágenes o señales temporales, de manera secuencial. En estos modelos, cada elemento en la secuencia se predice o genera basándose en los elementos anteriores de la misma secuencia. La idea central detrás de los modelos autorregresivos es que la probabilidad de un elemento en la secuencia depende de los elementos que lo preceden. Estos modelos son especialmente útiles para datos secuenciales, donde el orden y la relación temporal entre los elementos son importantes. Un ejemplo común de modelo autorregresivo es un modelo de lenguaje para generar texto. En este caso, el modelo predice la siguiente palabra en una oración basándose en las palabras que ya se han generado previamente.
Espacio latente: representa las características esenciales de los datos originales. Cada punto en este espacio latente corresponde a una posible variación de los datos, y se utiliza para generar nuevas muestras que comparten similitudes con los datos de entrenamiento. El espacio latente captura lo esencial de los datos y permite manipular esas características para crear nuevas muestras de manera controlada y significativa. Puedes ampliar información sobre el espacio latente en este artículo.
El espacio latente en una IA, del canal Jorge Calvo, bajo licencia Youtube Estandar
Deepfake: se refiere a imágenes manipuladas o contenido multimedia sintetizado, como imágenes o vídeos, que han sido creados utilizando técnicas generativas de IA. Esta tecnología puede crear contenido falso altamente realista, lo que plantea preocupaciones sobre su posible uso indebido para difundir información errónea. ¿Quieres saber más sobre deepfake y su uso educativo? ¡Haz clic en este enlace!
Creación propia usando Stable Diffusion vía Clipdrop
Generación condicional: es un enfoque en la IA generativa en el cual se crean muestras de datos basadas en ciertas condiciones o entradas específicas. En lugar de generar muestras aleatorias, el modelo generativo toma en cuenta información adicional para producir resultados más específicos y relevantes. Por ejemplo, en el caso de la generación de texto, un modelo generativo condicional podría estar influenciado por un contexto o una palabra clave específica. Si se le proporciona una palabra clave relacionada con "comida", el modelo podría generar un texto relevante sobre recetas o restaurantes. Esto permite que el proceso de generación sea más dirigido y útil para tareas específicas y, en este caso, podría generar un texto más relevante y coherente.
Codificador automático variacional (VAE): son una variante de los autoencoders, que son redes neuronales diseñadas para aprender una representación compacta y significativa de los datos de entrada. Los VAEs añaden un enfoque probabilístico a esta representación: tienen capacidad para aprender una distribución de probabilidad en el espacio latente en lugar de solo aprender una representación determinista. Esto permite que los VAEs generen nuevas muestras que se asemejan a los datos de entrada, pero también exploran y generan datos completamente nuevos al muestrear en el espacio latente.
Inferencia: se refiere al proceso de generar nuevas muestras a partir de un modelo generativo correctamente entrenado.