INDUCCIÓN.
INDUCCIÓN.
Propósito: Activar conocimientos previos y contextualizar conceptos avanzados de IA.
Lluvia de ideas inicial (5-10 min):
¿Qué crees que es una red neuronal? ¿Dónde se usa la inteligencia artificial hoy en día? ¿Qué es el aprendizaje reforzado (RL)?
Busca en la herramienta IA de tu preferencia y da respuesta a esas preguntas orientadoras en su cuaderno de innovacion tecnologica.
TRABAJO INDIVIDUAL
Propósito: Analizar y sintetizar las características clave de cada paradigma de IA.
Lectura comparativa (15-20 min):
Se entrega a los estudiantes un texto guía o fichas con resúmenes breves de:
Arquitectura de DNNs (capas, activación, retropropagación)
Principios del aprendizaje reforzado (agente, entorno, recompensa)
Mecanismo de atención en transformers (self-attention, embeddings)
Actividad: Esquema de comparación visual (30 min):
Cada estudiante elabora un esquema gráfico comparativo en su cuaderno o en una hoja aparte. Puede ser un cuadro triple, un mapa de Venn, o una tabla con columnas.
Debe incluir:
Estructura general
Tipo de datos que procesa
Aplicaciones reales
Cómo “aprende” el modelo
Ventajas y limitaciones
LECTURA
Capas: Las DNNs están compuestas por múltiples capas: una capa de entrada, varias capas ocultas y una capa de salida. Cada capa contiene neuronas que están conectadas a las neuronas de la capa siguiente mediante conexiones ponderadas2.
Función de activación: Cada neurona aplica una función de activación a la suma ponderada de sus entradas para introducir no linealidad, lo que permite a la red modelar relaciones complejas. Funciones comunes incluyen ReLU, sigmoid, tanh, entre otras2.
Retropropagación: Es el algoritmo clave para entrenar DNNs. Calcula el gradiente del error respecto a los pesos y sesgos de la red mediante la regla de la cadena, propagando el error desde la salida hacia las capas anteriores. Esto permite ajustar los pesos para minimizar el error de predicción usando métodos como el descenso del gradiente2.
Parámetros: Las DNN modernas pueden tener millones o miles de millones de parámetros ajustables, lo que les permite aprender representaciones muy complejas2.
Agente: Es el modelo o sistema que toma decisiones y aprende a través de la interacción con el entorno135.
Entorno: Es el espacio o contexto donde el agente actúa, que provee estados y recompensas en función de las acciones del agente135.
Recompensa: Es una señal que puede ser positiva (premio) o negativa (castigo) que guía el aprendizaje del agente para maximizar la recompensa acumulada a largo plazo135.
Proceso: En cada paso de tiempo, el agente observa el estado actual, elige una acción, recibe una recompensa y observa el nuevo estado. El agente aprende a preferir acciones que maximicen la recompensa futura, equilibrando la exploración (probar nuevas acciones) y explotación (usar acciones conocidas)1357.
Marco teórico: Se basa en procesos de decisión de Markov (MDP), que modelan la dinámica entre estados, acciones y recompensas de forma probabilística137.
Self-attention (autoatención): Es el núcleo de la arquitectura Transformer. Permite que cada elemento de la secuencia de entrada preste atención a todos los demás elementos, capturando dependencias contextuales sin importar la distancia en la secuencia46810.
Embeddings: Antes de la atención, las palabras o tokens se convierten en vectores densos (embeddings) que representan características semánticas y sintácticas. Estos embeddings se enriquecen con información posicional para conservar el orden de la secuencia468.
Funcionamiento: El mecanismo calcula tres vectores para cada token: consulta (query), clave (key) y valor (value). La atención se calcula como una ponderación de los valores basada en la similitud entre consultas y claves, lo que permite al modelo enfocar su "atención" en partes relevantes de la entrada810.
Ventajas: Este mecanismo facilita el paralelismo en el entrenamiento y mejora la captura de relaciones a largo plazo en datos secuenciales, superando limitaciones de modelos recurrentes tradicionales
TRABAJO EN GRUPO
Formación de grupos (4-5 estudiantes)
Cada grupo elige o se le asigna uno de los siguientes subtemas:
Transformers y lenguaje natural (ej. ChatGPT, BERT, GPT-4)
Aprendizaje reforzado y robótica (ej. AlphaGo, OpenAI Gym)
DNNs y visión por computador (ej. reconocimiento facial, conducción autónoma)
Modelos multimodales (ej. DALL·E, Gemini, Sora)
Tarea del grupo:
Diseñar un mapa conceptual interactivo (en cartulina o presentación digital) que explique:
¿Qué es el modelo?
¿Cómo funciona?
¿Qué aplicaciones tiene?
¿Qué herramientas lo implementan?
Integración:
Se conectan todos los mapas en una línea de tiempo o red conceptual que visualice el avance de la IA desde las DNNs hasta los modelos actuales.
CIERRE
Propósito: Reflexionar críticamente sobre los alcances, riesgos y potencial de cada paradigma.
Discusión guiada (25 min):
En plenaria o en círculos pequeños, se abordan preguntas como:
¿Qué tipo de IA cambiará más nuestras vidas en los próximos años?
¿Cuál es el mayor peligro de cada uno de estos modelos si se usa mal?
entra a la pagina de Google DeepMind interactua con ella ingresa a la inteligencia artificial de gemini y crea una imagen que contenga un animal y unos audifonos como el ejemplo de la parte derecha.