Actividad: Ética e Inteligencia Artificial en escenarios críticos
Actividad: Ética e Inteligencia Artificial en escenarios críticos
Propósito: Analizar dilemas éticos en el uso de la IA (militar, emergencias médicas, sistemas autónomos) y proponer códigos de conducta responsables.
INDUCCIÓN.
Tema: IA militar, dilemas del tranvía, protocolos de veto ético
Dinámica:
El docente plantea un dilema inicial: ¿Debería una IA militar decidir sobre la vida y la muerte en combate?
Presenta brevemente:
Dilema del tranvía: decidir salvar más vidas a costa de otras.
Armas autónomas (LAWS): sistemas de IA que pueden disparar sin intervención humana.
Protocolos de veto ético: reglas o “botones rojos” que limitan acciones de una IA.
Conversatorio guiado:
¿Qué riesgos trae dejar que una IA decida en situaciones extremas?
¿Qué valores deberían priorizarse (vida, seguridad, justicia, derechos humanos)?
👉 Se construyen en la pizarra 3 principios básicos iniciales propuestos por la clase (ejemplo: “La IA nunca debe reemplazar la dignidad humana”).
TRABAJO INDIVIDUAL
Instrucciones:
Cada estudiante elige uno de los siguientes casos y redacta un análisis corto (1 página):
LAWS (Lethal Autonomous Weapons Systems): ¿Debería estar permitido que un dron autónomo decida disparar? ¿Qué dilemas éticos surgen?
IA en emergencias médicas: Un sistema de IA debe asignar recursos médicos (respiradores, trasplantes, etc.). ¿Qué criterio debe usar? ¿Qué valores están en juego?
Guía para el análisis:
Descripción breve del caso.
Dilemas o conflictos éticos.
Posición personal con argumentos.
TRABAJO EN GRUPO
Dinámica:
Grupos de 4–5 estudiantes.
Cada grupo debe redactar un código deontológico ficticio para diseñadores de IA, que contenga al menos 5 principios.
Ejemplos de principios posibles:
Respeto por la vida humana.
Transparencia en la toma de decisiones.
Intervención obligatoria de un humano en casos críticos.
Protección de la privacidad y datos sensibles.
Prohibición de uso para discriminación o violencia injustificada.
CIERRE
Dinámica:
Cada grupo nombra un portavoz y actúa como un “consejo ético” que defiende su código.
Los demás grupos hacen preguntas críticas (evaluación cruzada).
El docente modera y guía hacia una síntesis colectiva: ¿qué principios deberían ser universales en el diseño de IA?
Producto final:
Un “Código Ético de la Clase” con los puntos en común entre todos los grupos.
HERRAMIENTAS DE IA DE AYUDA