INDUCCIÓN.
IA explicable y sistemas de recomendación.
INDUCCIÓN.
IA explicable y sistemas de recomendación.
Objetivo: Profundizar en la comprensión de modelos de recomendación, los desafíos éticos del "caja negra", y aplicar este conocimiento en diseño de políticas públicas simulando recomendaciones automatizadas.
Tema: Exploración de la Inteligencia Artificial en medicina, finanzas, justicia y creación de contenido
Inicia mostrando el video “Explainable AI — Lime and SHAP”, que explica cómo estas técnicas permiten interpretar decisiones automáticas de modelos complejos.
Complementa con una lectura breve:
Comparativa de SHAP vs LIME, con sus fortalezas, límites y aplicación general:
Number Analytics+12MarkovML+12Codez Up+12DeepCore AI
Explicación detallada de SHAP (teoría y visualización de explicaciones):
ML JourneyWikipedia
Reflexión en clase:
¿Por qué muchos sistemas (como Netflix o Facebook) parecen "caja negra"?
¿Cómo ayudarían SHAP o LIME a entender sus decisiones?
TRABAJO INDIVIDUAL
Consigna:
Escribe un ensayo de 200–250 palabras abordando:
Qué significa que un sistema sea una "caja negra".
Diferencia entre Lime y Shap
Riesgos clave (falta de transparencia, sesgo, falta de rendición de cuentas).
¿Cómo podrían SHAP o LIME ayudar?
¿Dónde podrían no ser suficientes?
Puedes apoyarte en los materiales vistos. Cita brevemente los conceptos y conecta con ejemplos reales como redes sociales o salud.
Guia de investigación.
Video: Explainable AI — Lime and SHAP
DeepCore AIWikipediaCodez Up+12YouTube+12YouTube+12
Comparativa SHAP vs LIME (teoría y ejemplos)
Wikipedia+1
Artículo explicando SHAP a fondo (teoría de juegos y visualizaciones)
Wikipedia
Simulación de recomendadores (T‑RECS)
github.com+3arXiv+3CS Princeton+3
Guía de simulaciones de políticas públicas
Policy Simulations+1
NetLogo (environment para simulaciones)
Wikipedia+1
TRABAJO EN GRUPO
Actividad:
En equipos de 2 –4, diseñen una política pública simulada (ej.: asignación de recursos educativos, promoción de salud comunitaria) que use un sistema de recomendación automatizado.
Herramientas y referencias para simular y fundamentar:
NetLogo Web, entorno para simular agentes e interacciones locales:
arXivCS Princeton+15Klio+15Codez Up+15Codez Up+2ApX Machine Learning+2YouTube+4YouTube+4DeepCore AI+4Wikipedia
Referencias sobre simulación de sistemas de recomendación y su impacto sociológico (T‑RECS):
arXiv+2CS Princeton+2
Guías sobre simulación de políticas públicas para entender el contexto y diseño:
Policy Simulations+6Number Analytics+6Rise Global Education+6
Pasos para los grupos:
Definir el problema local (e.g., priorizar vacunas, sugerir actividades escolares inclusivas).
Diseñar un mecanismo de recomendación tridimensional (qué factores consideraría: edad, acceso, necesidad).
Simular o esbozar usando NetLogo el flujo: ciudadanos interactúan con recomendaciones.
Usar SHAP o LIME (solo como idea conceptual) para identificar por qué el sistema prioriza ciertos grupos o decisiones.
Registrar en una cartulina o digital:
Contexto y problema público
Variables del recomendador
Cómo se explicaría su decisión con SHAP/LIME
Riesgo ético (sesgo, falta de transparencia)
CIERRE
Cada grupo presenta su simulación (5 min total por grupo).
En plenaria, responden:
¿Qué parte del sistema recomendador fue más difícil de explicar?
¿Qué riesgos identificaron y cómo los mitigaron?
Reflexión final: ¿Debemos permitir que decisiones importantes (como subsidios, salud, educación) sean automatizadas sin transparencia?
RUBRICA DE EVALUACIÓN,