(La presentación situada encima tiene enlaces funcionales en su interior)
Nuestras compañeras han elaborado una presentación sobre Privacidad en la Inteligencia Artificial, donde se aborda cómo la Inteligencia Artificial recolecta y utiliza datos personales. Nos informan de que la IA almacena esta información, la usa para entrenar modelos y puede ser casi imposible de borrar completamente, con el consiguiente riesgo de que caiga en manos de terceros.
También exploran diversas amenazas a la privacidad, como el "dumpster diving" (búsqueda de información en basura física o digital), los riesgos en teléfonos móviles (malware, explotación de vulnerabilidades), las "llamadas fantasma" generadas por bots o errores de asistentes virtuales, y cómo aplicaciones como las de Play Store pueden espiar a los usuarios. Además, discuten la controvertida cuestión de si los móviles escuchan activamente las conversaciones, concluyendo que si bien no hay pruebas de escucha constante, las apps acceden al micrófono con permiso.
Este grupo de trabajo da a conocer OSINT (Inteligencia de Fuentes Abiertas) como una técnica para recopilar información pública y herramientas como "Have I Been Pwned" para verificar brechas de seguridad y "Have I Been Trained" para saber si imágenes personales han sido usadas para entrenar IAs. Asimismo, nos cuentan la integración de Meta AI en WhatsApp como ejemplo actual y polémico. Tal y como se puede ver en las fotografías debajo recogidas, realizan demostraciones en directo de algunas de estas herramientas.
Finalmente, concluyen que la privacidad en la IA es esencial, y es crucial establecer regulaciones éticas para equilibrar el avance tecnológico con la protección de datos personales.
Aplausos recibidos al terminar la ponencia