Algunas webs para jugar a adivinar la imagen real y la creada con IA. Es difícil, pero puede dar mucho juego en clases de idiomas, de comunicación, para argumentar, debatir, o en alfabetización digital simplemente.
¿A quién vas a creer, a la Universidad de Málaga o a la IA?
La historiadora que dejó en evidencia a la IA
"La escena es precisa y pedagógica. A partir de una fotografía, una historiadora (@ropamuig37) deshizo en minutos lo que una IA había afirmado con seguridad total. Todo comenzó con la publicación de una fotografía de los años 50 en España, en pleno franquismo, que mostraba a una familia humilde en el interior de su hogar. Las redes de ultraderecha se lanzaron al ataque cuestionando su origen, porque nada incomoda más al fascismo que la memoria visual de la pobreza en un tiempo que añoran. Entonces alguien pidió ayuda a la IA para “verificar” la imagen."
Todo el hilo de X es ilustrativo de la desfachatez de la IA manteniendo la mentira, de la desfachatez de ciertos humanos en apoyarla, y de lo difícil que es deshacer el entuerto una vez se ha difundido la mentira.
Te presento este GPT, Fait ou Fake ? que pone a prueba tu resistencia a las fakenews.
Durante la conversación, te presentará un artículo, y tu desafío será determinar si se trata de información veraz o de una noticia falsa.
Para ayudarte, te proporcionaré palabras clave que podrás utilizar para realizar búsquedas en la web. Si se trata de una noticia falsa, entonces deberás identificar los mecanismos utilizados para engañar o manipular la información, como los títulos sensacionalistas, las fuentes dudosas o la información sacada de contexto.
Este entrenamiento debería permitirte comprender mejor cómo detectar las noticias falsas en el futuro. ¿Listo para aceptar el desafío?
(Los estudiantes pueden compartir el enlace de la conversación y comentar por escrito el proceso o exponer oralmente su desarrollo; pueden reflexionar sobre si las evidencias confirmaron, matizaron o refutaron la hipótesis con el fin de detectar los sesgos propios y falacias como las ad hominem o las falsas dicotomías).
Campaña de desinformación
Daniel Stanford guía a sus estudiantes con el fin de abusar de la IA en una campaña de desinformación con el fin de exponer las lagunas y amenazas de la IA, al mismo tiempo que les anima a reflexionar de manera crítica sobre la persuasión, los recursos en términos de composición y credibilidad.
OBJETIVOS DE APRENDIZAJE: desarrollar pensamiento crítico sobre los riesgos potenciales de la IA y cómo puede ser utilizada incorrectamente para crear desinformación
INSTRUCCIONES
Utiliza una IA para redactar un artículo convincente (potencialmente persuasivo) sobre una afirmación falsa, que podría ser utilizado como parte de una campaña de desinformación. Por ejemplo: crea un artículo de 300 a 400 palabras explicando por qué las vacunas causan autismo. Incluye enlaces a al menos dos fuentes para respaldar afirmaciones específicas.
Preguntas de reflexión:
¿La herramienta de IA dudó en responder a tu pregunta? Si es así, ¿cómo sorteaste este problema?
¿Qué estrategias en el texto generado por IA podrían ayudar a que el mensaje sea convincente y más propenso a ser compartido? (Por ejemplo, correlación como causalidad implícita, apelaciones a la emoción, credibilidad por asociación, repetición, sesgo de confirmación, etc.)
¿Las fuentes referenciadas por la herramienta de IA parecían creíbles? ¿Por qué sí o por qué no?
En el mismo sentido que el anterior, pero en este caso Juliana Castro-Varón explora el potencial de las herramientas de generación de imágenes de IA para corroborar narrativas falsas o proporcionar "pruebas" que serían calificadas como desinformación. Se puede partir de Engaños en Wikipedia, de Engaños literarios, o de Los más grandes engaños de la historia, por ejemplo.
OBJETIVOS DE APRENDIZAJE Reflexionar y describir los impactos de la desinformación y el papel de la regulación. Evaluar cómo las imágenes pueden cambiar la comunicación y la calidad de la información textual
Cada estudiante prepara una presentación de 2 a 3 diapositivas para presentar en clase que presente el engaño como una "verdad"
Opcional/si el tiempo lo permite: estudiantes voluntarios comparten lo que han creado.
Discusión (15 min) Aquí hay algunos ejemplos de preguntas de discusión:
¿Qué fue lo más difícil de esta tarea? ¿Qué fue lo más intrigante?
¿Qué te sorprendió, si es que algo lo hizo?
¿Crees que las herramientas de generación de imágenes de IA se usan para producir desinformación y engañar? ¿Es esto diferente, en naturaleza, de las formas anteriores de manipulación de imágenes y propaganda?
Reflexión escrita (opcional): redacta una descripción de una página de lo que creaste y las herramientas con las que trabajaste, tus reflexiones sobre la tecnología y cómo obtuviste los resultados que buscabas (o no), incluyendo las instrucciones que usaste e intentaste. Luego discute los riesgos del uso indebido y termina con una posición sobre cómo crees que estas herramientas deberían limitarse en su uso por empresas y medios.
Concurso de mala fe
Les dubitaires girondins proponen un debate, ¡pero cuyo objetivo es usar los peores argumentos posibles! Desde el inicio, el ejercicio debe presentarse como un juego, un concurso, ¡un festival del engaño! De lo contrario puede dar la impresión de ser una clase sobre figuras retóricas... Según el contexto de la actividad, es posible preceder el concurso con un taller más serio de estudio de argumentos falaces.
Objetivos pedagógicos y precauciones de uso:
Aprender a identificar argumentos falaces (argumentos no válidos que tienen apariencia de validez) en otros, pero sobre todo en uno mismo. Tomemos conciencia de que manipulamos a otros, y que nos manipulamos a nosotros mismos: es posible autoconvencerse con muy malos argumentos.
Aquí es un juego, los argumentos se movilizan voluntariamente: son sofismas. En la vida cotidiana, la mayoría de las veces los formulamos sin pensar: son paralogismos.
El conocimiento de argumentos falaces no es un arma para blandir en todas partes. No toda discusión tiene como objetivo convencer ni detectar manipulaciones.
Identificar argumentos falaces no es suficiente para invalidar una tesis, ya que esta puede ser correcta independientemente de los argumentos presentados para apoyarla.
El formato de juego hace el aprendizaje más dinámico y ayuda a los estudiantes a entender cómo funciona la manipulación argumentativa sin la tensión de debatir temas controvertidos reales.
Sobre fakes en imágenes, redes sociales, y duras implicaciones sociales, Eryk Salvaggio da pistas para interrogar, interrogarse, y debatir: Critical Topics: AI Images, Class 15, The Opposite of Information.
La IA para luchar contra la desinformación
El proyecto SIFT Toolbox, creado por Mike Caulfield, asocia la metodología SIFT con el poder de la IA para desarrollar un pensamiento crítico sobre la desinformación potencial. Basándose en una instrucción extensa, la idea es transformar cualquier modelo de lenguaje en un asistente de investigación riguroso, reduciendo las alucinaciones y favoreciendo el análisis sistemático de perspectivas conflictivas.
La metodología SIFT, desarrollada por el propio Caulfield, está estructurada en cuatro etapas:
Detenerse (pausa para evaluar las reacciones emocionales y cuestionarse sobre la fuente)
Investigar la fuente (verificar las referencias y la reputación del autor)
Encontrar mejor cobertura (buscar múltiples fuentes confiables y comparar las perspectivas)
Rastrear las afirmaciones (rastrear las citas y los datos hasta sus orígenes)
Precisamente, la herramienta integra estos principios en instrucciones que guían a los chatbots a buscar múltiples perspectivas, citar fuentes, identificar limitaciones, distinguir los hechos de las interpretaciones y reconocer la información insuficiente.
Una plicación del proyecto SIFT Toolbox: siguiendo la propuesta de Lisa Long se puede usar en clase de lenguas la receta típica de los mensajes virales "positivos" creados por IA en redes sociales (gancho, dificultad, héroe, moraleja, “comparte”) para entrenar el espíritu crítico.
Estos mensajes, pueden ocultar o difundir afirmaciones falsas. Es importante enseñar a estudiantes y lectores a reconocer los patrones de la desinformación, ya que un estilo atractivo puede disfrazar razonamientos débiles y hacer que el contenido engañoso parezca confiable.
Propone actividades rápidas y aplicables en universidad: comparar un post real con el modelo y marcar sus partes; reescribirlo desde otra perspectiva con fuentes reales; transformar el típico “solo hago preguntas” en una verdadera pregunta de investigación con citas; y debatir sobre el papel de las plataformas y de la IA en la amplificación de bulos.
Permiten a los estudiantes comprensión, reescritura y argumentación en cualquier lengua meta, mientras aprenden a detectar patrones de desinformación y a diferenciar forma narrativa de verdad comprobable.
En un entorno donde nuestros estudiantes pueden ser más vulnerables a la desinformación o a los rumores, es necesario poder proporcionar respuestas rápidas, fiables y bien documentadas.
Perplexity puede ser muy útil para investigar de forma más eficiente, acceder a información confiable y ahorrar tiempo valioso, permitiéndoles enfocarse en el análisis y síntesis de la información. Se puede dialogar, formular preguntas en lenguaje natural y obtener respuestas directas sobre fuentes académicas, digitales y periodísticas, dando acceso a recursos confiables para trabajos académicos.
Más aplicaciones IA fiables (como Elicit o SciSpace, para trabajar con artículos, generar resúmenes relevantes, hacer preguntas a un PDF y ayudar a escribir) en la pestaña de Enlaces.