Módulo 4
Uso seguro y responsable de la IA
Módulo 4
Uso seguro y responsable de la IA
Los objetivos principales de este módulo son:
👉 Analizar los problemas de sesgo y equidad en la IA y el aprendizaje automático (Machine Learning).
👉 Comprender la importancia de la privacidad de los datos al usar herramientas de IA.
👉 Examinar las limitaciones y los posibles errores de las herramientas de IA y qué hacer.
Si bien somos optimistas sobre el potencial de la IA, reconocemos que las tecnologías avanzadas pueden plantear desafíos importantes que deben abordarse de manera clara y reflexiva. El propósito de este módulo es enfatizar el uso responsable y seguro de la IA, para utilizar Gemini de manera audaz y responsable.
Puedes acceder a la presentación de los contenidos de este Módulo a través del siguiente enlace: Presentación Módulo 4
La Inteligencia Artificial no está exenta de limitaciones. Uno de los retos más importantes en su aplicación educativa es la detección y gestión de los sesgos que pueden aparecer en los datos y, en consecuencia, en las respuestas que ofrece.
👉 Como cualquier nuevo desarrollo tecnológico, la IA debe evaluarse para detectar posibles sesgos que podrían afectar negativamente a estudiantes y docentes.
👉 Los sistemas de IA reflejan sesgos en sus datos de entrenamiento. Los modelos de chatbots se entrenan con grandes conjuntos de datos publicados que reflejan sesgos sociales en torno a la raza, el género, la cultura y más.
👉 Los sistemas de IA sesgados podrían generar experiencias educativas desiguales, como que los estudiantes reciban distintos tipos de recomendaciones o respuestas.
👉 El profesorado tiene un papel fundamental a la hora de identificar y mitigar el sesgo algorítmico en el aula. A continuación, analizaremos algunas formas de hacerlo con el alumnado.
El papel del profesorado es clave para garantizar que el uso de la Inteligencia Artificial sea responsable y equitativo. Para ello, es fundamental aplicar prácticas que promuevan la imparcialidad y enseñen al alumnado a reflexionar sobre los posibles sesgos de estas tecnologías.
👉 Evaluar críticamente la imparcialidad de los sistemas de IA en cada interacción.
👉 Fomentar la inclusión en los equipos que evalúan los productos de IA utilizados.
👉 Enseñar a los estudiantes a pensar críticamente sobre los posibles sesgos de la IA.
👉 Abogar por una mayor transparencia y responsabilidad en torno a la IA.
Toma 5 minutos para pensar cómo puedes hacer esto en tu entorno.
Gemini es un asistente de Inteligencia Artificial de Google que tiene limitaciones y no siempre genera respuestas precisas.
👉 Cuando interactúas con chatbots, recuerda que pueden estar totalmente equivocados.
👉 Aunque una respuesta parezca factible, los detalles pueden ser inexactos.
👉 Al pedir citas o referencias, es posible recibir referencias inexactas que parecen creíbles.
Sabemos que las respuestas de los chatbots son falibles, tienen limitaciones y no siempre son correctas. Los errores en las respuestas se denominan alucinaciones. Cuando uses herramientas de IA como Gemini, recuerda comprobar la precisión y la veracidad de las respuestas. Siempre revisa los resultados cuidadosamente.
Tres formas en las que los chatbots generan información inexacta o errónea
👉 Hechos inventados
Los chatbots pueden inventar afirmaciones, estadísticas o detalles que en realidad no estaban en sus datos de entrenamiento. “Rellenan los huecos” inventando hechos para tratar de parecer más completos o coherentes.
👉 Lógica defectuosa
El razonamiento que los chatbots utilizan para generar respuestas puede ser defectuoso. Pueden llegar a conclusiones no sustentadas o no considerar evidencia que contradice sus argumentos.
👉 Fuentes falsas
Cuando se les solicitan fuentes, los chatbots pueden inventar autores, publicaciones e incluso estudios completos. Esto puede ser un problema si la información inventada suena factible y no la verificamos.
Para aprovechar al máximo las respuestas generadas por la Inteligencia Artificial es necesario aplicar una mirada crítica. Un recurso útil es el marco AAA, que ayuda a revisar si la información ofrecida es precisa, pertinente y alineada con el contexto educativo.
Precisión (Accurate), Pertinencia (Appropriate) y Coincidencia (Aligned)
Utiliza el marco AAA para revisar tus respuestas:
👉 Precisión
¿La respuesta contiene errores factuales o desinformación?
¿Las afirmaciones se pueden verificar en fuentes confiables?
¿La lógica y el razonamiento tienen fundamento?
👉 Pertinencia
¿La respuesta aborda directamente la pregunta o instrucción?
¿Está relacionada con el tema y es relevante para la tarea?
¿Promueve el diálogo significativo?
👉 Coincidencia
¿Es adecuada al contexto educativo?
¿Usa un lenguaje profesional y acorde con normas educativas?
¿Las ideas o ejemplos son apropiados para la edad?
Consejos adicionales
👉 Haz preguntas de seguimiento o reformula la respuesta para verificar coherencia.
👉 Consulta fuentes de referencia tradicionales y expertos para validar conceptos.
👉 Considera las limitaciones y datos de entrenamiento del chatbot.
👉 Recuerda que Gemini puede mostrar información inexacta, incluso sobre personas, así que verifica sus respuestas antes de usarlas en un entorno educativo.
👉 No se debe utilizar ninguna información confidencial, incluidos los datos de los estudiantes, en las instrucciones o prompts para Gemini.
La protección de datos es un factor importante a tener en cuenta al utilizar chatbots de IA. Evalúa si estás siguiendo las pautas recomendadas de privacidad.
Aquí tienes tres preguntas útiles sobre la información contenida en tus prompts y chats:
👉 ¿Es anónimo?
¿Se ha omitido toda la información personal o se ha reemplazado por seudónimos para evitar identificar a una persona específica?
👉 ¿Se comparten solo los datos necesarios?
¿Se está utilizando únicamente la información estrictamente necesaria para la tarea en cuestión?
👉 ¿Se podría realizar ingeniería inversa?
¿Es posible rastrear los datos utilizados y obtener información sensible?
Se recomienda utilizar modelos de IA seguros si se manejan datos confidenciales y seguir siempre las políticas de privacidad de la autoridad educativa.
👉 ¿Cómo explicarías a tus estudiantes la importancia de la evaluación crítica de las respuestas de la IA? ¿Por qué es importante que lo sepan?
👉 ¿Qué harías si una herramienta de IA que estás utilizando en clase comete un error inesperado o produce resultados sesgados?
Antes de continuar, toma un tiempo para revisar tus aprendizajes de este módulo:
👉 Puedo explicar cómo los LLM están sesgados y cómo esto se relaciona con los datos de entrenamiento.
👉 Sé qué consideraciones tener con los datos al utilizar herramientas de IA generativa.
👉 Entiendo los límites de las herramientas de IA experimentales.