Como es evidente, la idea de acercar la enseñanza de la IA a la educación no universitaria es algo muy novedoso. En consecuencia, hace unos meses se puso en marcha un grupo de trabajo en el que colaboran investigadores del mundo de la IA y docentes de distintos niveles educativos para definir qué debería saber el alumnado sobre IA al terminar cada etapa escolar. Esta iniciativa, que se ha llamado “Artificial Intelligence for K-12” (IA para la educación infantil, primaria y secundaria, AI4K12), está financiada conjuntamente por la Association for the Advancement of Artificial Intelligence (asociación para el avance de la IA, AAAI) y la Computer Science Teacher Association (asociación de docentes de informática, CSTA), y cuenta también con la participación de representantes de la industria, administraciones educativas y entidades sin ánimo de lucro.
Como primer paso para este trabajo, se ha definido un marco para la enseñanza de la IA que se estructura en cinco líneas temáticas. Estas líneas temáticas se corresponden, a su vez, con las cinco ideas principales que todo el mundo debería conocer acerca de la IA, tal como puede verse en la siguiente figura:
1. Percepción
Los ordenadores perciben el mundo utilizando sensores
2. Representación y razonamiento
Los agentes mantienen modelos o representaciones del mundo y las usan para razonar.
3. Aprendizaje
Los ordenadores pueden aprender a partir de datos.
4. Interacción natural
Hacer que los agentes interactúen con los humanos de manera fluida es un desafío enorme para los desarrolladores de IA.
5. Impacto social
La IA puede tener un impacto tanto positivo como negativo sobre la sociedad.
Fuente, AI4K12: https://github.com/touretzkyds/ai4k12/raw/master/documents/AI4K12_Five_Big_Ideas_Poster.pdf
En este curso vamos a seguir este marco para organizar las diferentes actividades que nos ayudarán a comprender en profundidad cada una de estas cinco grandes ideas. Las actividades están diseñadas con la intención de que el alumnado comprenda cómo funcionan los sistemas de IA con los que ya convivimos, a que piense de manera crítica sobre el mundo que le rodea, y a que cuestione el modo en que la tecnología puede influir nuestras vidas. El objetivo final es evitar que tengamos una generación que, sin ser consciente, esté siendo convencida, manipulada y dirigida por sistemas de IA (lo que, hasta cierto punto, está sucediendo actualmente en diferentes ámbitos).
Para saber más
El grupo AI4K12 ha publicado un artículo en el que explica con detalle los objetivos de la iniciativa y el estado actual del trabajo desarrollado, y que se ha utilizado como base para la elaboración de los contenidos de esta sección. Puedes leerlo en el siguiente documento (en inglés):
Touretzky, D., Gardner-McCune, C.,Martin, F., Seehorn, D., (2019) Envisioning AI for K-12 – What should every child know about AI?, AI for K-12 Working Group Report
1ª idea fundamental: Los ordenadores perciben el mundo utilizando sensores
La percepción es el proceso de extraer información a partir de señales sensoriales. La capacidad que tienen los ordenadores para "ver" y "escuchar" lo suficientemente bien como para resultar de utilidad a las personas es uno de los logros más importantes de la IA. Para ello, los ordenadores hacen uso de diferentes tipos de sensores, como micrófonos, cámaras, medidores de distancia, de luminosidad o temperatura, entre otros muchos.
Sin embargo, es importante comprender que, por ejemplo, la percepción de un ordenador del lenguaje hablado o de la imagen visual, requiere contar con un amplio conocimiento del dominio. Así, para entender una frase hablada no solo se deben conocer los sonidos del idioma sino también su vocabulario, gramática y patrones de uso. Y, mientras el ordenador no disponga de tal conocimiento, el reconocimiento de voz realizado por una máquina no puede acercarse a la precisión del nivel humano. Sin embargo, ya se han alcanzado niveles altos de precisión en otros dominios, y todo parece indicar que los sistemas van a mejorar mucho en los próximos años.
Para ilustrar el modo en que las máquinas “ven”, se puede visualizar este vídeo de un coche autónomo, en el que es posible observar en detalle las imágenes captadas por las cámaras del coche en cada momento, y cómo el sistema de IA de reconocimiento de imágenes va detectando e identificando las diferentes señales, coches, peatones, etc. con las que se cruza.
Propuesta: actividad desenchufada
¿Cómo conduce un coche autónomo?
Con esta actividad se pretende ilustrar cómo los sistemas de IA hacen uso de sensores para captar señales del mundo y tomar decisiones en consecuencia. Para ello, un grupo de tres estudiantes van a simular ser un coche autónomo: uno de ellos será el sistema central de IA que recibe las señales de los sensores y toma decisiones, los otros dos serán sensores, uno la cámara izquierda y otro la cámara derecha.
Para comenzar se tapan los ojos y si es posible, los oídos, del “conductor”, que solamente podrá tomar decisiones en función de las señales que le lleguen de sus dos “sensores”.
A continuación se dibuja una carretera en el suelo con tiza, que comenzará con una recta y tendrá luego curvas a derecha o a izquierda intercaladas con otras rectas.
Tras colocar al “conductor” en la recta inicial, éste comienza a andar. Los dos “sensores” tienen que tratar de guiarlo por el camino, tocando al “conductor” en el hombro de su lado para avisarle de que, si sigue recto, se va a salir de la carretera por el lado correspondiente. De esta manera el “conductor” puede girar para el lado contrario.
¿Llegarán sanos y salvos a su destino?
Como ejemplo de una máquina que reconoce frases habladas por una persona, puede usarse “Web Speech API Demonstration” (es necesario utilizar el navegador Google Chrome):
Tras seleccionar en la parte inferior de la página el idioma en el que vas a hablar, tan solo hay que pulsar sobre el botón del micrófono de la parte superior derecha, y ya puedes comenzar a hablar. En la caja de texto se mostrará por escrito la frase que el ordenador ha entendido al escucharte hablar.
2ª idea fundamental: Los agentes mantienen modelos o representaciones del mundo y las usan para razonar.
Los sistemas de IA pueden definirse como agentes inteligentes que perciben y representan el mundo, deliberan sobre lo percibido y producen salidas que afectan al mundo. En consecuencia, la representación es uno de los problemas fundamentales de la inteligencia, tanto natural como artificial. Para comprender el concepto de representación, por ejemplo, podemos pensar en el modo en que un mapa representa un territorio, o un diagrama representa el estado de una partida de un juego de mesa.
Es importante comprender que los ordenadores construyen representaciones utilizando datos, y estas representaciones pueden manipularse aplicando algoritmos de razonamiento que generan nueva información. No obstante, aunque los agentes de IA pueden razonar sobre problemas muy complejos, la realidad es que no piensan igual que las personas. Y, de hecho, muchos tipos de razonamiento que son totalmente asequibles para los humanos, están todavía lejos del alcance de los sistemas IA actuales.
Para entender qué hablamos cuando nos referimos a la representación y el razonamiento, os proponemos que juguéis unas partidas con Akinator. Se trata de un sistema experto que te pide que pienses en algún persona (real o ficticio); y luego te va haciendo preguntas para intentar adivinarlo. NOTA: en la portada del sitio web Akinator podéis activar el modo infantil.
¿Qué? ¿Ha acertado Akinator los personajes que estabais pensando? ¿Cómo es posible? ¿Cómo funciona este sistema?
En realidad el funcionamiento de este tipo de sistemas expertos es bastante sencillo, ya que se implementan utilizando lo que se conoce como “árboles de decisión”. Para comprender cómo funcionan vamos a trabajar con el siguiente ejemplo: queremos construir un sistema similar a Akinator que sea capaz de adivinar, haciendo preguntas, en cuál de los siguientes personajes estoy pensando: Bugs Bunny, el pato Lucas o el Correcaminos.
Bugs Bunny
Pato Lucas
Correcaminos
Si elegimos las preguntas con cuidado, tratando de que las respuestas nos indiquen inequívocamente a los personajes, tenemos el trabajo prácticamente hecho. Así, por ejemplo, si el sistema pregunta “¿el personaje tiene plumas?”, si la respuesta es negativa entonces solamente puedo estar pensando en Bugs Bunny, puesto que tanto el Pato Lucas como el Correcaminos tienen plumas. Un posible árbol de decisión para este juego sería el siguiente (aunque existen otras muchas opciones posibles para construirlo
):
Sencillo, ¿verdad? Pues así es como funciona exactamente Akinator, aunque claro, este maneja un árbol muchísimo mayor tras las millones de partidas jugadas, puesto que, además, Akinator se ha diseñado de forma que aprende con cada nuevo personaje que un jugador escoge.
Propuesta: actividad desenchufada
Creación de un árbol de decisión para clasificar personajes
Esta es una actividad muy interesante que puede desarrollarse de manera fácil con el alumnado. Así, cuando la llevéis al aula, podríais proponer a vuestros estudiantes crear un árbol de decisión que pueda adivinar en qué personaje está pensando una persona. Para ello se pueden seguir los siguientes pasos:
El docente selecciona un conjunto limitado de 10 ó 15 personajes. En nuestro ejemplo eran personajes de Looney Tunes, pero vosotros podéis jugar con lo que prefiráis.
Se forman grupos de estudiantes, por ejemplo de 4 personas. Cada grupo va a crear su propio árbol de decisión.
Para cada personaje, cada grupo busca una propiedad que le distingue de los demás, de forma que se irán creando las ramas de sus árboles de decisión.
Cuando un grupo ha terminado su árbol, otros estudiantes de otro grupo lo prueban, para comprobar que es capaz de adivinar en qué personaje están pensando.
Además de con papel y lápiz, esta actividad puede ser más atractiva si se usan otros materiales como pajitas, vasos, cartulinas o plastilina, tal como puedes ver en las siguientes imágenes tomadas de un curso para docentes realizado en el verano de 2019 por el propio INTE
F:
Y, por cierto, practicando con la creación de este tipo de árboles de decisión para clasificar personajes, objetos o animales, por ejemplo, te volverás un verdadero experto al que no habrá quien gane al famoso juego "¿Quién es quié
n?"
3ª idea fundamental: Los ordenadores pueden aprender a partir de datos.
Los algoritmos de aprendizaje automático permiten a las computadoras crear sus propias representaciones utilizando datos de entrenamiento.
Muchas áreas de la IA han progresado significativamente en los últimos años gracias a la tecnología de aprendizaje automático, pero para que el enfoque tenga éxito se necesitan enormes cantidades de datos. Por ejemplo, el Open Image Dataset V4, que se utiliza para entrenar muchos sistemas de reconocimiento de imágenes, contiene 9 millones de imágenes de entrenamiento y 30 millones de etiquetas o categorías clasificables. Para poder procesar esta cantidad tan grande de datos se requiere contar con una potencia informática que no estaba disponible hace unos años. Y este es uno de los problemas que tienen los sistemas de aprendizaje automático, ya que para producir resultados precisos suelen requerir ser entrenados con muchos ejemplos. Y la recolección y preparación de estos ejemplos de entrenamiento suele ser muy costosa.
Juguemos un poco con algunos sistemas de IA que se basan en aprendizaje automático para que veamos de lo que son capaces. Además de Quickdraw, que ya conocemos, os proponemos que juguéis con los siguientes clasificadores que han sido entrenados usando aprendizaje automático:
Sentimientos: https://www.uclassify.com/browse/uclassify/sentiment/es
Este clasificador determina si un texto es positivo o negativo. Puede clasificar tanto frases cortas o párrafos más largos que escribas tú mismo, o bien le puedes pasar la url de Tweets, estados de Facebook, publicaciones de blog, reseñas de productos, etc. para que las clasifique y nos diga si es un texto positivo o negativo. Para entrenar el sistema se han usado 2,8 millones de documentos.
Género: https://www.uclassify.com/browse/uclassify/genderanalyzer_v5/es
Este clasificador intenta averiguar si un texto ha sido escrito por un hombre o una mujer. En su entrenamiento se han usado 11.000 artículos de blogs (5.500 blogs escritos por mujeres y 5.500 por hombres). Si se usan textos largos ofrece mejores resultados.
Como el aprendizaje automático se basa precisamente en aprender a partir de ejemplos, es muy importante que durante la recopilación y preparación de los datos de entrenamiento se tomen medidas para tratar de evitar al máximo la introducción de sesgos, puesto que en caso de que se introduzcan el sistema va a reproducir estos sesgos.
Para entender cómo funcionan los sesgos de los sistemas de IA podemos jugar con un sistema de traducción automática como el de Google (https://translate.google.com/). Probemos por ejemplo a traducir la frase “the teacher is great” de inglés a español.
¿Cómo traduce Google “teacher”, como “profesora” o como “profesor”? ¿Por qué lo traduce por “profesor” y no por “profesora” cuando en España el número de profesoras es mayor que el de profesores en todos los niveles educativos? ¿Acaso es que el traductor de Google es machista?
Evidentemente el sistema de IA no ha sido construido a propósito para ser machista, pero debe haber sido entrenado con textos, quizás antiguos, en los que aparecían más profesores que profesoras, y por eso lo traduce de este modo.
Este tipo de cuestiones de sesgos que pueden aparecer en los datos de entrenamiento son muy importantes, como discutiremos en la sección de Impacto de la IA. Y si no, que se lo pregunten a Microsoft y a su chatbot Tay que, tras unas horas en funcionamiento y aprendiendo a través de conversaciones con usuarios en Twitter, comenzó a hacer comentarios xenófobos y bárbaros, de manera que tuvo que ser desconectado. Y si la historia de Tay te ha llamado la atención, no te pierdas este artículo otro artículo que presenta más ejemplos de escándalos mediáticos de sistemas de IA.
Para saber más
El tema de los sesgos en los sistemas de IA es muy interesante y complejo. Si te interesa profundizar en la cuestión, este artículo de Ricardo Baeza-Yates y Karma Peiró titulado "¿Es posible acabar con los sesgos de los algoritmos?" es realmente recomendable. Aquí te dejamos un extracto para ver si te pica la curiosida
d... "Los sistemas automatizados tienen sesgos que pueden convertir nuestra cotidianidad en una burbuja de felicidad, mostrándonos sólo lo que nos gusta. Si no hacemos algo para cambiar esta situación, quizás un día descubriremos que —como el protagonista del Show de Truman— no sabremos distinguir la realidad de la ficción. ¿Estamos todavía a tiempo de cambiar nuestra sociedad?"
Pero, ¿cómo funciona realmente el aprendizaje automático? ¿A qué nos referimos con que el ordenador aprende a partir de datos?
Imaginemos que queremos entrenar a un sistema de IA para que clasifique imágenes y nos diga si son fotos de gatos o se trata de otro tipo de fotos. Lo que tendríamos que hacer como primer paso sería preparar un conjunto de entrenamiento de imágenes con dos grupos: fotos con gatos, por un lado, y otro tipo de fotos por otro. El sistema visualizará ambos conjuntos, identificará patrones de cada uno de los grupos, y generará un modelo que se puede utilizar para tratar de clasificar nuevas fotos que no se encontraran en el conjunto de entrenamiento, indicando si cada nueva imagen corresponde a una foto de un gato o no.
Para entenderlo completamente vamos a utilizar la web “Teachable machine”, que permite que generemos nuestros propios modelos aprendiendo con fotos tomadas de nuestra webcam sin tener que programar ni nada. ¡Verás qué interesante y divertido!
https://teachablemachine.withgoogle.com/v1/
4ª idea fundamental: Hacer que los agentes interactúen con los humanos de manera fluida es un desafío enorme para los desarrolladores de IA.
Comprender a las personas es uno de los problemas más difíciles a los que se enfrentan los agentes inteligentes. Esto incluye tareas como conversar en lenguaje natural, reconocer estados emocionales e inferir intenciones del comportamiento observado. Es importante comprender que, si bien las computadoras pueden entender el lenguaje natural en un grado limitado, en la actualidad carecen del razonamiento general y las capacidades de conversación de incluso un niño pequeño.
La interacción con los humanos es especialmente importante para los agentes robóticos que compartirán nuestros espacios de vida y trabajo. Así, es posible que deseemos que un robot asistente en el hogar se mantenga cerca de nosotros para que esté siempre listo para ayudar, pero está claro que no debería estar tan cerca de nosotros como para que se cruce en nuestro camino y nos choquemos constantemente cuando vamos a coger algo de la cocina, por ejemplo. En este caso, sería fundamental que el robot pudiera inferir las intenciones futuras de una persona al observar sus acciones, algo que es un desafío muy grande incluso para los humanos.
Propuesta: actividad desenchufada
El mimo "escacharrao"
Para entender por qué es muy difícil este tipo de interacciones os proponemos una actividad desenchufada en la que, utilizando solamente gestos, un estudiante trate de comunicar a un compañero algo que quiera hacer esta tarde o este fin de semana. El resto de la clase no puede ver los gestos, claro. A continuación, este estudiante se lo comunica, de nuevo usando solamente gestos, al siguiente. Y así se continúa hasta que llegamos al último estudiante, momento en el que podemos comprobar las diferencias entre el mensaje transmitido por el estudiante original y lo comprendido por el último estudiante. Algo, como lo que podéis ver en este vídeo publicado en Twitter.
No obstante, por complicado que sea, para que aceptemos interactuar con robots en nuestra vida diaria será fundamental que los sistemas de IA puedan adquirir este tipo de habilidades. Así que este reto es uno de los que más está centrando el trabajo de los investigadores en IA. Y, de hecho, se están produciendo avances en dominios concretos y limitados: veámoslo con este vídeo en el que un sistema de IA, llamado Google Duplex, es capaz de hacer una llamada telefónica para pedir cita en una peluquería, interactuando de manera natural con la persona que atiende la llamada:
5ª idea fundamental: La IA puede tener un impacto tanto positivo como negativo sobre la sociedad.
La IA tiene un gran potencial para hacer cosas muy buenas para las personas. De hecho, ya existen iniciativas, como las lideradas por Naciones Unidas, en las que a través del análisis de datos agregados y anonimizados de la red de telefonía móvil se resuelven problemas en las áreas de la salud pública, sostenibilidad del planeta y asistencia en desastres naturales.
En este misma línea, con un proyecto liderado desde España, trabaja la iniciativa LUCA de Telefónica llamada “big data al servicio de la sociedad”. Ya han implementado con éxito proyectos con los que ayudar en la respuesta ante desastres naturales, como la inundación de Mocoa (abril 2017); mejorar la educación digital en países en desarrollo en América Latina, África Subsahariana y Asia; predecir emisiones NO2 en el aire en ciudades como Madrid o Sao Paulo; o predecir la difusión de enfermedades como Dengue y Zika en Colombia y Brasil.
Además, los sistemas de IA van a sustituir a los humanos en la realización de trabajos peligrosos y nocivos para la salud, como la recolección de minerales en minas. Pero, claro, esta implantación de los sistemas de IA en el ámbito laboral también tiene sus riesgos. Así lo ilustran de manera muy visual y pedagógica los siguientes vídeos de la Fundación COTEC titulados “Mi empleo, mi futuro”, en los que se discute que la automatización de muchos trabajos puede conducir a un desempleo masivo o a un cambio importante en los puestos de trabajos, lo que tiene un impacto muy profundo para la sociedad:
Por otro lado, hay que tener en cuenta que si bien las tecnologías que permiten que los agentes inteligentes comprendan mejor a los humanos podrían brindarnos, por ejemplo, ayudantes de salud en el hogar para personas mayores, también podrían permitir la vigilancia masiva de empresas y gobiernos eliminando totalmente la privacidad de las personas.
Además, es importante que, como sociedad, exijamos que los sistemas de IA que toman decisiones que afectan a nuestras vidas sean transparentes, es decir, que proporcionen justificaciones para sus conclusiones para que su razonamiento pueda verificarse e identificar situaciones incorrectas. Porque, ¿qué pasaría si usamos un sistema de IA que no justifica sus decisiones? ¿Qué ocurre, por ejemplo, si solicito un préstamo y el sistema lo deniega pero no explica los motivos de la denegación? ¿Cómo sabemos, por ejemplo, que no me está discriminando por mi raza, cuando eso está prohibido por la Constitución española?
En otro campo completamente diferente, uno de los mayores impactos que consideramos que va a tener la IA se debe a que, como ya existen sistemas capaces de generar contenido sintético (fotos, texto, audio y vídeos) indistinguible del contenido real, se va a producir una transformación inmensa de la comunicación y la difusión de información.
Como ejemplo para ilustrar esta situación tomemos este vídeo en el que se ve al expresidente de Estados Unidos de América, Obama, insultando al actual presidente, Trump.
(En realidad se trata de un vídeo elaborado con el objetivo de concienciar del peligro de las aplicaciones que intercambian caras y voces de forma realista, en el que consiguen crear una imagen real de Obama que parece decir las palabras que en realidad está pronunciando un actor).
El impacto potencial de estos sistemas de IA sobre la opinión pública no tiene precedentes en la historia probablemente, por lo que la sociedad debe conocer su existencia para no dejarse manipular. Desde luego, se trata de un reto inmenso que debemos abordar desde la escuela.
Por último, no hay que olvidarse del impacto medioambiental de los sistemas de IA, que ya hemos discutido que requieren contar con cantidades inmensas de datos que es necesario almacenar, transmitir y procesar, lo que requiere de un gran consumo energético. De hecho, hay estimaciones que indican que para 2025 el sector de la informática y las comunicaciones podría consumir el 20% de toda la electricidad del planeta y emitir hasta un 5,5% de las emisiones de CO2.
Por tanto, ¿la IA va a ser positiva o negativa para nuestra sociedad? Probablemente todo dependerá de que la ciudadanía luche para que la integración de la IA en nuestras vidas se centre en los aspectos positivos y limite al máximo posible su impacto negativo. Pero para ello, la ciudadanía debe estar bien informada, lo que pasa por que este tipo de cuestiones se traten y debatan desde la escuela.