Alejandro Martínez Mingo
Dpto. de Metodología de las Ciencias del Comportamiento. Facultad de Psicología. Universidad Nacional de Educación a Distancia
Doctor en Psicología, profesor de la Universidad Autónoma de Madrid, UNED e IE University, e investigador en psicología cognitiva y procesamiento del lenguaje natural. Su trabajo se centra en el desarrollo de modelos computacionales para el análisis de la cognición y el lenguaje, explorando específicamente el modelado de sesgos cognitivos y la evaluación de similitudes en espacios vectoriales. Ha publicado en revistas internacionales de alto impacto, aportando metodologías innovadoras que contribuyen al avance en la comprensión de los mecanismos mentales que influyen en la percepción y en la toma de decisiones humanas.
Resumen de la charla:
¿Alguna vez te has preguntado por qué a veces tomamos decisiones que no tienen mucho sentido? En esta charla, exploraremos cómo nuestro cerebro puede jugarnos malas pasadas a través de los sesgos cognitivos. Descubriremos qué son, cómo afectan nuestra percepción y decisiones diarias, y qué herramientas existen en la psicología que nos ayudan a modelarlos y comprenderlos. Acompáñanos en este viaje para entender mejor nuestra mente.
Gorka Navarrete García
Centro de Neurociencia Cognitiva y Social. Facultad de Psicología. Universidad Adolfo Ibáñez (Chile)
Doctor en Neurociencia Cognitiva por la Universidad de La Laguna (España). Actualmente es profesor adjunto del Centro de Neurociencia Cognitiva y Social, de la Universidad Adolfo Ibáñez en Chile, además de profesor substituto en la Universidad de La Laguna. Inició su carrera investigadora trabajando con Redes Neuronales Artificiales para la predicción de supervivencia en problemas médicos, y cosas similares. En la actualidad estudia cómo presentar información numérica compleja para ayudar a las personas a comprenderla y hacer un buen uso de ella a la hora de tomar decisiones. Esto es particularmente relevante en la comunicación de resultados de pruebas médicas. En esta línea de investigación, está trabajando en diferentes formas de presentar la información a personas no especializadas (población vulnerable y general), pero también a expertos. El objetivo final de su línea de investigación es facilitar la toma de decisiones compartida e informada en contextos médicos.
Resumen de la charla:
Las pruebas de screening se consideran habitualmente como una herramienta valiosa para la detección temprana de condiciones médicas. Si un screening resulta positivo, generalmente se recomienda una prueba diagnóstica más invasiva para asegurarse de que la condición médica esté presente. Sin embargo, los resultados positivos de los screenings son muy dependientes de la prevalencia, y a menudo no son tan fiables como suponemos. La validez de un resultado positivo de la prueba (el valor predictivo positivo) debe calcularse utilizando el teorema de Bayes.
Lamentablemente, los humanos no somos especialmente buenos aplicando el teorema de Bayes. Caemos en errores como ignorar las probabilidades previas, o directamente desconocemos la necesidad de razonar usando este teorema. El resultado es que pocos pacientes, y no tantos médicos como esperaríamos, saben qué información es relevante para calcular el valor predictivo positivo de una prueba médica, o cómo realizar estos cálculos.
A lo largo de los años se han probado diferentes estrategias para ayudar a las personas. Varias de estas han conseguido mejorar la comprensión de los problemas. Una de las propuestas más innovadoras se basa en el principio de hacer preguntas que las personas sean capaces de responder, y ha mostrado, con algunos resultados preliminares, suponer un cambio importante, pero con algunos efectos indeseados.
El razonamiento Bayesiano subyacente a estas situaciones es complejo para los seres humanos, pero algorítmicamente trivial para los Modelos de lenguaje de gran tamaño (LLMs) como ChatGPT. ¿Se traducirá esto en la posibilidad de disponer de asistentes inteligentes para navegar la complejidad computacional y decisional en contextos médicos?
José Luis Aznarte Mellado
Dpto. de Inteligencia Artificial. Universidad Nacional de Educación a Distancia
Catedrático en el Departamento de Inteligencia Artificial de la UNED. Durante los últimos años ha ejercido como vicerrector adjunto de Digitalización e Innovación y de Innovación Educativa, coliderando el proyecto institucional ED3 (Educación Digital, a Distancia y apoyada en Datos). Como parte de ese proyecto, impulsó el Marco Ético para el Uso de Datos Masivos en la UNED, fruto de un proceso participativo abierto a la comunidad universitaria. Antes de su incorporación a la UNED ejerció como ingeniero de investigación postdoctoral en el grupo de investigación en energías renovables de la prestigiosa escuela de ingeniería francesa Mines ParisTECH, donde estuvo implicado en tareas de investigación y gestión de los proyectos europeos ANEMOS, Plus (FP6) y SafeWind (FP7). Obtuvo un contrato Ramón y Cajal en 2013 y, posteriormente, obtuvo el certificado I3. Ha impartido cursos de minería de datos y aprendizaje automático en grado y máster, y supervisado trabajos fin de máster y tesis doctorales. Es autor o coautor de varias decenas de publicaciones en revistas de alto impacto.
Resumen de la charla:
Actualmente es fácil pensar que ciertas aplicaciones de IA podrían
ser implantadas en el contexto universitario, y conviene explorar algunas limitaciones severas de las mismas a la luz de las investigaciones recientes. En concreto, se sabe que son particularmente delicadas aquellas aplicaciones que implican la toma de decisiones automatizadas sobre personas o colectivos mediante modelos predictivos basados en aprendizaje automático. Este tipo de aplicaciones están aquejadas de un conjunto de carencias recurrentes y de difícil solución. La conjunción de estas carencias resulta en la necesidad de reconsiderar cuidadosamente la implantación de la inteligencia artificial en la universidad española, ya que los principios básicos de su función social pueden verse gravemente afectados.