Su objetivo general es promover una visión humanista de diversas teorías científicas -más específicamente de las (neuro)ciencias cognitivas- y de aportes tecnológicos -específicamente desarrollos en inteligencia artificial- así como de las posibles interfases cerebro-inteligencia artificial que ponen en cuestión la imagen que los seres humanos tenemos de nosotros mismos y que, consecuentemente, alteran las formas de vida de las sociedades humanas. Los desarrollos recientes en las áreas mencionadas conforman proyectos transdisciplinarios en los cuales la mirada humanista se hace imprescindible a través del aporte de especialistas en el área de ética y filosofía, así como de expertos en lógica y lingüística. Los hallazgos científicos acerca del funcionamiento del cerebro, así como los desarrollos de tecnologías que permiten a sistemas artificiales realizar tareas humanas (en muchos casos con resultados mejores y más rápidos que si fueran realizadas direc- tamente por humanos), tienen un impacto en la sociedad que requiere de la mirada filosófica.
Objetivos específicos
I. Objetivos ligados a la interfase tecnología-ciencia-sociedad
1. Explorar problemas y desafíos que se presentan desde la filosofía de la información y los múltiples modos en que las tecnologías digitales (infoesfera) impactan en la realidad humana;
2. Desarrollar mapas conceptuales sobre los procesos de diseño de tecnologías que incorporan inteligencia artificial con el propósito de exponer los contextos deliberativos de toma de decisiones para analizar las dimensiones y valores en juego, sean cognitivos, éticos, tecnológicos, o estéticos;
3. Proponer un marco filosófico comprensivo para analizar los procesos de cambio que traen aparejados las (neuro)ciencias cognitivas y la implementación de la inteligencia artificial en el modo en que nos autocomprendemos a nivel personal e interpersonal;
4. Proponer modelos de comunicación y difusión de la inteligencia artificial en la sociedad que permita a los ciudadanos comprender esta tecnología y su impacto en la vida cotidiana;
5. Proponer modelos de comunicación y difusión de las neurociencias cognitivas en la sociedad que permita a los ciudadanos comprender los alcances del conocimiento actual del cerebro humano y su impacto en la vida cotidiana;
6. Mostrar diferentes perspectivas para la relación ciencia y tecnología en sociedad en el ámbito de la IA que permitan comunicar y abordar problemáticas complejas desde la perspectiva de una filosofía precautoria;
7. Conformar un comité de asesoramiento ético y filosófico sobre cuestiones relacionadas con la AI y las neurociencias en su interfase con la IA con vistas a brindar asesoramiento a empresas, entidades gubernamentales (poderes ejecutivo para la adopción de políticas públicas, legislativo para el desarrollo de nueva legislación sobre estos temas, judicial para la aplicación o no de algoritmos en temas de interpretación y adjudicación), entidades de bien público, desarrolladores de IA, e investigadores en el área de IA y de neurociencias cognitivas.
II. Objetivos ligados a desarrollos tecnológicos en ámbitos específicos y su evaluación filosófica
II.1. IA, ciencia y aprendizaje
1. Desarrollar inteligencias artificiales que puedan analizar información de bases de datos incompletas o inconsistentes (como contextos empíricos o normativas legales), empleando para ello sistemas lógicos que modelen la revisión de información (como AGM) y tengan capacidad inferencial para estos contextos no clásicos (como las lógicas paraconsistentes o las lógicas subestructurales);
2. Aplicar IAs en probadores algorítmicos de consecuencias de una base de datos para algoritmizar predicciones en ciencia empírica;
3. Continuar con el desarrollo de herramientas para la educación de ciencias formales implementando IAs que favorezcan la resolución de problemas didácticos, cuyo antecedente más destacado es TAUT (sitio online de formulación de problemas de lógica y teoría de conjuntos: taut-lo- gic.com);
4. Desarrollar un modelo de aprendizaje para un sujeto-epistémico/dispositivo-de-IA capaz de: modificar la probabilidad de identificación de diferentes inputs en función de su historia perceptiva; crear o eliminar categorías para inputs no coincidentes con los previamente recibidos; modificar el alcance de las categorías existentes en el dispositivo; mostrar diferentes modos de operar en función del objetivo (ya sea el aprendizaje o la clasificación de la información), etc.
II.2. IA, Prejuicios y sesgos
1. Examinar la forma en que el entrenamiento de las inteligencias artificiales proyecta prejuicios sociales en vez de eliminarlos, identificando los prejuicios racistas, sexistas, cisexistas, homofóbicos, capacitistas que afectan el funcionamiento, la credibilidad y la equidad de los procesos de aprendizaje automático (machine learning) y los sistemas de IA;
2. Desarrollar criterios no racistas, no sexistas, no cisexistas, no capacitistas, etc, para la generación de data sets que fueran a utilizarse en el campo de deep learning;
3. Analizar el modo en que la naturalización del uso de términos peyorativos de grupo y el acomodamiento de presuposiciones discriminatorias contribuye a reproducir una distribución social injusta de credibilidad y autoridad epistémica, así como las consecuencias concretas de este hecho en relación con el acceso a la educación, el mercado laboral y el respeto de garantías procesales y jurídicas;
4. Utilizar el marco teórico de la injusticia epistémica para crear criterios de evaluación que in- formen a organismos públicos y entidades privadas de los recaudos a tomar al comprar o implementar tecnología extranjera dado que el entrenamiento con base de datos, en algunas técnicas de inteligencia artificial / machine learning incorpora sesgos invisibles en la ejecución e imposibles de corregir luego de que el software está en funcionamiento.
II.3. IA y políticas públicas
II.3.1. Sistemas de votación
1. Comprender el funcionamiento de sistemas de inteligencia artificial ya implementados que anticipan los resultados de votaciones en diversos ámbitos.
2. Entender de qué modo y en qué medida el uso de sistemas de inteligencia artificial puede manipular a los votantes de diversas maneras. Analizar posibles maneras de contrarrestar la manipulabilidad.
3. Estudiar las propiedades de diferentes sistemas de votación, sus ventajas y desventajas, y sobre esta base diseñar métodos de decisiones colectivas apropiados para distintos ámbitos, usando desarrollos de inteligencia artificial y machine learning.
II.3.2. Modelado de paisajes dinámicos para la decisión de políticas públicas (y/o empresariales) en ambientes complejos
1. Identificar casos de decisión política posibles de analizar utilizando big-data en término percepción social del riesgo, temporalidad de cambios en la decisión política y el costo político de las mismas.
2. Desarrollar modelos (paisajes dinámicos) mediante IA que permitan evaluar los diferentes escenarios posibles de un determinado estado de situación utilizando la base de datos mencionada.
3. Proponer alternativas, resultantes de los estudios de casos, que involucren tomas de decisión sugeridas mediante el modelamiento dinámico y la IA.
II.3.3. Ética aplicada a la IA en sistemas monetarios de tecnología de contabilidad distribuida
1. Analizar el desempeño de los sistemas de tecnologías monetarias identificando los problemas de riesgo moral que conllevan, a fin de detallar sus consecuencias socioculturales.
2. Evaluar el impacto epistemológico de los procesos descentralizados de las transacciones y su respectiva información en el uso de IA, especialmente en la tecnología de Blockchain.