Esta mesa tiene como finalidad exponer las recientes propuestas elaboradas por algunas de las filósofas y filósofos de la tradición de la Filosofía Política Iberoamericana de la Ciencia y la Tecnología pertenecientes a un robusto grupo de trabajo que se desarrolla especialmente en México y España.
Panelistas:
Nathalie Mancilla Pérez, Cosmomedicinas y técnicas epistemocráticas
Alfredo Marcos, Filosofía amplia de la ciencia y convergencia ACT (arte, ciencia y técnica)
Javier Echeverría, Análisis crítico del tecnofeudalismo actual en Redes y "Nubes" (Clouds)
En el umbral de una era marcada por los avances tecnológicos que, se exponen como disruptivos, el panel pretende hacer alusión al borramiento de las fronteras entre lo orgánico y lo artificial, tanto como a las transformaciones de prácticas como la medicina, la investigación en salud, y se proponen ideas transhumanistas y de mejoramiento de lo humano, asuntos que imponen desafíos sociales y de esfuerzos de protección de la vida en el planeta. En otra palabras, las tecnologías disruptivas se expanden en el contexto de un capitalismo que impulsa la economía y que “pone en riesgo y erosiona la naturaleza, lo social y lo cultural” (Fraser, 2016).
Este rápido avance nos acerca cada vez más a escenarios que parecían reservados para la ciencia ficción, que interpelan nuestras concepciones tradicionales del mundo natural y moral, que nos moldean. Si fueran concebidos como una noción meramente técnica, sería inevitable una incomprensión de este fenómeno que es más complejo y que involucra una serie de prácticas técnicas y sociales, instituciones e infraestructuras, política y cultura.
La bioética, en este contexto, emerge como un campo que reflexiona desde una perspectiva pluridisciplinaria, pluralista y laica que se interpela por la resignificación epistemológica de principios de justicia, entre otros valores morales, tanto como la existencia, las dinámicas comunitarias y globales que estos desarrollos tecnocientíficos traen consigo.
Panelistas:
Hernando Clavijo, Bioética en la era digital: cerebros conectados, inteligencia artificial y datos en la vida cotidiana
Jorge Linares, Inteligencias artificiales dialógicas
María Lucía Rivera, Atribuciones epistémicas y confianza agencial: diálogos cyborgs para la educación
Todo el proceso de Investigación & Desarrollo (I&D) de bienes y servicios en salud merece una particular atención en salud entendida como un derecho, del cual el acceso a medicamentos esenciales y a vacunas eficaces es una parte central.
Los procesos de investigación aplicada y, eventualmente, los ensayos clínicos requeridos se constituyen en una forma de extractivismo intelectual que será discutido, en este panel sobre “Bioética y ética de la investigación en la salud humana”.
Se plantea cómo los necesarios recaudos éticos en la investigación están siendo reemplazados por meros instrumentos o procedimientos de aplicación para la aprobación de protocolos de la industria farmacéutica, revirtiendo décadas de avances en términos de derechos de pacientes y voluntarios.
La exigencia de una formación basada solamente en los principios del informe Belmont y las BPC es una tendencia que se ha ido incrementando en los últimos tiempos de la mano de las recomendaciones de algunos organismos regionales, ligados a los lineamientos del National Institute of Health de EE.UU., lo cual promueve una visión reduccionista de los problemas éticos de la investigación multinacional y responde más bien a un enfoque utilitarista y procedimental de los CEI en los países, alguno de los cuales ven a la investigación biomédica o a las actividades de la industria farmacéutica más como un ingreso financiero para el país que como una contribución a la salud.
Adicional a ello se desea exponer los intereses que despierta la ciencia en el campo de la salud, en un complejo médico industrial que presiona por nuevos medicamentos como alternativas terapéuticas, y el interés del mercado farmacéutico por expandir su negocio. Entonces surgen preguntas ¿es la aspiración de la ciencia contemporánea que se distribuyan equitativamente sus bienes, sus nuevos desarrollos? ¿De qué modo se ven afectados los valores éticos que se esperan proteger por parte de los CEI cuando quienes patrocinan las investigaciones provienen de la industria? ¿Qué dilemas, conflictos morales y de interés emergen en estos nuevos escenarios de ciencia y tecnología? el panel desea poner sobre la mesa cómo lo afirma Hottois (2004) en la investigación en salud “Concurren múltiples actores, investigadores de distintas disciplinas y, si la investigación es financiada en forma privada, tiene en cuenta el beneficio como valor y el mercado como norma, a diferencia de la financiación pública cuya axiología se inspira en el bien público” pero supeditada “(…) a la percepción de lo público, las presiones de los lobbies y las estrategias de los partidos”
Panelistas:
Togarma Rodríguez Aquino, Recomendaciones de la Redbioetica UNESCO para comités de ética que evalúan investigaciones clínicas en seres humanos
Constanza Ovalle–Gómez, Los Comités de Ética de la Investigación y la Protección de los Participantes en Investigación Biomédica
Fernando Hellman, Declaración de Helsinki 2024: Avances y retrocesos persistentes desde una perspectiva bioética latinoamericana y caribeña
Este panel se propone reflexionar acerca de la naturaleza y el alcance – actual y potencial – de la inteligencia artificial desde una perspectiva interdisciplinar. En él participamos investigadoras con preparaciones en antropología, matemáticas, ciencias de la computación y filosofía. Nos interesa pensar, por un lado, sobre sí y cómo la inteligencia artificial crea o imagina, y por otro sobre cómo imaginamos y creamos la inteligencia artificial.
El panel empieza con la ponencia de Abel, quien se inspira en la máxima zapatista “para cambiar el mundo hay que primero cambiar la forma en que lo vemos” para preguntar: ¿hasta qué punto la IA puede fungir como soporte para la generación de imaginarios descolonizantes y emancipatorios? Enfocándose en el caso de los generadores de imágenes de IA, Abel analiza cómo determinadas posiciones epistémicas y sistemas ontológicos llegan a colonizar estos algoritmos, moldeando y limitando así sus posibilidades para visualizar diversos imaginarios sociales. Es notoria la tendencia de estos modelos a reproducir estereotipos racistas y sexistas, y a plantear la figura del hombre blanco como sinónimo de “lo humano”. En diálogo con la literatura filosófica y sociológica existente sobre los sesgos sociales y epistémicos en la IA generativa, en esta ponencia, Abel plantea que la manera indexical en que los algoritmos aprenden actualmente a asociar lenguaje con imágenes es un impedimento fundamental para su capacidad de transmitir imaginarios sociales alternativos.
Zapata posteriormente retoma el tema de la imaginación y reflexiona sobre cómo la IA ha sido imaginada en la literatura. En concreto, analizará la obra de Stanislaw Lem, quien en obras emblemáticas de la ciencia ficción como Ciberiada o Summa Technologiae, explora algunos aspectos sobre la IA con los que anticipa varias inquietudes filosóficas que cobran vigencia en nuestros días con el desarrollo, mejoramiento y uso creciente de los sistemas generativos. En su ponencia, Zapata planteará que la imaginación literaria, ejemplificada en la original obra de Lem, es un valioso recurso para explorar temas como los de la capacidad creativa de nuestros sistemas artificiales, la carga valorativa humana que depositamos en ellos o la posibilidad de que desarrollen estructuras cognitivas de maneras impredecibles de tal forma que se provoque una escisión entre la IA y el modelo de razonamiento humano del que surgen.
En su ponencia Carrillo se propone atender algunas preguntas filosóficas en torno al reciente desarrollo en inteligencia artificial de programas capaces de generar texto, llamados modelos grandes de lenguaje (LLMs, por sus siglas en inglés). Claramente la IA generativa ha logrado sorprendernos, pero no está claro si el tipo de “inteligencia” que produce es comparable con la humana, o si es una inteligencia “alienígena.” En la ponencia Carrillo se orienta hacia la pregunta de si esta tecnología puede o podrá en un futuro hacer buena literatura. Esta reflexión la obligará a reflexionar sobre qué es arte y literatura, pero también también qué es racionalidad ya que una pregunta importante es en qué medida estos modelos de lenguaje pueden o podrán reproducir la racionalidad humana, ya que la capacidad de hacer arte se puede entender como una capacidad cognitiva.
Finalmente, Mireles reflexiona sobre cómo el estudio de los sistemas de IA implica una transición metodológica: de sistemas con mecanismos escrutables y con resultados esperables, a sistemas sorprendentes que caracterizamos usando lenguaje previamente reservado para describir la mente humana. Este cambio en la forma de pensar en las máquinas, argumenta Mireles, está relacionado con el rol social de los sistemas de IA, con la forma en que se estudian, y con nuestra forma de entender conceptos como “cognición”, “inteligencia” y “artificial”.
La discusión, esperamos, tocará temáticas relevantes para la coyuntura actual en la que la IA generativa está tomando un papel cada vez más central en casi todos los ámbitos de la vida humana, incluidas las actividades que tradicionalmente se han considerado dominio exclusivo del ser humano: la creatividad, la imaginación, el arte. Concretamente, este panel toca las preguntas sobre la potencialidad de la IA –qué puede y podrá hacer–, la diferencia entre inteligencia artificial y natural, los efectos de la incorporación de IA generativa en nuestras prácticas, y qué problemáticas filosóficas nuevas plantea esta tecnología emergente a la luz de sus crecientes y novedosas interacciones con la sociedad.
Panelistas:
Sarah Abel, Imagen-ación artificial: visualidad, pensamiento descolonizante e IA
Natalia Carrillo Martínez de la Escalera, ¿Podrá la IA hacer literatura?
Miguel Zapata Clavería, Stanislaw Lem y la IA: La creación literaria de máquinas creativas
Víctor Mireles Chávez, Transición metodológica respecto a la IA: del mecanismo a la sorpresa
A filosofia ocidental, especialmente a partir do século XIX, é marcada por uma crescente reflexão crítica sobre a ciência e suas pretensões. Nesse cenário, Friedrich Nietzsche (1844-1900) e Gabriel Marcel (1889-1973) emergem como pensadores de destaque, cada qual trazendo críticas contundentes à ciência, embora provenientes de perspectivas distintas. Nietzsche, como um filósofo profundamente ateu, denuncia a ciência como uma extensão do niilismo e como herdeira do dogmatismo cristão. Por outro lado, Gabriel Marcel, um existencialista cristão, questiona a desumanização promovida por uma ciência que desconsidera o mistério e a dimensão espiritual do homem. Este texto explora as convergências e divergências dessas críticas, analisando como ambas desafiam a hegemonia científica, mas a partir de fundamentos ideológicos opostos.
Nietzsche e a Ciência como Expressão do Niilismo
Para Nietzsche, a ciência moderna é um desdobramento do projeto metafísico do Ocidente, enraizado na tradição cristã. Em obras como A Gaia Ciência e Assim Falou Zaratustra, ele identifica a ciência como parte de uma narrativa niilista que busca reduzir a vida a princípios mecânicos e lógicos, esvaziando-a de valor e significado. A crença na ciência é, para Nietzsche, o novo dogma de uma sociedade que perdeu a fé em Deus, mas que continua a buscar verdades absolutas.
O conceito de "morte de Deus" é central nesse contexto. Com a "morte" da ideia de um Deus transcendente, Nietzsche argumenta que a ciência se torna uma forma substitutiva de religião. Ela oferece explicações definitivas e promete controle sobre a natureza, mas, ao fazer isso, perpetua a mesma ilusão de universalidade e objetividade que ele critica no cristianismo. O cientificismo, para Nietzsche, é apenas mais um "ideal ascético" que nega a vitalidade, a criatividade e o caos inerentes à existência.
Nietzsche também questiona a neutralidade da ciência. Ele a percebe como um instrumento de poder, uma forma de controle que mascara interesses políticos e sociais. A racionalidade científica, ao separar sujeito e objeto, rompe a unidade da experiência humana e reduz o mundo a um agregado de fenômenos quantificáveis. Para Nietzsche, essa abordagem desvaloriza os aspectos intuitivos, artísticos e dionisíacos da vida, que são essenciais para uma existência autêntica.
Gabriel Marcel e a Ciência Desumanizadora
Enquanto Nietzsche denuncia a ciência como herdeira do cristianismo, Gabriel Marcel aborda a questão a partir de um ângulo existencialista cristão. Marcel reconhece a importância da ciência no progresso material, mas critica seu reducionismo e sua incapacidade de lidar com o mistério da condição humana. Em obras como O Ser e o Ter e Diário Metafísico, ele contrasta a "técnica" — representada pela ciência — com o "ser", destacando como a primeira tende a objetificar o homem e aliená-lo de sua própria subjetividade.
Para Marcel, a ciência promove uma mentalidade de "ter", em que o valor das coisas é medido por sua utilidade e eficiência. Essa mentalidade ignora a dimensão espiritual do homem, que se manifesta no "ser" — um nível de experiência que inclui a reflexão, o amor, a fé e o relacionamento com o transcendente. Ao se concentrar apenas no mundo fenomênico, a ciência marginaliza questões fundamentais sobre a existência, o sofrimento e a morte, que não podem ser resolvidas por métodos empíricos.
Marcel também critica a ciência por fomentar uma cultura de desespero. A busca por soluções técnicas para todos os problemas humanos leva à ilusão de que o progresso material é suficiente para garantir a felicidade. No entanto, Marcel insiste que o homem é um ser relacional, cuja realização plena depende do encontro com o outro e com Deus. Assim, a ciência, ao ignorar esses aspectos, contribui para a fragmentação e desumanização da sociedade.
Convergências e Divergências
Apesar de suas diferenças fundamentais, Nietzsche e Marcel compartilham uma desconfiança em relação à ciência como única forma de conhecimento. Ambos veem a ciência como limitada e incapaz de abarcar a totalidade da experiência humana. Também concordam que a ciência, quando absolutizada, pode levar à alienação, seja por meio do niilismo (no caso de Nietzsche) ou da desumanização (no caso de Marcel).
Por outro lado, suas perspectivas divergem radicalmente no que diz respeito ao papel da espiritualidade. Para Nietzsche, a ciência é condenada precisamente por perpetuar os erros do cristianismo, enquanto Marcel a critica por rejeitar a dimensão espiritual essencial para a experiência humana. Assim, Nietzsche propõe um retorno à vitalidade e à estética como formas de superar o niilismo, enquanto Marcel busca uma síntese entre a razão e a fé, valorizando o papel do mistério e da transcendência.
Relevância Contemporânea
As críticas de Nietzsche e Marcel à ciência permanecem relevantes em um mundo cada vez mais dominado pela tecnologia e pelo cientificismo. Em tempos de inteligência artificial, biotecnologia e crises ambientais, as questões levantadas por ambos os pensadores continuam a ecoar. Nietzsche nos desafia a questionar as narrativas de progresso e a buscar formas mais autênticas de viver, enquanto Marcel nos lembra da importância do encontro humano e do mistério.
Em última instância, as perspectivas de Nietzsche e Marcel oferecem uma oportunidade para repensar a ciência de maneira crítica, considerando suas potencialidades e limitações. O desafio contemporâneo, talvez, seja integrar essas visões às demandas do presente, buscando uma ciência que não apenas explique o mundo, mas também respeite a complexidade e a profundidade da experiência humana.
El grupo de trabajo sobre cultura científica y comunicación de la ciencia en el contexto iberoamericano estructurado en tres mesas de diálogo. Una recoge experiencias sobre actividades e investigación en comunicación de la ciencia y divulgación científica. Otra presenta reflexiones sobre la conceptualización de la cultura científica. Y una tercera se centra en mostrar, a partir de los hallazgos que proporcionan los estudios empíricos, qué conocemos actualmente, luego de décadas de investigación, sobre la percepción y las expectativas sociales en relación con el desarrollo científico y tecnológico.
Panelistas:
Mesa 1: Percepción y comunicación de la ciencia
Carmelo Polino, Cultura científica práctica: desigualdad epistémica y exclusión social
Ana Muñoz van den Eynde, Percepción de la relación entre ciencia y política
Milagros Vargues, Comunicación y promoción institucional de la ciencia : el caso de México
Mesa 2: Cultura científica y comunicación de la ciencia
Belén Laspra Pérez, Cultura científica en contextos post-normales
Ana Muñoz van den Eynde, Imagen de la ciencia
Sandra Daza, Apropiación de la ciencia y cultura científica
Este panel consta de dos mesas. La primera se titula "Pragmatismo y Filosofía de la Ciencia", en la cual participan académicos que se han especializado en mostrar el resurgimiento y repercusión que han tenido las tesis centrales del pragmatismo clásico en las principales propuestas de la filosofía de la ciencia que se desarrolla a partir de la década de 1950.
En la segunda mesa, titulada "Kuhn y la praxis científica", participan especialistas en la obra de este autor, quienes reconstruyen la evolución que sufrieron algunas de sus tesis centrales desde La Estructura de las Revoluciones Científicas hasta sus últimos escritos.
Panelistas:
Mesa 1: Pragmatismo y Filosofía de la Ciencia). Organiza: Ana Rosa Pérez Ransanz
Ana Cuevas, ¿Puede el pragmatismo ayudarnos a superar los riesgos de una filosofía de la ciencia folk?
Federico López, Victoria Paz Sánchez y Livio Mattarollo, Pragmatismo con experiencia: una mirada desde el sur
David Suárez, La tesis de la carga teórica de la observación en clave peirceana
Mesa 2: Kuhn y la praxis científica
Carlos Hernán Miguel, Melogno y la búsqueda de la estructura perdida
Alan Heiblum Robles, La ciencia normal y sus problemas
Leonardo Díaz, Repensando el legado de Kuhn
Panelistas:
Genaro Rodríguez, Incidencia de la Ciencia, la Tecnología en la Educación Superior
Radhamés Silverio González, Inteligencia Artificial aplicada en la Educación Superior
Silverio del Orbe Abad, Inteligencia Artificial aplicada en el proceso de Investigación Científica
Andrés Merejo, Ética aplicada a la Inteligencia Artificial
El desarrollo y empleo de sistemas de inteligencia artificial (IA) resulta preocupante por su potencial para erosionar o amenazar la autonomía humana, debido, por ejemplo, a su uso para la manipulación, a la consiguiente degeneración de capacidades o a la ausencia de criterios claros para atribuir responsabilidades. Con el objetivo de ahondar teóricamente en estos temas, se propone una mesa redonda con las tres siguientes comunicaciones, impartidas por miembros del proyecto de investigación AutAI.
Sistemas de recomendación y autonomía humana, a cargo de Francisco Lara (Universidad de Granada).
El auge de los sistemas de recomendación basados en IA ha permeado nuestras vidas cotidianas, desde la compra por internet hasta el consumo de noticias o la búsqueda en redes sociales de amigos y pareja. Sus beneficios son evidentes, ayudándonos a elegir mejor en un contexto de excesiva información. No obstante, la personalización masiva y el diseño persuasivo en los que se basan estos sistemas también plantea desafíos éticos (Genovesi et al., 2023; Milano et al. 2019), en particular, desafíos a la autonomía humana, entendida como la capacidad para tomar decisiones libres y bien informadas. Al priorizar la optimización de métricas como el tiempo de interacción o las ventas, los sistemas pueden influir en las preferencias de los usuarios de una manera difícil de detectar y comprender, exacerbando sesgos, limitando la exposición a ideas nuevas y restringiendo el libre albedrío del usuario (dando lugar al conocido “filtro burbuja” y a la homogeneización cultural); comprometiendo el principio de consentimiento informado; contribuyendo a formar preferencias adaptativas que reducen la autenticidad de las decisiones; o directamente propiciando la manipulación de los usuarios.
Para hacer frente a estos desafíos, en esta comunicación se analizarán propuestas teóricas como la de evaluar de manera crítica la información que recibimos y los algoritmos que la producen (Del Valle & Lara, 2023); diversificar las fuentes de tal información; proteger la privacidad de los usuarios; y promover la transparencia algorítmica.
¿Qué autonomía está en juego? Dimensiones de la autonomía humana relevantes para la ética de la IA, a cargo de Pablo Neira (Universidad de Granada).
El concepto de autonomía presenta una considerable ambigüedad que dificulta el análisis unificado y genera controversias en torno a las causas y el alcance de las amenazas que la IA plantea a la autonomía humana. Ejemplos de estas controversias incluyen el debate sobre la existencia de una brecha de responsabilidad vinculada al incremento de la ‘autonomía’ en sistemas autónomos y la discusión sobre un posible juego de suma cero entre la ‘autonomía’ de la IA y la autonomía humana. Mientras que algunos autores defienden esta idea (Floridi & Cowls, 2022), otros la critican (Prunkl, 2022).
En esta comunicación se defenderá que algunas de estas controversias en torno a los efectos de la IA sobre la autonomía humana parten de la confusión entre diferentes dimensiones del término “autonomía”. Para ello, en primer lugar, se analizará la relevancia de la autonomía, destacando su papel fundamental en nuestra concepción de la responsabilidad moral y su importancia como elemento esencial para el bienestar humano. En segundo lugar, se expondrán algunas de las preocupaciones éticas respecto a los efectos de la IA sobre la autonomía. Finalmente, se distinguirán dimensiones de la autonomía humana con las que comprender mejor las amenazas específicas que la IA podría representar.
«La IA se comió mis deberes». Reflexiones sobre la responsabilidad en el binomio humano-mascota y su potencial para pensar la responsabilidad en equipos de humano-IA, a cargo de Marcos Alonso (Universidad Complutense de Madrid)
El problema de los «responsibility gaps» aparece cuando nos encontramos con situaciones en las que no está claro a quién responsabilizar de ciertas acciones. Con los robots y las tecnologías de IA basadas en aprendizaje automático nos encontramos con un fenómeno de este tipo. Cuando un coche autónomo programado con IA atropella a una persona, ¿quién es el responsable? ¿El coche? ¿La computadora que lo guía? ¿El constructor? ¿El programador? ¿El propietario del coche? ¿El organismo regulador que permitió que hubiera coches autónomos en las carreteras? La dificultad en resolver esta controversia requerirá reajustar nuestros sistemas morales y jurídicos. Una propuesta razonable en este sentido es la de repensar la agencia y responsabilidad de estos casos como formas de agencia y responsabilidad distribuida, entendiendo la agencia como resultante de la colaboración humano-robot (Dignum, 2019; Nyholm, 2020).
Para concretar más propuestas como estas puede ser útil que nos fijemos en situaciones análogas menos novedosas. Así, en esta comunicación se exploraría el modelo de agencia y responsabilidad colaborativa que encontramos en el binomio humano-mascota, concretamente en el caso del perro doméstico. Como las IAs, estos animales tienen capacidades (olfato, oído) muy superiores a las de los humanos. También los entrenamos para que se comporten como queremos. A pesar de todo, los perros están a cargo de sus dueños, que se responsabilizan de ellos. Una responsabilidad, no obstante, que llega hasta cierto punto y que depende de muchos factores. La comparación, en cualquier caso, no es perfecta, presentando divergencias importantes en cuestiones como la capacidad de control, el alcance de la agencia o la capacidad de iniciativa de perros e IAs, respectivamente.
Referencias
Del Valle, J.I. & Lara, F. (2023). AI-powered recommender systems and the preservation of personal autonomy. AI & Society.
Dignum, V. (2019). Responsible artificial intelligence: how to develop and use AI in a responsible way. Springer.
Floridi, L., & Cowls, J. (2022). A unified framework of five principles for AI in society. En: Machine learning and the city: Applications in architecture and urban design, pp. 535-545.
Genovesi, S.; Kaesling, K. & Robbins, S. (eds.) (2023). Recommender Systems: Legal and Ethical Issues. Springer.
Milano, S.; Taddeo, M. & Floridi, L. (2019). Recommender systems and their ethical challenges. AI & Society.
Nyholm, S. (2020). Humans and robots: ethics, agency, and anthropomorphism. Rowman-Littlefield.
Prunkl, C. (2022). Is there a trade-off between human autonomy and the ‘autonomy’ of AI systems? En: Philosophy and Theory of Artificial Intelligence 2021. PTAI 2021. Studies in Applied Philosophy, Epistemology and Rational Ethics, vol 63. Springer.
Panelistas:
Francisco Lara, Sistemas de recomendación y autonomía humana
Pablo Neira, ¿Qué autonomía está en juego? Dimensiones de la autonomía humana relevantes para la ética de la IA
Marcos Alonso, Ramón Ortega Lozano y Anibal M. Astobiza, «La IA se comió mis deberes». Reflexiones sobre la responsabilidad en el binomio humano-mascota y su potencial para pensar la responsabilidad en equipos de humano-IA
La irrupción de la Inteligencia Artificial (IA) significa en la educación para los negocios una revolución que impacta todos los recursos de las disciplinas del área, en la forma y uso del diseño e implementación de sus estrategias. Esta tecnología, capaz de aprender, razonar y tomar decisiones de manera autónoma, está reconfigurando los paradigmas tradicionales de la enseñanza de los negocios, ofreciendo nuevas herramientas y oportunidades tanto a estudiantes como a docentes.
Parte de estas transformaciones se encuentra en la personalización del aprendizaje, creación de espacios interactivos simulados y el manejo de grandes bases de datos para la toma de decisiones. Si bien es cierto que la IA facilita el desarrollo de habilidades técnicas, también está desempeñando un papel importante en el desarrollo de habilidades blandas, como la creatividad, la colaboración y la comunicación.
La Inteligencia Artificial está transformando radicalmente la educación empresarial, ofreciendo nuevas oportunidades para personalizar el aprendizaje, desarrollar habilidades clave y preparar a los estudiantes para los desafíos del mundo laboral del siglo XXI. Los beneficios de la IA en la educación empresarial son innegables, ofrece un potencial enorme para transformar la educación superior de negocios, pero también es fundamental abordar los desafíos que plantea y poder aprovechar al máximo las oportunidades que ofrece.
Existen desafíos y consideraciones éticas a tener en cuenta, la irrupción de la IA redefine radicalmente el panorama laboral. Las tareas rutinarias y repetitivas serán cada vez más automatizadas, lo que desplazará a ciertos perfiles profesionales y exigirá nuevas competencias. Los estudiantes de negocios de hoy deben prepararse para un futuro laboral donde la colaboración humano-máquina será la norma. Son muchos los beneficios que se vislumbran en su utilización, pero es importante abrir un debate, específicamente en los programas de la Licenciaturas del área de los negocios que permitan su uso eficiente y efectivo.
Temas como la desigualdad digital en la educación superior puede ampliar la brecha digital existente, ya que no todos los estudiantes tienen acceso a las herramientas y recursos tecnológicos necesarios. La pérdida de empleo como consecuencia de la automatización de tareas puede llevar a la pérdida de empleos en ciertos sectores, lo que plantea interrogantes sobre la empleabilidad de los futuros graduados. La dependencia de la tecnológica puede limitar el desarrollo de habilidades sociales, como la comunicación interpersonal y la resolución de problemas en grupo, que son fundamentales en el mundo laboral. Además de la privacidad y seguridad de los datos; la falta de transparencia son temas que pueden generar desconfianza y limitar su adopción en ciertos contextos.
En conclusión, la IA representa una oportunidad única para mejorar la calidad de la educación superior de negocios. Sin embargo, es necesario adoptar un enfoque equilibrado y responsable, considerando tanto los beneficios como los riesgos asociados a esta tecnología. Al abordar los desafíos y aprovechar las oportunidades, la IA puede contribuir a formar profesionales más preparados y competitivos para hacer frente a los retos del futuro.
Panelistas:
María Luisa Montás y Manuel Mercedes, Incidencias de la Inteligencia Artificial en la Licenciatura de Negocios Internacionales
Mercedes Hereadia Ozuna, Incidencias de la Inteligencia Artificial en la Licenciatura de Administración de Empresas
José Antonio Burgos, Incidencias de la Inteligencia Artificial en la Licenciatura de Mercadotecnia
Yvelisse Melo Castro, Cibermarketing, nuevas competencias para los negocios
Hoy en día, las condiciones de vida en nuestro planeta se han trasformado drásticamente gracias al desarrollo de la ciencia y la tecnología. Estos cambios podemos identificarlos desde diversas aristas, entre las que se destaca, como un primer acercamiento, el relacionado con lo material, es decir, aquel que se ha desarrollado a través de los diversos artefactos tecnológicos. Uno más, comprendido desde una visión conceptual, es el que hace referencia a los modelos de conocimiento. En este sentido, la filosofía —y la epistemología en particular— continuan su tarea reflexiva, sobre métodos, teorías y tradiciones. En esta vertiente, podemos identificar diversas tradiciones históricamente dominantes como la normativa, la naturalista y de acuerdo con cuestionamientos recientes, tenemos aquellas que se centran en el sujeto cognoscente y en el pluralismo cognoscitivo.
Bajo este contexto, el término innovación se ha convertido en el emblema de la sociedad moderna, una panacea para resolver problemas casi de cualquier ámbito. No obstante, la innovación también ha servido para agravar la dependencia y explotación de las metrópolis capitalistas sobre países del Tercer Mundo o periféricos. Hasta ahora, la innovación, en particular el planteamiento neoclásico, como proceso global ha beneficiado primordialmente a las metrópolis y a élites económicas y políticas a nivel mundial en detrimento de la mayor parte de la humanidad, que en general ha quedado marginada de sus beneficios y solo en casos excepcionales, la innovación científica y tecnológica ha contribuido a resolver problemas urgentes de la población mundial, como es el caso de las vacunas en la pandemia COVID-19 (Velasco, 2021:13). Adicionalmente, cuando se hace referencia a la innovación, generalmente lo hacemos únicamente desde un plano económico que fundamenta su valor en términos disruptivos que no siempre van acordes a valores sociales, culturales y sobre todo ambientales.
Este concepto dominante de la innovación, aunque más o menos funcional para los países desarrollados, lo ha sido menos para las necesidades y características de las sociedades menos desarrolladas, para las cuales pueden traer aparejadas dinámicas de desigualdad. En efecto, los procesos de innovación distan de ser sencillos y de bajo costo; por el contrario, son altamente exigentes en recursos tales como capital físico y diversos tipos de conocimiento. Fenómenos así de complejos requieren interacción entre diferentes actores (empresas, gobierno, universidades, sistema financiero, entre otros) y es, por tanto, altamente sistémico. Toda esta interacción se encuentra inmersa en una rica estructura de instituciones mismas que constituyen lo que, en la literatura, se conoce como sistema de innovación.
Es entendible, entonces, que en una sociedad desigual no todos sus actores tienen las mismas posibilidades de ser innovadores. Además, las innovaciones producidas – normalmente dirigidas por las leyes del mercado– escapan del alcance de sectores de la población con bajo poder adquisitivo. Por tanto, al menos en un corto plazo, los segmentos de población económicamente menos afortunados tendrán dificultades para beneficiarse de los procesos de la innovación. La consecuencia es por tanto directa: aún cuando la innovación puede ser un factor de crecimiento, no necesariamente contribuye a cerrar las brechas de desigualdad.
Buscando soluciones a los problemas de desigualdad generados por la dinámica innovadora tradicional, se han introducido nuevas ideas, diseños e implementación de estos de tal manera que: a) den solución a problemas sociales; b) acrecienten las oportunidades de subsistencia de las poblaciones excluidas (Banco Mundial, 2013). En términos globales, estos procesos se han etiquetado como innovación inclusiva.
El concepto de innovación inclusiva ha ido cambiando a lo largo del tiempo. En este trabajo –por una generalidad incluyente– definiremos innovación inclusiva como aquella “que incluye en algunos aspectos... a grupos que están actualmente marginados” (Foster et al., 2014). En cualquiera de los casos, la innovación inclusiva implica la generación de ideas que se transformen en organizaciones, procesos, productos y servicios que beneficien social y económicamente a la población pobre, excluida o privada de sus derechos.
Esta definición permite clasificar las innovaciones inclusivas en tres categorías, de acuerdo con el sustrato socioeconómico y con el estatus de formalidad donde se origina y difunde: a) aquellas que provienen de los sectores formales de la sociedad (gobierno, universidades, empresas, ONGs) y que tienen como objetivo los sectores marginados; b) aquellas innovaciones producidas por los actores marginados y/o en ambientes informales para sus iguales, pero que pueden ser también aprovechadas en el sector formal; c) innovaciones donde hay interacciones entre actores marginados y no marginados para el desarrollo de la innovación, es decir, puede tener un origen mixto.
Se pueden encontrar ejemplos exitosos que han beneficiado a las poblaciones menos favorecidas en las tres categorías. No obstante, a partir de las experiencias reportadas en la literatura, resulta claro que el impacto social alcanzado por las innovaciones inclusivas es proporcional a la incorporación de los diversos actores involucrados en el conocimiento, creación, difusión, comercialización y consumo de estos productos y/o procesos.
En este sentido, y desde una discusión desde los estudios CTS, podemos identificar una crítica de cómo ha sido concebida y formulada la innovación, y que más allá de los estudios desde la economía, encontramos intersecciones fundamentales desde la epistemología, desde la comprensión de los valores, los estudios feministas, que cuestionan la objetividad, la verdad, la neutralidad, los valores explícitos e implícitos.
Por tanto, la mesa tiene como objetivo discutir críticamente los fundamentos y los problemas en torno a la exclusión y privilegio que ha tenido la innovación neoclásica fundamentada en los conocimientos científicos y tecnológicos, pero sobre todo discutir desde la inclusión la necesidad de caracterizar otro tipo de innovaciones relacionadas con la cultura, inclusión, patrimonio cultural, género e interculturalidad que pueden incorporar otros valores más allá de lo económico. Analizando, cómo el desarrollo de la ciencia, la tecnología y la tecnociencia se han configurado desde la hegemonía y en particular, desde el sistema patriarcal, identificando a través de las relaciones de desigualdad social que se generan experiencias incomprendidas por los agentes implicados. Así pues, es importante que las sociedades de conocimientos sean integradas en los procesos de conocimiento en condiciones similares que los grupos dominantes, así como los grupos minoritarios sean reconocidos en la producción de conocimiento, libre de prejuicios.
Panelistas:
Mesa 1
Katia Pamela Martínez Casañas, Connotación epistemológica de la discontinuidad energética
Juan Manuel Vargas Canales, Proceso de apropiación de la ciencia, tecnología e innovación en territorios olvidados
Lilia Sarmiento, Innovación intercultural en el aula: Diseñando una chinampa para la sustentabilidad
Xenia A. Rueda Romero, La exclusión en la innovación desde una perspectiva de género
Mesa 2
Juan Carlos García Cruz, Innovación intercultural en sociedades de conocimientos
René Rivera Huerta, Innovación inclusiva
Raúl Alcalá Campos, Tecnociencia y Valores
La Inteligencia Artificial (IA) ha emergido como una de las tecnologías más transformadoras de nuestra era, con un impacto significativo en múltiples sectores, incluido el educativo. En el contexto de la educación superior, la IA ofrece oportunidades sin precedentes para personalizar el aprendizaje, optimizar los procesos de enseñanza y hacer que la educación sea más inclusiva y accesible. Sin embargo, su implementación también plantea desafíos importantes, especialmente en países, donde persisten brechas en formación, infraestructura y adaptabilidad curricular.
Este panel busca explorar cómo la IA puede ser una aliada clave en la modernización del sistema educativo superior, examinando los retos actuales y proponiendo estrategias viables para maximizar sus beneficios. Desde la capacitación docente hasta el diseño de soluciones innovadoras, la IA tiene el potencial de redefinir la educación, preparando a los estudiantes para enfrentar un futuro impulsado por la tecnología.
De igual modo, en este panel se abordan los retos que se deben enfrentar durante la implementación de la Inteligencia Artificial (IA) en la educación superior. Entre estos, citamos:
La capacitación docente. Aunque la tecnología tiene un enorme potencial para transformar la educación, los resultados dependen directamente de cómo los educadores integren estas herramientas en sus prácticas pedagógicas. La falta de conocimientos sobre el uso de la Inteligencia Artificial puede limitar su aplicación efectiva en el aula y reducir su impacto en el aprendizaje de los estudiantes.
La infraestructura y conectividad. A pesar de avances en la expansión del acceso a internet y dispositivos tecnológicos, persisten brechas en áreas rurales y comunidades marginadas. La IA requiere tanto conectividad de alta velocidad como hardware adecuado, por lo que se deben fomentar alianzas estratégicas para mejorar la infraestructura educativa y facilitar el acceso a equipos a bajo costo.
La adaptación curricular. Integrar la IA en el currículo nacional puede preparar a los estudiantes para enfrentar desafíos locales y aprovechar oportunidades globales. En las etapas iniciales, esto puede significar enseñar conceptos básicos sobre la IA en la vida diaria, mientras que en niveles avanzados se podrían abordar temas como algoritmos, ética y aplicaciones industriales.
Resistencia al Cambio. Tanto los educadores como los estudiantes pueden experimentar inseguridad frente a las nuevas tecnologías, especialmente cuando estas demandan transformaciones profundas en las prácticas pedagógicas convencionales. La ausencia de formación adecuada y el miedo a lo desconocido pueden generar resistencia a la adopción de herramientas basadas en Inteligencia Artificial (IA).
En el contexto de la Educación Virtual, la IA ha desencadenado una revolución que está personalizando la experiencia educativa, mejorando el diseño instruccional y haciendo el aprendizaje más inclusivo. La IA permite detectar deficiencias en los estudiantes, generar recursos adaptados, ofrecer retroalimentación instantánea y promover el aprendizaje autodirigido. Herramientas como ChatGPT, DALL-E y Vidext han demostrado ser esenciales para crear materiales de alta calidad y actividades dinámicas, mientras que aplicaciones como Synthesia generan videos educativos en múltiples idiomas, facilitando la enseñanza personalizada.
En la educación superior virtual, la inteligencia artificial (IA) ha transformado los métodos de enseñanza y aprendizaje, ofreciendo experiencias más personalizadas e inclusivas. Herramientas basadas en IA detectan deficiencias en los estudiantes, generan recursos adaptativos, brindan retroalimentación inmediata y promueven el aprendizaje autodirigido. Aplicaciones como ChatGPT, DALL-E y Synthesia enriquecen las aulas virtuales con contenidos interactivos, como videos educativos multilingües y actividades gamificadas.
Entre los beneficios más destacados de la IA está la personalización del aprendizaje, que adapta los contenidos al ritmo y necesidades de cada estudiante, mejorando su rendimiento. También destaca la accesibilidad global, eliminando barreras geográficas y sociales para fomentar una educación inclusiva.
Otra gran oportunidad que ofrece la Inteligencia Artificial (IA) en la educación es la creación de contenidos interactivos, como videos, simulaciones y actividades elaboradas con herramientas para potenciar el aprendizaje a través de la ludificación. Estos recursos no solo mejoran la calidad del aprendizaje, sino que también aumentan significativamente el interés y la motivación de los estudiantes. Al integrar elementos visuales y multimedia, como gráficos, animaciones y efectos interactivos, los estudiantes pueden involucrarse de manera más activa con los contenidos, lo que facilita la comprensión de conceptos complejos y abstractos.
La Inteligencia Artificial (IA) ofrece múltiples oportunidades para mejorar la calidad educativa. Una de las más destacadas es la retroalimentación instantánea, que permite a los educadores ajustar sus métodos de enseñanza en tiempo real. Esta capacidad de adaptación rápida asegura que los estudiantes reciban la orientación necesaria cuando la requieren, optimizando su proceso de aprendizaje.
Otra gran ventaja es que promueve el aprendizaje autodirigido, permitiendo a los estudiantes tomar el control de su propio proceso educativo y explorar temas a su propio ritmo. Esto fomenta la autonomía y el desarrollo de habilidades críticas que serán esenciales en su futuro profesional. De igual modo, el análisis de datos que realiza la IA ofrece a los educadores información valiosa sobre el desempeño y las necesidades de los estudiantes, lo que facilita la toma de decisiones informadas y mejora las intervenciones pedagógicas. Este enfoque personalizado contribuye a un aprendizaje más eficaz y a un rendimiento estudiantil superior.
Palabras Clave: Inteligencia Artificial, Educación Superior, personalización del aprendizaje.
Panelistas:
Yasmin Hernández Reyes, Oportunidades Globales de la IA en la Educación Superior: accesibilidad, personalización y eficiencia en el proceso de enseñanza y aprendizaje
Jimmy Rosario, Retos Éticos y Brechas Digitales en la Educación con IA
José Luis Córica, La reacción de las universidades ante la IA: enfoques conceptuales y caracterización
La inteligencia artificial (IA) representa un cambio disruptivo en un mundo cibernético y altamente interconectado, donde la transformación digital redefine los paradigmas sociales, económicos y culturales. Este contexto, caracterizado por la convergencia entre lo físico y lo virtual, plantea tanto oportunidades como desafíos. A medida que la IA se integra en nuestra vida diaria, su impacto se extiende desde sectores como la salud, la educación y el transporte, hasta ámbitos más abstractos como la ética y la gobernanza global.
Vivimos tiempos cibernéticos y transitorios, atravesados por transformaciones radicales y por la automatización de procesos mediante el aprendizaje automático y las redes neuronales, los cuales nos permiten analizar datos masivos (big data) a velocidades inimaginables. Esto optimiza decisiones y recursos, entretejiéndose de manera simultánea con el ciberespacio, concebido como un espacio de interacción social donde convergen la tecnología y la humanidad.
La integración masiva de la IA en el cibermundo plantea preguntas cruciales. Una de las principales preocupaciones es la seguridad en un ecosistema digital tan interdependiente. Los sistemas de IA pueden ser vulnerables a ataques cibernéticos, manipulación de datos o sesgos algorítmicos que perpetúen desigualdades sociales. Además, el impacto laboral de la automatización genera debates sobre el futuro del empleo, el acceso equitativo a las tecnologías y la redistribución de la riqueza generada por la economía digital.
El avance de la IA plantea cuestiones éticas profundas sobre la privacidad, la toma de decisiones autónomas y los límites de la interacción cibernética humano-máquina. Por ejemplo, la creación de algoritmos autónomos capaces de decidir en contextos críticos, como vehículos sin conductor o sistemas de armamento, obliga a repensar las nociones de responsabilidad y control.
En un mundo marcado por lo digital y lo virtual, también se reconfiguran los límites entre lo humano y lo artificial. El desarrollo de interfaces cerebro-computadora, prótesis inteligentes y otras formas de aumentación humana sugiere un futuro donde la IA no solo complementa las capacidades humanas, sino que las redefine.
La IA en un mundo cibernético y transitorio no es solo un software virtual, sino un fenómeno transformador que redefine las dinámicas de poder, la estructura social y la identidad humana. La clave para aprovechar sus beneficios radica en garantizar que su desarrollo esté guiado por principios éticos sólidos, una gobernanza inclusiva y una visión centrada en el bienestar colectivo. Solo así podremos enfrentar los retos y aprovechar las oportunidades de un futuro próximo dominado por la inteligencia artificial.
Panelistas:
Daniel Innerarity, Inteligencia humana vs. Inteligencia artificial
Javier Echeverría, Tecnomundos transidos
Andrés Merejo, La Inteligencia Artificial en el Cibermundo transido
La Universidad Autónoma Metropolitana una de las más grandes e importantes de México cuenta con un Programa de Inteligencia Artificial Estratégica Social y Solidaria (PIAESS), un esfuerzo interinstitucional en el que se retoman diversas experiencias universitarias en el uso de la Digitalización, la Inteligencia Artificial (IA) y la Economía Social y Solidaria, tales programas han dado lugar a un plan de estudios a nivel pregrado en Inteligencia Artificial, que resulta innovador en el país y en el contexto iberoamericano. Detrás de este proyecto se encuentran algunos de los ponentes de la mesa “INTELIGENCIA ARTIFICIAL Y SU APLICACIÓN EN EL PIAESS”.
En esta mesa, unidos por la filosofía de la ciencia, de las ciencia cognitivas, de la tecnología aplicada, se exploran cómo la IA tiene repercusiones a nivel epistemológico, social, ético y en aspecto prácticos, en particular en el PIAESS. Cada una de las contribuciones se ha realizado mediante el Laboratorio de Inteligencia Artificial del Departamento de Administración de la UAM Azcapotzalco. El objetivo de esta mesa es doble: dar a conocer el programa PIAESS, así como realizar reflexiones específicas sobre este caso y sobre la Inteligencia Artificial en general.
Panelistas:
Mesa 1
Alfredo Garibay Suárez, Ética y práctica en la inteligencia artificial: el caso UAM
Edgar Alfonso Sansores Guerrero y Yadira Zavala Osorio, Inteligencia Artificial: Nuevos Paradigmas para la Filosofía de la Ciencia
Mesa 2
Paola Hernández Chávez, Inteligencia, transhumanisto y ¿límites éticos en la IA?
Delkia Patricia Couturier, Inteligencia Artificial en la Economía Social y Solidaria
Óscar Lozano Carrillo, Ética y la IA
Cinthia Noemí Zacatenco Arellano, Inclusión digital en la era de la inteligencia artificial.
La popularización de la Inteligencia Artificial (IA) en los últimos años ha generado debates sobre el alcance e impacto que tendrá esta tecnología en términos sociales, éticos y epistémicos. La idea de que la IA es una “nueva frontera” (Zuboff 2019) y que ésta forma parte de una “segunda era de las máquinas” (Brynjolfsson y McAfee 2014) se ha consolidado como una vía legítima para preguntarnos sobre los riesgos que presenta (Russell 2019). La propuesta que tenemos para este grupo de trabajo no trata de dar una respuesta a estas preguntas, sino que plantea, desde la perspectiva de la historia de la ciencia y la tecnología, que estas ansiedades y preguntas sobre el impacto de las tecnologías tienen paralelismos con otros momentos históricos.
En este sentido, consideramos que Ian Hacking (2002, 2006, 2007) presenta un caso interesante, el de efectos bucle o loops en la construcción de identidades, y que usamos como punto de partida para analizar cómo usar, imaginar y pensar las potencialidades de las tecnologías, si éstas tienen efectos en quienes las diseñan y las usan, y rastrear cómo inciden en la construcción de otras tecnologías o el mejoramiento de las mismas, en lo que llamamos loops sociohistóricos.
Usando esto, nuestra propuesta es analizar cómo, a través de la historia, el uso de nuevas tecnologías ha generado imaginarios, respuestas, ansiedades y controversias que, a través de procesos de retroalimentación o loops, han incidido en la adopción, abandono o modificación de las mismas. Partiendo de discusiones sobre procesos de producción, estandarización, cuantificación o popularización de diferentes tecnologías (control social, estadísticas, computadoras, alimentos procesados, el internet, la biomedicina, etcétera), consideramos que podemos trazar paralelismos entre la adopción de estas nuevas tecnologías que se transformaron en infraestructuras y las discusiones contemporáneas sobre IA.
Panelistas:
Mesa 1: Tecnologías y salud: Control, alimentación y medicalización
María de Jesús López Alcaide, De la anfetamina al Ozempic: El miedo a la gordura en el desarrollo de los imaginarios socio-técnicos
Mariana Gerardo Antonio, Control de la alimentación a través de nuevas tecnologías
Joel Vargas Domínguez, Del mejoramiento de los cuerpos al control de la obesidad: la trayectoria de los alimentos industrializados y ultraprocesados
Velia Mónica López Rivas, De la televisión a la inteligencia artificial. Reflexiones sobre los usos y posibilidades de la telemedicina en México en los siglos XX y XXI
Mesa 2: Ciencias, educación y categorías sociales
Diego Álvarez Icaza Vital, La inteligencia como clasificación: Joaquín Cosío, las pruebas Binet y el loop sociohistórico en México
Maribel Moreno Ochoa, El telescopio en la nueva visión del mundo. Un antes y un después.
Mesa 3: Imaginarios sociotécnicos y narrativas culturales
Ricardo Govantes, Expectativas de la tecnociencia y ansiedad cinematográfica: imaginando las potencialidades y los riesgos de la inteligencia artificial en los primeros años del siglo XXI
Alexis Bedolla Velázquez, Tropezando de nuevo con la misma piedra (filosofal): el caso de la introducción de la IA en la medicina genómica
Enrique Francisco Soto Astorga, Bucles sociohistóricos y la metáfora de la máquina: desde los organismos hasta el capitalismo algorítmico
Ana María Medeles Hernández, Infraestructuras, crisis y loops tecnológicos: De la máquina de votar en el siglo XIX a la IA en los procesos electorales mexicanos
Mesa 4: Tecnologías globales y emergentes
Eduardo Robles Belmont y Gabriela Sued, Lenguajes de la coproducción e Imaginarios sociotécnicos de las tecnologías emergentes en México
José Gerardo López Bonifacio, Picotecnología desde los imaginarios tecnológicos, infraestructuras y trayectorias históricas
Nuestra vida cotidiana se desenvuelve con el acompañamiento de los artefactos tecnológicos con que nos ha rodeado la vida contemporánea. El proyecto civilizatorio sin tecnología es inexplicable. Dilucidar en torno a sus consecuencias ha tenido un interés creciente por la filosofía de la tecnología identificando los problemas filosóficos que le subyacen, en la filosofía iberoamericana ya es una tradición el distinguir estos en ontológicos, epistemológicos y axiológicos (Bunge 1976) (Quintanilla 2017) (Olivé 2011) (Diéguez 2014).
Más allá de nuestra cotidianeidad los artefactos han tenido un protagonismo omnipresente hacia el interior de las instituciones responsables de organizar y ofrecer apoyo a las comunidades científicas para la generación de conocimiento. Sin la adquisición y uso de sofisticados y costosos equipos la investigación sería más que imposible. Esta es una de las razones de nuestro interés por ocuparnos de aquellas implicaciones que los instrumentos o artefactos que aquí podríamos considerar epistémicos puedan tener sobre las formas de razonamiento inherentes en la construcción del conocimiento científico. Es decir, que nuestro interés está circunscrito a los problemas epistémicos de la filosofía de la tecnología en su relación con los conceptos básicos de la epistemología: observación, evidencia, experimentación, comprobación, entre otros.
En el panorama actual prevalece la inventiva tecnológica asociada a las grandes corporaciones, a la privatización del conocimiento: la tecnociencia (Latour 1992) (Echeverría 2003). Una designación que ha terminado por aceptarse, que describe las nuevas formas de hacer ciencia y tecnología en una relación estrecha con los intereses privados.
La visión tradicional en la cual la tecnología estaba a expensas de los dictados canónicos de la ciencia ha cedido espacio para dar lugar a una relación bidireccional y ampliando con ello las posibilidades de intercambio, se da un interaccionismo causal (Niniluoto 1997). La invención tecnológica del último siglo ha nutrido a la ciencia de instrumentos que le permiten realizar mediciones con mayor precisión, y con ello validar, admitir o rechazar conjeturas con un mayor grado de confiabilidad. Las preguntas que nos ocupan son un intento por saber ¿cómo han cambiado –si es que lo han hecho– los valores o virtudes epistémicas: observación o evidencia con la mediación de los nuevos instrumentos tecnológicos? ¿hasta dónde la filosofía de la ciencia debe cambiar sus nociones? ¿podemos todavía sostener, de acuerdo a la idea popperiana, una epistemología sin sujeto cognoscente?
En su momento Russell Hanson se ocupó del concepto de “observación” (1958), estaba muy interesado en indagar el papel preponderante que jugaban las teorías a la hora de interpretar los datos visuales básicos. Cuando a las teorías se las ubicaba al centro de las cavilaciones filosóficas, eran las grandes ordenadoras de lo que uno ve: “la visión es una acción que lleva una “carga teórica””. Este mismo desafío fue confrontado por Shapere (1982), sobre un terreno en el que los datos básicos de la visión ya no tienen cabida de manera directa, cuestionando aquella tradición filosófica que da por sentado que para que haya “observación” es necesario que el humano perceptor esté presente en el lugar y el momento en el que se recibe la información. Para el caso de los neutrinos esto ya no es así. En otros campos tampoco, por ejemplo, los nanomateriales,
Así, en el mundo nano, resultan sensatas las pregunta de Pitt (2004): "¿cómo llegar a saber lo que está pasando en el dominio de las cosas diminutas?” con un par de preguntas antepuestas: ¿qué queremos decir con "saber"? y, ¿cómo es que accedemos a este dominio? Encuentra una relación directa entre lo que llegamos a saber sobre el mundo nano y en cómo accedemos a él, y los criterios que traemos que nos permiten evaluar ese acceso. Sustenta sus afirmaciones en una tesis más amplia: “modificamos nuestra concepción del conocimiento a medida que se desarrollan criterios para calibrar nuestros instrumentos”. Lo que "vemos" a través de un microscopio es diferente al sentido en el que “ver” un árbol o una taza de café. Queriendo dejar en claro la extensión del significado del verbo "ver" para adaptarlo a nuestro uso de microscopios. O, para decirlo de otra manera, hablar de “ver a través de un microscopio” es emplear una metáfora. Una metáfora que intenta allanar nuestro camino hacia una comprensión de lo desconocido aplicando lo familiar a lo desconocido.
Pensemos, con Toulmin (1953) en estas imágenes producidas por los microscopios electrónicos cual si se tratara de mapas de la realidad, pues “la analogía entre las teorías físicas y los mapas es de alcances largos y puede ser utilizada para iluminar algunos oscuros y polvorientos rincones de la filosofía de la ciencia”, considerando que existen similitudes importantes entre el cartógrafo y el físico.
En elaboración de un mapa están los intereses de quienes lo elaboran y de sus usuarios potenciales. Sgnifica que son cierta clase de convenciones las que determinan qué aspecto de la imagen visual ha de tomarse en serio. Esta incursión analógica ha sido recuperada Kitcher (2001). A su propia pregunta de ¿en cuanto a qué se puede considerar una omisión o una información espacial inexacta? Él mismo se responde que esto depende del tipo de mapa y las convenciones asociadas a las necesidades e intereses. A lo que (Birkeland 2009) comenta.
Si uno fuera a aplicar diferentes técnicas a la misma muestra, las imágenes producidas en general no serían idénticas; resaltarían diferentes propiedades de los átomos estudiados. […] En el mismo sentido, las imágenes AFM y STM probablemente no retratarán las mismas características de la muestra.
Ninguna imagen o micrografía conseguirá representar en una toma todo lo que está sometido al bombardeo de electrones. El resultado mostrará aspectos parciales y estará en función de lo que el investigador esté buscando. Esto pone tierra de por medio en relación con el viejo anhelo de Popper (1972) de una epistemología sin sujeto cognoscente, o estar en condiciones de sustentar juicios objetivos acerca del mundo sin la intermediación de un sujeto. Lo cual tampoco significa que renunciemos en conjunto a la epistemología popperiana.
Panelistas
Samuel Ricardo Espinoza, Democratización del conocimiento y justicia tecnocientífica: el acceso desigual a las biotecnologías como problema social
Javier Tarango Ortiz, Filosofía del artefacto y medición de la rentabilidad: Propuesta de un modelo en comunidades epistémicas de la nanotecnología
Heriberto Ramírez Luján, Artefactos epistémicos y el cambiante concepto de observación
La relación entre la medicina y la inteligencia artificial no es nueva. El diseño e implementación de un programa (software) que realice diagnósticos médicos de manera automática, ha existido en el mercado desde el inicio de los sistemas expertos, en los albores del programa de investigación acuñado como inteligencia artificial en los años cincuenta del siglo XX. Sin embargo, en tiempos recientes ha habido un interés renovado de una nueva versión de la inteligencia artificial, que contrasta con la original.
Como respuesta a la temática que este congreso promueve, en este panel mesa proponemos adentrarnos en el papel de la IA en la medicina, a través de algunas de sus percepciones y de retos. En particular, abordaremos los siguientes temas: la recepción del uso de la IA por parte de los profesionales de la salud, la percepción de lo que hace expertos a los clínicos, así como algunos retos para modelar el razonamiento clínico en la IA de y, de analizar el papel de la empatía en la relación médico-paciente, todo lo cual apunta a una visión humanista de la IA desde la filosofía.
Con el título “predisposición de los profesionales a confiar en la IA en el diagnóstico y tratamiento de pacientes”, Marcos Alonso, de la Universidad Complutense de Madrid, en colaboración con Ramón Ortega Lozano (Universidad Pontificia de Comillas) y Aníbal M. Astobiza (Globernance-Instituto de Gobernanza Democrática), exponen los resultados de un estudio semi-experimental sobre la creciente adopción de técnicas de inteligencia artificial (IA) en el sistema de salud. Estas tecnologías están transformando la atención sanitaria, proporcionando a los profesionales, herramientas para optimizar diagnósticos, mejorar la detección precoz de enfermedades, analizar imágenes radiológicas y gestionar eficientemente los registros electrónicos de pacientes, entre otras áreas. Más allá de sus aplicaciones actuales, la IA tiene el potencial de abordar problemas complejos en la investigación y práctica biomédica. Este trabajo explora el grado de confianza que los profesionales de la salud perciben respecto a la incorporación de la IA en sus actividades. La aceptación y confianza en los modelos de IA son esenciales para una implementación exitosa en la atención médica. A través de un diseño semi-experimental basado en viñetas, se examina la predisposición de los profesionales a confiar en la IA en el diagnóstico y tratamiento de pacientes. Las viñetas presentan diferentes escenarios donde la IA tiene un rol clave, y mediante una escala Likert se evalúan las actitudes y receptividad hacia la IA en contextos específicos de atención sanitaria. Los hallazgos proporcionan una visión detallada de las preocupaciones y expectativas de los profesionales sobre la integración de estas tecnologías en el sistema de salud. Este conocimiento es crucial tanto para los profesionales de la salud como para los desarrolladores tecnológicos, ayudando a identificar y superar las barreras en la adopción de la IA. Asimismo, el estudio sienta las bases para futuras investigaciones sobre la integración ética y eficaz de la IA en la atención sanitaria, garantizando que sus beneficios sean accesibles y aceptados ampliamente.
Enseguida sigue la reflexión del razonamiento clínico desde la perspectiva médica. Con el título “Razonamiento y juicio clínicos: fundamentos filosóficos y antropológicos”, Samanta Vargas, especialista en otorrinolaringología y doctoranda del programa de doctorado de lógica y filosofía de la ciencia de la Universidad de Salamanca, describirá algunos aspectos didácticos del razonamiento clínico, además de mostrar una primera aproximación de los resultados de una encuesta breve sobre la mera percepción de la experticia entre clínicos, de qué es eso que los hace ser expertos.
Con el título “Razonamiento Clínico: Hacia una caracterización Pragmatista”, Atocha Aliseda presentará su propia caracterización del razonamiento clínico, una en la que en un clínico es un agente racional tomador de decisiones ante situaciones de incertidumbre y con limitaciones de recursos: cognitivos y de tiempo, al menos. Esta caracterización es de corte Pragmatista, en tanto que se orienta a la acción. Un juicio clínico, se argumentará, es un mandato de lo que hay que hacer, no un enunciado con un cierto valor de verdad. Se expondrán también los retos para automatizar procesos involucrados en esta caracterización que pudieran modelarse con IA.
Finalmente, con el título “La simulación de la empatía en el uso de la inteligencia artificial en medicina y la deshumanización del cuidado médico” Carlos Montemayor, de la Universidad Estatal de California en San Francisco, argumenta que las capacidades epistémicas de la inteligencia artificial, si es que dichas capacidades realmente existen, son insuficientes para garantizar el cuidado médico de pacientes que la práctica ética de la medicina requiere. Por lo tanto, incluso en la situación hipotética en que los diagnósticos médicos basados en inteligencia artificial sean aceptables desde una perspectiva evidencialista o epistémica, situación que de ningún modo debe ser aceptada como actual sin resultados concretos, los riesgos éticos y políticos de implementar inteligencia artificial fiable continuarían, y de hecho, empeorarían por la confianza injustificada que generaría las capacidades epistémicas de sistemas artificiales. La presentación enfatizará la importancia de distinguir de manera sistemática las capacidades epistémicas de los sistemas artificiales de las posibles capacidades de empatía que deberían tener para cumplir roles éticos y de cuidado médico. Varias formas de riesgo serán analizadas, en particular, riesgos en donde los pacientes confían sin justificación el cuidado simulado de agentes que no tienen, y que no pueden tener (dada su arquitectura actual) dichas capacidades. El riesgo más fundamental de implementar indiscriminadamente la inteligencia artificial es la deshumanización del cuidado médico, incluso en la circunstancia ideal en donde los resultados epistémicos de diagnóstico y seguimiento de tratamiento sean fiables. No se niegan las ventajas de generación y mejora de conocimiento médico, las cuales seguramente beneficiarán la ciencia médica. La crítica es en el uso de estas tecnologías en circunstancias en donde se requiere cuidado médico y atención al paciente—circunstancias que generan confianza porque hay capacidades de empatía que son compartidas y correspondidas, y que los agentes artificiales carecen.
Panelistas:
Atocha Aliseda, Razonamiento Clínico: Hacia una caracterización Pragmatista
Marcos Alonso, Predisposición de los profesionales a confiar en la IA en el diagnóstico y tratamiento de pacientes
Carlos Montemayor, La simulación de la empatía en el uso de la inteligencia artificial en medicina y la deshumanización del cuidado médico
Samanta Carolina Vargas Malpica, Razonamiento y juicio clínicos: fundamentos filosóficos y antropológicos
En su libro “The Prospect of a humanitarian AI”, Carlos Montemayor, su autor, nos lleva de la mano en su argumento de que la autonomía es la propiedad clave para poder aspirar a una inteligencia artificial general (AGI). Este concepto lo lleva naturalmente al de agencia, sobre el cual es cauteloso en otorgar a todo artefacto inorgánico, pues de acuerdo con su postura hay ciertos tipos de agencia que no pueden conseguir en estos seres inorgánicos.
El objetivo de este panel es el de establecer un diálogo franco y directo con el autor de este libro, a través de preguntas desde la filosofía, como pudieran ser algunas de las siguientes: ¿cuál es su concepto de autonomía? Y ¿el de agencia? ¿es necesario implementar conciencia en las computadoras para decir que son autónomas? ¿cuál es el papel de la atención en su postura? Podemos hablar de dos tipos de inteligencias: la humana y la de las máquinas?
En todo caso, este diálogo será una oportunidad para que la audiencia conozca este libro y dialogue con su autor.
Esta mesa es continuación del panel “Perspectivas de la Inteligencia Artificial en Medicina: empatía, confianza, experticia y juicio clínico”, en el cual Carlos Montemayor, Alfredo Marcos y quien organiza este panel, Atocha Aliseda participan.
Bibliografía
Montemayor, C., “The prospect of a humanitarian AI”, Bloomsbury Pres, 2023.
Acceso: https://www.bloomsbury.com/us/prospect-of-a-humanitarian-artificial-intelligence-9781350348370/
Panelistas:
Atocha Aliseda, Agencia en la IA
Carlos Montemayor, Humanismo en la IA
Alfredo Marcos, Ontología en la IA
Esta mesa tiene como finalidad exponer los reciente avances en la investigación sobre la historia de la tradición de la Filosofía Política Iberoamericana de la Ciencia y la Tecnología que desarrolla un robusto grupo de trabajo especialmente en México y España.
Panelistas:
César de Rosas Ramírez, De la cuádruple raíz de la Filosofía Política Iberoamericana de la Ciencia y la Tecnología
Ambrosio Velasco Gómez, La Filosofía Política Iberoamericana de la Ciencia: tradición filosófica autóctona
Esta mesa tiene como finalidad exponer una selección de recientes propuestas y reflexiones sobre Inteligencia Artificial elaboradas por algunos filósofos de la tradición de la Filosofía Política Iberoamericana de la Ciencia y la Tecnología pertenecientes a un robusto grupo de trabajo que se desarrolla especialmente en México y España.
Panelistas:
José Manuel Iglesias Granda, Las raíces latinoamericanas de la Inteligencia Artificial: de la crítica histórica a una posible respuesta
Miguel Zapata, IA(A): Inteligencias artificiales autóctonas
W. Arturo Luna Ramírez, Adopción y apropiación de la IA desde la periferia cultural y tecnocientífica