A
¿Deben patentarse los inventos realizados por Inteligencia Artificial?
Palabras clave: IA, patentes, innovación, tecnología, propiedad
Resumen
La importancia de las inteligencias artificiales (IAs) es creciente, tanto en su impacto en la vida humana como para la reflexión académica. Uno de los asuntos que ha centrado el debate es el relativo a la gestión y los límites de la inteligencia artificial, de modo que su uso no sea contrario ni a los intereses generales de la sociedad ni al de las minorías más desfavorecidas. No obstante, hay otros problemas relacionados con la filosofía moral, de la ciencia o del derecho que apenas han sido explorados. Uno de ellos es precisamente el tema de esta comunicación, a saber, si es oportuno reconocer a las inteligencias artificiales como inventoras, tanto a efectos administrativos como jurídicos, políticos y sociales.
El objetivo de esta comunicación es examinar la cuestión de las inteligencias artificiales “inventoras”; sin embargo, es preciso puntualizar que no se trata de dirimir si las inteligencias artificiales pueden de hecho inventar o no, sino de una cuestión paralela: si aún cuando presumimos que son capaces de inventar, debemos o no considerarlas inventoras, entendiendo que ser inventor o inventora es una condición que les permitiría, por ejemplo, patentar, o al menos gozar de ciertos derechos morales o de protección intelectual más generales.
Son pocas las publicaciones que han dado respuesta alguna a ese interrogante. Entre otros motivos, debido a la actualidad, novedad e irrupción de las inteligencias artificiales. De hecho, los primeros artículos que examinaron la cuestión de las IAs inventoras comenzaron a aparecer la pasada década (cf. Ravid y Liu, 2018). Estos estudios ofrecen respuestas dispares y, aún cuando se decantan por la misma, emplean argumentos, métodos y marcos generales distintos para defender su posición. Esto ha llevado a Andreas Engel (2020) a afirmar que, tanto en la literatura académica como en los tribunales de justicia, la cuestión del reconocimiento jurídico-administrativo de las (supuestas) invenciones realizadas por las inteligencias artificiales es un asunto disputado. El motivo radica, aparentemente, en la dificultad para concluir si los mismos motivos que facultan a las personas físicas (e incluso jurídicas) a ser consideradas inventoras asisten también a las inteligencias artificiales.
Bianchini, Müller y Pelletier (2022) se muestran favorables, aunque bastante cautos, e insisten en que la IA realiza invenciones radicalmente diferentes a las humanas sobre las que es necesario, en cualquier caso, pronunciarse. Estos autores animan a acomodarse a esta nueva realidad, para lo que sería necesario abrir cauces institucionales que permitan ofrecer protección a los inventos generados por IA. Consideran que las inteligencias artificiales crean y difunden información técnica de un modo distinto, y que reconocerlo es beneficioso para acelerar el desarrollo científico. Además, otorgaría incentivos a los que desarrollan en primer lugar dichas inteligencias artificiales, o para quienes son sus dueños. Optan, por tanto, por que las leyes de patentes reconozcan a la IA como un nuevo “método de invención”; métodos de invención que tendrían a su base nuevos productos o subproductos suyos.
Abbott (2023) incide en alguna de estas ideas, y defiende que los productos generados por las IAs (esos nuevos “inventos”, por así decirlo) pueden de hecho ser “adueñados” por alguien que reciba los beneficios comerciales, es decir, por una persona física o jurídica. En este caso, resolveríamos la cuestión sin entrar a discutir si son o no nuevos “métodos de invención”, y podríamos acomodar la IA a la visión maquinal tradicional que, aunque inventada por el ser humano, genera nuevos productos no directamente previstos en su diseño, al modo en que trabajarían, dice Abbott, las impresoras 3D.
No obstante, en la presente contribución se defiende que, pese a la necesidad de, efectivamente, pronunciarse acerca de las IAs “inventoras”, ello no necesariamente implica adaptar los actuales marcos legislativos, y menos aún crear otros nuevos para propiciar su encaje. Hay al menos tres razones para ello, como he adelantado al comienzo:
No se sabe si las patentes con inventores de IA promueven efectivamente la innovación; esta conclusión es meramente especulativa, no solo porque no ha habido tiempo de dirimir si es así o no empíricamente, sino, antes bien, por el hecho mismo de que no está nada claro que las patentes en general lo hagan (cf. Boldrin y Levine, 2013), en lo que sigue siendo uno de los debates centrales en economía aplicada y estudios sobre la innovación.
Incluso aunque se admita que las IAs permiten hacer avanzar la tecnología y hacer crecer así también el número de invenciones y la innovación, precisamente por esos motivos también cabe admitir un mayor uso “ilegítimo” del sistema de patentes, que lo sature con lo que se han dado en llamar “trolls” de patentes, en especial si estos actúan automáticamente, a la suerte de “bots”, que buscan crear millones de antecedentes al estado del arte posibles para evitar que la competencia patente en un determinado sector de la tecnología, haciendo valer la idea de que el exceso de información puede confundir tanto como lo hace su falta.
Las inteligencias artificiales nunca entenderán el disfrute del derecho de patente como un incentivo para patentar lo que hacen; simplemente inventarán si están diseñadas y capacitadas para ello, con independencia de este derecho. Solo los seres humanos que son dueños de la inteligencia artificial verán provecho en la exclusividad comercial que otorga la patentes, con lo que no existe un coste social que reparar (más allá de haber diseñado la IA en su inicio, mas no en sus productos). Esto es evidente. Además, esta intuición nos permite examinar una cuestión paralela, acerca de si esas IAs “merecen” una exclusividad, o si no existen acaso otras formas de recompensar ese (pequeño) coste que supone desarrollarlas en primer lugar (como sugieren Drexl, Hilty, Kim y Slowinski, 2021).
Teniendo en cuenta una de las justificaciones más extendidas de la propiedad intelectual en la ciencia y la tecnología, el llamado “contrato social de las patentes”, según el cual las patentes otorgan una exclusividad comercial a cambio de hacer público el invento, es decir, de hacerlo patente, cabe preguntarse lo siguiente: ¿de qué modo es posible hacer públicas las inteligencias artificiales, especialmente aquellas que son opacas, “cajas negras”? Y en caso de que, en muchas de ellas, sea posible: ¿en qué colabora revelarlas, difundirlas, hacerlas públicas, a la innovación y la replicación subsiguiente?
Resolver todas estas cuestiones tienen implicaciones prácticas y teóricas muy relevantes. Esta contribución colabora así en una literatura en crecimiento, tratando de argumentar una respuesta negativa a la posibilidad de reconocer como inventoras a las IAs.
Referencias
Boldrin, M., & Levine, D. (2013). The Case against Patents. Journal of Economic Perspectives, 27 (1): 3-22.
Bianchini, S., Müller, M., & Pelletier, P. (2022). Artificial intelligence in science: An emerging general method of invention. Research Policy, 51(10), 104604.
Drexl, J., Hilty, R., Kim, D., & Slowinski, P. (2021). Artificial Intelligence Systems as Inventors? A Position Statement of 7 September 2021 in View of the Evolving Case-Law Worldwide. Max Planck Institute for Innovation & Competition Research Paper, (21-20). http://dx.doi.org/10.2139/ssrn.3919588.
Engel, A. (2020). Can a Patent Be Granted for an AI-Generated Invention? GRUR International, 69(11), 1123–1129. doi:10.1093/grurint/ikaa117
Ravid, S., Liu, X. (2018). When Artificial Intelligence Systems Produce Inventions: An Alternative Model for Patent Law at the 3A Era. Cardozo Law Review, 39: 2215-2262
Confianza de los profesionales sanitarios en la integración de la inteligencia artificial en el sistema de salud español
Palabras clave: confianza, IA en salud, bioética, sistema de salud
Resumen
Este estudio semi-experimental investiga la creciente adopción de técnicas matemáticas y estadísticas, comúnmente conocidas como inteligencia artificial (IA), en el sistema de salud. Estas tecnologías están transformando la atención sanitaria, proporcionando a los profesionales herramientas para optimizar diagnósticos, mejorar la detección precoz de enfermedades, analizar imágenes radiológicas y gestionar eficientemente los registros electrónicos de pacientes, entre otras áreas. Más allá de sus aplicaciones actuales, la IA tiene el potencial de abordar problemas complejos en la investigación y práctica biomédica. Este trabajo explora el grado de confianza que los profesionales de la salud perciben respecto a la incorporación de la IA en sus actividades. La aceptación y confianza en los modelos de IA son esenciales para una implementación exitosa en la atención médica. A través de un diseño semi-experimental basado en viñetas, se examina la predisposición de los profesionales a confiar en la IA en el diagnóstico y tratamiento de pacientes.
Las viñetas presentan diferentes escenarios donde la IA tiene un rol clave, y mediante una escala Likert se evalúan las actitudes y receptividad hacia la IA en contextos específicos de atención sanitaria. Los hallazgos proporcionan una visión detallada de las preocupaciones y expectativas de los profesionales sobre la integración de estas tecnologías en el sistema de salud. Este conocimiento es crucial tanto para los profesionales de la salud como para los desarrolladores tecnológicos, ayudando a identificar y superar las barreras en la adopción de la IA. Asimismo, el estudio sienta las bases para futuras investigaciones sobre la integración ética y eficaz de la IA en la atención sanitaria, garantizando que sus beneficios sean accesibles y aceptados ampliamente.
Material suplementario
Viñeta 1: Diagnóstico de enfermedades raras
Un sistema de IA, después de analizar los síntomas y el historial médico del paciente, sugiere un diagnóstico para una enfermedad rara que previamente había sido pasada por alto por varios médicos. El tratamiento recomendado es novedoso pero prometedor.
Viñeta 2: Monitoreo remoto de pacientes crónicos
Una aplicación de IA monitorea los signos vitales de un paciente con una enfermedad crónica a través de dispositivos portátiles. La IA alerta al paciente y a su médico cuando detecta patrones que indican un posible deterioro, permitiendo una intervención rápida.
Viñeta 3: Asesoramiento automatizado para estilos de vida saludables
Un chatbot de IA proporciona consejos personalizados sobre dieta y ejercicio a una persona que busca mejorar su salud general. El chatbot ajusta sus recomendaciones en función de los progresos y retroalimentación del usuario
Viñeta 4: Selección de tratamiento oncológico
Un algoritmo de IA evalúa las características específicas del cáncer de un paciente, incluyendo la genética del tumor, para recomendar un plan de tratamiento personalizado. Este plan incluye una combinación de terapias tradicionales y opciones experimentales basadas en la probabilidad de éxito.
Escala de Likert
Totalmente en desacuerdo
En desacuerdo
Neutral
De acuerdo
Totalmente de acuerdo
Preguntas
Viñeta 1: ¿Confiaría en el diagnóstico de una enfermedad rara proporcionado por un sistema de IA, especialmente si ha sido pasado por alto por médicos previamente?
Viñeta 2: ¿Se sentiría cómodo utilizando una aplicación de IA para el monitoreo remoto de una enfermedad crónica?
Viñeta 3: ¿Confía en las recomendaciones de un chatbot de IA para mejorar su dieta y ejercicio?
Viñeta 4: ¿Aceptaría un plan de tratamiento para el cáncer recomendado por un algoritmo de IA, basado en análisis genéticos del tumor?
Referencias
Rajkomar, A., Dean, J., and Kohane, I. (2019). Machine Learning in Medicine. The New England Journal of Medicine, 380(14), 1347–1358. https://doi.org/10.1056/NEJMra1814259
La inteligencia artificial y el fin de la historia: leer a Günther Anders en el siglo XXI
Palabras clave: Anders, tecnologia, escatologia, fin de la historia, inteligencia artifificial
Resumen
Los debates en torno al fin de la historia han sido una constante en la filosofía occidental desde el surgimiento del cristianismo hasta nuestros días. La escatología judeocristiana introdujo la concepción de un tiempo lineal, que después fue mantenida por las diferentes filosofías modernas de la historia. Si bien la continuidad en la estructura conceptual que interpreta la historia como teniendo un sentido se mantiene, existen diferencias cruciales entre la escatología judeocristiana propiamente dicha y lo que podríamos llamar su secularización. Una de ellas, quizás la más importante, es la ausencia de la referencia a una divinidad trascendente como motor del devenir histórico. En la filosofía moderna de la historia, es el ser humano quien actúa como agente a cargo de realizar el telos histórico. Y para lograr esta materialización, cuenta con una herramienta cuyo potencial transformador ha sido más tangible que el de cualquier teología: la técnica.
En la ponencia que propongo, me concentraré en explorar dos lecturas posibles de la idea del fin de la historia que mantienen su vigencia en los tiempos que vivimos. Ambas se derivan de la filosofía de la tecnología desarrollada por Günther Anders, aunque una de ellas de forma indirecta a través de una interpretación de Enzo Traverso. La primera lectura, que retoma algunas de las tesis explícitamente postuladas por Anders, entiende el fin de la historia de una forma netamente escatológica. Es decir, el fin de la historia significa el final del tiempo en tanto dimensión humana de la experiencia. Anders deduce esta tesis de la posibilidad tangible de una aniquilación total de nuestra especie mediante el uso de armas atómicas. Para el filósofo, se trata de una situación inédita en la historia humana, en la que las ansiedades apocalípticas de los siglos precedentes encuentran por primera vez una posibilidad objetiva de cumplimiento, que depende de la decisión de los políticos y militares a cargo de los diferentes arsenales atómicos que continúan multiplicándose por el mundo. La segunda lectura, esbozada por Traverso en su libro La historia desgarrada, sugiere que el fin de la historia puede entenderse como el final del papel protagónico del ser humano como motor del discurrir teleológico del tiempo. En un mundo en el que los dispositivos tecnológicos toman cada vez más el lugar de los humanos en la toma de decisiones esenciales y en la configuración del mundo cotidiano, la idea de la historia como la dimensión de la acción y creación humanas dentro del marco de la naturaleza queda puesta en jaque.
Estás ideas, formuladas en la segunda mitad del siglo XX, adquieren una nueva dimensión con el auge de las inteligencias artificiales. En efecto, muchas de las discusiones que en los últimos años ha despertado el acelerado crecimiento del uso de las IAs en diferentes ámbitos giran en torno al lugar que queda para la agencia humana. En el ámbito militar, las preguntas que surgen son particularmente urgentes. Ya se ha discutido la posibilidad de que sea una inteligencia artificial la que esté a cargo de decidir sobre el inicio de una guerra nuclear. Y en las más recientes guerras se ha revelado el potencial de la IA para hacer más eficiente el exterminio de seres humanos, reduciendo los dilemas morales a un cálculo cuantitativo. Así, la pregunta por la agencia humana y todo lo que se deriva de ella (desde la posibilidad de una ética hasta la posibilidad de la destrucción del planeta), adquiere una dimensión que nos obliga a replantear muchos de los conceptos filosóficos fundamentales. La propuesta busca esbozar un posible camino en esta dirección a partir de una relectura de la obra de Günther Anders.
Referencias
Anders, Günther. (1992). Die Antiquertheit des Menschen II: Über die Zerstörung des Lebens im Zeitalter der dritten industriellen Revolution. Múnich: CH Beck.
Anders, Günther. (1992). Sprache und Endzeit. FORVM. No. 423/424.
Anders, Günther. (1961). Die Antiquertheit des Menschen: Über die Seele im Zeitalter der zweiten industriellen Revolution. Múnich: CH Beck.
Sariel, Yossi. (2021). The Human Machine Team: How to Create Synergy Between Human & Artificial Intelligence That Will Revolutionize Our World. eBookPro.
Traverso, Enzo. (2000). La historia desgarrada. Barcelona: Herder.
B
Sobre cómo se relacionan las explicaciones narrativas y los modelos experimentales en la geología
Palabras Claves: Geología, Ciencia Histórica, Explicaciones Narrativas (storytelling), Modelos Experimentales
Resumen
La geología es una ciencia que combina de manera única enfoques de las ciencias naturales históricas y experimentales. Sin embargo, su diversidad y complejidad no sido abordado sino hasta muy recientemente. Esto es particularmente relevante en lo que respecta al valor epistémico de ambos enfoques y a la estructura explicativa que presenta, dado que se trata de una ciencia histórica. Como resultado, han surgido diversas discusiones en el siglo XXI (Turner, 2009; 2016; Cleland, 2011; Currie, 2016, 2018; Bonnin, 2019), las cuales se alejan cada vez más del método propuesto por Hempel. Por otra parte, la investigación experimental ha sido fundamental en la geología para probar diversas teorías que respaldan las explicaciones de fenómenos ocurridos en el pasado remoto. Autores como Paola et al. (1992, 1996, 2000, 2001, 2010), Meijer et al. (2000), Heller et al. (2001), Van Heijst y Postma (2001), y Postma, Kleinhans, Meijer y Eggenhuisen (2007), entre otros, han llevado a cabo investigaciones complejas con el objetivo de estudiar los procesos geológicos. Estas investigaciones buscan cuantificar y predecir fenómenos para validar teorías y principios establecidos en la geología. Este proyecto intenta analizar cómo pueden ser las formas de las explicaciones en la geología, desde el enfoque de explicación narrativa (storytelling) mediante un sentido de coherencia, modelos y la especulación productiva. Igualmente se pretende evaluar el carácter de las explicaciones en geología a través de los modelos experimentales para así discutir cómo se relacionan ambas formas explicación y de esa manera evaluar lo que ellas ofrecen para afrontar nuevos desafíos de producción de conocimiento en las ciencias de la tierra.
Entre la ética epistémica y los algoritmos digitales. Un enfoque desde los prejuicios identitarios.
Palabras clave: Injusticia epistémica, discriminación algorítmica, injusticia cognitiva, opresión epistémica, filosofía de la liberación.
Resumen
Los prejuicios identitarios juegan un rol central en el comportamiento epistémico de los sujetos. En la posibilidad de conocer y transformar dichos prejuicios se fundamenta la ética epistémica.
Los prejuicios identitarios han sido trabajados como concepto central en el trabajo de Miranda Fricker, quien propone el concepto de Injusticia Epistémica para señalar el comportamiento injusto hacia los sujetos en lo que respecta a su dimensión epistémica. Sus planteamientos, que parten de la larga tradición de la epistemología social, hallan su reflejo desde otras perspectivas teóricas, como la Filosofía de la Liberación, que, aunque bajo otros términos como eurocentrismo y decolonización, dan cuenta de un trato injustos de un grupo social sobre otro. Asimismo, hallamos el concepto de injusticia cognitiva que propone De Sousa Santos para dar cuenta de esta opresión y necesidad de decolonización.
Para poder emplear este marco teórico a los fines de reflexionar entorno a la sociedad actual, será preciso incluir el componente tecnológico pues se ha convertido en una de las características centrales.
En este contexto, en el que el uso de las tecnologías de la información y comunicación se han convertido en la norma, cuyo integración a la vida individual y social aumenta constantemente, conviene reflexionar sobre las relaciones que se puede establecer entre el uso de aplicaciones tecnológicas y la ocurrencia de injusticias epistémicas. Es decir, debemos preguntarnos si el uso de las nuevas tecnologías puede disminuir la ocurrencia de injusticas epistémicas o, por el contrario, pude ayudar a su aumento y a su perpetuación.
Sobre este particular, ya que la injusticia epistémica ocurre debido a prejuicios y estereotipos identitarios negativos, conviene evaluar la posibilidad de que aquellos prejuicios y estereotipos puedan ser transferidos a las aplicaciones tecnológicas.
A partir de la información, y considerando la larga tradición desde la que se ha trabajado la opresión epistémica, y el silenciamiento, ambas aristas que derivan de a epistemología social, se puede emprender un camino hacia la reflexión sobre los posibles riesgos que representan los algoritmos y otras tecnologías digitales en la perpetuación de prejuicios identitarios negativos.
La primera premisa de la que partimos es que los algoritmos digitales pueden reproducir prejucios y estereotipos vigentes en la sociedad. Este fenómeno se conoce como discriminación algorítmica y consiste en la transferencia de prejuicios presentes en el equipo programador, o bien debido a un sesgo presente en la data empleada para el entrenamiento del aplicativo tecnológico.
La precencia de discriminación algorítmica ha sido estudiada e identificada en diversos ámbitos sociales en los que tiene logra procesos educativos, financieros, salud, educación, etc. Esta forma de discriminación ha sido identificada a partir de los efectos que han tenido ciertas aplicaciones tecnológicas en la vida real, es decir, más allá del ciberespacio. Se hace pantente la necesidad de integrar a la reflexión sobre una ética epistémica el componente tecnológico.
En suma, es importante contribuir a la ampliación del marco teórico-conceptual sobre la injustica epistémica, a los fines de orientar hacia una práctica correcta cuando se trata al otro como agente epistémico. Desde mi perspectiva, esta reflexión, además de considerar a los sujetos y las instituciones sociales que hemos mencionado, debe tomar en cuenta los efectos de la integración tecnológica en los diferentes ámbitos de la sociedad, para intentar dilucidar los posibles escenarios y principios para la construcción de una sociedad ética en lo tocante a la dimensión epistémica.
Referencias
Báez-Vizcaíno, K. & Santana-Soriano, E. (2024). Pre-transaccional, transaccional y post-transaccional: categorías para reconocer la injusticia epistémica. Ciencia y Sociedad, 49(3), 9-32. https://doi.org/10.22206/cys.2024.v49i3.3235
Báez-Vizcaíno, K. (2023). Velos en el paisaje del conocimiento: el trato desigual en el reconocimiento, acceso y comunicación del conocimiento como manifestaciones de la injusticia epistémica. La Barca de Teseo, 1(1), 35-46. https://doi.org/10.61780/bdet.v1i1.3
Dotson, K. (2012). A Cautionary Tale: On Limiting Epistemic Oppression. Frontiers: A Journal of Women Studies, 33, 24-47. https://doi.org/10.1353/fro.2012.0008
Jordan, M.I. and Mitchell, T.M. (2015). Machine learning: Trends, perspectives, and prospects. Science, 349(6245), pp.255-260. https://www.science.org/doi/10.1126/science.aaa8415
Mwambari, D., Ahmed, F., Barak, C. (2022). The impact of open access on knowledge production, consumption and dissemination in Kenya’s higher education system, Third World Quarterly, 43:6, 1408-1424, https://10.1080/01436597.2022.2056010
La enseñanza de contenidos cualitativos abstractos mediante agentes ssocio-técnicos
Palabras clave: agencia, enseñanza, TIC, epistemología, enactivismo
Resumen
El concepto de agencia está emergiendo con fuerza en varias disciplinas científicas y técnicas, así como en la filosofía de la tecnología, y su desarrollo plantea nuevos desafíos socio-técnicos. El cambio marca un paso desde paradigmas reactivos hacia paradigmas activos en ciencia, tecnología y filosofía. Para las ciencias cognitivas, la agencia es fundamental en los debates sobre la corporeización de la intencionalidad y de la interacción social, y la investigación en Inteligencia Artificial ya se ocupa de la creación de agentes digitales autónomos al tiempo que el impacto de las tecnologías digitales en la agencia y la autonomía humanas es un área de creciente preocupación en las ciencias sociales y políticas.
El marco en el que ubicamos esta propuesta se basa en una estrategia transdisciplinaria naturalizada que emplea herramientas de sistemas complejos para comprender las variedades de agencia presentes en diferentes disciplinas científicas y técnicas (Barandiaran et al., 2009). La premisa-guía aquí señala que los seres humanos no constituimos un estándar privilegiado para fundamentar la agencia, dado que la cuestión central de la unidad de la agencia implica explorar su relación con la materialidad, las transiciones entre tipos de agencia, los conflictos que surgen entre sus diversas manifestaciones y el impacto socio-técnico de los agentes creados artificialmente.
Por lo tanto, esta propuesta se ubica en el entorno de las agencias híbridas (humanas, no-humanas y parcialmente artificiales) cuya meta inicial es aclarar el estado ontológico de la Inteligencia Artificial, analizar cómo las tecnologías digitales afectan a la agencia humana, y desarrollar marcos de responsabilidad para las agencias artificiales. En particular, aquí defendemos la influencia de la Inteligencia Artificial en las prácticas de enseñanza de contenidos cualitativos abstractos en las aulas y la importancia de concebir la agencia humana (aprendiz y profesor/a) como una agencia híbrida tecno-humana en el sentido de los enfoques enactivistas que defienden la existencia de un punto de encuentro (redes de hábitos) entre los debates en torno a la autonomía personal, la tecnología y el diseño. Es crucial, por lo tanto, procurar examinar cómo encaja la tecnología en esta imagen enactiva y cómo puede decirse que las tecnologías (digitales) influyen en la agencia autónoma desde su propio diseño (Pérez-Verdugo y Barandiaran, 2023).
La Inteligencia Artificial y las tecnologías de la información y la comunicación (en adelante, TIC) son de relativa ayuda para la enseñanza en las aulas en sus distintos niveles, es¬pecialmente para las disciplinas en las que la cuantificación prevalece a la hora de recoger y organizar datos e información. Esto sugiere la posibilidad de que las TIC faciliten ciertos vacíos pedagógicos en las disciplinas menos cuantificadas, como es el caso de la filosofía si la comparamos con las ingenierías y muchas ciencias naturales y sociales. Las TIC de la enseñanza online pueden promover una dinámica de mera proyección o reflejo de datos. ¿Funcionan las TIC del mismo modo en la enseñanza de las ingenierías o de las ciencias sociales, con sus gráficas, estadísticas, modelos visuales, etc., que en las ciencias humanas y en la filosofía? ¿Cómo ayudan las TIC a explicar y entender el eidos o a aprehender un pensamiento? ¿Cómo favorecen la actividad de pensar? Convertir al profesor en un mero transmisor de datos, en un robot-instructor, no parece un gran beneficio para la enseñanza de nuestra disciplina y de otras afines. Acometer una reflexión más compleja y profunda de la enseñanza de pensamiento, entendido este como una actividad también práctica, en la que la recogida de datos no coincide con la formación, si se da, de creencias ni de conocimiento, es crucial aquí.
La adaptación de la Inteligencia Artificial y las TIC a los nuevos retos de la enseñanza (tras la Covid-19) a menudo ha sido calificada como virtuosa, calificación nada novedosa en un ambiente de marketing y comercialización de aquellas. Ya Feenberg (2017) identi¬ficó varios aspectos sospechosos de lo que en las décadas de 1980 y 1990 se denominó la reforma neoliberal de la enseñanza superior, entre los cuales destacamos la automatización tecnológica del producto y del proceso educativo (Feenberg, 2017). Dado esto, se puede advertir que la implementación de TIC online en programas universitarios promueve ante todo la transmisión meramente proposicional de información. Se trata de TIC para la enseñanza a distancia que, ante el valor positivo que concedemos a la enseñanza presencial de la educación superior actual, hace que el alumnado-agente no pueda captar determinados elementos tácitos y virtudes educativas que la presencialidad sí suministra más directamente (gestión del aula; motiva¬ción; instrucción sobre el pensar, escribir, resumir y retroalimentar bajo ten¬sión presencial; planificación; comprensión de conexiones y patrones conceptuales; capacidad inquisitiva, crítica intelectual; etc.).
La presente propuesta, por ende, defiende la hipótesis de que algunas aplicaciones de las TIC a la educación no presencial pueden derivar en una disminución cualitativa de la enseñanza en las aulas. En particular, se proponen tres posibles efectos epistémicos negativos de las TIC actuales en el desarrollo cognitivo en los nuevos modelos de educación superior: el aislamiento epistémico, la desconfianza epistémica y la des-objetivación que se está dando como consecuencia de la personalización tecnológica y de desvirtuar la agencia humana en los entornos socio-técnicos.
Referencias
Baehr, J. (2020). Intellectual Virtues, Critical Thinking, and the Aims of Education. En M. Fricker, P.J. Graham, D. Henderson, y N.J. Pe¬dersen (eds.), Routledge Handbook of Social Epistemology (pp. 447-456). Routledge.
Barandiaran, X.; Di Paolo, E.; Rohde, M. (2009). Defining Agency: Individuality, asymmetry and spatio-temporality in action. Adaptive Behavior, 17(5), pp. 367-386. https://doi.org/10.1177/1059712309343819
Feenberg, A. (2017). The Online Education Controversy and the Future of the University. Foundations of Science, 22(2), pp. 363-371. https://doi. org/10.1007/s10699-015-9444-9
Pérez-Verdugo, M.; Barandiaran, X.E. (2023): Personal Autonomy and (Digital) Technology: An Enactive Sensorimotor Framework. Philosophy & Technology, 36(84): pp. 1-28. https://doi.org/10.1007/s13347-023-00683-y
Polizzi, Gianfranco, y Tom Harrison (2022). Wisdom in the digital age: a conceptual and practical framework for understanding and cultivating cyber-wisdom. Ethics and Information Technology, 24: pp. 1-16. https://doi.org/10.1007/s10676- 022-09640-3
C
Joseph Weizenbaum: Un parresiastes en la era digital
Palabras clave: Parresiastes, Era Digital, Razón Humana
Resumen
Weizenbaum cuestiona la forma de poder de la razón humana computacional en nombre de la razón humana como capacidad de juzgar y criticar sus ambiciones y obsesiones. Él manifiesta claramente su verdad parresiástica en nombre de una autocomprensión de los seres humanos, menos poderosa pero no por eso menos importante, que se preguntan a sí mismos sobre su humanidad.
La razón humana entendida en contraposición a la razón computacional es aquella que permanece oculta cuando la perspectiva computacional es dada por sentado como siendo la verdad sobre la razón humana y sobre el ser humano mismo.
Las preguntas de Weizenbaum en 1979 fueron tema en un artículo "Sobre ética de la computación. Problemas éticos de la sociedad de la información” (Capurro 1987). Fue una de mis primeras reflexiones sobre ética de la tecnología de la información y la primera sobre Weizenbaum. La ética de la computación (“computer ethics”) era un tema emergente y no parecía muy relevante. Sus orígenes se encuentran en el libro de Norbert Wiener "The Human Use of Human Beings" (Wiener 1950; Bynum 2008).
Referencias
Arendt, Hannah (1983). Vita activa oder vom tätigen Leben. München: Piper.
Buchanan, Bruce C., Lederberg, Joshua, McCarthy, John (1976). Three Reviews of J. Weizenbaum's Computer Power and Human Reason. Stanford University, Computer Science Department. Online: https://apps.dtic.mil/dtic/tr/fulltext/u2/a044713.pdf
Bynum, Terrell (2008). Computer and Information Ethics. In: Stanford Encyclopedia of Philosophy Archive. Online: https://plato.stanford.edu/archives/win2014/entries/ethics-computer/
Capurro, Rafael (1981). Zur Frage der Ethik in Fachinformation und -Kommunikation. En: Nachrichten für Dokumentation 32, 9-12. Online: http://www.capurro.de/infoethik81.html
Capurro, Rafael (1985). Moral Issues in Information Science. En: Journal of Information Science, 11, 113-123. Online: http://www.capurro.de/moral.htm
Capurro, Rafael (1987). Zur Computerethik. Ethische Fragen der Informationsgesellschaft. En: Hans Lenk and Günter Ropohl (Eds.): Technik und Ethik. Stuttgart: Reclam, 259-273. Online: http://www.capurro.de/computerethik.html
Capurro, Rafael (1988). Die Verantwortbarkeit des Denkens. Künstliche Intelligenz aus ethischer Sicht. En: Forum für interdisziplinäre Forschung 1, 15-21. Online: http://www.capurro.de/verantwortbarkeit.html
Objeciones al naturalismo fiabilista
Palabras clave: Naturalismo, fiabilismo, conocimiento verdadero, teorías científicas, justificación epistémica.
Resumen
En esta ponencia expongo algunas objeciones al enfoque fiabilista del naturalismo científico. Según el naturalismo fiabilista la ciencia constituye la única herramienta que hace posible adquirir creencias verdaderas, pues la mayoría de las veces, cuando la ciencia describe correctamente el mundo podemos decir que estamos ante un instrumento confiable para sostener que lo que la ciencia dice es verdadero o aproximadamente verdadero. Psillos (1999), por ejemplo, afirma lo siguiente sobre este asunto: “La mejor explicación de la confiabilidad instrumental de las [teorías] científicas es que las teorías que hay en el trasfondo son, de manera relevante, aproximadamente verdaderas”. De esta manera no necesitamos nada más que la ciencia (como en el caso del heliocentrismo) para que haya conocimiento, y no es necesario recurrir a experimentos tras experimentos que justifiquen que la mayoría de las creencias que formamos diariamente sobre la posición de la tierra con relación al sol, a la luna o a los demás planetas son verdaderas.
En especial, en esta presentación intento argumentar que la confianza no constituye un elemento sólido del proceso de obtención de conocimiento verdadero o aproximadamente verdadero, ya que en la historia de la ciencia muchas veces se ha depositado confianza en teorías que son falsas. Además, aclaro que, por un lado, el fiabilista no puede renunciar a un eventual regreso de justificaciones, y por otro, que el fiabilista se equivoca al pretender que el conocimiento se sigue solamente de premisas verdaderas, ya que lógicamente se pueden obtener creencias verdaderas partiendo de teorías falsas.
En particular, mis críticas van dirigidas hacia el punto de vista fiabilista que afirma que la ciencia es una empresa confiable para la formación de conocimiento, pues la ciencia es aproximadamente verdadera. Así, esta actitud realista del fiabilismo, por un lado, incurre en un círculo vicioso y, por otro lado, la tesis de que las teorías científicas son confiables porque son verdaderas parece falsa o, al menos, mal motivada, pues si algo nos ha enseñado la historia de la ciencia es que hemos depositado toda nuestra confianza en teorías que resultan falsas, a fin de cuentas. Además, en este punto expondré dos críticas adicionales; primero, que en mi opinión el fiabilista no puede renunciar a un regreso de justificaciones dado que, por lo menos, tiene que partir de la creencia de que las teorías científicas en las cuales él confía son verdaderas, pues sería absurdo acudir con confianza a una teoría creyendo que sea falsa y, segundo, considero que el fiabilista comete un error de lógica elemental al momento de considerar que solo las creencias verdaderas se siguen exclusivamente de premisas verdaderas, ya que como bien se sabe desde tiempos inmemoriales es lógicamente posible extraer creencias verdaderas a partir de teorías falsas.
Parte del propósito de esta ponencia es mostrar que el concepto de justificación es un factor indispensable en un proyecto epistemológico, contrario a los proyectos naturalistas más radicales (como los de Quine), no solamente porque es, como dice Kim, un concepto fundamentalmente normativo, sino porque también la justificación necesariamente acompaña a nociones como la evidencia y la creencia, elementos importantes tanto de la epistemología tradicional como de la naturalizada. Ahora bien, el intento por suprimir la justificación implica cambiar el rumbo de la epistemología por un proyecto netamente descriptivo, en cuyo caso más que epistemología sería un programa dirigido a hacer ciencia empírica. En otras palabras, si se elimina el carácter normativo de la epistemología se corre el riesgo de hacer otra cosa totalmente distinta a lo que tradicionalmente hace la epistemología.
Referencias
Kim, J. (1988). ¿What is ‘Naturalized Epistemology’? Philosophical Perspectives, 2, 381-405.
Psillos, S. (1999). Scientific Realism: How Science Tracks Truth. London: Routledge.
Quine, W. V. O. (1986). Epistemología Naturalizada. En W. V. O. Quine. (Ed),
La Relatividad Ontológica y Otros Ensayos (pp. 93-119). Madrid, España: Editorial Tecnos.
Diseño, innovación y racionalidad
Palabras clave: Diseño, innovación, racionalidad
Resumen
Esta ponencia versa sobre la relación entre la noción de diseño en su correlación con la innovación y el contexto la racionalidad tecnológica. El tema roza con otros aspectos la agencia, la cultura material, la democracia, la ética y la política de la tecnología. SE trata de un estudio de la lógica interna del desarrollo de la tecnología. La idea es que el ingeniero la ingeniera en el momento de diseñar e innovar realiza juicios en un contexto de racionalidad limitada. Además, se especificará un tipo de racionalidad tecnológica la que se denominará como racionalidad astuta (Carvajal, 2006).
El diseño es una secuencia de operaciones con el resultado de un objeto prefigurado previamente, consta de ordenes de acción o de proposiciones nomopragmáticas con estructura articulada compleja. El diseño es algo más que un plano o dibujo, son la forma: la manera en la que se procede a elaborar los objetos técnicos; pero a la vez los diseños, cumplen una función similar a la que las teorías cumplen en la ciencia (Broncano, 2000, 118); empero, por otra parte, también el diseño es una especie de algoritmo, una metodología que indica como proceder.
En el proceso de diseño media la reflexión y el juicio, ya que en la secuencia de operaciones metales y de ensayos que conducen a la producción del objeto, identifica un momento esencial, aquel en el(la) ingeniero(a) juzga que un diseño es la mejor solución al problema que se pretendía resolver mediante el diseño. Ese juicio que crea responsabilidad sobre el producto que llegará a existir; la responsabilidad para así a ser un componente interno de la tecnología.
Estas son algunas de las relaciones que se pretenden explorar en esta ponencia.
Referencias
Carvajal, Álvaro. (2014). Las Convergencias entre ciencia, tecnología y desarrollo. San José, C.R.: Guayacán. / Broncano, Fernando. (2000). Mundos Artificiales. Madrid.Tecnos
Tecnologia e fascismo
Palabras clave: manifesto futurista; fascismo; belicismo
Resumen
O Manifesto Futurista escrito pelo poeta italiano Filippo Tommaso Marinetti publicado no jornal francês Le Figaro em 20 de fevereiro de 1909 marcando a fundação do futurismo proclama no seu item 9: Nós queremos glorificar a guerra - única higiene do mundo - o militarismo, o patriotismo, o gesto destruidor dos libertários, as belas ideias pelas quais se morre e o desprezo pela mulher. Aqui a guerra é definida como uma necessidade para a saúde do espírito humano, uma purificação. Sua glorificação explícita da guerra e suas propriedades "higiênicas" influenciaram a ideologia do fascismo. Considerando-se que os futuristas proclamavam a ruptura com o passado e a identificação do homem com a máquina, a velocidade e o dinamismo do novo século, a pergunta que coloco é já que há uma relação intrínseca entre tecnologia e fascismo -- os fascistas-futuristas glorificam a tecnologia através de categorias estéticas como pureza (a máquina brilha, é perfeita) e higiene (não é maculada pela marca de algum tipo de humanidade) – cada vez mais que a tecnologia da comunicação se desenvolve como nos nosso dias, mais o pensamento fascista será difundido, ou não? Precisaríamos deter o avanço da tecnologia para determos as guerras ou é possível manter o desenvolvimento tecnológico e combater o belicismo e o fascismo?
Referencias
Marinetti, filippo Tommaso Merinetti. O manifesto futurista.
Marcuse, Herbert. Tecnologia, Guerra e Fascismo. São Paulo: Unesp, 2001.
Impactos de la Inteligencia artificial y la automizacion en el mercado de trabajo en la Republica Dominicana
Palabras clave: Inteligencia artificial, automatizacion, informalidad, mercado de trabajo, mercados heterogeneos y segmentados.
Resumen
En una economía capitalista, secularmente, el progreso tecnológico es el principal motor del crecimiento del PIB per cápita. Es el progreso técnico el que permite que la producción aumente más rápido que los factores trabajo y capital, provocando lo que decía el economista austríaco Joseph Schumpeter: “una destrucción creativa”
En estos tiempos en que penetran al tejido social y empresarial nuevas tecnologías emergentes, como la “inteligencia artificial”, es propicio reflexionar un poco sobre esta tecnología y su posible impacto en el mundo del trabajo.
La inteligencia artificial (IA) es la capacidad de una máquina de aprender a completar tareas sin instrucciones humanas explícitas. Es al matemático británico Alan Turing que se le atribuye el desarrollo de la idea de inteligencia artificial, aunque fue el profesor de Stanford, John McCarthy, el primero en utilizar el término “inteligencia artificial”, describiéndola como “hacer que una máquina se comporte de una manera que se consideraría inteligente si un humano se comportara así”.
La IA debería ser bienvenida por sus potenciales beneficios económicos. Sin embargo, esos beneficios económicos no necesariamente se distribuirán uniformemente en todos las sociedades, regiones y segmentos de la ecoomias. Si bien la IA puede mejorar la velocidad, la calidad y el costo de los bienes y servicios disponibles, también puede destruir o desplazar un gran número de empleos. Ya los impactos de las tecnologías de la automatización se están sintiendo en las economías en todo el mundo.
Por ejemplo, el número mundial de robots industriales a precios razonables que pueden funcionar todo el día sin interrupción se ha incrementado en los últimos años, haciéndolo altamente competitivos en costos con el trabajo humano. Las investigaciones más recientes destacan algunas tendencias relevantes, a saber: la escala de los empleos amenazados durante la próxima década oscilará entre el 9% y 47%; y los empleos amenazados por la automatización estarán concentrados entre los trabajadores peor pagados y menos calificados. De manera que, más que una prosperidad compartida, nos espera más concentración del poder y una mayor desigualdad de la riqueza.
La Republica Dominicana al igual que América Latina y el Caribe enfrenta diferencias de productividad persistentes, que son, en parte, resultado de barreras impuestas a la innovación y la adopción de tecnologías; esta situación es desfavorable en comparación con otras regiones que han reducido sus brechas con las economías de ingreso alto en las últimas décadas. También es un pais que a pesar de los esfuerzos y avances en materia economica aun persisten las desigualdades de ingresos en millones de personas trabajan en empleos informales de baja remuneración.
Históricamente, las nuevas tecnologías han determinado la evolución de la productividad laboral, la desigualdad y la prosperidad en todo el mundo. Analizar y comprender la tecnologia de la Inteligencia artificial, como tecnologia disruptiva, en la Republica Dominicana, que tendra impactos diferenciados en el mercado de trabajo, y muchas mas en aquellos que son segmentados, caraterizados por la informalidad laboral, la baja productividad y actividades economicas hetereogeneas es fundamental para el diseño de politicas publicas que impulsen el desarrollo economico y mejoren la cohesion social.
Referencias
Acemoglu, D. y Restrepo, P. (2018). The Race between Man and Machine: Implications of Technology for Growth, Factor Shares, and Employment. American Economic Review, 108(6), 1488-1542.
Graetz, G. y Michaels, G. (2015). Robots at Work. CEP Discussion Paper No 1335.
Busso, M. y Mesina, J. (2020). La crisis de la desigualdad: América Latina y el Caribe en la encrucijada. Banco Interamericano de Desarrollo. BID.
Frey, C. B. y Osborne, M. A. (2013). The Future of Employment: How Susceptible are Jobs to Computerization? University of Oxford.
Frey, C. B. y Osborne, M. A. (2015). Technology at Work: The Future of Innovation and Employment. Citi GPS: Global Perspectives & Solutions.
Lo Irreductible del Juicio Humano: Hacia un humanismo tecnológico en la educación en un mundo atravesado por la Inteligencia Artificial.
Palabras clave: Humanismo Tecnológico, Inteligencia Artificial, Educación Empresarial, Ética de la Tecnología, Pensamiento Sistémico, Inteligencia Emocional
Resumen
Asistimos hoy a un vuelco decisivo en la trama que enlaza la inteligencia humana con la inteligencia artificial, una transformación que sacude los cimientos mismos de nuestra existencia social. La inteligencia artificial, que otrora fuera mero auxilio técnico, se ha convertido en el nervio central de nuestras organizaciones, al punto que las proyecciones sugieren que el 95% de la inteligencia que sostendrá las decisiones empresariales será artificial. Sin embargo, en ese exiguo 5% restante, puramente humano, se cifra la diferencia esencial, esa marca indeleble de nuestra especificidad.
En ese reducido pero vital porcentaje late lo intransferible de nuestra condición: el criterio que brota de la experiencia vivida, la mirada que abarca la totalidad del fenómeno, el juicio que nace de la reflexión crítica y esa inteligencia emocional que nos constituye como seres capaces de conmovernos.
El humanismo tecnológico se alza, entonces, no como mera postura teórica, sino como horizonte de sentido que procura que la técnica potencie lo humano sin fagocitarlo.
Durante esta ponencia, indagaremos en la entraña de este desafío: cómo configurar sistemas que no solo admitan sino que reclamen la presencia humana, esa presencia insustituible que dota de sentido ético a toda decisión.
En este recorrido reflexivo, nos detendremos en tres encrucijadas fundamentales que la educación debe afrontar. La primera atañe al desarrollo del criterio y el juicio crítico, esas facultades que nos permiten desentrañar y cuestionar los productos de la inteligencia artificial. Exploraremos métodos que cultiven el pensamiento crítico, la reflexión ética y la capacidad de discernimiento en escenarios donde lo humano y lo artificial se entrelazan.
La segunda encrucijada nos interpela sobre la mirada abarcadora, esa capacidad genuinamente humana de percibir la totalidad en un mundo fragmentado. Propondremos un diálogo fecundo entre las ciencias, la filosofía y la técnica, buscando despertar en los estudiantes esa lucidez que permite vislumbrar las intrincadas relaciones entre los elementos de un sistema y anticipar las reverberaciones de cada decisión tecnológica en el tejido social.
La tercera dimensión que abordaremos concierne a esa inteligencia del corazón, esa capacidad de sentir con el otro que ningún algoritmo puede replicar. Exploraremos modos de cultivar la empatía y el diálogo en estos nuevos espacios donde lo humano y lo artificial confluyen, procurando que la tecnología no ahogue sino que potencie nuestra capacidad de vincularnos significativamente con los otros.
Frente a estas encrucijadas, propondremos un modelo educativo que no renuncia a la integralidad del ser humano. Un modelo que entreteje la comprensión técnica con la reflexión filosófica, la conciencia ética con la sensibilidad psicológica.
Esta propuesta se asienta sobre tres pilares fundamentales: primero, una alfabetización tecnológica que trascienda lo instrumental para alcanzar una comprensión crítica de los sistemas de inteligencia artificial; segundo, una inmersión en el pensamiento filosófico y ético que permita a los estudiantes develar las implicancias morales y sociales de estas tecnologías emergentes; y tercero, el cultivo de esa disposición esencial para el aprendizaje continuo, esa apertura permanente hacia lo nuevo que caracteriza a toda existencia auténticamente humana.
El porvenir no se define, pues, por el mero avance tecnológico, sino por el modo en que decidamos habitar este nuevo territorio. En esta ponencia, ahondaremos en la urgencia de establecer principios éticos que salvaguarden la autonomía humana y fomenten una cultura donde la responsabilidad no sea delegada a los algoritmos. Examinaremos cómo este paradigma educativo puede formar sujetos capaces de participar lúcidamente en un mundo donde la interacción entre lo humano y lo maquinal se torna cada vez más íntima y compleja.
En última instancia, lo que está en juego es la preservación de ese núcleo irreductible de humanidad que ninguna máquina puede suplantar. Se trata de asegurar que, en este baile entre lo humano y lo artificial, sea siempre el juicio humano, nutrido por la experiencia vital y la reflexión ética, el que guíe los pasos decisivos. Solo así podremos habitar con sentido este nuevo tiempo que nos interpela y nos desafía a reinventarnos sin perder nuestra esencia.
Referencias
Chalmers, D. J. (2022). Reality+: Virtual Worlds and the Problems of Philosophy. W. W. Norton & Company.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
Pasquale, F. (2020). New Laws of Robotics: Defending Human Expertise in the Age of AI. Belknap Press.
Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
Susskind, R. (2020). A World Without Work: Technology, Automation, and How We Should Respond. Metropolitan Books.
¿Puede haber una única metateoría correcta?
Palabras clave: Pluralismo lógico, monismo lógico, metateoría y lógica contradictoria
Resumen
El pluralismo lógico es la tesis según la cual hay más de una lógica correcta; esta tesis se contrapone al monismo lógico, la tesis según la cual hay una única lógica correcta. En [2] Griffiths y Paseau plantean por lo menos un problema al que se deben enfrentar los defensores del pluralismo lógico, a quienes nos referiremos como `pluralistas lógicos'. De acuerdo con Griffiths y Paseau, cuando un pluralista lógico trata de destacar algunas de las propiedades que tiene las diferentes lógicas que toman como correctas, el pluralista debe usar de una lógica que le permita validar sus afirmaciones acerca de las diferentes lógicas. Lo anterior es un problema para los pluralistas, ya que si usan una única lógica L para hablar de las propiedades de las lógicas, parece que no hay un compromiso genuino con el pluralismo.
En general, para salir de este problema y validar sus afirmaciones acerca de las diferentes lógicas, los pluralistas pueden optar por tomar a todas las lógicas que consideran correctas, como lo sugirieron Beall y Restall en [1], o considerar a los argumentos super válidos como sugiere Shapiro en [3]. Los argumentos super válidos son argumentos válidos en todas las lógicas que se consideran correctas. Otra vía sugerida por Beall y Restall en [1] y por Griffiths y Paseau en [2], es decir que hay más de una lógica correcta, pero que en el dominio donde están llevando la discusión sólo hay una única lógica correcta. En otras palabras, hay monismo en la metateoría.
Griffiths y Paseau argumentan que estas propuestas tienen problemas, por lo que los pluralistas sólo pueden concluir que no se pueden poner restricciones estrictas en la metateoría. Por ejemplo, la propuesta de Shapiro exige que haya argumentos super válidos, sin embargo, un defensor del nihilismo lógico puede argumentar que no hay argumentos lógicos válidos, por lo que no hay argumentos super válidas comunes a todas y cada una de las lógicas. En cuanto a la propuesta de Beall y Restall, el problema que encuentran Griffiths y Paseau es que algunos argumentos pueden ser válidos para algunas lógicas e inválidos para otras, por lo que es complicado que una lógica pueda modelar este escenario en donde hay argumentos válidos y no válidos. Finalmente, para la última propuesta, Griffiths y Paseau consideran que está respuesta puede conducir a la inconsistencia, lo cual consideran como problemático, a diferencia de ellos, nosotros no creemos que la inconsistencia sea necesariamente un problema.
La pregunta que queremos responder en esta presentación es si tener una única lógica correcta para la metateoría es un problema para el pluralista lógico. En especial, consideraremos el caso de un pluralista lógico que utiliza una lógica contradictoria en la metateoría. Una lógica L es contradictoria si y sólo en esa lógica hay un argumento que cumple la propiedad de ser válido y no válido. Argumentamos que el pluralismo lógico resultante tiene las mismas virtudes que el monismo caracterizado por Griffiths y Paseau. Queremos ser claros desde el principio: en esta presentación no pretendemos defender una forma de pluralismo lógico que evite las críticas de Griffiths y Paseau. Por el contrario, queremos señalar una forma en que el pluralismo lógico puede evitar tales críticas.
Referencias
[1] Beall, J., & Restall, G. (2006). Logical pluralism. Oxford University Press.
[2] Griffiths, O., & Paseau, A. C. (2022). One true logic: A Monist manifesto. Oxford University Press.
[3] Shapiro, S. (2014). Varieties of logic. Oxford University Press.
D
Fundamentos ontologicos y epistemologicos de la posverdad
Palabras clave: posverdad, ontología, internet.
Resumen
Aunque asociada al Internet, la posverdad tiene antecedentes generados antes de la revolución digital (La crisis de los medios a las que se refiere McIntyre), pero es Internet la que la posibilita.
En un ensayo titulado “La red de posverdad”, que forma parte del libro colectivo titulado La posverdad o el dominio de lo trivial -editado por la filósofa Claudia Carbonell- el profesor Anton Barba-Kay analiza las relaciones entre Internet y la posverdad. Sostiene que Internet genera una perspectiva sobre la verdad y la razón como si fueran un bien individual, no como algo compartido.
Desde el punto de vista metodológico y epistemológico, la referida crisis se expresa en la incapacidad para lograr acuerdos sobre los procedimientos legítimos que justifican la acuerdos epistemologicos, mientras se asume un relativismo que no discrimina entre el conocimiento producido por la experticia y los contenidos generados por cualquier influencer.
Estos problemas nos llevan al problema ontológico. Una sociedad democrática se caracteriza por el debate plural. Para que este sea fructífero, debemos compartir un conjunto “hechos intersubjetivos”, " una realidad compartida que nos permita, por ejemplo, estar de acuerdo en que ha ocurrido un determinado acontecimiento social.
En esta ponencia, analizo los problemas ontologicos y epistemologicos de la posvedad y sus implicaciones para una sociedad democratica.
Referencias
Nichols, T. (2017). The Death of Expertise: The Campaign against Established Knowledge and Why It Matters. Oxford University Press.
Pérez-Dasilva, J.-A.; Meso-Ayerdi, K.; Mendiguren-Galdospín, T.(2020). Fake news y coronavirus: detección de los principales actores y tendencias a través del análisis de las conversaciones en Twitter. El profesional de la información, v. 29, n. 3, e290308. https://doi.org/10.3145/epi.2020.may.08
Puig, V. (2017). Posverdades de siempre y más. En J. Ibáñez (Ed.), En la era de la posverdad (pp. 129-137). Calambur.
Serna, J. (2017). Fake news. Todo es falso, salvo alguna cosa. En J. Ibáñez, En la era de la posverdad. (pp. 101-116). Calambur.
Snyder, T. (2017). Sobre la tiranía. Galaxia Gutenberg.
Porque no solo es tecnología. Un apunte filosófico al cuerpo y a la identidad en el metaverso
Palabras clave: Metaverso, Cuerpo digital, Identidad digital, Hiperestimulación, Dualismo
Resumen
La creación del Metaverso no se trata únicamente de una tecnología emergente que primordialmente tendrá repercusiones en negocios y ciencias tecnológicas. Con el metaverso se está instaurando también un medio de relaciones sociales, escenarios educativos y consumo, que transformará (en no mucho tiempo) el mundo tal cual lo conocemos hasta ahora. Tomemos en cuenta la predicción de la consultora Gartner, que señala que para 2026 se estima que una cuarta parte de la población mundial pasará por lo menos una hora al día en el metaverso realizando diversas actividades vinculadas al trabajo, ocio, compras y educación.
Consideremos que el metaverso es un escenario digital que ofrece experiencias inmersivas en tiempo real que otorgan hiperestimulación de las sensaciones. A este tenor, nuestra concepción sobre lo corpóreo se transforma en un cuerpo digital, y con ello se genera una identidad digital. Frente a ello, la intención en esta comunicación es atender las siguientes cuestiones: ¿cómo se configura el sentido de la presencia y la identidad al vivir a través de un avatar en el metaverso? ¿Nos despersonalizamos al depositar una parte de nuestra existencia al vivir por medio de un avatar? Y ¿de qué manera se modifica nuestro interés en la realidad física cuando el metaverso produce la hiperestimulación de las sensaciones?
Referencias
Hassanien, A.E (2023) The Future of Metaverse in the Virtual Era and Physical World: Analysis and Applications
Renieris, E. M (2023) Beyond data: reclaiming human rigths at the dawn of metaverse
Ball, M. (2022) El metaverso. Y cómo lo revolucionará todo.
Arroyo, L y Ubieto, J. R. (2022) ¿Bienvenido Metaverso? Presencia, cuerpo y avatares en la era digital.
Leal, S. (2022) Y de repente... llegó el metaverso. Claves para entender este nuevo universo y sus implicaciones.
F
Un nuevo enfoque de la artificialidad: Inteligencia Artificial Generativa
Palabras clave: Realidad, Virtualidad, Artificialidad, Mundo Simbólico, Filosofía de la Artificialidad
Resumen
El hecho de que robots puedan fabricar a otros robots sin especificaciones previas de diseño y de que programas de computador sean capaces de producir de manera automática software con características funcionales no previstas por los humanos que inicialmente los crearon, llevan a reflexionar sobre cómo la humanidad se enfrenta a un nuevo tipo de ARTIFICIALIDAD, donde entes artificiales son capaces de crear otros entes artificiales; por lo que una “Tercera Naturaleza Artificial” constituida por objetos reales (físicos) construidos a partir de la manipulación simbólica de representaciones de objetos (abstractos), se erige en una nueva forma de vida de la existencia humana en este Siglo XXI.
Así, la meta principal de esta presentación será realizar una exposición unificadora de los elementos teóricos que permiten fundamentar la existencia de esa “Tercera Naturaleza Artificial” a partir de los avances tecnológicos en la virtualidad y la nueva visión de la artificialidad que este concepto trae aparejada.
Referencias
Amble, T. (1987). Logic Programming and Knowledge Engineering. Edimburgo, U.K.: Addison-Wesley Publishers.
Baker, A. (1991). Nonmonotonic Reasoning in the Framework of Situation Calculus. Artificial Intelligence. Volume 4. New York: McGraw-Hill.
Bobrow, D. G. (1995). Dimensions of representation. New York: Bobrow y Collins Editores, , Academic Press.
Boden, M. (1977). Minds and Mechanisms. Ithaca, New York: Cornell University Press.
Broncano, F. (2000). Mundos Artificiales. España: Editorial Paidós.
Propuesta de marco teórico-filosófico para el llamado campo ciencia-tecnología-sociedad.
Palabras clave: marco teórico, actividad ciencia-tecnología-sociedad en Cuba.
Resumen
El objeto del presente texto es la actividad ciencia-tecnología-sociedad (CTS) en Cuba a partir de 1959, y el área específica de interés la propuesta de un marco teórico que le sirva de guía. Se defiende la idea que un marco teórico para la actividad CTS en Cuba a partir de 1959, coherente con el proyecto de sociedad que desde entonces se viene construyendo, debe integrar, de una parte, aspectos esenciales de la tradición cubana de pensamiento ciencia y conciencia patriótico-humanista; ideas de Marx y Engels acerca de los nexos ciencia-tecnología-sociedad; el denominado pensamiento latinoamericano en CTS (PLACTS); y la orientación activista-humanista general de CTS existente a nivel internacional; de otra parte, el marco debe favorecer el abordaje de los principales tipos de actividad CTS cubanos: el práctico-existencial, el reflexivo-expresivo y el profesional-institucional; así como las diversas intencionalidades CTS: CTS investigativa, CTS política, CTS gerencial, CTS educativa y CTS comunicacional. En su estructura se divide en tres partes, en correspondencia con el concepto de marco teórico asumido: primera, dimensión histórica-contextual; segunda, dimensión conceptual; y, tercera, dimensión metodológica.
Semantic Issues in Technology
Palabras clave: Incommensurability, technology, artifactual, natural kinds.
Resumen
Contemporary philosophers remain captivated by the siren songs of Scylla (physics) and Charybdis (biology), despite the remarkable progress demonstrated by engineering sciences in our time, which continue to be under appreciated. This is one of the motivations that has driven me to explore whether a semantic phenomenon akin to the one Kuhn discovered occurs in the domain of technology. Another motivation stems from observing the immense conceptual richness of technology, which has been overlooked by philosophers for decades. One reason for this neglect is that, among both lay people and scholars, a perspective has prevailed that equates technology with the mere production of material objects and artifacts.
My goals are twofold. First, I will defend the ubiquity of incommensurability by claiming that there is incommensurability in technology. Second, I will argue that the semantic changes characteristic of incommensurability occur specifically in a special type of kind terms—which Kuhn insightfully identified in his unpublished work as artifactual kind terms. To support both theses, I will present a historical argument in favor of the existence of kind terms in the engineering sciences. Specifically, I argue that the term “concrete” not only exhibits the archetypal characteristics of kind terms, but that the semantic changes occurring in the transition from Roman to contemporary engineering exemplify technological incommensurability. To argue that there is incommensurability in technology, I must first provide a definition of this thesis, which is a subsidiary of the one formulated by Kuhn in the 1980s. Secondly, I analyze the characteristics of artifact kind terms and show how technological terms, such as ‘unit element’ or ‘concrete’ qualify as genuine kind terms.
Referencias
Houkes, Wybo (2009). The Nature of Technological Knowledge. In: Philosophy of Technology and Engineering Sciences. North Holland, 2009.
Ihde, Don. (2013). Technology and science, in: J.K.B. Olsen, S.A. Pedersen, V.F. Hendricks (eds.), A Companion to the Philosophy of Technology, Wiley-Blackwell, Massachusetts.
Kuhn, T. (2022). The Last writings of Thomas Kuhn. Incommensurability in Science. Edited by Bojana Mladenović. Chicago University Press.
Kroes, P.A. (1992). On the role of design in engineering theories. In: Technological Development and Science in the Industrial Age, P. A. Kroes and M. Bakker, eds. pp. 69–98, Kluwer, 1992.
Vitruvius. (30 and 22 BC/1914)The ten Books on Architecture. Harvard University Press.
G
Enfoque del Sujeto Lector Digital desde la Filosofía de la Tecnología
Palabras clave: Lector, ciberlector, lectura lineal y fragmentada, adaptación del ciberlector, lector e inteligencia artificial
Resumen
Para estudiar al sujeto lector digital debimos por un lado conocer su entorno: el ciberespacio y, por otro lado, saber qué lo motivó a sumergirse en este mundo conformado por dispositivos en red, alimentados entre sí por Internet. Un lugar donde el ciberlector navega durante horas en un medio “líquido”, cambiante, disruptivo y deja atrás el mundo concreto y conocido que le había dado hasta ahora un mayor grado de seguridad.
No podemos afirmar que el advenimiento al cibermundo fue una acción consciente, como tal vez tampoco lo fue la creación de una gran parte de la tecnología. A medida que el mercado ofrecía dispositivos cada vez más avanzados y con funciones nuevas, la gente los cambiaba, abandonando los modelos anteriores. Estos dispositivos se convirtieron en herramientas muy útiles para diferentes ámbitos de la vida. Sin embargo, en un lapso de treinta años, nadie había tomado conciencia plena que estábamos viviendo una vida híbrida: mitad en lo real, mitad en lo virtual. El suceso que abrió los ojos a la mayor parte de la población mundial fue la pandemia del Covid 19, cuando debido al confinamiento debieron pasar más tiempo en la virtualidad para trabajar, estudiar o compartir con familiares. Allí, comenzó una toma de conciencia de la diferencia entre lo real y lo virtual y una añoranza de la vida pasada, una retrotopía.
El espacio virtual donde hoy realizamos parte de nuestras vidas, como representación del mundo real, consta de diversos ámbitos sociales. Entre los sujetos que pueblan este espacio virtual se encuentran hackers, ciberpolíticos, ciberdelincuentes, instagramers, influencers y lectores digitales o ciberlectores entre otros.
La importancia que para nosotros tiene el ciberlector es que este sujeto es quien congrega a todos los demás sujetos del espacio virtual debido a que, quien interacciona en el ciberespacio debe obligatoriamente “leer” para poder accionar en él.
Se buscó una característica que se ajustaran a un lector digital universal y que estuviera libre de las disrupciones del sistema que está permanentemente cambiando y dando de baja a unos sujetos y creando otros. El punto en común que se encontró en los ciberlectores fue su herramienta de lectura y comprensión: el cerebro.
Hoy, frente a las recientes novedades tecnológicas lanzadas al mercado: los chatbots y la IA (inteligencia artificial) la humanidad se ha visto obligada a realizar una reflexión más comprometida con respecto a lo que está sucediendo.
El lector se vuelve un punto clave en el mundo híbrido gracias a la neuroplasticidad de su cerebro que tiene la capacidad de reciclar y adaptarse a lo nuevo, puede automatizar funciones para eficientizar los procesos. E ignoramos si esta inmersión en la lectura digital pudiera promover en el cerebro cambios que en el futuro nos serán de utilidad.
Habrá que observar esta nueva forma de leer que nos trajo la tecnología, para saber los resultados en el futuro, porque cualquier juicio que se haga hoy al respecto, pudiera resultar falso con el correr del tiempo.
Finalmente podemos decir que hasta la actualidad teníamos dominio del cibersistema. Y que el temor que se plantea hoy ocurre por la aparición de la IA (Inteligencia Artificial) tecnología que deliberadamente intenta duplicar las funciones cerebrales, pero a nivel informático. El sujeto lector digital puede ser una esperanza como lo es también la filosofía, como base de reflexión para todos los sujetos de esta vida híbrida quienes deben ser responsables y actuar mientras el cerebro del hombre va procesando cambios y ajustándose, porque el problema que se nos presenta no es de ingeniería del artefacto, ni de incompetencia del ser humano; sino de los efectos que tiene lo nuevo cuando el ser humano deja que la tecnología irrumpa sin límites sobre la humanidad.
Referencias
Fuster, Joaquín M. (2018) Neurociencia: “Los cimientos cerebrales de nuestra libertad” (5ª Ed.) Booket. México
Galparsoro, José Ignacio (2019) Más allá del posthumanismo: Antropotécnicas en la era digital. Ed. Comares. Granada.
Mitcham, Carl (1989) Traducción del original inglés: César Cuello Nieto y Roberto Méndez Stingl. Editora Anthropos en coedición con el Servicio Editorial de la Universidad del País Vasco. España.
Wolf, Maryanne (2020) Lector vuelve a casa: Cómo afecta a nuestro cerebro la lectura en pantallas. Ed. Deusto. España.
Zygmunt Bauman (2001) La globalización: Consecuencias humanas. Ebook. Fondo de Cultura Económica. México. 1ª. Ed. 1998.
El “Gran Debate sobre la Racionalidad”
Palabras clave: razonamiento, sesgos, errores, cognición, mente
Resumen
Hace varias décadas la psicología cognitiva del razonamiento desarrolló una serie de trabajos y experimentos, encabezados por Kahneman y Tversky, que se conocieron posteriormente como la tradición de heurística y sesgo (HS). El cómo fueron interpretados tales experimentos provocó un conjunto de respuestas tanto en la psicología como la filosofía. Lo anterior se debe a que se asoció a la HS la idea de que los seres humanos son “sistemática y predeciblemente irracionales”. A ello se le denominó la interpretación pesimista de la racionalidad. Frente a ésta surgieron un abanico de propuestas en psicología cognitiva, entre ellas la psicología evolucionista, la teoría de la racionalidad ecológica y la teoría dual de sistemas. Algunos de los resultados de estas propuestas fueron interpretados como básicamente optimistas, lo que generó claramente una tensión con la interpretación pesimista de la racionalidad. El debate entre algunas de estas propuestas llegó a un punto álgido en que algunos teóricos denominaron, a principios del siglo XXI, como el “Gran Debate sobre la Racionalidad” (Stanovich, 2011) o incluso como las “Guerras de la Racionalidad” (Samuels, Stich y Bishop, 2002; Sturm, 2012).
El propósito del trabajo es examinar críticamente el Gran Debate sobre la Racionalidad. Se explorará en primer lugar la propuesta que dio lugar al debate, posteriormente se presentarán algunas maneras en que los contendientes en psicología cognitiva contrastaron sus ideas frente a la HS. Enseguida se analizará en qué sentido tales contendientes rechazan a la HS, para, por último, revisar algunas maneras en cómo se interpretado el Gran Debate sobre la Racionalidad. Mostraré a lo largo de la ponencia que detrás de las discusiones en dicho debate no hay una única manera de entenderlo y bajo el mote del “Gran Debate sobre la Racionalidad” existen en realidad varios problemas teóricos, algunos descriptivos, otros evaluativos y normativos, que es importante distinguir.
Como sucede con otras discusiones, algunas veces podemos entenderlas yendo un poco al contexto y a la historia de las mismas. En la década de los 70s aparecieron varios trabajos en psicología cognitiva que estudiaban el razonamiento y la toma de decisiones presentando resultados que de entrada parecían desconcertantes (Kahneman, Slovic y Tversky, 1982). Dos ejemplos clásicos de dichos experimentos son la tarea de selección de tarjetas y la falacia de la conjunción.
Junto a dichos experimentos existen muchos otros, en los que se repetían aparentes errores de razonamiento (Kahneman, Slovic y Tversky, 1982). Algunos teóricos comenzaron a ofrecer explicaciones de cómo dar cuenta de los mismos. La tradición de HS precisamente popularizó la idea de que los seres humanos cuentan con estrategias prácticas que resuelven problemas de manera rápida y a veces eficiente, a estos procesos se les denominó heurísticas. Sin embargo, las heurísticas conducen a errores sistemáticos y predecibles conocidos como sesgos. A una misma heurística se le pueden asociar varios sesgos, por ejemplo, postulan una heurística de representatividad que indica que la probabilidad de que un evento A pertenezca a B parte del grado en que A es representativo de B, esto es, el parecido que A tiene con B (Kahneman, Slovic y Tversky, 1982).
Antes de continuar con la explicación de la HS, es preciso hacer una distinción que algunos teóricos han hecho (Samuels, Stich y Faucher, 2004) y que puede servir para aclarar diferentes problemas que son relevantes para el Gran Debate sobre la Racionalidad. Comúnmente se considera que un estudio descriptivo de la capacidad del razonamiento se limita a explicar la competencia y ejecución del razonamiento humano, de modo empírico, por lo que se asume que psicólogos, antropólogos y otros científicos cognitivos llevan a cabo esta labor. Otro tipo de estudio es aquel que se enfoca en cuáles son los principios adecuados de razonamiento, este tipo de estudios se consideran normativo porque están centrado no en cómo un sistema (animal o artificial) razona o toma decisiones sino en cómo debería hacerlo. Normalmente se considera que esta es una labor filosófica. Por último, hay quienes consideran que entre los estudios descriptivo y normativo se puede desarrollar un estudio evaluativo, es decir, dada cierta descripción de cómo se razona y cómo se debe razonar, se sabría si se satisfacen o no las normas de razonamiento. Así, sostener si un sistema es racional forma parte de una evaluación, que requiere el contraste entre los aspectos descriptivo y normativo.
Con las distinciones hechas es posible notar que los procesos o mecanismos postulados por la HS buscan explicar cómo los seres humanos razonan, esto es, con heurísticas. Asimismo, al considerar que las heurísticas producen sesgos o errores de razonamiento, los defensores de la HS consideran que en un plano evaluativo los seres humanos no razonan de manera adecuada, debido a que son sistemática y predeciblemente irracionales. Precisamente a esta visión, en la que se enfatiza el cómo los seres humanos son malos para resolver tareas de razonamiento, se le denominó la interpretación pesimista de la racionalidad. Así, la HS está asociada a esta visión negativa de cómo razonamos. Obviamente, para llegar a este resultado es necesario partir de un modelo de qué significa razonar correctamente, esto es, de una visión normativa. Si bien en un principio no se mencionaba explícitamente qué se entendía por un buen razonamiento, muchos psicólogos dentro de la HS, e incluso fuera de ella, aceptan lo que se denomina la visión estándar de la racionalidad, esto es, razonar de manera correcta es razonar con relación a los principios de las teorías formales de la lógica y la matemática.
Teniendo como base la interpretación pesimista de la racionalidad, así como la distinción presentada, es posible introducirse al Gran Debate sobre la Racionalidad. Este debate tiene, como se verá en mi contribución, diferentes aristas e incluso diferentes contendientes. En particular, el Gran Debate se compone de diferentes discusiones unas a nivel descriptivo, otras a nivel normativo y otras a nivel evaluativo. Hacer estas distinciones nos ayuda a entender una de las disputas más importantes en las ciencias cognitivas actuales.
Referencias
Kahneman, D., Slovic, P., Tversky, A. (eds.) (1982). Judgment Under Uncertainty: Heuristics and biases. Cambridge University Press. DOI: https://doi.org/10.1017/CBO9780511809477.
Samuels, R., Stich, S., Bishop, M. (2002). Ending the Rationality Wars: How to Make Disputes about Human Rationality Disappear. In. Elio, R. (ed.). Common Sense, Reasoning and Rationality (pp. 236–68). Oxford University Press. DOI: https://doi.org/10.1093/0195147669.003.0011.
Samuels, R., Stich, S., Faucher, L. (2004). Reason and Rationality, in Niiniluoto, I., Sintonen, M. and J. Wolenski (eds.). Handbook of Epistemology. Kluwer Academic Publishers, 131-179. DOI: https://doi.org/10.1007/978-1-4020-1986-9_4.
Stanovich, K. (2021). Why humans are cognitive misers and what it means for the great rationality debate. In R. Viale (ed.). Routledge Handbook of Bounded Rationality (pp. 196-206). Routledge.
Sturm, T. (2012). The “Rationality Wars” in Psychology: Where They Are and Where They Could Go, Inquiry: An Interdisciplinary Journal of Philosophy, 55(1), 66-81. DOI: 10.1080/0020174x.2012.643628.
Los productos obtenidos mediante IA generativa y la teoría del mundo 3 de Popper
Palabras clave: Popper, conocimiento objetivo, mundo 3, IA generativa
Resumen
La teoría del mundo 3 de Popper (el mundo de los contenidos objetivos del pensamiento, de las teorías, la literatura y –en su formulación original- las obras de arte) es bien conocida al igual que su desfavorable recepción por la crítica. En la literatura especializada se han levantado objeciones a la idea de una epistemología sin sujeto cognoscente (una consecuencia lógica de la teoría) y a las sugerencias sobre la naturaleza y particularidades de los objetos (o inquilinos) del mundo 3, así como a la tesis de su independencia y autonomía y la explicación sobre a la dinámica de crecimiento de la ciencia (o conocimiento objetivo). A raíz del desarrollo de las recientes tecnologías de IA generativa surgen preguntas muy interesantes sobre la teoría del mundo 3, las cuales conciernen (aunque no de manera exclusiva) a la autonomía de los objetos del mundo 3 y al estatus de este tipo de productos. Las intuiciones filosóficas sugieren que teorías o planteamientos desarrollados con ayuda de programas como ChatGPT (por ejemplo: ensayos, respuestas elaboradas a preguntas filosóficas o científicas, e incluso productos con características que implican creatividad u originalidad) representan un reto para las ideas de Popper sobre la teoría del mundo 3. En este trabajo argumento a favor de la tesis contraria: sostengo que los desarrollos de la IA generativa se ajustan de manera bastante natural a la teoría del mundo 3 y contribuyen a reforzar los argumentos a favor de la tesis de la autonomía de los inquilinos de ese mundo así como la propuesta central de la epistemología sin sujeto cognoscente y el conocimiento objetivo.
Referencias
Popper, Karl (1972), Objective Knowledge. An evolutionary Approach, Oxford: Clarendon Press.
Garcia, Carlos (2006), Popper's theory of science. An apologia, London, Continuum.
Garcia, Carlos (2015), Karl Popper: conocimiento objetivo y el mundo 3, Manizales: Universidad de Caldas.
Miller, David (2006), Out of Error. Further Essays on Critical Rationalism. London: Ashgate
Las IA y las ideas teóricas creativas. El caso AlphaGeometry
Palabras clave: Creatividad, inteligencia artificial, originalidad, novedad, abducción
Resumen
La ponencia se adentra en la capacidad de la inteligencia artificial (IA) para generar ideas creativas, particularmente en el ámbito teórico. La pregunta central que se plantea es si la IA puede producir ideas originales, no solo novedosas. Para ello, se establece una distinción crucial entre ambos conceptos:
Lo novedoso se refiere a algo que no ha existido antes, pero que se genera a partir de la combinación o modificación de ideas preexistentes. Se trata de una recombinación de elementos ya conocidos, que da como resultado una nueva configuración, pero que se mantiene dentro del marco de lo establecido.
Lo original, en cambio, implica una ruptura con el conocimiento previo. Es un nuevo punto de partida que no se deriva de la combinación o modificación de ideas existentes, sino que crea un nuevo marco de referencia.
A partir de esta distinción, se argumenta que la creatividad, en el sentido de producir ideas originales, es una capacidad exclusivamente humana.
Para sustentar esta afirmación, se examinan los tres tipos de creatividad propuestos por Margaret Boden: combinatoria, exploratoria y transformacional. Se argumenta que las IA actuales, como AlphaGeometry, pueden alcanzar los dos primeros tipos, pero no el tercero, que es el que da lugar a ideas originales.
Creatividad combinatoria: Se basa en la combinación de ideas conocidas de maneras desconocidas, generando resultados novedosos pero que se mantienen dentro del sistema de ideas existente. Un ejemplo de ello serían los collages visuales o las analogías científicas.
Creatividad exploratoria: Explora y modifica las reglas de un estilo o sistema para producir nuevas ideas. Los resultados son novedosos, pero aún reconocibles dentro de ese sistema. Es similar a como la gramática genera nuevas oraciones a partir de reglas establecidas.
Creatividad transformacional: Implica la modificación radical de las estructuras existentes, dando lugar a ideas originales que inicialmente pueden parecer imposibles o ininteligibles, ya que rompen con el sistema de ideas previo. Este tipo de creatividad es la que ha dado lugar a los mayores avances científicos y artísticos de la historia.
AlphaGeometry, un sistema de IA desarrollado por Google DeepMind, es capaz de resolver problemas geométricos complejos a nivel olímpico. A pesar de su capacidad para generar nuevas soluciones, se argumenta que su proceso creativo se basa en la combinación y exploración de información preexistente, emulando la construcción de conocimiento humano a partir de la experiencia. AlphaGeometry, al igual que otras IA, opera dentro de un sistema de reglas y conocimientos predefinidos. Puede combinarlos y explorarlos de maneras innovadoras, generando soluciones novedosas, pero no puede trascender ese sistema para crear algo genuinamente original.
En la ponencia se sostiene que la creatividad transformacional, al dar lugar a ideas originales, es la que realmente marca la diferencia entre la creatividad humana y la artificial. La capacidad de generar ideas originales a partir de la creatividad transformacional es una característica exclusivamente humana. Las IA actuales, como AlphaGeometry, no pueden generar ideas originales, aunque sí novedosas.
En conclusión, se argumenta que la originalidad es un rasgo distintivo de la creatividad humana frente a la artificial. Las IA actuales pueden generar ideas novedosas, pero no originales, ya que su proceso creativo se basa en la combinación y exploración de información preexistente, y no en la transformación radical de las estructuras de conocimiento.
Referencias
Boden, M. A. (2016). AI: Its nature and future. Oxford University Press.
Mitchell, M. (2019). Artificial intelligence: A guide for thinking humans. Farrar, Straus and Giroux.
Peirce, C. S. (1974). The Essential Peirce: Selected Philosophical Writings, Vol. 2 (1893–1913). (N. Houser, C. Kloesel, & The Peirce Edition Project, Eds.). Indiana University Press.
Russell, S. J., & Norvig, P. (2021). Artificial intelligence: A modern approach (Global ed.). Pearson.
Trinh, T. H., Wu, Y., Le, Q. V., Jiang, T., Luong, M. T. (2024). Solving olympiad geometry without human demonstrations. Nature, 625(7996), 476–482. https://doi.org/10.1038/s41586-023-06747-5
Entrelazamientos corporales-ecológicos con la Inteligencia Artificial: Propuestas éticas desde la epistemología feminista y la cognición corporeizada.
Palabras clave: Inteligencia artificial, cogniciòn corporizada, episteomología feminista, injusticia epistémica
Resumen
El creciente entrelazamiento con la Inteligencia Artificial (IA) en diversos ámbitos de la vida cotidiana genera retos éticos que necesitan ser abordados desde perspectivas críticas y abarcativas como son la epistemología feminista y la cognición corporeizada (embodied cognition).
Este trabajo propone un enfoque feminista y corporeizado para analizar los entrelazamientos entre los sistemas de IA, las ecologías en las que se desarrollan y las corporalidades que las experimentan, especialmente aquellas marcadas por la racialización, el género y otras formas de desigualdad estructural.
La propuesta explora la potencialidad de diseñar sistemas de IA que operen en sintonía con principios éticos arraigados en la epistemología feminista, tales como la interdependencia y la reestructuración de nuestros vínculos con el ambiente y los seres vivos con quienes cohabitamos. En esta línea, se plantea una reflexión en torno a las posibilidades de generar modelos de IA que sean sensibles a las ecologías y corporalidades con las que interactúan, y que puedan contribuir a imaginar futuros tecnológicos más inclusivos y éticamente responsables.
Mientras que la robótica se ha concentrado principalmente en el primer tipo de interacciones (con el ambiente externo), nosotros pensamos que se debe dar énfasis en el estudio de lo que ocurre dentro del cuerpo de los organismos para entender mejor el comportamiento y el entendimiento de un cuerpo en un ambiente dado, especialmente si se pretende reproducir la cognición humana en contextos transhumanistas. Propondremos que una teoría del significado en robótica e IA que resalte que la noción de tiempo cíclico es lo que permite a los sistemas vivos tener una temporalidad auto estructurante que permite la comprensión de las situaciones y tener acceso a una subjetividad que permite el entendimiento en una situación, a diferencia de las nociones transhumanistas basadas en teorías de la cognición clásicas que no ven al sujeto como un sujeto biológico, corporizado y enactivo, sino como un "procesador de información".
A través de un marco teórico interdisciplinario, este trabajo busca articular una crítica a los sistemas de IA extractivistas y proponerse alternativas basadas en un entendimiento relacional y contextual de la tecnología.
Síntesis: Este trabajo examina las intersecciones entre la inteligencia artificial, las ecologías y las corporalidades desde una perspectiva feminista y corporeizada, subrayando la importancia de cuestionar las estructuras de poder que informan el diseño, recolección de datos, desarrollo y uso de las IAs. A través de un análisis crítico de los modos en que las tecnologías emergentes participan en la reproducción de desigualdades y en la configuración de relaciones, se exploran propuestas éticas que promuevan la justicia social y ambiental.
Este enfoque invita a reimaginar la IA no como una herramienta neutral, sino como un agente situado que puede operar en armonía con las demandas éticas de un mundo interconectado y diverso.
Referencias
Coutinho, E., Miranda, E. R., & Cangelosi, A. (2005). Towards a model for embodied emotions, Artificial intelligence, 2005, portuguese conference on (pp. 54-63).
Fuchs, T. (2018). The cyclical time of the body and its relation to linear time, Journal of Consciousness Studies, 25, No. 7–8, 2018, pp. 47–65
Gastelum Vargas, Melina (2022), “Inteligencia artificial y cognición corporizada en el transhumanismo”, en Tafoya, E. (coord). Transhumanismo y tecnologías de mejoramiento humano, UNAM y Heuresis ISBN 978-607-30-3582-8, México.Harnad, S. (1990). The symbol grounding problem. Physica D: Nonlinear Phenona, 42(1-3), 335- 346.
Latour, B. (2007). Nunca fuimos modernos: ensayo de antropología simétrica. Siglo XXI.
Shiva, V. (2016). Staying alive: Women, ecology, and development. North Atlantic Books.
W. Salmon: realismo óntico y realismo causal
Palabras clave: Hume, realismo óntico, conexión causal, conexión necesaria, realismo causal
Resumen
La ponencia busca exponer la teoría de la causalidad como transferencia de Wesley Charles Salmon en contraste, principalmente, con la postura conocida como realismo causal. El propio Salmon califica sus planteamientos de la causalidad como “una postura óntica de la causalidad” y también como objetiva, en contraste con la postura subjetiva de D. Hume, ante todo. Se precisará que las dos condiciones anteriores permiten calificar la posición de Salmon de realismo óntico.
Ahora bien, la principal inquietud investigativa de Salmon está en la explicación científica y no directamente en la causalidad, pero él encuentra defectos en las teorías dominantes sobre la explicación, siendo el más serio el que son teorías no causales de la explicación. Por tanto, él busca proponer un modelo causal de la explicación y esto implica que hay que contar con un concepto de causalidad suficientemente claro que permita llegar a una noción de explicación igualmente clara; y, de acuerdo con él, el principal problema a sortear en este sentido es “el problema de la causalidad suscitado por Hume”, lo cual lo lleva a ofrecer un nuevo análisis de la causalidad.
¿Qué concepción de la causalidad busca justificar Salmon? Salmon considera que Hume ha proporcionado una explicación subjetiva de la causalidad, de tal manera que él buscará dar una explicación óntica u objetiva (o realista, aunque él no utiliza este término) de esta, en la que la causalidad se encuentre en los objetos y no en los sujetos epistémicos. Ahora bien, un punto importante para tener en cuenta en la forma como Salmon presenta su objetivo es que no hace referencia a la conexión necesaria entre causa y efecto, sino que busca que el concepto de causalidad sea objetivo; pero esto no es lo mismo que buscar que la conexión necesaria lo sea. Así que habría que esperar cómo entra en juego, si lo hace, la conexión necesaria en su concepción realista u objetiva de la causalidad. Igualmente, es pertinente determinar ¿por qué Salmon considera que la propuesta de Hume es subjetiva y en qué punto o puntos lo es?
Como veremos, tal y como Salmon va a proceder, no es directa la relación entre un planteamiento objetivo de la causalidad y el explicitar la supuesta relación necesaria entre causa y efecto. No lo es porque, precisamente, él no parte de la formulación acostumbra de la causalidad: dada la causa, necesariamente debe darse el efecto o conocido el efecto, necesariamente debió darse su causa; sino que, con sus palabras, va a proponer un nuevo punto de partida. El nuevo punto de partida de Salmon comienza con la introducción del concepto de proceso causal, un concepto mandado a sustituir los relata de la relación causal, en la interpretación dominante de los análisis de la causalidad, incluido por supuesto el de Hume. Lo común es que estos relatas sean objetos o hechos (sucesos o eventos): tal objeto causó tal otro objeto o tal hecho es el efecto de tal otro hecho (véase, por ejemplo, las definiciones de causa de Hume). Este punto es clave en la argumentación de Salmon y representa un avance importante en el análisis de la causalidad, pues se pasa de los objetos a los procesos causales, y también es, tal y como lo subraya Salmon, un paso a favor del realismo (de una postura objetiva de la causalidad) y en contra de las concepciones regularistas de la causalidad. Podemos calificar la postura sobre la causalidad de Salmon de realismo óntico, aunque él la describe como “una postura óntica de la causalidad”, pero veremos que este realismo no alcanza a ser un realismo causal.
La posición de Salmon es realista (objetiva) porque ubica la conexión causal (que no tiene que ser necesaria) en el mundo natural y no en la mente del sujeto, como hizo Hume o Kant, por ejemplo. Para éste, la conexión causal es objetiva, independiente de la mente de los sujetos. Pero si bien la conexión causal es objetiva para Salmon, éste no llega afirmar que la conexión causal sea necesaria; no lo afirma, ni su análisis lo implica, como veremos. Esto representa un importante distanciamiento del realismo causal según el cual (véase, por ejemplo, Chakravartty, 2007, 93) la causalidad es objetiva porque se da en un mundo externo independiente de la mente y también implica algún tipo de necesidad en el mundo o de re, entre causa y efecto, en contraposición a la mera necesidad de dicto. Esto es, la causalidad implica algo más que simples conjunciones constantes (o probabilísticas) de eventos. Además, según el realista causal, la relación causal es intrínseca y no extrínseca dependiente de una regularidad o de la similaridad entre eventos.
Con el propósito de exponer y justificar estas ideas, se procederá así. Primero, exposición sintética de la teoría regularista de la causalidad de Hume, para después reconstruir la teoría óntica de la causalidad de Salmon, a partir de sus principales elementos y en contraste con la de Hume. Por último, se contrasta la teórica óntica de Salmon con el realismo causal, precisando las limitaciones de la primera y los retos para el segundo.
Referencias
Chakravarty, A. 2007: A Metaphysics for Scientific Realism: Knowing the Unobservable. Cambridge: Cambridge University Press.
Hume, David 1748. “An Enquiry Concerning Human Understanding”. In Enquiries Concerning Human Understanding and Concerning the Principles of Morals, L. A. Selby-Bigge & P. H. Nidditch (eds). Oxford: Clarendon Press, 1974.
Psillos, S. 2014. Causation and Explanation, New York: Routledge.
Salmon, W. 1984. Scientific Explanation and the Causal Structure of the World. Princeton, NJ: Princeton University Press.
Salmon, W. 1997a. Causality and Explanation. Oxford: Oxford University Press.
Percepciones éticas y capacidad de detección de contenido generado por IA entre estudiantes universitarios: un estudio exploratorio
Palabras clave: Estudiantes, aplicaciones de IA, frecuencia
Resumen
Esta investigación se propone explorar las posturas éticas de los estudiantes universitarios respecto al uso de la inteligencia artificial (IA) en el ámbito académico, así como evaluar su capacidad para distinguir entre textos escritos por humanos y aquellos generados por IA. En un contexto donde las herramientas de IA como ChatGPT están ganando popularidad, es crucial entender cómo los estudiantes perciben y utilizan estas tecnologías.
El estudio empleará un enfoque mixto, combinando encuestas cuantitativas y entrevistas cualitativas. Se reclutará una muestra diversa de estudiantes de diferentes disciplinas académicas. La primera fase consistirá en un cuestionario que evaluará las actitudes éticas de los estudiantes hacia el uso de IA en tareas académicas. La segunda fase implicará un experimento donde los participantes intentarán identificar textos generados por IA entre una serie de fragmentos.
Se analizarán las percepciones éticas de los estudiantes en relación con factores como la integridad académica, la equidad y la responsabilidad en el uso de la IA. Además, se evaluará la precisión con la que los estudiantes pueden detectar contenido generado por IA, comparando sus resultados con los de herramientas de detección automatizadas.
Los resultados de este estudio proporcionarán información valiosa sobre la comprensión ética de los estudiantes respecto a la IA y su capacidad para discernir contenido generado artificialmente. Estas conclusiones podrán informar políticas educativas y estrategias pedagógicas para fomentar un uso ético y responsable de la IA en entornos académicos, así como para desarrollar habilidades críticas en la era digital.
Referencias
Antoniak, M. (2023). Ethical considerations for AI in teaching and learning. Cornell University Center for Teaching Innovation. https://teaching.cornell.edu/generative-artificial-intelligence/ethical-ai-teaching-and-learning
International Journal of Novel Research and Development. (2024). Exploring ethical considerations of artificial intelligence in education. IJNRD, 9(2). https://www.ijnrd.org/papers/IJNRD2402124.pdf
Lin, G. S. S., Tan, W. W., & Hashim, H. (2024). Students' perceptions towards the ethical considerations of using artificial intelligence algorithms in clinical decision-making. British Dental Journal. https://doi.org/10.1038/s41415-024-7184-3
Originality.ai. (2023). Can humans detect AI-generated text? 6 studies would suggest otherwise. https://originality.ai/blog/can-humans-detect-ai-content
Waltzer, T., Glick, D., Betancourt, A., & Chukoskie, L. (2024). Can you spot the bot? Identifying AI-generated writing in college essays. International Journal for Educational Integrity, 20(1). https://doi.org/10.1007/s40979-024-00158-3
H
Minería de datos y defensa de los derechos humanos: la experiencia de Forensic Architechture
Palabras clave: minerìa de datos, algoritmo, derechos humanos, arquitectura forense, tecnología
Resumen
En esta ponencia se indagará, a partir de la experiencia de Forensic Architechture, la manera en que la minería de datos, el modelado en 3d y el uso de imágenes satelitales pueden ser empleadas para la defensa de derechos humanos, la construcción de evidencias forenses de graves violaciones a los mismos y la conformación de foros en los que la documentación recabada pueden ser visualizadas. Se trata de un ejercicio de construcción tecno-científica de la verdad, para impugnar los poderes militares imperantes. Centralmente analizaremos las experiencias que la agencia dirigida por Eyal Weizman han recabado de su trabajo de campo en Guatemala y el análisis de la violencia lenta en Gaza. La ponencia se centrará en los alcances metodológicos para comprender los usos de la tecnología, y de la inteligencia artificial específicamente, en la defensa de los derechos humanos.
Referencias
Weizman, E. (2017). Forensic Architechture: hacia una estética investigativa. Verlag, S.L.
Hacia una Filogénesis y Filosofía de la Inteligencia Artificial
Palabras clave: Inteligencia artificial, filosofía, filogénesis, algoritmo, futuro.
Resumen
A diferencia de otros temas clásicos, la historia de la Inteligencia Artificial (IA) no comenzó con preguntas que se remontan a la antiguidad griega. La IA tiene una historia independiente que, si bien se intersectó históricamente con preguntas filosóficas que surgieron a la par en los años sesenta, se ha distinguido por una total adherencia a un conjunto de prerrogativas, de programas de investigación y, sobre todo, de instrumentación de innovaciones. Es crucial comprender cuál es la naturaleza de estas particularidades para poder realizar una filosofía que responda adecuadamente al impacto y prospectiva que hoy en día tiene la IA.
Desde la antigüedad, Herón de Alejandría describió lo que hoy llamaríamos máquinas autónomas, Descartes, como buen padre del mecanicismo, confiaba en que los procesos lógicos podrían ser replicados por las máquinas, Leibniz estaba obsesionado con encontrar un lenguaje universal basado en el razonamiento lógico, base conceptual para la computación. Esto resonó en Babbage, quien con su máquina se dio a la tarea de programarla de forma tal que pudiera "pensar" si se le programaba correctamente. Posteriormente, Alan Turing, desarrolló una serie de comandos y cálculos mecánicos que se implementarían en su famosa máquina que buscaba “pensar” y ser tan inteligente como los humanos.
El origen moderno de la IA se atribuye a la conferencia celebrada en Dartmouth en 1956, fecha que se considera como el "nacimiento" formal de la IA, y donde John McCarthy acuña el término. Quienes igualmente le dieron su apellido fueron Allen Newell, Herbert Simon, entre muchos otros.
Este trabajo tiene por objeto hacer un breve recuento de la historia de la IA haciendo énfasis en los términos de: ‘algoritmo’, ‘inteligencia mecánica’, ‘teoría de la información’ ‘hardware’, ‘big data’, ‘deep learning’ y ‘entrenamiento’ para explicar la terminología general que sirve de base para una filosofía de la IA informada y que vaya más allá de las cuestiones futuristas y éticas.
Referencias
Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379–423.
Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460. https://doi.org/10.1093/mind/LIX.236.433
McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. (Dartmouth AI Conference). https://www.dartmouth.edu/~ai_history/AI_proposal.html
Newell, A., & Simon, H. A. (1972). Human Problem Solving. Prentice-Hall.
Russell, S. J., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4a ed.). Pearson.
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
Dick, S. (2019). Machine Learning and the Artificial Intelligence Revolution. The Information Society, 35(4), 257–264. https://doi.org/10.1080/01972243.2019.1627855
Cognición, artefactos y cambio climático
Palabras clave: cognición, cultura material, cambio climático, calentamiento global
Resumen
El informe del IPCC 2022 afirma que el calentamiento global es "antropogénico", producto de la actividad humana. Dado que el uso de artefactos es fundamental en nuestras prácticas cotidianas, resulta pertinente cuestionar si el ciclo de vida de estos artefactos ha contribuido a la emisión de gases de efecto invernadero a lo largo de la historia y en diferentes culturas.
Mi planteamiento es el siguiente: los artefactos o herramientas cumplen funciones diversas, como almacenar información, resolver problemas o reducir la carga cognitiva (memoria, atención, percepción, etc.). Algunos artefactos, aunque desempeñan la misma función, requieren diferentes tipos de energía. Por ejemplo, un cuaderno de notas y un teléfono celular pueden servir para almacenar información, pero el impacto ambiental de cada uno puede variar. ¿Cuál de los dos produce menos emisiones de CO2 o contamina menos?
La problemática radica en que algunos artefactos cotidianos emiten más gases de efecto invernadero que otros. Al comparar artefactos modernos, como teléfonos celulares y computadoras, con los utilizados en las sociedades prehispánicas (cuchillos, flechas, cerámica, etc.), observamos una clara diferencia en el impacto ambiental. Este enfoque crítico es esencial para reflexionar sobre la relación entre los artefactos y el calentamiento global, especialmente en contextos como los museos.
Cambio Climático
El cambio climático implica alteraciones a largo plazo en las temperaturas y los patrones climáticos, provocadas principalmente por las actividades humanas desde la revolución industrial. Las emisiones de gases de efecto invernadero, provenientes principalmente de la quema de combustibles fósiles como carbón, petróleo y gas, son responsables de fenómenos como olas de calor, el derretimiento de glaciares y la disminución del hielo en el Ártico.
Según datos de la ONU, en el siglo XX, Estados Unidos fue responsable del 25% de las emisiones globales, seguido por la Unión Europea con el 22%, China con el 13% y el Reino Unido con el 5%. Estos países, debido a su alto estándar de vida, tienen una gran demanda de electricidad, calefacción, aire acondicionado, electrodomésticos, automóviles, aviones, teléfonos celulares y computadoras, todos responsables de una mayor emisión de gases de efecto invernadero. China, en particular, comenzó a incrementar sus emisiones a finales del siglo XX debido a su rápido crecimiento económico y la industrialización.
En 2017, se emitieron 36 billones de toneladas de CO2, siendo Asia responsable del 53% de estas emisiones. Este fenómeno, impulsado por la industrialización y el consumo masivo de recursos, tiene un impacto ambiental irreversible que se refleja en la temperatura global, el derretimiento de los glaciares y las sequías.
Artefactos
El arqueólogo Lambros Malafouris estudia cómo la mente humana interactúa con los objetos materiales, influenciando la cognición y la cultura. A través de su Teoría del Compromiso Material (MET) y la hipótesis de la mente extendida, Malafouris propone que los procesos cognitivos no se limitan al cerebro, sino que se extienden a los artefactos y herramientas que utilizamos. Según esta teoría, los artefactos no son objetos pasivos, sino participantes activos en la cognición humana, facilitando procesos como la memoria, la percepción y la comunicación.
Los artefactos desempeñan un papel crucial en la arqueología cognitiva de Malafouris, ya que ayudan a comprender cómo la cultura material moldea la mente humana y cómo los objetos contribuyen a la construcción de significado y a la transmisión de conocimiento.
Ciencias Cognitivas
La psicología experimental, nacida a finales del siglo XIX, fue la primera disciplina en estudiar la mente humana desde un enfoque científico. A mediados del siglo XX, surgieron modelos computacionales que intentaban simular procesos cognitivos, como la memoria y la percepción, lo que dio lugar a la corriente epistemológica del cognitivismo.
En las décadas posteriores, la cibernética de segundo orden y el constructivismo emergieron como enfoques intermedios, poniendo énfasis en la interacción entre la cognición, el cuerpo y el entorno. La cognición situada, extendida y corporizada, junto con el concepto de "exocerebro", subraya cómo el conocimiento y la inteligencia se desarrollan a través de la interacción con el entorno y los artefactos.
Conclusión
El cambio climático y el calentamiento global, impulsados por la actividad humana, representan desafíos cruciales en la actualidad. Los artefactos, presentes en nuestras vidas cotidianas, desempeñan un papel significativo en este fenómeno debido a las emisiones generadas durante su producción y uso. Al comparar artefactos modernos con los utilizados en sociedades prehispánicas, podemos observar cómo la industrialización y el consumo masivo han incrementado el impacto ambiental. Reflexionar sobre la historia de los artefactos y su contribución al calentamiento global, tanto desde una perspectiva cultural como ambiental, es esencial para promover la conciencia sobre el papel de la humanidad en el cambio climático. Incorporar esta reflexión en espacios como los museos puede ayudar a sensibilizar al público sobre el impacto de nuestros hábitos y la producción de artefactos en el medio ambiente.
Referencias
Hernández Cruz, M. L. . (2023). El lenguaje como acoplamiento entre mente, cuerpo y entorno en los modelos de la cognición extendida y el exocerebro. Acta Sociológica, 91(91), 135–156. https://doi.org/10.22201/fcpys.24484938e.2023.91.87049
Hernández Cruz, Mildreth (2023). “Inteligencia artificial, calentamiento global y derechos humanos” en Construyendo el metaverso. Una mirada multidisciplinaria a las innovaciones tecnológicas y su impacto en la sociedad. UNAM. Editorial LEED. http://dx.doi.org/10.22402/j.rdipycs.unam.5.1.2018.175.1-126
Hernández Cruz, M. (2021). Las prácticas científicas transdisciplinarias en las Ciencias Cognitivas. Saberes. Revista De Historia De Las Ciencias Y Las Humanidades, 4(9), 119-141. Recuperado a partir de https://www.saberesrevista.org/ojs/index.php/saberes/article/view/185
IPCC, 2022: Summary for Policymakers [H.-O. Pörtner, D.C. Roberts, E.S. Poloczanska, K. Mintenbeck, M. Tignor, A. Alegría, M. Craig, S. Langsdorf, S. Löschke, V. Möller, A. Okem (eds.)]. In: Climate Change 2022: Impacts, Adaptation, and Vulnerability. Contribution of Working Group II to the Sixth Assessment Report of the Intergovernmental Panel on Climate Change [H.-O. Pörtner, D.C. Roberts, M. Tignor, E.S. Poloczanska, K. Mintenbeck, A. Alegría, M. Craig, S.Langsdorf, S. Löschke, V. Möller, A. Okem, B. Rama (eds.)]. Cambridge University Press. In Press.
Malafouris, L. (2013). How things shape the mind. Cambridge: MIT press
Ramos Torre, Ramón (2021). The Climatic Future of the IPCC: A Sociological Approach. Revista Española de Investigaciones Sociológicas, 176: 101-118. (doi: 10.5477/cis/reis.176.101)Ramos Torre, Ramón (2021). “The Climatic Future of the IPCC: A Sociological Approach”. Revista Española de Investigaciones Sociológicas, 176: 101-118. (doi: 10.5477/cis/reis.176.101)
La Revolución Silenciosa como una forma para reflexionar sobre el “Progreso Científico”
Palabras clave: Progreso científico, Revolución copernicana, Revolución Silenciosa, Medición científica, Integración cognitiva óptima.
Resumen
Para Habermas, Hegel es el padre de la modernidad debido a que este ocupa el concepto de “Neue Zeit” (i.e., Tiempo Nuevo) del cual procede la comprensión de “Tiempo” propia de la modernidad. (Habermas, 1993: 15) A diferencia del Tiempo Cíclico de la antigüedad, la modernidad, señala Arendt, presenta una concepción de Historia lineal que fluye del pasado al futuro (Arendt, 1996: 66-67) y que, al modo hegeliano, sostiene la Idea de Progreso de la Historia. (Hegel, 2001: 67-68) Los relatos como La Ilíada o La Odisea se sostienen de fuertemente del “pasado”; por otro lado, la Historia, para Hegel, posee un τέλος, el cual sería la realización del Geist (i.e., Espíritu) a través de la superación de las contradicciones, con esto vemos que Hegel propone una Filosofía de la Historia que se sostiene fuertemente del “futuro”.
Con las nociones anteriores podemos considerar que, la Historia -al menos en la modernidad- debe entenderse como lineal debido a que esta se proyecta hacia el “futuro”, momento en el que el espíritu logrará realizarse a través de la creación del Estado. En este sentido, el futuro encierra un proceso de superación de las contradicciones, a ese proceso es a lo que se entenderá, en el sentido hegeliano, como “Progreso”.
Kuhn sería uno de los principales pensadores que traerán la discusión de la Idea de Progreso pero no con las tendencias fuertemente metafísicas que Hegel asignaría a la Historia. Kuhn uniría ya no Historía y Metafísica, sino Historia y Ciencia. Este paso, aunque arriesgado y complicado, significó un gran avance en el campo de la Filosofía de la Ciencia tanto en los aspectos positivos como la noción de “Progreso Científico” como en lo negativo en el que los posteriores a Kuhn -por ejemplo, Imre Lakatos, Paul Feyerabend e Ian Hacking- establecieron una serie de críticas hacia las tesis kuhnianas mostradas en La Estructura de las Revoluciones Científicas.
Kuhn considera que el progreso en la ciencia se sostiene de la superación de los paradigmas actuales por otros que la comunidad científica decide adoptar; el abandono de un paradigma por parte de la comunidad científica, según Kuhn, se produce por el interés de esta en adoptar nuevos enfoques y compromisos. (Briceño, 2009: 286) Para Kuhn, el cambio de paradigma implicaría, entonces, un “cambio sustancial en los temas estudiados al grado de que la ciencia nueva simplemente no contempla los temas antiguos”. (Hacking, 2013:46) Esto concluye una idea de progreso donde la superación de los problemas antiguos sería determinada principalmente por la predilección de nuevos problemas en la cual los segundos -los nuevos- no tendrían conexión con los primeros -los antiguos-.
Ian Hacking (2013: 45) señala que si bien el conocimiento científico es acumulativo, el concepto de revolución - visto, al menos, desde el pensamiento kuhniano- choca con la noción de continuidad implícita en la idea de “Progreso científico”.
En la actualidad, el filósofo Godfrey Guillaumin presentó una nueva crítica a la obra kuhniana, la cual se sostiene de que la idea de Revolución Científica debe defenderse de una noción de progreso diferente a la cual generalmente el magisterio filosófico se ha guiado. Pensar que el cambio de teorías -o, en un sentido kuhniano, de paradigmas-, como es el caso de la llamada Revolución Copernicana, mostraría al menos una tesis incompleta puesto que muchas de las hipótesis postuladas por las teorías más recientes han sido comprobadas tiempo después debido a que los instrumentos y herramientas de medición científica llevan un proceso distinto al de las teorías.
La noción de “Progreso” que parece arrojar Godfrey -al menos para el caso de la medición celeste desde la teoría copernicana- se sostiene de la evolución de los instrumentos y las herramientas de medición celeste. El progreso de la ciencia no sería, entonces, motivado por el cambio de teorías científicas, sino por la evolución de los programas de medición científica. Esta tesis se sostiene -al menos en el caso de la medición celeste- de la evidencia de que la gran mayoría de parámetros astronómicos no habían sido determinados métricamente hacia finales del siglo XVII, e incluso, aquellos ya establecidos no dotaban de satisfacibilidad a los resultados.
Es gracias al estudio de la evolución de los instrumentos de medición científica que el filósofo mexicano (Guillaumín, 2023: 19) afirma que la Revolución Copernicana no sólo cubre el lapso de poco más de un siglo (1543-1687) sino que llega hasta mediados del siglo XIX debido que hasta esta época fue donde se obtuvieron resultados confiables en contra de la astronomía ptolemaica. Así la Revolución Copernicana comprendería un proceso de poco más de tres siglos. A este periodo de tiempo es al que Guillaumín comprende como: Revolución Silenciosa.
De la idea de Revolución Silenciosa surge una noción de progreso a la cual nombra como: Progreso científico mediante la expansión de la experiencia; esta se sostendrá de una visión donde los “procesos de medición están conformados por interrelaciones recíprocas de tres componentes de naturaleza diferente [datos, modelos geométricos y principios físicos], cuyo resultado final es, en la mayoría de los casos, la cuantificación de un parámetro físico”. (Guillaumín, 2023: 16). Dicha noción de progreso nos acerca a una nueva forma de comprender la historia de la evolución científica la cual no se sostiene de cambios en las teorías científicas, sino en el desarrollo de las herramientas e instrumentos creados para comprobar dichas teorías.
Referencias
Briceño, T. (2009) “El paradigma científico y su fundamento en la obra de Thomas Kuhn” en Tiempo y Espacio: 19 (52), 285-296.
Guillaumín, G. (2016). Génesis de la Medición Celeste, UAM-Tirant Humanidades, México.
Guillaumín, G. (2023). La Revolución Silenciosa, UAM-Ediciones del Lirio, México.
Hacking, I. (2013), “Ensayo preliminar” en Kuhn, T., La Estructura de las Revoluciones Científicas, FCE, México.
Hegel, G. (2001), Lecciones sobre la filosofía de la historia universal, Alianza, España.
Fray Diego Rodríguez y la Geometría en el Nuevo Mundo: Influencias, Problemas y Circulación de Obras Matemáticas en Nueva España durante el sigo XVII
Palabras clave: Fray Diego Rodríguez, Geometría, Pensamiento matemático, Nueva España, Tradición matemática europea, Circulación de libros, Historia de las matemáticas
Resumen
La obra de Fray Diego Rodríguez, destacado matemático, astrónomo y académico del siglo XVII, constituye una valiosa ventana al desarrollo del pensamiento matemático en el Nuevo Mundo. Su legado, centrado en la enseñanza y aplicación de las matemáticas, lo posiciona como una figura clave en la historia científica de Nueva España. Esta ponencia analiza una selección de seis problemas de geometría plana y sólida extraídos de su Tractatus Proemialium Mathematices y de Geometria, los cuales reflejan su profundo conocimiento y creatividad matemática. Dichos problemas, influenciados por obras fundamentales como la "Aritmética" de Diofanto (1621) editada por Claude Gaspard Bachet, la "Geometría práctica" (1606), los "Elementos" de Euclides (1589), el "Astrolabio" (1593) de Christopher Clavius, y la "Colección matemática" de Pappus de Alejandría (1589) editada por Federico Commandino, permiten valorar tanto su pensamiento como el impacto de las obras matemáticas que circularon en el virreinato. Este análisis no solo profundiza en la contribución de Rodríguez, sino que también arroja luz sobre la recepción e integración de la tradición matemática europea en Nueva España.
Referencias
Hernández Paredes, I. (2021). El contexto conceptual de la primera Cátedra de Matemáticas en México: Un análisis sobre el estado del conocimiento matemático en Nueva España en el siglo XVII a partir de la obra de Fray Diego Rodríguez (Tesis de maestría). Universidad Nacional Autónoma de México.
Heath, T. L. (1961). Apollonius of Perga. Cambridge: Cambridge University Press.
Pappus d'Alexandrie. (1933). La Collection mathématique (Ed. y trad. Paul Ver Eecke). París: Desclée de Brouwer.
Rodríguez, D. (c. 1643). Tractatus Proemialium Mathematices y de Geometria (Ms. 1519). México: Biblioteca Nacional de México.
Rommevaux, S. (2005). Clavius: Une clé pour Euclide au XVIe siècle. París: Vrin.
Retos de la interdisciplina entre las ciencias de la salud, las ciencias sociales y humanidades
Palabras clave: medicina, interdisciplina, interculturalidad, ciencias sociales, humanidades
Resumen
Las humanidades en las ciencias de la salud son un campo que si bien tienen una historia amplia durante el siglo XX, en tiempos recientes la relevancia de este campo se ha ido ampliando, permitiendo que las interacciones sean en temas cada vez más amplias, así como a partir de disciplinas más diversas, tanto en el ámbito de la salud como los de las ciencias sociales y humanidades.
Mientras que la interdisciplina que se da dentro de las diferentes especialidades médicas, así como con otras ciencias del ámbito de la salud, tiene retos difíciles de resolver aquellos que están relacionados con las distintas miradas a un mismo problema de salud. Sin embargo, en tiempos recientes como un movimiento que ha reaccionado a las limitaciones de la medicina basada en evidencia (MBE) que podían estar dejando fuera al paciente de su propio tratamiento, se ha movido hacia una medicina centrada el paciente que tome en consideración su propia forma de vida y sus valores sociales y culturales. Por tanto, esta medicina basada en valores (MBV) ha echado mando del instrumental de las ciencias sociales y las humanidades para poder atender las necesidades de los pacientes en sus tratamientos, considerar sus valores y formas de vida (Nava Diosdado et al., 2011).
La transdisciplina que supone ir hacia las ciencias sociales y las humanidades resultan también complicados en el tema metodológico (Risjord, 2014), pero han permitido a la vez no solo la participación del paciente en su propio tratamiento, asunto que coincide plenamente con la ética clínica, sino también la forma del personal de salud para acceder a sus propias vidas ha sido foco del estudio de la antropología, sociología, filosofía y hasta la literatura.
Uno de los antecedentes más claros de esta interdisciplina lo tenemos en una disciplina como la antropología médica que ha participado desde principios del siglo XX en el conocimiento de las comunidades para alentar la comunicación entre médicos, enfermeras y autoridades sanitarias con las comunidades que a menudo desde un trasfondo cultural indígena podían no estar de acuerdo con las prácticas médicas de quienes entraban a sus comunidades (de Hoyos et al., 2024). En este caso específico hemos estudiado como un importante antecedente la carrera de antropología que se fundo en el Instituto Politécnico Nacional en la Escuela Nacional de Ciencias Biológicas para apoyar y complementar los conocimientos de carreras como biología y medicina rural en 1936 (Wacher Rodarte & Rodriguez Caso, 2022).
Por otro lado, se ha trabajado de manera importante en lo que conocemos como educación médica continua tratando la formación ética del personal de salud. Si bien la ética es una de las ramas de la filosofía en este caso habrán de confluir los conocimientos de la materia y los dilemas éticos que se presenten en las ciencias de la salud con los conocimientos de la filosofía práctica. Sin embargo, una vía para sensibilizar a las personas sobre la importancia de la centralidad del paciente en el acto médico se han buscado métodos a través del arte, específicamente de la literatura, que a través de las obras literarias con temáticas de enfermedad, muerte y sufrimiento fomentan una empatía que permite un mayor impacto de la formación que otras metodologías más teóricas (Monroy-Fraustro et al., 2021).
Poca duda cabe el momento importante que está viviendo la colaboración interdisciplinaria entre ciencias de la salud, ciencias sociales y humanidades. Sin embargo, todavía estas metodologías no han sido estudiadas a detalle y se realizan a menudo a partir de poca evidencia anterior. Más aún, la gran importancia que tiene en la investigación y la práctica clínica la participación de los pacientes que se les requiere como otro de los componentes claves para ser considerados en esta interacción. Por tanto, la ponencia explora los retos principales que se deberán de sortear para poder cambiar los enfoques tradicionales y disciplinarios en las ciencias de la salud y ofrecer servicios de salud de mayor calidad a los ciudadanos.
Referencias
de Hoyos, A., Guevara-López, U., González, J., & Viguri, R. (2024). Cuidados paliativos culturalmente sensibles: experiencias sobre la enfermedad y muerte a partir de los cuidadores en los Valles Centrales de Oaxaca. In M. Gómez-Salazar (Ed.), Experiencias interculturales y reflexiones filosóficas. UNAM-San Antonio.
Monroy-Fraustro, D., Maldonado-Castellanos, I., Aboites-Molina, M., Rodríguez, S., Sueiras, P., Altamirano-Bustamante, N. F., de Hoyos-Bermea, A., & Altamirano-Bustamante, M. M. (2021). Bibliotherapy as a Non-pharmaceutical Intervention to Enhance Mental Health in Response to the COVID-19 Pandemic: A Mixed-Methods Systematic Review and Bioethical Meta-Analysis. Frontiers in Public Health, 9, 42. https://doi.org/10.3389/fpubh.2021.629872
Nava Diosdado, R., Flores Cisneros, C., Méndez Jiménez, J., Serrano Zamago, A., de Hoyos Bermea, A., Ricco Monge, S., Altamirano-Bustamante, N. F., & Altamirano-Bustamante, M. M. (2011). Valores en Medicina: etnografía de sus representaciones en un hospital de cardiología en México. Cuicuilco, 18(52), 115–132. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0185-16592011000300008
Risjord, M. (2014). Philosophy of Social Science. Routledge.
Wacher Rodarte, M. M., & Rodriguez Caso, J. M. (2022). Del IPN al INAH. La ENAH. In I. Rodriguez García & M. M. Wacher Rodarte (Eds.), Los cimientos académicos del INAH. Jornada Conmemorativa del 80 aniversario del INAH (pp. 67–84). Secretaría de Cultura/INAH.
L
As inter-relações trabalho, técnica, cultura, ciência e tecnologia na produção social da existência: reflexões a partir da obra de Álvaro Vieira Pinto
Palabras clave: Álvaro Vieira Pinto; Produção social da existência; Filosofia da ciência e da tecnologia; Trabalho e Tecnologia; Ciência, Tecnologia e Sociedade
Resumen
O presente trabalho busca apresentar uma crítica às abordagens reducionistas do determinismo tecnológico e da precarização do trabalho que se manifestam em escala global com a dominância de concepções orientadas pela ideologia neoliberal. Adotamos como referência a obra do filósofo brasileiro Álvaro Vieira Pinto. Ao estudar a obra deste autor constatamos que em seu arcabouço conceitual, tendo como ponto de partida o trabalho como dimensão central da sociabilidade, estão indissociavelmente inter-relacionados técnica, cultura, ciência e tecnologia, na constituição de todo um complexo que caracteriza a sociedade humana, naquilo que o autor denomina de produção social da existência.
Álvaro Vieira Pinto (1909 – 1987), no desenvolvimento de sua obra,elaborou o conceito de produção social da existência, tomando por base a inter-relação trabalho, técnica, cultura, ciência e tecnologia como dimensões constituintes da vida e da sociabilidade humana. Ele foi um dos mais importantes intelectuais brasileiros do século XX. Graduou-se em Medicina em 1932 e depois em Matemática e Física. Profundo estudioso de filosofia, destacou-se por sua atuação na Faculdade de Filosofia da Universidade do Brasil e no Instituto Superior de Estudos Brasileiros – ISEB. Exilado na ditadura militar, viveu inicialmente na então Iugoslávia (entre 1964 e 1965) e posteriormente no Chile (entre 1965 e 1968). Publicou obras de destaque como “Consciência e realidade nacional”, “Ciência e existência”, “El conocimiento crítico en demografia” e “Sete lições sobre a educação de adultos. Uma das mais importantes obras do autor, somente encontrada e publicada postumamente, é “O conceito de tecnologia”. Destacou-se pela crítica ao imperialismo e defesa do nacionalismo e desenvolvimentismo, tendo educação, trabalho, cultura e consciência como temas centrais de sua abordagem na defesa dos povos e nações do chamado Terceiro Mundo ou países em desenvolvimento.
Em “Ciência e existência” Álvaro Vieira Pinto apresenta sistematicamente suas concepções sobre a construção da sociabilidade humana, isto é, sua ontologia, desenvolvendo articuladamente conceitos como trabalho, técnica, ciência, tecnologia e cultura, como dimensões da sociabilidade intrinsecamente inter-relacionadas ao desenvolvimento do indivíduo e da sociedade. Aqui encontramos a síntese do arcabouço conceitual do autor acerca da inter-relação do trabalho, técnica, cultura, ciência e tecnologia como base da produção social da existência humana, explicativas tanto da singularidade da espécie humana, como da contínua transformação das sociedades humanas.
Álvaro Vieira Pinto é um crítico contundente das abordagens deterministas que atribuem à tecnologia a condição de “motor da história”, destacando o caráter ideológico e hierarquizante dessas concepções que funcionam como suporte das relações geopolíticas centro-periferia. Segundo o autor, não se trata de sacralizar ou demonizar uma suposta “era tecnológica”, mas sim de considerar os contextos históricos, culturais e sociais nos quais são produzidos e apropriados os conhecimentos científicos e tecnológicos, restituindo ao campo da ação humana e das relações sociais a produção e apropriação das diversas técnicas e tecnologias, sob formas de artefatos, saberes e fazeres, práticas cotidianas e processos produtivos.
Em “O conceito de tecnologia”(2005) destaca quatro significados principais do termo tecnologia: a) o primeiro significado, etimológico, apresenta a tecnologia em seu sentido primordial central, isto é, a epistemologia da técnica, isto é, “a teoria, a ciência, o estudo, a discussão da técnica, abrangidas nesta última noção as artes, as habilidades do fazer, as profissões e, generalizadamente, os modos de produzir alguma coisa” (p. 21); b) no segundo, em que a tecnologia aparece como sinônimo de técnica, temos a representação da linguagem de uso corrente, o senso comum onde não se exige rigor e em que as duas palavras, ou a sua variante know how, mostram-se intercambiáveis; c) a terceira acepção, relacionada à anterior, é usualmente empregada quando se deseja referir ou aferir comparativamente o grau de progresso das forças produtivas de determinada sociedade, em relação à outras ou à outros tempos históricos; dessa forma, tem-se “o conceito de tecnologia entendido como o conjunto de todas as técnicas de que dispõe uma sociedade, em qualquer fase histórica de seu desenvolvimento”(p. 22); d) por fim, o quarto significado, no qual a tecnologia é identificada como a “ideologia da técnica”.
Referindo-se criticamente a esta última acepção, o autor destaca a importância de situar a tecnologia no plano das ações humanas concretas, orientadas ao processo de humanização do mundo, mediante sua ação como sujeito concreto da história, em contraposição às abstrações que acabam por situar a discussão no nível do senso comum e a conferir um fetiche à técnica e à tecnologia em si mesmas, do que resulta o processo de ideologização.
Tendo em vista o exposto e seguindo a elaboração conceitual de Álvaro Vieira Pinto, concluímos que conceber plena especificidade e autonomia à tecnologia, ou seja, desgarrá-la das bases do processo social produtivo, leva à produção de uma espécie de “coisificação” da tecnologia em si e contribui com formas de alienação do ser social que a produz. Ao contrário disso, nossa posição conceitual é a de afirmar a tecnologia como essencialmente relacional, isto é, adotamos uma perspectiva histórico-antropológica para a compreensão da tecnologia. Sob esta perspectiva, sua produção e sua apropriação [da tecnologia] constituem processos imersos em construções sociais complexas, como forças intelectuais e materiais do processo de produção e reprodução social. Como processo social, a tecnologia participa e condiciona as mediações sociais, porém não determina por si só a realidade, não é autônoma, nem neutra e nem somente experimentos, técnicas, artefatos ou máquinas: é constituída por conjuntos de saberes, trabalhos e relações sociais objetivadas.
Portanto, mais que força material da produção, a tecnologia, como processo de intervenção do ser social, em sua ação com os demais e sobre o meio, indissociável das práticas sociais cotidianas, em seus vários campos/diversidades/tempos e espaços, assume uma dimensão sociocultural, uma centralidade geral, e não específica, na sociabilidade humana. A nosso ver, esta compreensão da tecnologia e de suas inter-relações com as demais dimensões da sociabilidade humana, em uma perspectiva de totalidade e historicidade, é fundamental para o enfrentamento das questões atuais que envolvem o trabalho, a ciência e a tecnologia, dentre elas, as possibilidades e limites epistemológicos, tecnológicos, produtivos e ético-políticos da sustentabilidade da vida e da formação e ação humana no contexto da chamada inteligência artificial.
Referencias
FREITAS, Marcos Cezar de. Álvaro Vieira Pinto: a personagem histórica e sua trama. São Paulo, Cortez, 1998.
LUKÁCS, Gyorgi. Para uma Ontologia do Ser Social I. São Paulo, Boitempo, 2012,
PINTO, Álvaro Vieira. Ciência e existência: problemas filosóficos da pesquisa científica. Rio de Janeiro, Paz e Terra, 1969.
PINTO, Álvaro Vieira. Consciência e realidade nacional. Rio de Janeiro, ISEB, 1960.
PINTO, Álvaro Vieira. O conceito de tecnologia. Vol. 1. Contraponto, Rio de Janeiro, 2005.
La (In)certidumbre de la Escritura Académica en la Era de la Inteligencia Artificial
Palabras clave: Escritura académica, Revoluciones de la palabra, Inteligencia Artificial Generativa, Didáctica textual, Ética de la IA.
Resumen
La irrupción de las inteligencias artificiales generativas (IAGen) como ChatGPT, ha desencadenado una nueva revolución de la palabra, teniendo amplio impacto en la escritura académica. Un panorama (in)cierto de oportunidades y desafíos. La presente ponencia busca analizar las tensiones emergentes en la academia ante esta nueva realidad, examinando algunas implicaciones éticas, didácticas y estéticas de las IAGen en la producción y difusión del conocimiento en los contextos universitarios
Las tecnologías han transformado las formas de pensar, crear y compartir conocimiento, las historias de la lectura y la escritura nos cuentan su evolución desde las pinturas rupestres, las tablillas de cera, la invención del papel, luego la revolución de la imprenta, hasta nuestro presente de textos digitales. Las IAGen, como productos de la innovación humana contemporánea, no son entidades ajenas a esta historia de la palabra, generando experiencias que conviene comprender y utilizar con responsabilidad.
La amplia capacidad para la generación de textos, que puede ser palabra escrita o hablada, imágenes o videos, con velocidad y precisión sin precedentes, representa un potencial transformador que no puede reducirse a un mero avance técnico, sino que, como lo menciona David Buckingham, especialista inglés en tecnologías de la comunicación y educación, “las computadoras y otros medios digitales son tecnologías de representación: son tecnologías sociales y culturales que no pueden ser consideradas meras herramientas neutras para el aprendizaje.”(2012, p. 13-14). En esta ponencia se argumenta que la IAGen, entra en convergencia con la labor intelectual, como acciones humanas mecanizadas y matematizadas que, como ocurrió con anteriores revoluciones de la palabra, transforman la manera de producción de la palabra y por tanto el pensamiento.
La escritura marcó un giro radical en la cultura y en la formación del pensamiento, tanto que la imprenta y las computadoras, actualmente son herederas de esta innovación, amplificando y continuando su legado. ¿Qué forma y caracterización del pensamiento emergió con la escritura? Con la escritura, la información se objetiva, se pone fuera del cuerpo humano, generando así una separación, cierta distancia, un afuera del pensamiento, una cierta autonomía del discurso ante su autor, al cual no se le puede refutar su discurso directamente (Ong, 1987, p. 81); una autonomía que permite la portabilidad y movilidad sin la presencia del cuerpo del autor. (López, 2020, p. 16)
La revolución de la palabra generada por las IAGen tiene como consecuencia que se repiense, que se vuelva a hacer las preguntas por la autoría, la creatividad y la autenticidad en la investigación académica. Estas preguntas asocian en primer lugar las ventajas para la escritura, valorando positivamente su incidencia:
Aceleración de procesos de investigación: las IAGen pueden sintetizar información y generar contenido de forma rápida, lo que agiliza el trabajo de los investigadores.
Democratización del acceso al conocimiento: aunque no es una novedad de las IA, pues la imprenta sería la primera gran revolución de la palabra que democratizó el conocimiento, las IAGen facilitan el acceso a la información y la creación de contenido. Aquí, es importante anotar la necesidad de mayor alfabetización informacional.
Colaboración humano-máquina: la historia humana está llena de ejemplos de este tipo de colaboración, que tiene implicaciones ontológicas; las IAGen abren nuevas posibilidades para la colaboración en la investigación, donde la inteligencia humana y la artificial se complementan.
En segundo lugar, el uso de la IA en la escritura académica también plantea desafíos éticos que deben abordarse con cautela:
Plagio y falta de originalidad: la facilidad para generar contenido con IAGen plantea preocupaciones sobre la autenticidad y la propiedad intelectual, una preocupación con carácter de urgencia en universidades y la cultura letrada. Teniendo en cuenta que la IAGen participa de la creación de contenidos textuales, se hace necesario reevaluar los criterios tradicionales de plagio y originalidad.
Dependencia excesiva de las IAGen: la dependencia excesiva de las IAGen puede socavar el pensamiento crítico y la capacidad de análisis independiente. La pregunta por la naturaleza de la inteligencia y su relación con las máquinas también es crucial, la automatización de tareas, por impresionante que sea, no equivale necesariamente a inteligencia. Es necesario un análisis crítico de la idea de "inteligencia artificial" y sus implicaciones para la comprensión de la mente humana y la naturaleza de la inteligencia.
Ante estas ventajas y desafíos, la educación juega un papel crucial en la integración ética y responsable de las IAGen en la escritura académica. Hasta este momento solo Europa ha legislado los sistemas de IA, siendo la Unión Europea la que ha proclamado la primera ley en el mundo que regula estas tecnologías y, las universidades europeas generaron marcos legales y éticos de uso. En términos educativos, como señala Stefania Giannini, subdirectora general de Educación de la UNESCO, el desafío no radica en cómo la IA cambiará la educación, sino en cómo la educación moldeará la integración ética y responsable de estas tecnologías.
La escritura académica se encuentra en la necesidad de construir un nuevo equilibrio entre lo tecnológico, la didáctica textual, lo ético y lo estético. Reconocer el potencial de las IAGen no implica renunciar a nuestra responsabilidad como pensadores, educadores e investigadores. Por el contrario, exige un esfuerzo por integrar estas tecnologías de manera que potencien nuestra capacidad de crear conocimiento significativo, sin perder de vista los valores didácticos, éticos y estéticos que la escritura académica ha cultivado durante siglos. En esta línea, por ejemplo, es importante la coexistencia de la cultura impresa y la cultura digital.
La escritura académica atraviesa un momento crucial de transformación, una nueva revolución de la palabra donde la IAGen presenta oportunidades como desafíos. Es fundamental abordar esta nueva realidad con una perspectiva crítica equilibrada, integrando las IAGen de manera responsable para potenciar la creación de conocimiento significativo, sin comprometer, a riesgo de hacer desaparecer valores que han caracterizado la escritura académica. La reflexión sobre el papel de la escritura se hace continua y, la era digital punzantemente exige nuestra reflexión, para construir un futuro donde las tecnologías sirvan a la humanidad al menor costo o riesgo posible.
Referencias
Buckingham, D. (2012). Más allá de la tecnología. Aprendizaje infantil en la era de la cultura digital. Buenos Aires: Manantial.
Carrión, J. y Taller Estampa. (2023). Los campos electromagnéticos. Teorías y prácticas de la escritura artificial. Buenos Aires: Caja Negra.
Coeckelbergh, M. (2021). Ética de la Inteligencia Artificial. Madrid: Cátedra
Mata, V. (2018). Plagie copie manipule robe reescriba este libro. México: Comisura.
Ong, W. (1987). Oralidad y escritura. Tecnologías de la palabra. Buenos Aires: Fondo de Cultura Económica.
Sanguinetti, P. (2023). Tecnohumanismo. Por un diseño narrativo y estético de la inteligencia artificial. España: La Huerta Grande.
Podcasts: Un formato emergente para la educomunicación en la era de las Inteligencias Artificiales Generativas.
Palabras clave: Podcast, Educomunicación, Inteligencia Artificial Generativa, Narrativas digitales, Investigación-creación.
Resumen
En la sociedad actual, marcada por la omnipresencia de las tecnologías digitales y la constante evolución de las formas de aprender y enseñar, los podcasts emergen como una herramienta innovadora con un gran potencial para transformar el panorama educativo. Esta ponencia explora la relación simbiótica entre los medios de comunicación, las tecnologías digitales, incluyendo el uso de Inteligencias Artificiales Generativas (IAGen), con la educación, destacando al podcast como un formato disruptivo que se erige como una herramienta poderosa para la educomunicación.
Se presenta como caso de estudio un producto educomunicativo, el podcast titulado ComúnMente, un contenido de investigación-creación que articula prácticas educativas tradicionales como la producción de textos tipo guion y guías pedagógicas, con prácticas educativas alternativas como la experimentación sonora que hace uso de inteligencias artificiales para dar voz a personajes y en la creación de audios.
El impacto de las tecnologías digitales en la educación es innegable. La globalización y el auge de la información han reestructurado las formas tradicionales de enseñanza y aprendizaje. Las instituciones educativas se ven desafiadas a adaptarse a este nuevo contexto, donde la información fluye a través de múltiples canales y el aprendizaje se extiende más allá de las aulas.
En este escenario, los podcasts se presentan como una herramienta valiosa para la educomunicación. Su formato accesible, flexible y atractivo, adaptado a las necesidades y hábitos de consumo actuales, permite a los estudiantes acceder al conocimiento de forma asíncrona, en cualquier momento y lugar.
Los podcasts no solo rompen con las limitaciones de los formatos predefinidos, sino que establecen las bases para una gramática narrativa específica, marcada por la innovación, la adaptabilidad y la interacción constante entre creadores y audiencias. Esta capacidad de generar narrativas atractivas y cautivadoras es fundamental para el éxito de los podcasts educativos. La integración de la inteligencia artificial generariva (IAGen) en la producción de podcasts amplía aún más sus posibilidades. Las IAGen pueden utilizarse para dar voz a personajes, crear audios y generar imágenes, lo que aporta una perspectiva única y novedosa a la experiencia.
El podcast "ComúnMente", un producto de investigación-creación de la Universidad del Quindío, ejemplifica el potencial de este formato para la educomunicación. Este podcast, que aborda en su primera temporada el tema de la lectura desde diversas disciplinas, integra un personaje de IA llamado "Mente" y utiliza la IAGen para crear cortinas sonoras e imágenes.
"ComúnMente" se emite a través de la emisora universitaria UFM Estéreo 102.1 y también se transmite en Spotify a través del canal Zoom, lo que amplía su alcance a diferentes regiones del mundo. El proyecto "ComúnMente" va más allá de la simple transmisión de contenidos. Ofrece recursos adicionales para el aprendizaje, como fichas pedagógicas que proporcionan una visión general de la estructura, los objetivos y los recursos pedagógicos utilizados en cada episodio.
El proyecto tiene propósitos educativos más allá de los comunicativos, por ello dispone de un recurso adicional para el aprendizaje que son las fichas pedagógicas. Este contenido sonoro ha sido desarrollado para enriquecer y expandir la experiencia de aprendizaje que ofrece el programa. La ficha proporciona una visión de la estructura, objetivos, y recursos pedagógicos utilizados en cada episodio de la serie. Esta ficha se compone de distintas secciones que abarcan desde una breve sinopsis del episodio hasta una descripción de su contenido y objetivos. Contiene los puntos clave abordados por los anfitriones y expertos, así como también las actividades sugeridas para profundizar en el conocimiento. En ella podrán aparecer referencias teóricas, pero, también, elementos propios de la narrativa digital como memes o enlaces a piezas multimedia.
Los podcasts se posicionan como un formato emergente con un gran potencial para transformar la educación en la era digital. Su accesibilidad, flexibilidad y capacidad para integrar narrativas innovadoras y el uso de IAGen los convierten en una herramienta poderosa para la educomunicación en una época marcada por la mediación comunicativa.
La articulación entre medios de comunicación, tecnologías digitales, educación e investigación-creación abre un nuevo horizonte para la producción de contenidos educativos que apoyen los procesos de formación y de divulgación del conocimiento y al respecto el uso de IAGen tanto como personajes asistentes y el uso como herramienta para la creación del contenido, pone la producción de recursos académicos digitales en una nueva versión.
Los podcasts no pretenden reemplazar los formatos escolares tradicionales, sino que se presentan como una herramienta complementaria que enriquece y diversifica las opciones de aprendizaje. La integración de los podcasts en el ámbito educativo requiere una reflexión sobre las metodologías de enseñanza y aprendizaje, así como la formación de los docentes en el uso de estas nuevas herramientas.
El futuro de la educación está marcado por la innovación y la adaptación a las nuevas tecnologías, incluyendo allí las IAGen. Los podcasts, con su capacidad para conectar con las nuevas generaciones y ofrecer una experiencia de aprendizaje dinámica y atractiva, se presentan como un elemento clave en este proceso de transformación.
Referencias
Buckingham, D. (2007). Educar para los medios en tiempos de incertidumbre digital. Comunicar, 15(29), 9-14.
Ferrés, J., & Piscitelli, A. (2012). La competencia mediática: Propuesta articulada de dimensiones e indicadores. Comunicar, 19(38), 75-82.
Kaplún, M. (2002). Una pedagogía de la comunicación. Ediciones de la Torre.
Moreno-Cubillos, D. (2020). *El uso del podcast en la educación superior: experiencias y reflexiones*. Revista de Tecnología Educativa, 18(2), 98-110.
Sanguinetti, P. (2023). Tecnohumanismo. Por un diseño narrativo y estético de la inteligencia artificial. España: La Huerta Grande.
Subjetividad en disputa: Perspectivas filosóficas y neurocientíficas
Palabras clave: Subjetividad, consciencia, sef-awareness, self-consciousnees, interocepción,
Resumen
En años recientes, desde el campo de las neurociencias, se ha propuesto que la atención a distintos procesos biológicos y neurobiológicos relacionados a la afectividad y nuestras sensaciones corporales permiten iluminar nuestra comprensión de la subjetividad. La apuesta es que la investigación empírica a estos niveles permitirá establecer las condiciones que se encuentran en la base o subyacen al desarrollo de las experiencias subjetivas. Dentro de este marco naturalizado, y apoyándose en propuestas corporizadas y afectivas de la consciencia, se postulan hipótesis que proponen indagar por las raíces de la experiencia subjetiva a través de aspectos más fundamentales de nuestra vida consciente. Autores como Damasio, Craig, Carvalho, Solms, entre otros, postulan la relevancia que presenta nuestro sistema interoceptivo a la hora de explicar los procesos subyacentes a la génesis de la consciencia subjetiva. En sus hipótesis se presta particular atención a la parte visceral del cuerpo vinculado con los elementos neurales a los que se asocia tradicionalmente la formación de los estados conscientes. La aceptación de esta hipótesis no se basa únicamente en la evidencia empírica disponible, sino también en la forma en que conceptualizamos la noción de subjetividad.
Desde la filosofía el concepto subjetividad se presenta como un concepto intrínsecamente elusivo, cuya definición precisa es difícil de establecer. Algunos autores asumen una relación de sinonimia entre subjetividad y consciencia, otros lo vinculan necesariamente a la noción de yo, mientras que algunos consideran que la subjetividad es mucho más previa y básica.
En su artículo "Twelve Varieties of Subjectivity" (2002), de Soussa lleva a cabo un ejercicio de clasificación, al que denomina "botánico", del concepto de subjetividad. Este análisis categoriza diversas afirmaciones sobre la subjetividad según los rasgos o características que se le han atribuido en la literatura filosófica. Por ejemplo, agrupa bajo el término "Perspectiva" aquellas posturas que consideran la subjetividad como la posesión de un punto de vista particular, como lo hacen Searle, Nagel y Proust, a menudo vinculando la subjetividad con el yo. De manera similar clasifica doce maneras en las que se ha entendido la noción de subjetividad.
El análisis llevado a cabo por de Soussa, además de hacer palpable lo evidente, esto es, la polisemia del término , subraya que esta diversidad de significados tiene consecuencias directas en una teoría sobre lo mental. Por ejemplo, considerar la subjetividad en términos de "Agencia" sugiere que es un fenómeno privativo de los seres humanos, mientras que el enfoque de la subjetividad como "Perspectiva" permite atribuir este fenómeno a otros animales e incluso a objetos; por supuesto, salta la pregunta sobre si también se les puede atribuir algún sentido de yo.
Es mi interés en este trabajo dar desarrollo a la pregunta ¿cómo debemos conceptualizar la “subjetividad” atendiendo las nuevas perspectivas de las neurociencias afectivas de la consciencia? A partir de esta pregunta buscaré desarrollar una caracterización naturalizada de “subjetividad” que conserve el núcleo de las preocupaciones filosóficas y que al mismo tiempo permita recuperar los nuevos aportes de los estudios empíricos. En este sentido, intentaré mostrar que una noción más básica y menos conceptual de subjetividad puede resultar fructífera para avanzar en la comprensión de este fenómeno, ayudando a superar puntos en los que las discusiones se han tornado estériles.
Referencias
Carvalho, G. B., & Damasio, A. (2021). Interception and the origin of feelings: A new synthesis. BioEssays, e2000261.https://doi.org/10.1002/bies.202000261
Craig AD (2009) How do you feel - now? The anterior insula and human awareness.
De Sousa, R. (2002a). "Twelve varieties of subjectivity." In Jesus M. Larrazabal (ed.), Proceedings of the Sixth International Colloquium on Cognitive Science. Dordrecht, Kluwer. Nature 10: 59–70.
Seth, A. (2021) Being You: A New Science of Consciousness, London: Penguin.
Solms, M. (2021) The Hidden Spring: A Journey to the Source of consciousness, London: Profile Books.
La conexión de causalidad como una conexión de herencia
Palabras clave: causalidad; conexión de herencia; Lógica de Herencia; posibilidad; teoría de los modelos mentales
Resumen
Mucho se ha escrito acerca de la causalidad en filosofía. En la literatura filosófica, podemos encontrar desde libros como el de Hume (1978) hasta capítulos como el de Mumford (2010). No obstante, yo me centraré en una teoría psicológica sobre el razonamiento que puede ser tratada computacionalmente: la teoría de los modelos mentales. De hecho, existen propuestas de programas computacionales basados en ella (p.ej., Johnson-Laird, Byrne, & Khemlani, 2023).
Dicha teoría ha sido desafiada (Na Wang & Pengfei Yin, 2023). Tal desafío hace referencia a varias críticas. Una de ellas es que la conexión causal en la teoría de los modelos mentales está vinculada a las mismas posibilidades o modelos que el condicional. Esto se ve como un problema porque conduce a asumir que existe una conexión causal entre cualesquiera dos fenómenos a los que podamos atribuir esas posibilidades o modelos (considerándose que uno de los fenómenos ocurre antes que el otro). Por tanto, se puede pensar que la teoría de los modelos mentales necesita clarificar lo que es realmente una relación causal entre dos hechos (Na Wang & Pengfei Yin, 2023).
Mi propuesta es complementar la explicación de la teoría de los modelos mentales (véase también, p.ej., Johnson-Laird, 2023) con el marco de la Lógica de Herencia (Inheritance Logic; p.ej., Pei Wang, 2013). En la Lógica de Herencia (IL), la cual es el esqueleto lógico de un programa informático que trata de simular la manera en que razonan los seres humanos (NARS = Non-Axiomatic Reasoning System; véase, p.ej., Pei Wang, 2013), existen relaciones de herencia entre conceptos. Para solucionar el problema de la teoría de los modelos mentales, podemos suponer que hay conexiones de herencia entre los conceptos correspondientes a los hechos indicados en las relaciones causales.
La ponencia tendrá tres partes. En la primera, describiré la explicación de la teoría de los modelos mentales acerca de la conexión causal y la crítica que ha sido presentada contra la misma. En la segunda, comentaré el concepto de herencia en IL. En la parte final, intentaré mostrar cómo dicho concepto puede ayudar a responder a la crítica contra la causalidad en la teoría de los modelos mentales.
Referencias
Hume, D. (1978). A Treatise of Human Nature. Oxford, UK: Oxford University Press. https://doi.org/10.1093/actrade/9780198245872.book.1
Johnson-Laird, P. N. (2023). Possibilities and human reasoning. Possibilities Studies & Society. https://doi.org/10.1177/27538699231152731
Johnson-Laird, P. N., Byrne, R. M. J., & Khemlani, S. (2023). Human verifications: Computable with truth tables outside logic. Proceedings of the National Academy of Sciences, 120(40), e2310488120. https://doi.org/10.1073/pnas.2310488120
Mumford, S. (2010). Causal powers and capacities. IN H. Beebee, C. Hitchcock, & P. Menzies (Eds.), Oxford Handbook of Causation (pp. 265-278). Oxford, UK: Oxford University Press. https://doi.org/10.1093/oxfordhb/9780199279739.003.0013
Wang, Na & Yin, Pengfei (2023). The dilemma faced by the causal determinism of the mental model theory. Psychologia. https://doi.org/10.2117/psysoc.2021-A172
Wang, Pei (2013). Non-Axiomatic Logic: A Model of Intelligent Reasoning. Singapore: World Scientific. https://doi.org/10.1142/8665
Laboratorio de Inteligencia Artificial de la UAM Azcapotzalco
Palabras clave: filogénesis, investigación en la IA, conocimiento
Resumen
El Laboratorio de Inteligencia Artificial es producto de un proyecto de investigación, que el Dr. Oscar Lozano Carrillo y el Dr. Alfredo Garibay Suarez inscribieron desde hace más de un año en el Consejo Divisional de Ciencias Sociales y Humanidades de la UAM Azcapotzalco.
El papel de la IA en la Gestión de Empresas y Organizaciones
La IA se utiliza en varios aspectos de la gestión organizacional. En Recursos Humanos, por ejemplo, la IA ayuda en la contratación automatizada, a través de sistemas que pueden rastrear y seleccionar curriculums de candidatos basándose en parámetros definidos, lo que permite un proceso de contratación eficiente.
En el campo del Servicio al Cliente, los chatbots impulsados por la IA están revolucionando la forma en que las empresas interactúan con sus clientes. Pueden responder a consultas comunes las 24 horas del día, liberando a los humanos para que se ocupen de problemas más complejos.
La IA también tiene un papel significativo en La Toma de Decisiones Estratégicas. Los algoritmos de aprendizaje automático pueden analizar grandes cantidades de datos para detectar patrones y tendencias que pueden no ser evidentes para los analistas humanos. Esto puede ayudar a los líderes empresariales a tomar decisiones más informadas.
Desafíos y Consideraciones Éticas
A pesar de estos beneficios, la adopción de la IA también presenta desafíos .Estos incluyen la necesidad de infraestructuras de datos adecuadas, la inversión en nuevas tecnologías y habilidades y la gestión del cambio organizacional. Además la IA plantea importantes consideraciones éticas. Por ejemplo, la automatización puede llevar a la pérdida de empleos y los sistemas de IA pueden estar sesgados en sus decisiones si los datos en los que se entrenan son segados.
Objetivo(s) General(es):
Analizar y describir la naturaleza e impacto de la Inteligencia Artificial en la Gestión e Intervención de las Organizaciones de México y el mundo.
Objetivo(s) Específico (s):
Objetivo 1: Comprender el estado actual de la Inteligencia Artificial en la gestión y la intervención en organizaciones y empresas (Teórico)
Examinar la literatura existente sobre el uso de la inteligencia artificial en la gestión empresarial y organizacional para entender los fundamentos teóricos, los enfoques adoptados y los hallazgos actuales.
Objetivo 2: Analizar las principales oportunidades y desafíos que presenta la implementación de la IA en la gestión organizacional (Práctico)
Identificar y discutir las áreas de gestión empresarial donde la IA puede tener un impacto significativo, y los desafíos que podrían surgir en el proceso de implementación. Esto podría incluir áreas como toma de decisiones, optimización de procesos, servicio al cliente, gestión de recursos humanos, entre otros.
Objetivo 3: Desarrollar una metodología para evaluar el impacto de la Inteligencia Artificial en las operaciones de las empresas (Metodológico)
Diseñar una metodología robusta que permita evaluar de manera cuantitativa y cualitativa el impacto de la implementación de IA en diferentes aspectos de la gestión de las organizaciones. Esto podría incluir el desarrollo de métricas, encuestas, entrevistas, análisis de casos de estudio, etc.
Objetivo 4: Proponer un marco teórico-práctico para la integración efectiva de la Inteligencia Artificial en la gestión y la intervención de las organizaciones (Teórico-Práctico)
Basándose en los hallazgos de los primeros tres objetivos, proponer un marco que las organizaciones puedan usar para integrar efectivamente la IA en sus operaciones y estrategias de gestión.
Objetivo 5: Realizar un estudio piloto de la implementación de la Inteligencia Artificial en una organización (Práctico-Metodológico)
Aplicar la metodología desarrollada en el Objetivo 3 en un entorno empresarial real, con el objetivo de probar y refinar la metodología y, al mismo tiempo, proporcionar un ejemplo práctico de cómo la IA puede ser utilizada en la gestión y la intervención de las organizaciones.
Definición, contexto y justificación de la perspectiva analítica:
La Inteligencia Artificial (IA) está transformando rápidamente el mundo en el que vivimos, y su estudio es crucial por varias razones:
Innovación Tecnológica: La IA es una de las fuerzas impulsoras de la innovación tecnológica actual. Está cambiando la forma en que trabajamos, cómo interactuamos con la tecnología, y cómo las empresas y organizaciones funcionan. Comprender la IA nos ayuda a entender y participar en esta ola de innovación.
Impacto en la Economía: La IA tiene el potencial de generar una enorme riqueza económica a través de la automatización y la optimización de los procesos. Las empresas que entienden y adoptan la IA tienen más probabilidades de prosperar en la economía actual.
Empleo y Habilidades: A medida que la IA se vuelve más prevalente, también lo hace la demanda de habilidades relacionadas con la IA. El estudio de la IA proporciona habilidades que son cada vez más valiosas en el mercado laboral.
Decisiones Informadas: La IA está siendo utilizada para tomar decisiones en una amplia gama de áreas, desde la atención médica hasta las finanzas y el gobierno. El estudio de la IA nos permite entender cómo se están tomando estas decisiones y nos proporciona las herramientas para evaluar si se están tomando de manera ética y justa.
Desafíos Éticos y Sociales: La IA plantea una serie de desafíos éticos y sociales, desde problemas de privacidad hasta el impacto de la automatización en el empleo. El estudio de la IA nos permite entender y abordar estos desafíos de manera efectiva.
El Futuro: Dado el rápido ritmo de desarrollo de la IA, es muy probable que se vuelva aún más integral en nuestras vidas en el futuro. Entender la IA es fundamental para prepararse para este futuro y tener una voz en cómo se forma.
Estudiar la inteligencia artificial nos permite entender y aprovechar sus beneficios, al tiempo que nos ayuda a navegar por sus desafíos. Es una herramienta esencial para cualquier persona que quiera participar activamente en el mundo del siglo XXI.
Referencias
Blanco, J.J. (2024, febrero). El impacto de la inteligencia artificial en el medio ambiente: desafíos y soluciones. Universo-IA.com. https://universo-ia.com/como-afecta-la-inteligencia-artificial-al-medio-ambiente/
Bostrom, N. (2014). Superinteligencia: Caminos, peligros, estrategias. Editorial Reverte.
Cloudmasters. (2023). Cómo la Inteligencia Artificial puede potenciar la sostenibilidad. https://www.cloudmasters.es/como-lainteligencia-artificialpuede-potenciar-la-sostenibilidad-guia-completa/
Georgieva, K. (2024). La economía mundial transformada por la inteligencia artificial ha de beneficiar a la humanidad. Blog FMI, 16.
ENDUTIH. (2023). Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares. Subsistema de Información Económica. https://www.inegi.org.mx/programas/endutih/2023/
Expansión. (2023, diciembre). El uso de la IA llega a los cuerpos miliares y cambia el campo de batalla. https://expansion.mx/tecnologia/2023/12/18/ inteligencia-artificial-en-industria-militar#:~:text=El%20uso%20de%20 la%20IA,cambios%20dr%C3%A1sticos%20en%20las%20guerras.
M
Estrategias de adopción de la ciencia abierta en la República Dominicana: beneficios y desafíos
Palabras clave: repositorios, CRIS, acceso abierto, colaboración científica, innovación, educación superior.
Resumen
La República Dominicana ha venido realizando esfuerzos significativos para mejorar su producción científica y difundir sus resultados de investigación. Sin embargo, a pesar de encontrarse en una etapa de crecimiento importante, persisten brechas en la implementación de una política sólida de ciencia abierta que plantee los estándares que sirvan de directrices a las instituciones que hacen investigación. Este movimiento, promovido por organismos internacionales como la UNESCO (2021), enfatiza la necesidad de garantizar el acceso libre y equitativo al conocimiento científico, fomentando la colaboración, la transparencia y el desarrollo innovador.
En los últimos años, el país ha logrado algunos avances, como el desarrollo de revistas científicas, repositorios institucionales y portales de bibliotecas digitales. No obstante, más del 70 % de las instituciones de educación superior (IES) y centros de investigación aún no se han apropiado plenamente de los principios y prácticas de la ciencia abierta o, al menos, la transformación digital de sus sistemas de gestión de conocimientos. Esta que podría ser una debilidad visible, también representa una oportunidad para adoptar mejores prácticas y acelerar la integración de estas directrices en el ecosistema de investigación del país.
La presente ponencia propone estrategias prácticas que ayuden a las IES e instituciones de investigación dominicanas a implementar de manera apropiada las directrices de la ciencia abierta. Las estas estrategias que abordaremos incluyen:
Fortalecimiento de los sistemas de investigación: Incorporar plataformas como los Sistemas de Información de Investigación (CRIS) para centralizar y gestionar datos de investigación.
Ampliación de repositorios de acceso abierto: Garantizar que los resultados de investigación financiados con recursos públicos estén disponibles para todos, promoviendo la creación de repositorios interoperables según los estándares internacionales (Budapest Open Access Initiative, 2002).
Impulso a las revistas científicas locales: Apoyar su inclusión en bases de datos indexadas para aumentar la visibilidad internacional de las publicaciones dominicanas.
Uso estratégico de redes sociales académicas: Potenciar la colaboración y la difusión de investigaciones a través de plataformas como ResearchGate o Academia.edu.
Desarrollo de políticas públicas: Diseñar marcos regulatorios y programas de capacitación en ciencia abierta que incluyan talleres y guías de mejores prácticas para las IES.
Se resaltarán los beneficios de estas acciones para el fortalecimiento de la ciencia en el país e impacto en la región del Caribe, donde la ciencia abierta puede actuar como un catalizador del desarrollo sostenible e innovador. Además, se analizarán casos exitosos en otras naciones que han adoptado estas estrategias, demostrando cómo la ciencia abierta ha impactado positivamente en sus sistemas de investigación y generado un entorno propicio para la innovación.
El alcance de esta ponencia incluye destacar los pasos favorables que la República Dominicana ya ha dado en el despliegue de plataformas de acceso abierto y cómo las IES que aún no han iniciado este proceso pueden beneficiarse de las mejores prácticas de otras instituciones. Asimismo, se subrayará la necesidad de fomentar una cultura de colaboración científica y transparencia que posicione al país como un referente en la región.
Referencias
Budapest Open Access Initiative. (2002). Declaration. Recuperado de https://www.budapestopenaccessinitiative.org
UNESCO. (2021). Recomendación sobre la Ciencia Abierta. Recuperado de https://unesdoc.unesco.org
Bartling, S., & Friesike, S. (2014). Opening Science: The Evolving Guide on How the Internet is Changing Research, Collaboration and Scholarly Publishing. Springer.
Suber, P. (2012). Open Access. MIT Press.
European Commission. (2016). Open Innovation, Open Science, Open to the World: A Vision for Europe. Recuperado de https://op.europa.eu
Pacheco-Mendoza, J., & Alhuay-Quispe, J. (2020). Ciencia abierta: Perspectivas y aplicaciones en América Latina. Revista Interamericana de Bibliotecología, 43(3), 313-320. Recuperado de https://revistas.udea.edu.co
Análises de corpos expandidos nas Performances contemporâneas
Palabras clave: Fenomenologia, ciencia e tecnologia.performance
Resumen
Um dos pontos fundamentais dessa pesquisa é mostrar como ponto de partida, a potência
transformadora dessa hibridização do corpo com as tecnologias, onde cumpre-nos a análise de que hibridização é essa, e em que termos ela pode ser desenvolvida e compreendida em forma de arte ação. Portanto nosso objeto principal é averiguar como se estabelece a relação do corpo com as tecnologias e de como pode caminhar esse processo de hibridização, principalmente no âmbito da atuação do corpo ‘Maquímico’. Esperamos que essa pesquisa que começa com a noção de corpo a partir da fenomenologia de Merleau-Ponty(2008), busque uma comunicação com estudiosos atuais da temática, em especial Don Ihde, em‘’Pòs fenomenologia (2011) com o conceito de’’embodiment’’ na relação entre eu,(objeto e mundo), que, no nosso entendimento expande o corpo nas novas tecnologias estabelecendo uma relação cada vez mais real e cotidiana com o nosso
mundo vivido. Com isso temos a pretensão de avaliar os limites e as aberturas decorrentes da perspectiva iniciada por esses filósofos, que pensaram explicitamente sobre as tecnologias e nos sugeriram um modelo de pensamento dentro de um terreno fértil da fenomenologia e da filosofia da arte para a temática dos artefatos que desenvolvem uma tecnologia como performance e ação de mundo, através das ações que os objetos em forma de próteses acoplados ao corpo realizam na minha experiência de entrada no mundo atual. Por isso a relação com as performances contemporâneas de Otávio Donaci(2002) onde artista e designer mostra essa relação explicitamente em suas atuações como performer. Onde deveremos responder a seguinte pergunta. Que corpo queremos ou desejamos com a incorporação das próteses como extensão e adesão de mundos.
Sabemos que envolve uma ética nesse sentido todo, mas vamos pontuar no sentido da tecnologia
Referencias
ARENDT, Hannah. A condição humana. 11. ed. Trad. Roberto Raposo. Revisão Técnica: Adriano Correia. Rio de Janeiro: Forense Universitária, 2010.
BRAIDA ,CELSO..A provocação dos Aparatos Tecnológicos ..in Filosofia e Educação, vol 6,no 3,Outubro de 2004 . In.https://periodicos.sbu.unicamp.br/ojs/index.php/rfe/article/view/1749/1804
BREY, P. Technology and embodiment in Ihde and Merleau-Ponty . In: Metaphysics, epistemology, and technology: Research in philosophy and technology. Ed. C. Mitcham. London:Elsevier/JAI Press, 2000.
COHEN, Renato. Performance como linguagem. São Paulo: Perspectiva, 1989.
CUPANI, ALBERTO. Filosofia da Tecnologia Um convite . Editora UFSC,2 edição,2013.234p.
IDHE, DON. Tecnologia e mundo da vida : Do jardim a terra. Editor a UFFS. Trad. Mauricio Fernado Bozatski .2009.
IDHE, DON, Postphenomenology and Technoscience: The Peking University Lectures. State University of New York Press, Albany, and Embodied Technics. Automatic Press/VIP, 2010.
La hermenéutica ante el desafío de la Inteligencia Artificial Generativa (IAG) y la era digital. Papel y función de la interpretación
Palabras clave: Hermenéutica, IAG, era digital, interpretación, sentido
Resumen
La hermenéutica ante el desafío de la Inteligencia Artificial Generativa (IAG) y la era digital. Papel y función de la interpretación
Dr. Edickson Minaya. Universidad Autónoma de Santo Domingo (UASD).
Introducción: Planteamiento del problema y temas a desarrollar
En la era digital, la inteligencia artificial generativa (IAG) ha transformado radicalmente el acceso, producción y circulación de la información, planteando nuevos desafíos epistemológicos, éticos y ontológicos. En este contexto, la hermenéutica, como disciplina filosófica centrada en el “arte” y la reflexión de la interpretación, se encuentra ante la tarea urgente de redefinir su papel y función. ¿Cómo puede la hermenéutica responder al impacto de tecnologías que no solo almacenan y procesan información, sino que también producen significados de manera aparentemente autónoma? ¿Qué ocurre con el horizonte interpretativo humano cuando los algoritmos generan textos, imágenes o narrativas que emulan la creatividad humana?
El problema central se sitúa en el desplazamiento de la agencia interpretativa tradicionalmente asociada al sujeto o intérprete hacia sistemas automatizados, lo que desafía categorías clave como autoría, intencionalidad y sentido. En este marco, la presente reflexión aborda tres temas interrelacionados:
El impacto de la IAG en los fundamentos de la hermenéutica contemporánea.
La función de la interpretación en un entorno donde el flujo de información es masivo, acelerado y generado artificialmente.
Las posibilidades y limitaciones de la hermenéutica como marco crítico para evaluar los efectos culturales, sociales y éticos de la era digital.
Desarrollo: Encuadre teórico-metodológico y análisis de la información
Encuadre teórico-metodológico
El análisis se sitúa en el cruce entre la tradición hermenéutica filosófica y los estudios sobre tecnología y cultura digital. Desde la perspectiva de autores como Hans-Georg Gadamer, Gianni Vattimo, Paul Ricoeur y Andrés Ortiz-Osés, la hermenéutica ha insistido en que toda comprensión es un proceso situado históricamente, mediado por lenguajes y precomprensiones. Este marco dialoga con conceptos contemporáneos como la "lógica de la programación" (Manovich) y el "giro algorítmico" (Ullman), que describen cómo los entornos digitales están configurados por operaciones automáticas de generación de significado.
Metodológicamente, se emplea un enfoque crítico-hermenéutico que articula análisis conceptual con estudio de casos, como las aplicaciones de la IAG en el campo de la creación artística, la traducción automática y la generación de conocimiento en entornos académicos.
Análisis de la información
El impacto de la IAG en la hermenéutica
La aparición de herramientas como ChatGPT, DALL·E y otros sistemas generativos plantea preguntas sobre la autenticidad y la intencionalidad del discurso producido. Desde la perspectiva hermenéutica, estas tecnologías no operan bajo un horizonte de comprensión, sino bajo un esquema probabilístico basado en patrones lingüísticos y contextuales. Esto cuestiona la idea gadameriana de que la interpretación emerge de un diálogo entre horizontes (Horizontverschmelzung), dado que el "horizonte" de la IAG carece de historicidad y finitud humanas.
Función de la interpretación en la era digital
La interpretación en el contexto digital ya no es un proceso exclusivamente humano. Algoritmos diseñados para analizar tendencias, clasificar datos o generar textos replican prácticas interpretativas tradicionales. Sin embargo, carecen de la capacidad reflexiva y crítica inherente al pensamiento humano. Aquí, la hermenéutica debe reconfigurarse no como competencia frente a la IAG, sino como marco crítico que permita discernir entre significado generado y significado interpretado.
Evaluación ética y cultural
La hermenéutica aporta herramientas clave para evaluar los efectos de la IAG en la cultura contemporánea. En línea con Vattimo, quien subraya el carácter interpretativo y plural de la posmodernidad, podemos leer la proliferación de discursos generados artificialmente como una expresión de la multiplicidad, pero también como una amenaza de homogeneización si no se regula adecuadamente la autoría y autenticidad de los contenidos.
Conclusiones: Principales hallazgos y asuntos pendientes
La reflexión hermenéutica sobre la inteligencia artificial generativa permite identificar varios hallazgos clave. Primero, las tecnologías generativas transforman los fundamentos de la interpretación al trasladar parte de la producción de significado a sistemas no humanos. Esto exige una redefinición del papel del intérprete humano, que ahora se enfrenta al desafío de distinguir entre significados auténticos y simulados. Segundo, la hermenéutica sigue siendo relevante como marco crítico, ya que aporta herramientas para evaluar éticamente el impacto de estas tecnologías en la cultura y la sociedad. Tercero, la era digital requiere una hermenéutica tecnológicamente informada que aborde cuestiones de intencionalidad, responsabilidad y autenticidad en el discurso generado por máquinas.
Sin embargo, permanecen asuntos pendientes. Es necesario profundizar en la relación entre las capacidades algorítmicas y los límites del lenguaje humano, así como explorar cómo las comunidades interpretativas pueden adaptarse y resistir la creciente influencia de sistemas generativos. Finalmente, se abre un campo de investigación sobre cómo la hermenéutica puede contribuir al diseño ético de tecnologías de inteligencia artificial que respeten la pluralidad y la historicidad del significado.
Referencias
Gadamer, H.-G. (1999). Verdad y método. Sígueme.
Ricoeur, P. (2023). El conflicto de las interpretaciones. Fondo de Cultura Económica.
Vattimo, G. (1996). La Sociedad transparente. Paidós.
Manovich, L. (2013). Software Takes Command: Extending the Language of New Media. Bloomsbury Academic.
Floridi, L. (2014). The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press.
Reflexiones en torno al transhumanismo y el carácter poético de la existencia
Palabras clave: Filosofía, Poesía, Hermenéutica, Pensamiento trágico.
Resumen
Una de las reflexiones que es de nuestro interés, es la relación del transhumanismo con el carácter poético de la existencia, ya que, si el transhumanismo se afirma en favor de la mejora de la tecnología y ciencia para mejorar las condición humana en cuanto a las limitaciones biológicas; la poesía y el pensamiento trágico se manifiestan por la afirmación de la existencia y observa la condición humana, pero no se interesa por el no envejecimiento, ni por la inmortalidad, por el contrario se afirma en el aquí y en el ahora, en la relación de saberse justamente humano, es decir: finito y mortal.
La relación poesía y transhumanismo parece que va en sentidos contrarios, mientras ciertas formas poéticas afirman la existencia, no se encuentra en la idea sobre las posibilidades biológicas para extender la vida, sino vivir las posibilidades de la propia estética de la existencia, esto al saberse parte de una existencia limitada.
Referencias
Martín Heidegger, ¿Qué significa pensar?, Terramar Ediciones. Argentina. 2005.
Martin Heidegger, Carta sobre el humanismo, Editorial Biblos, 2022.
Hans-George Gadamer, Verdad y Método, Ediciones Sígueme, España, 1977.
Jorge Luis Borges, El aleph, El mundo, unidad editorial, Madrid, 1999.
Friedrich Hölderlin, Fiesta de la paz, El áncora editores. Colombia. 1995.
Agroecología, un modelo bioaxiológico
Palabras clave: Agroecología, Bioaxiología, Complejidad, Bioeconomía, Sistemas vivos
Resumen
La axiología, de igual forma que la ética, han sido históricamente definidas desde una exclusiva preocupación por el ser humano. En este sentido, se trata de una orientación antropocéntrica y antropológica, de la cual resultó el antropomorfismo como rasgo histórico en occidente. No obstante, como lo señala Hans Jonas, «la naturaleza del actuar humano ha cambiado» (1998, pp. 21-22). Este cambio exige una resignificación no sólo del actuar humano, sino del mismo fenómeno humano. En efecto, las actuales crisis ecológica, del clima y de la biodiversidad obligan a pensar lo humano en términos de especie y, en consecuencia, conviviendo en un tejido de interacciones e interdependencia entre formas de vida. Desde este punto de vista, la viabilidad de lo humano en la Tierra se hace posible en la medida en que como especie (homo sapiens) oriente su convivencia en función de lo que ha favorecido el despliegue de la vida.
Pues bien, si ello es cierto, resulta crucial el estudio de valores y contravalores –bienes y males, respectivamente, de acuerdo a Echeverría (2007)– en diversos sistemas vivos y en la naturaleza, a fin de remontar la histórica tendencia antropocéntrica y antropomórfica que nos ha conducido a la presente situación de impase ético y moral con relación a la naturaleza y a la vida en general. Como lo señala Margulis y Sagan: «Aquellos que hablan en nombre del interés especial de la humanidad no aciertan a ver lo interdependiente que es la vida en la Tierra» (2001, p. 213). De manera general, se trata de aquellos bienes y males constitutivos de los sistemas vivos y de los procesos naturales que hacen posible la biosfera. En otros términos, se trata de una desantropomorfización de la ética que, en concordancia con Javier Echeverría, hemos denominado «bioaxiología».
Investigaciones previas nos han llevado a la agroecología, comprendiéndola como una ciencia de la vida que, guiando el obrar humano en función de la comprensión de los procesos naturales, del comportamiento de sistemas vivos y del buen funcionamiento del agroecosistema, constituye un ejemplar de agenciamiento basado en «impresiones y expresiones axiológicas» (Echeverría, 2007). Encontramos en la agroecología un agenciamiento bioaxiológico, orientado por aquellos valores que favorecen o acrecientan el potencial evolutivo de los socio-agroecosistemas. En tal sentido, se trata de un obrar siguiendo y comprendiendo las dinámicas complejas de los seres vivos que componen el ecosistema y su funcionamiento. La agroecología traduce el pilotaje de lo viviente en ecosistemas cultivados en función de bienes comunes, esto es, con arreglo a una comprensión de los patrones dinámicos del oikos (casa).
La metodología implementada ha desarrollado dos fases simultáneas. En primer lugar recurrimos a un estudio documental de conceptos, nociones o categorías, así como de teorías científicas aceptadas como, por ejemplo, la simbiogénesis desarrollada por Lynn Margulis (2001, 2003) ), la biosfera (Vernadsky, 1997), la bioeconomía (Georgescu-Rogen, 1996), entre otras. En esta primera fase, dados los resultados de investigaciones precedentes, optamos por dar continuidad a un enfoque axiológico pluralista, gradual, sistémico y situado, siguiendo la propuesta axiológica del filósofo español Javier Echeverría (2002; 2003, pp. 229-260; 2007). Esta clasificación sigue un cierto orden histórico en cuanto al desarrollo de cada subsistema, pero en ningún caso implica un orden de importancia relativa.
En segundo lugar, aplicamos una metodología empírica, centrada en trabajo de campo para el estudio de experiencias agroecológicas concretas bajo el enfoque de la interacción de los sistemas ciencia, tecnología y sociedad (CTS). Dado que nuestro trabajo se despliega en torno a la investigación cualitativa, conviene recordar que este tipo de investigación « se concentra ante todo sobre el análisis de los procesos sociales, sobre el sentido que las personas y los colectivos dan a la acción, sobre la vida cotidiana, sobre la construcción de la realidad social» (2005 p. 6). Es en este horizonte metodológico en que los estudios de CTS adquieren un particular interés teórico y práctico. Al respecto, es preciso aclarar que los estudios de CTS pretenden establecer, notablemente, «en qué medida y de qué forma distintos factores (valores de distinto orden, fuerzas económicas y políticas, culturas profesionales o empresariales, grupos de presión, movimientos sociales, etc.) configuran o influyen en el desarrollo de la ciencia y la tecnología» (Aibar & Quintanilla, 2012, p. 13). Se trata de factores que no se evalúan en general, sino en contextos concretos.
Ahora bien, el trabajo de campo se ha realizado con tres casos de implementación de prácticas agroecológicas en el departamento del Quindío. A través de la implementación de una entrevista semiestructurada y de registros fotográficos estudiamos las realizaciones axiológicas puestas en marcha con las prácticas agroecológicas. Si la agroecología es susceptible de estudiarse con enfoque CTS, es porque surge de una visión crítica del sistema tecnocientífico de producción agrícola basado en el modelo de la Revolución verde. Se trata de una crítica que resulta de comprender el lugar que pueden ocupar las sociedades, o comunidades específicas, en la resignificación de problemas tradicionales, en tanto, y al mismo tiempo, agencian nuevas y alternativas formas de abordarlos.
Finalmente, como síntesis de algunos resultados obtenidos, en contraste con la agricultura convencional proveniente de la Revolución verde, la agroecología incorpora la ecología como guía técnica y tecnológica, así como la equidad como inspiración social. No podría haber un llamamiento más claro para volver a formas de pilotaje de los procesos naturales, esto es, para pensar y actuar en torno a las funcionalidades de los ecosistemas y del comportamiento de los sistemas vivos. Ante todo, en la agroecología se comprende cada parcela cultivada como un ecosistema complejo.
Referencias
Aibar, E., y Quintanilla, M., A. (eds.) (2012). Ciencia, tecnología y sociedad. Madrid: Trotta.
Altieri, M., A (2001). Agroecología: principios y estrategias para diseñar sistemas agrarios sustentables. En : Sarandón, S., J. (dir.), Agroecología, el camino hacía una agricultura sustentable. Buenos Aires (Argentina) : Ediciones científicas americanas.
Echeverría, J. (2002). Ciencia y valores. Madrid: Destino.
Echeverría, J. (2003). La revolución tecnocientífica. Madrid: FCE.
Echeverría, J. (2007). Ciencia del bien y el mal. Barcelona: Herder.
Jonas, H. (1998). Le principe responsabilité. Manchecourt : Flammarion.
Margulis, L., y Sagan, D. (2001). Microcosmos. Cuatro mil millones de años de evolución desde nuestros ancestros microbianos. Barcelona: Tusquets.
N
Tecnociencia, entorno y sujeto tecnocientífico
Palabras clave: tecnociencia, razón pragmática, transformación social, virtud cívica
Resumen
Tecnociencia es un neologismo formado por composición a través de la contracción de la palabra tecnología y la palabra ciencia. El origen del término resulta algo confuso pues no existe una opinión homogénea sobre la paternidad del neologismo, el cual comenzó a utilizarse formalmente en textos académicos a finales de los años 70’s y principio de los 80’s. Desde cierta perspectiva, el fenómeno tecnocientífico es una nueva forma de producir conocimiento y transformar al mismo tiempo la realidad material, pero también social, que nos rodea. Es una nueva práctica caracterizada principalmente por sus pretensiones comerciales y mercantiles, y por ello por su estructura empresarial; por el predominio de la inversión privada por sobre la pública; por la pluralidad de agentes o actores que la componen; por la interdependencia y encadenamiento de estas comunidades de actores que la componen, y por el nivel de complejidad que ello implica; por su enfoque materialista pragmático-transformador, y con ello su lógica también pragmático-transformadora; por la pluralidad y conflicto, tanto de intereses y valores, que se contraponen a lo largo y ancho de esta práctica; por la innovación artefactual y los procesos industriales para producirla; por depender casi totalmente de las tecnologías de la informática y la comunicación, llegando incluso a tener a la informática como lenguaje común; por su característica estructura administrativa que implica cada vez más politización y burocratización en las decisiones y acciones de esta práctica; pero de manera muy particular, por ser la práctica productiva de mayor impacto social e individual conocida hasta ahora, a tal nivel de crear todo un entorno.
Se puede asegurar que el fenómeno tecnocientífico transforma en efecto la realidad cotidiana, pues no hay relación social que no esté mediada por elementos provenientes (y dependientes) de la actividad tecnocientífica. Pero lo preocupante es que, al transformar la realidad, al crear todo un entorno social, se transforma también al sujeto, creando un sujeto que podemos denominar “sujeto tecnocientífico” despojándolo ─entre otras cosas─ de su capacidad para relacionarse con el mundo que le rodea a través de alguna otra forma que no sea una relación instrumental. Esta transformación que la Técnica realiza no sólo de la naturaleza sino del entorno social y por ello del sujeto mismo, es lo que le impide tener un sentimiento de arraigo, de pertenencia civil y comunitaria, es la causa del desinterés en cualquier asunto común que no sea propiamente técnico, que no sea calculable, medible. Lo obliga a verlo todo como un objeto transformable o manipulable impidiéndole utilizar otra razón que no sea la instrumental. Por ello, el verdadero peligro de un mundo tecnificado como el nuestro, no es la destrucción material que esta tecnología pueda llevar a cabo, no son las bombas atómicas ni los nuevos virus, sino la transformación que la dispersión tecnológica realiza en el sujeto y su sociedad, es la transformación en la forma de razonar y pensar que cada vez evidenciamos más en el siglo XXI.
El verdadero peligro se encuentra en que estamos creando un sujeto que no puede relacionarse con la realidad, no puede vincularse con lo otro, incluso ni con sus semejantes, sino es a través de una relación instrumentalizada, a través de una relación pragmático-transformadora. Realidad social innegable pues en el siglo XXI “no hay literalmente medio social, familia o grupo que pueda resistir la presión de la necesidad económica y las transformaciones técnicas” (Linares, 2008, p. 130). Y por ello, cada vez más sujetos caen en el rol de utilizar únicamente la razón instrumental, relegando al baúl de los inútiles recuerdos escolares a la razón reflexiva, entregándose de lleno a las relaciones costo-beneficio y a los vánales placeres consumistas, sin preguntarse casi en ninguna ocasión a lo largo de su existencia sobre el porqué y el para qué de sus acciones cotidianas.
Y esta incapacidad reflexiva lo convierte también en un sujeto sin responsabilidades éticas. Es decir, lo convierte en un sujeto que únicamente opera sus dispositivos tecnológicos, que únicamente transforma la realidad que le rodea pero sin tener tiempo (ni capacidad) para pensar en las consecuencias de sus acciones, y por ello, es un sujeto incapaz de dilucidar sobre el benéfico o perjuicio de sus actos, llevándolos a cabo tan sólo por el empuje de la monocromática razón instrumental, la cual dicta ─precisa y eficazmente─ que realizar tal o cual esfuerzo material redundará en tal o cual benéfico material.
Y precisamente es esta incapacidad de no poder dejar de utilizar la razón instrumental, de no poder ver más allá de lo que el pragmatismo tecnológico permite, lo que hace —como han denunciado muchos autores como Heidegger, Ellul o Anders en el viejo continente y Enrique Linares o Eduardo Nicol en México— que el sujeto haya perdido su verdadera autonomía en lo que respecta a su futuro, a su misma esencia como ser humano, su autonomía y libertad frente al futuro de la humanidad misma. El sujeto tiene millones y millones —más que nunca— de opciones tecnológicas y de mercado por las cuales libremente decidirse, pero es impotente ante las decisiones que implican su esencia como sujeto, es decir, es impotente ante la decisión de ser un objeto más de la técnica y el mercado, es impotente ante la decisión de guiarse o no a través de la razón instrumental, es incapaz de determinar su futuro y es, también, incapaz de alejarse de esta realidad tecnocientífica.
Referencias
Echeverría, J. (2003). La Revolución Tecnocientífica. Madrid: FCE
Elster, J. (2009). La Democracia Deliberativa. Barcelona: Gedisa.
Hobsbawm, E. (1998). Historia del Siglo XX. Buenos Aires: Crítica
Linares, J. E. (2008). Ética y Mundo Tecnológico. México: FCE
Nava, A. (2020) ¿QUE ES TECNOCIENCIA? Tecnociencia, poder y entorno. Revista Colombiana de Filosofía de la Ciencia, 20(41), 113-145.
O
La mirada de los adolescentes ante la inclusión de la IA en sus vidas.
Palabras clave: Inteligencia Artificial, Adolescencia, Filosofía, Condición humana, Hermenéutica.
Resumen
Hablar de la inclusión de la IA a nuestras vidas nos lleva por muchos caminos, interrogantes que nuestro tiempo tendrá la oportunidad de responder. Una de esas cuestiones es preguntar a las nuevas generaciones qué piensan o cómo afrontan una nueva realidad al ver al hombre convertirse en protagonista de su propio destino. Ya no es un asunto utópico o de ficción que la inteligencia artificial, la robótica o la nanotecnología sean punto medular para crear una “nueva condición humana” que termine con la posibilidad de padecimientos e incluso, la muerte misma. Tal vez estamos hablando de un gran movimiento que incluye debates no sólo éticos o científicos, sino culturales, filosóficos y críticos. Entonces, los jóvenes tendrán mucho qué decir, pues su postura ideológica y preparación son medulares en este devenir. Por tanto, escuchemos las voces de ellos para saber en realidad qué planteamientos filosóficos y hermenéuticos deben ser nuestra prioridad.
Referencias
Bostrom, N. y Savulescu, J. (2017). Mejoramiento humano. Madrid. Teell.
Braidotti, R (2015) Lo posthumano. Barcelona, Gedisa.
Gadamer, HG. (1977). Verdad y Método. España. Ediciones Sígueme.
Heidegger, M. (2022) Carta sobre el humanismo. Editorial Biblos.
Sadin, E. (2020). La inteligencia artificial o el desafío del siglo anatomía de un antihumanismo radical. Buenos Aires. Caja negra.
La anomia educativa: un análisis a partir de Durkheim
Palabras clave: Anomia educativa, Durkheim, lazo social
Resumen
La educación en el siglo XXI ha sido cuestionada y analizada en esta investigación titulada en la tesis doctoral “Anomia Educativa en el Siglo XXI: Un análisis partir de Durkheim. Caso de República Dominicana”, como un problema complejo, porque los orígenes de sus deficiencias son de diversas índoles: ecosistemas económicos y políticos, ideológicos, pedagógicos y sociales. El problema de estudio es el funcionamiento errático o disfunción de los sistemas educativos, su incapacidad de cumplir sus fines, sus fallas estructurales y sus vacíos normativos con una desviación evidente de sus misiones de formar a los profesionales en las ciencias y las artes bajo normativas éticas y morales. Estas condiciones son amenazas constantes que conducen a la anomia, y para estudiarla como fenómeno es preciso interpretar los aportes de Emile Durkheim.
En este escenario globalizado y glocalizado, tecnológicamente interconectado, el alcance de los sistemas educativos nacionales transciende las fronteras de los Estados. La educación como derecho humano, su poder como hecho y práctica social, la posiciona con una misión salvífica legitimada por creencias y paradigmas arraigados. Conforme a Durkheim existe “la necesidad de construir una moral social común, base de la vinculación nacional, y la obligación de enseñarla a las jóvenes generaciones.” (Durkheim, 1997, p. 11).
La investigación se desarrolló desde el 2019 al 2023, cuyos objetivos fueron: explicar la anomia educativa desde una perspectiva filosófica, construir una conceptualización de educación y la anomia educativa desde una fusión socio-pedagógica y filosófica, valorar las condiciones anómicas de la educación y de las políticas educativas en el siglo XXI en el sistema educativo en República Dominicana. Para tal fin, fue necesario crear un marco conceptual; analizar los aportes de Emile Durkheim; y, describir los lineamientos metodológicos para estudiarla;
Para estudiar la anomia educativa se aplica un diseño no experimental de enfoque predominantemente cualitativo, de alcance descriptivo. En el tercer y cuarto capítulo de la tesis se desarrolla el alcance correlacional-explicativo. La población se considera infinita e incluyente ya que la comunidad educativa es de amplio espectro, por tal razón, se asumió la técnica del muestreo no representativo selectivo por conveniencia. Se aplicaron instrumentos para reconstruir la realidad educativa mediante los discursos de la comunidad académica y entes sociales, finalizando con la triangulación de datos para una visión caleidoscópica de las condiciones del sistema educativo dominicano desde la perspectiva social y filosófica.
Entre los hallazgos y construcciones relevantes que aporta esta investigación, se destaca que la anomia puede surgir de un “estado de confusión de un grupo o sociedad sometido al antagonismo entre sistema de valores, que da por resultado cierto grado de inquietud y la sensación de separación del grupo […] La anomia aguda es el deterioro en último extremo y la desintegración del sistema de valores que da por resultado angustias pronunciadas” (Hernández, 2005).
Se asume que la anomia se concibe como un producto natural de la vida social; es natural en la normalidad además de ser un estado patológico. Se atribuye a la sociedad y a la vida social la responsabilidad de “modelar” a los individuos. Entre las orientaciones correlacionales, cabe resaltar que, en sociedades anómicas, la anomia educativa se padece en la misma proporción. (Durkheim, 2013, p. 390). En las sociedades modernas, la anomia “es global y general, afecta a la sociedad como un todo y no sólo a algunos de sus componentes, y es consecuencia de la incapacidad de los mecanismos de generación de consenso moral para adelantarse al ritmo de las innovaciones”. (E. Lamo de Espinosa 1996, p. 139 citado en González 2011, p. 1).
La anomia abarca una gradación natural que va desde la ausencia a la existencia rígida de las normas. Radica en una visible pérdida de autoridad y de fuerza de estos lineamientos normativos. Por eso, se constituye en ruptura o debilitamiento. Se ha evidenciado que en los sistemas educativos dominicanos prevalece de forma significativa y alarmante la condición anómica en un 67%, conforme a la declaración de expertos académicos e investigadores, quienes, por ser actores del sistema en alta gerencia, están involucrados en la toma de decisiones. Aunque el porcentaje de 33% es bajo sobre la declaración de factores antianómicos, se considera muy significativo, ya que induce a posibilidades de mejora y a las soluciones de los problemas.
De este análisis se concluye que:
1) Desde los aportes de Émile Durkheim, para conceptualizar la anomia social y educativa es perentorio vincular su definición con la ruptura del lazo social. Por eso, para mermar la anomia educativa es preciso fortalecer la cohesión y los lazos sociales.
2) Se asume con valoración afirmativa la hipótesis de que la teoría de Emile Durkheim sobre la anomia social es un referente metodológico para estudiar y construir el referente teórico de la anomia educativa.
3) Se ha demostrado que la noción de anomia educativa tiene implicaciones multidimensionales vinculadas a los factores sociales.
4) La educación se asume como un hecho y práctica social. Para conceptualizarla, la triada de las perspectivas pedagógica, filosófica y sociológica es necesaria y su incidencia es complementaria. Por eso se reafirma que la educación es una realidad multidimensional, multi y transdisciplinaria, natural, cultural y compleja. 5) Por sus condiciones de transición, cese de actividades normales, surgimiento de otras formas sociales, el vacío normativo y la disfuncionalidad de las normas vigentes, escasas motivaciones y socializaciones, disminución de prácticas efectivas, este período estudiado (desde el año 2020 al año 2023) se cataloga como un período anómico contingente de alcance normativo y sistémico. En estas condiciones, el sistema educativo está parcialmente capacitado para cumplir sus fines.
En definitiva, se reitera que la educación como hecho social debe fundamentar sus políticas y reformas en ámbitos multidisciplinarios, contemplando las proyecciones del cambio social, por el carácter estratégico que debe regirla. Así se podrían alcanzar las metas de la UNESCO, quien orienta su misión a “consolidar la paz, erradicar la pobreza e impulsar el desarrollo sostenible”, con la consigna “la educación transforma vidas”.
Referencias
Durkheim, Émile. (2013): El suicidio. 2da. ed. México. Colofón.
Durkheim, Émile; Trad. Ferrer, Antonio. (2011): Las Reglas del Método Sociológico. 8va. Ed. México. Ediciones Coyoacán.
Durkheim, Émile; Trad. Muls de Liarás, Janine. (2013). Educación y Sociología. Barcelona. Ediciones Península.
Hernández, T. /comp. (1993): Anomia: normas, expectativas y legitimación social/Anomie: norms, expectations and social legitimation / Oñati International Institute for the Sociology of Law. Obtenido en * Bbc - Investigación (316.75 ANO).
Lamo de Espinosa, Emilio; González, José; Torres, Cristóbal. (1994). La sociología del conocimiento y de la ciencia. Madrid. Alianza editorial.
¿Qué es lo particular de las relaciones causales? (o por qué el escepticismo sobre la necesidad no nos lleva al escepticismo sobre la causalidad)
Palabras clave: Causalidad, conexión necesaria, poderes causales, producción de cambio, causalidad singular.
Resumen
Creo que Hume es como los casinos o las casas de apuestas respecto al problema de la causalidad; él siempre termina ganando porque es quien establece las reglas de juego. El problema de la causalidad ha sido tratado en términos humeanos tanto por los anti-realistas, como por los realistas. Las salidas al debate han consistido en elegir entre dos conceptos que son condiciones necesarias para la definición de Hume (1988/1739) de las relaciones causales: la conjunción constante entre la causa y el efecto, y la conexión necesaria entre los mismos. Quienes tienen una postura realista de la causalidad se sienten obligados a justificar que hay algún tipo de conexión necesaria en las relaciones causales. Mientras que quienes defienden una postura anti-realista niegan que haya necesidad en ellas y sostienen que son meras regularidades (conjunción contante, en términos de Hume). En mi ponencia argumentaré que el escepticismo sobre la necesidad no nos lleva obligatoriamente al escepticismo sobre la causalidad. Aceptar esto implica que quien quiera ser realista sobre la causalidad no está obligado a justificar algún tipo de necesidad en ella.
Recientemente ha tomado fuerza un enfoque neo-aristotélico de la causalidad, centrado en los poderes causales (Cartwright, 2013) y la producción de un cambio (Charlton, 1983 y Pratten, 2020). Tenemos, entonces, tres enfoques: el regularista, el de la necesidad y el de los poderes causales. Hilaré mi paso por ellos con la siguiente pregunta que creo que debería responder cualquier postura sobre la causalidad: ¿Qué es lo que tienen de particular las relaciones causales que las diferencia de otro tipo de relaciones lógicas o fácticas? Sostendré que el enfoque de los poderes causales es el único que puede responder esta pregunta. Así lograré sustentar mi tesis: si la causalidad es fundamentalmente cambio y no necesidad, el escepticismo sobre lo último no afecta necesariamente a la causalidad.
Dividiré mi ponencia en tres partes. En la primera parte presentaré brevemente la definición de Hume de la causalidad. En la segunda, expondré los problemas de los enfoques regularista y de necesidad. En la cuarta parte, trataré de mostrar cómo la propuesta de los poderes causales parece ser la única que supera estos problemas y logra expresar lo particular de las relaciones causales. En esta última parte argumentaré cómo el escepticismo sobre la necesidad no nos lleva al escepticismo sobre la causalidad.
Ahora trataré de resumir algunos puntos de cada sección. Empiezo con la definición de Hume de la causalidad.Hume introdujo la noción de la conexión necesaria para distinguir con ella las relaciones causales de sucesiones de eventos no causales. Como es bien sabido, posteriormente terminó relegando la necesidad al plano subjetivo, porque no pudo encontrar nada en la experiencia que pudiera dar cuenta de ella. Su remplazo fue la conjunción constante (las regularidades).
Como dije antes, quien quiera ser realista sobre la causalidad siente la obligación de responder al escepticismo humeano sobre la necesidad. Así también rescata a las relaciones causales de ser meras regularidades. La causalidad sería una sucesión necesaria de eventos, que está en el mundo, no es subjetiva. A continuación quiero presentar un argumento contra esta posición. Consideremos la siguiente premisa que varios realistas sobre la necesidad podrían aceptar:
(1) La conexión necesaria entre causa y efecto, junto con las otras condiciones Humeanas (contigüidad, prioridad temporal y conjunción constante), implican causalidad.
Ahora imaginemos un mundo idéntico a este, del que tenemos certeza que las leyes de la naturaleza (o de la física) —que son las mismas del nuestro— son necesarias. Una de esas leyes es el principio de conservación del momento angular. Este principio explica, por ejemplo, por qué la Tierra sigue rotando sobre su propio eje, provocando así que a cualquier lugar en ella le de la luz del sol durante unas horas y después no. Si lo que explica la sucesión del día y la noche es la rotación de la tierra sobre su eje, y esta rotación obedece a un principio de la física, parece que el realista tendría que aceptar que hay alguna clase de conexión necesaria entre el día y la noche. El día le seguirá necesariamente a la noche porque el principio de conservación del momento angular es necesario. Pero aún aceptando esta conexión necesaria, no podemos decir que el día es la causa de la noche. Tenemos entonces un caso de una sucesión necesaria que no es una relación causal. Se cumple el antecedente de (1), pero no su consecuente; la implicación es falsa.
Parece que lo fundamental de las relaciones causales no es la conexión necesaria. Encontramos que puede haber conexión necesaria en casos que no diríamos que son relaciones causales. La necesidad, por tanto, no es exclusiva de las relaciones causales y no nos sirve para diferenciarlas de otro tipo de relaciones no-causales.
Aún podemos salvar la posición realista sobre la necesidad añadiendo en (1) otra condición que deje de lado casos como el del día y la noche. Sugiero que sea la capacidad (o poder) de producción de un cambio. El día no tiene la capacidad de producir la noche, solamente son dos eventos que vienen uno después del otro, pero que son causados por la rotación de la Tierra sobre su propio eje. El día no tiene poderes causales sobre la noche; por lo tanto, entre ambos no hay una relación causal
Con lo anterior creo que logro mostrar que el enfoque realista sobre la necesidad es insuficiente para definir lo que es una relación causal. Pero aún no he logrado sustentar mi tesis. La necesidad puede que no sea suficiente, pero aún podría entenderse como una parte necesaria de lo que son las relaciones causales. Para responder a esto debo mostrar que las siguientes dos premisas, que podemos ver como equivalentes, son falsas.
(2) La causalidad implica necesidad
(3) La necesidad es una parte necesaria de la causalidad
Para lograr mi objetivo rescataré argumentos sobre la causalidad singular (token-causation) y del enfoque de los poderes causales. ¿Podemos justificar una relación causal en un caso singular? Es decir, sin tener evidencia de su regularidad o su conexión necesaria. Yo creo que sí. La producción de un cambio no es sólo una condición más para la causalidad, creo que es lo más fundamental en ella. A pesar de la cuestión epistemológica de no tener seguridad sobre la conexión necesaria entre eventos, podemos hacer la afirmación metafísica de que hay causalidad en el mundo, si observamos la producción de un cambio. En principio, se puede ser realista sobre la causalidad, sin serlo sobre la necesidad. Aunque no podamos establecer “leyes causales”. Esto último puede quedar para otra ocasión.
Referencias
Carnap, R. (1966). “Does Causality Imply Necessity?” En Philosophical Foundations of Physics. Basic Books Inc.
Cartwright, N. y Pemberton, J. (2013). “Aristotelian powers: without them, what would modern science do?”, en Powers and capacities in philosophy: the new aristotelianism. New York, Routledge, pp 93-112.
Charlton, W. (1983). “Causation and Change” en Philosophy, 58. Pp. 143-160.
Hume, D. (1994/1748). Investigación sobre el conocimiento humano. Alianza Editorial, Madrid.
Pratten, S. (2020). “Causality, Agency and Change” en Róna, P. Y Zsolnai, L. (eds.). Agency and Causal Explanation in Economics. Spinger.
P
La Abstracción como Pilar del Desarrollo Humano Integral
Palabras clave: Abstracción, Filosofía, Ciencia, Educación, Desarrollo humano
Resumen
En la era contemporánea, las capacidades humanas están siendo transformadas por los avances tecnológicos. El acceso instantáneo a la información, los medios audiovisuales y la comunicación digital están cambiando nuestra forma de interactuar con el mundo y, de manera crucial, nuestra forma de pensar. Esta revolución tecnológica ha tenido un impacto negativo en una de las facultades humanas más esenciales: la abstracción. Esta capacidad, vital para el ejercicio de la filosofía, el juicio crítico y la creatividad, debe ser cultivada si queremos seguir desarrollándonos como individuos y como sociedad.
La Abstracción en el Proceso Cognitivo
La abstracción es la capacidad de captar el significado o la esencia de las cosas más allá de lo sensorial. Desde una perspectiva cognitiva, este proceso permite trascender las percepciones inmediatas para llegar a principios universales que gobiernan el mundo. La abstracción es el mecanismo que nos permite ir más allá de lo concreto y comprender las leyes y estructuras subyacentes que rigen la realidad. Esto es crucial no solo para entender el mundo, sino también para crear teorías, resolver problemas complejos y generar ideas innovadoras.
Este salto de lo concreto a lo abstracto es una habilidad que se desarrolla con el tiempo. Al principio, nuestras conexiones mentales son inestables, pero con la práctica y la reflexión, nuestro cerebro las consolida, permitiéndonos construir un conocimiento más profundo y duradero. La abstracción es, por tanto, una herramienta esencial en el proceso de aprender y entender.
La Abstracción en la Filosofía y la Ciencia
La filosofía depende de la abstracción para formular teorías sobre el ser, la moralidad y el conocimiento. Desde los filósofos griegos hasta los contemporáneos, la abstracción ha sido fundamental para construir sistemas de pensamiento que vayan más allá de lo visible y lo inmediato. Platón, por ejemplo, utilizó la abstracción para desarrollar su teoría de las Ideas, que explica cómo la realidad sensible está conectada con un mundo ideal y eterno. De igual forma, en la filosofía moderna, pensadores como Kant y Hegel utilizaron la abstracción para formular teorías sobre el conocimiento y la ética.
Además de la filosofía, la ciencia también depende de la abstracción. En disciplinas como la física, la biología y la matemática, la capacidad de abstraer patrones y relaciones más allá de lo empírico permite crear teorías que explican fenómenos complejos. Sin la abstracción, las ciencias no podrían avanzar, ya que carecerían de la capacidad para formular modelos explicativos o predicciones sobre el comportamiento de la naturaleza.
El Impacto de la Tecnología en la Abstracción
El avance de las tecnologías de la información ha tenido un impacto ambivalente en la capacidad de abstracción. Por un lado, las tecnologías han facilitado el acceso a la información y han proporcionado nuevas herramientas para el aprendizaje. Sin embargo, la dependencia excesiva de los medios digitales, especialmente los audiovisuales, ha reducido nuestra capacidad para procesar información de manera profunda. Los estímulos inmediatos y visuales nos alejan de la reflexión y el análisis abstracto, favoreciendo una comprensión más superficial y rápida de los fenómenos.
La tecnología, al ofrecer soluciones rápidas y atractivas, puede crear una dependencia de la percepción inmediata y sensorial, lo que limita nuestra capacidad de pensar más allá de lo visible. Si bien la tecnología no es mala en sí misma, su uso debe ser equilibrado para que no sustituya la reflexión profunda y la capacidad de abstracción. De lo contrario, corremos el riesgo de perder la capacidad para comprender las causas subyacentes de los problemas y las interrelaciones entre diferentes fenómenos.
La Abstracción y el Desarrollo Humano Integral
El desarrollo de la capacidad de abstracción es fundamental en la educación, ya que permite a los individuos formular juicios complejos, tomar decisiones autónomas y resolver problemas de manera creativa. A medida que los jóvenes desarrollan su pensamiento abstracto, adquieren una mayor capacidad para comprender principios universales y aplicarlos a situaciones concretas. Este tipo de pensamiento también es crucial para la toma de decisiones éticas y para la resolución de conflictos, ya que nos permite ver más allá de lo inmediato y considerar el impacto a largo plazo de nuestras acciones.
En el ámbito psicológico, la abstracción está estrechamente relacionada con la memoria, la atención y la concentración. Al practicar la abstracción, fortalecemos la capacidad de mantener la atención en temas complejos y de conectar ideas aparentemente distantes. La memoria también juega un papel crucial en este proceso, ya que necesitamos almacenar y recuperar información de manera eficiente para generar ideas abstractas.
La Abstracción y la Sostenibilidad Global
El desarrollo de la abstracción también es clave para enfrentar los desafíos globales, como la crisis ambiental y las desigualdades sociales. Los problemas más complejos no se resuelven con soluciones inmediatas o superficiales. Para abordar cuestiones como el cambio climático o la justicia social, necesitamos pensar en términos abstractos: entender las causas profundas de los problemas y formular estrategias que tengan en cuenta las interrelaciones entre factores diversos y complejos.
La capacidad de abstracción nos permite visualizar futuros posibles, pensar en términos de sistemas complejos y considerar las implicaciones a largo plazo de nuestras decisiones. Solo con un pensamiento abstracto podemos trascender las soluciones inmediatas y buscar respuestas que sean sostenibles en el tiempo.
Conclusión
La abstracción es una facultad humana esencial para el desarrollo intelectual, ético y social. En un mundo cada vez más acelerado y superficial, es crucial cultivar esta capacidad, tanto en la educación como en la vida diaria, para poder comprender el mundo de manera profunda y tomar decisiones informadas. La abstracción nos permite ir más allá de lo inmediato y superficial, entender las leyes fundamentales que rigen el universo y proyectar un futuro más justo y sostenible. Si queremos construir una sociedad más humana y capaz de enfrentar los desafíos globales, debemos fomentar el desarrollo de la capacidad de abstracción en todos los niveles educativos y en todos los aspectos de nuestra vida cotidiana.
Referencias
Kant, I. (1781). Crítica de la razón pura. Editorial Losada.
Platón. (380 a.C.). La República. Editorial Gredos.
Hegel, G. W. F. (1807). Fenomenología del espíritu. Editorial Akal.
Piaget, J. (1970). Psicología y pedagogía. Editorial Morata.
Vygotsky, L. S. (1978). Pensamiento y lenguaje. Editorial Akal.
¿Pueden nadar los submarinos? Rematerializar la pregunta por la inteligencia artificial
Palabras clave: inteligencia artificial, materialismo, funcionamiento
Resumen
El objetivo de este trabajo es exhibir un mapa de algunas respuestas dadas al problema ontológico-político de la inteligencia artificial en el actual debate en filosofía de la tecnología a fin de proponer una re-materialización de la pregunta por los sistemas de software anclados a nuestra ecología artificial.
La pregunta de tipo meta-discursivo que atraviesa a esta exploración es si las interrogaciones que se han generado durante los últimos cinco años a partir del software generativo (chatbots como GPT y similares, programas generadores de imágenes, etc) están o no bien encaminadas para disputar de manera genuina significados políticos de estas innovaciones y de sus consecuencias materiales en la vida social.
En este sentido, este trabajo propone una re-materialización de la pregunta por la inteligencia artificial que se desmarque del conjunto de vocabulario moderno que permea buena parte de las preguntas y se oriente más bien a una reformulación anti-esencialista, materialista y situada que analice formas concretas de ensambles entre dichos sistemas de software y entornos de agencia humana.
Con este objetivo en mente, este trabajo se concentra en dos fenómenos interconectados que exhiben los actuales entornos digitales. El primero es la progresiva delegación de tareas en máquinas que operan entre sí dejando en un segundo plano la interacción entre humanos y artefactos y destacando el rol de las interfaces. El segundo es el creciente proceso de informacionalización del ambiente que conduce a la posibilidad de traducir contenidos materiales a datos específicos en un sistema. La idea que recorre esta presentación es que la base infraestructural material (cables interoceánicos de internet, tendido eléctrico, granjas de servidores, carreteras, estaciones de suministro de combustible) que sustenta a estos dos fenómenos no suele considerarse con la suficiente atención en aquellas indagaciones dirigidas a establecer si las computadoras pueden “pensar”, “imaginar”, ser “creativas” o disponer de “responsabilidad moral”.
La conclusión que se pretende subrayar es que es necesario re-materializar la indagación sobre los procesos reales de sistemas de inteligencia artificial que corren actualmente en distintos niveles de interacción (social, económica, política, etc) a fin de obtener diagnósticos concretos sobre su agencia en entornos necesariamente híbridos.
Referencias
Coeckelbergh, M. (2021), Etica de la inteligencia artificial.
Crawford, K. (2022), Atlas de la Inteligencia Artificial.
Floridi, L. (2011), Enveloping the world for AI, The Philosophers' Magazine 54 (54):20-21
Parente, D. (2022), “Filosofía de la cultura material e hibridación entre humanos y ambientes. Un esbozo inicial del ámbito de interrogación", Estudios Posthumanos (2): 34-56.
Parikka, J. (2021), Una geología de los medios.
Dialéctica en la relación médico-paciente
Palabras clave: Dialéctica, médico, paciente
Resumen
La dialéctica es una doctrina filosófica que cuenta con un amplio recorrido histórico. Desde la Antigua Grecia hasta los autores postmarxistas, se ha constituido en un modo de estudiar el mundo humano y los procesos que en el se producen. La realidad tal y como se percibe es cambiante y dichas variaciones obedecen a construcciones que se forjan mediante la interacción y no a un proceso lineal de causa y efecto. La dialéctica es entonces, una forma de estudiar el mundo donde las separaciones arbitrarias son dejadas de lado para considerar la interacción y el cambio que a través de esta se genera, de una forma más rica y dinámica.
Un tipo de relación donde prima la interacción cercana es la relación entre el médico y su paciente. Al igual que la dialéctica, la medicina es una disciplina muy antigua que tiene su origen en la Grecia Antigua, al menos, la medicina de Occidente tal y como se la denomina en la época contemporánea. Siendo que ambas disciplinas nacen de forma cuasi simultanea y que han ido desarrollándose a ritmos diversos, la dialéctica puede ser útil para explicar las transformaciones que ha ido experimentando la relación médico-paciente desde la antigüedad hasta la actualidad.
La imagen del médico, durante mucho tiempo, ha estado revestida de un halo de autoridad con una consiguiente relación médico-paciente que se ha reconocido como vertical, donde el médico ejerce una posición de poder sobre el paciente. Desde el pasado siglo, esta relación vertical, si bien de forma parcial, ha sido paulatinamente por una relación más horizontal donde la voz del paciente ha ido ganando fuerza en contraposición a la autoridad médica. Es en medio de estos cambios que nos hemos cuestionado sobre la pertinencia del uso del método dialéctico para el estudio de la relación médico paciente en la actualidad, partiendo claro, desde una perspectiva histórica.
Considerando, que las enfermedades son parte de la realidad material humana y desde hace más de dos milenios, cuando estas se manifiestan se suele buscar la ayuda de un estudioso de las mismas a fines de lograr un diagnóstico y de ser posible, un tratamiento. Este proceso puede ser lento y complejo, por tanto quien padece es llamado paciente y quien estudia y trata las enfermedades, médico. Es entonces que se establece una relación circunstancial entre el paciente y el médico donde emergen características de ambos sujetos en circunstancias muy particulares que difieren de cualquier otro tipo de relación.
Durante el transcurso de las relaciones medico-paciente surgen tensiones, cuestionamientos y desacuerdos que han de irse superando a fines de lograr el pleno conocimiento de la situación del paciente y establecer la mejor terapia posible. Es en este ir y venir de dicha relación, que se advierte un modelo dialéctico. La dialéctica como forma de comprensión y análisis de la realidad tiene un conjunto de características o categorías que han permitido históricamente estudiar diversos temas y que varían según el autor del que se trate. Dadas las características de la relación médico paciente donde se da una interacción y dialogo continuo entre las partes, nos hemos planteado si el método dialéctico es pertinente para el estudio de la relación médico paciente.
La medicina contemporánea ha ido incorporando una gran cantidad de avances técnicos, mayor comprensión de mecanismos patológicos incluso a nivel molecular, herramientas que ayudan al diagnóstico así como terapias efectivas para múltiples patologías otrora devastadoras que han ido sustituyendo viejas prácticas . Empero, hay algo que no se ha logrado sustituir, la importancia de la relación dialógica que se establece entre el médico y el paciente, donde la finalidad de buscar un diagnostico y tratamiento adecuado se ve atravesada por principios, valores, tradiciones, temperamentos, entre otras características de ambos miembros de esta dualidad. La dialéctica es un método de análisis de la realidad donde se considera como las partes se van modificando entre sí a partir de una interacción, donde ninguna de las partes continua siendo igual a lo que era antes de establecerse el intercambio. Dado lo anterior, consideramos pertinente y justificado emprender un estudio sobre el uso del método dialéctico para el estudio de la relación médico-paciente.
Referencias
Cañas Quirós, Roberto (2010). La Dialéctica en la filosofía griega. InterSedes: Revista de las Sedes Regionales, XI(22),37-56. https://www.redalyc.org/articulo.oa?id=66620589003
Harvey, David. (2018). La dialéctica. Territorios, (39), 245-272. http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-84182018000200245&lng=en&tlng=es.
Meléndez, G. (1998). Dialéctica y ciencia en Aristóteles. https://revistas.unal.edu.co/index.php/idval/article/view/21896/22863
Patiño M, Rachid O y Delgado W. (2006). Heráclito de Éfeso. https://www.emagister.com/uploads_courses/Comunidad_Emagister_34062_34062.pdf
Impacto de la Inteligencia Artificial en el Principio de Igualdad Procesal en Colombia: Desafíos y Perspectivas Éticas y Jurídicas
Resumen
El derecho procesal se basa en principios esenciales que buscan garantizar justicia y equidad, siendo la igualdad procesal uno de los más importantes. En Colombia, este principio está vinculado al derecho a la tutela judicial efectiva, garantizado por la Constitución (Corte Constitucional de Colombia, 2005). Sin embargo, la implementación de tecnologías como la inteligencia artificial (IA) plantea retos para preservar este principio.
La IA, que toma decisiones basadas en datos, tiene el potencial de optimizar la administración de justicia, pero también conlleva riesgos éticos. Su enfoque algorítmico podría generar decisiones que, aunque correctas técnicamente, ignoren las complejidades sociales y culturales de las partes involucradas. Esto podría deshumanizar el proceso judicial y reforzar desigualdades preexistentes.
El concepto de derecho dúctil, propuesto por Giorgio Zagrebelsky (2004), sugiere que la flexibilidad en la interpretación de las normas permite abordar las particularidades de cada caso, aunque esta flexibilidad puede entrar en conflicto con la rigidez de los algoritmos de IA. Este estudio busca explorar cómo el uso de la IA en la justicia puede garantizar imparcialidad sin descontextualizar las decisiones y cómo evitar que perpetúe desigualdades sociales y económicas.
Planteamiento del Problema
El principio de igualdad procesal es esencial en un sistema judicial democrático, garantizando que todas las partes en un litigio tengan las mismas oportunidades para defender sus derechos. En Colombia, está relacionado con el derecho a la tutela judicial efectiva (Corte Constitucional de Colombia, 2005). La implementación de inteligencia artificial (IA) en el sistema judicial representa un reto para este principio, especialmente en una sociedad con desigualdades sociales, económicas y culturales. La IA puede mejorar la eficiencia y optimizar recursos, pero también plantea riesgos éticos y jurídicos al depender de datos históricos que pueden perpetuar sesgos, como el racismo o la discriminación socioeconómica (Crawford & Paglen, 2019).
La IA, al usar estos datos, podría reforzar las injusticias históricas, perjudicando a las partes más vulnerables. En Colombia, donde existen disparidades económicas, geográficas y educativas, el acceso equitativo a las tecnologías no está garantizado. Los grupos con mayores recursos pueden aprovechar mejor la IA, mientras que los sectores vulnerables, como las comunidades rurales o las minorías étnicas, podrían quedar en desventaja por no tener acceso a las herramientas o capacitación necesarias (Zuboff, 2019). Esta brecha tecnológica erosiona la igualdad de oportunidades en el litigio.
Otro desafío ético es la posible deshumanización de los procesos judiciales. La justicia debe considerar el contexto humano de cada caso, pero la IA, basada en datos numéricos, no puede comprender las complejidades sociales y emocionales. Las decisiones judiciales basadas solo en patrones matemáticos pueden despersonalizar el proceso, aplicando soluciones rígidas que no aborden las particularidades de cada situación (Nussbaum, 2003). Aunque la IA puede ser "objetiva" en términos de datos, esta objetividad podría generar decisiones que no logren la equidad ni la justicia distributiva, fundamentales en una sociedad democrática (Rawls, 2006).
El concepto de "derecho dúctil" (Zagrebelsky, 2004) muestra cómo la flexibilidad en la interpretación de las normas permite atender las particularidades de cada caso, lo que entra en conflicto con la rigidez de los sistemas de IA. Esto crea una tensión entre la eficiencia de la tecnología, que busca uniformidad, y la necesidad de un enfoque más matizado (Guastini, 2014). En Colombia, sin supervisión adecuada y marcos éticos claros, la implementación de la IA podría exacerbar desigualdades preexistentes. Es crucial desarrollar marcos normativos que aseguren que la IA promueva una justicia equitativa que respete las realidades sociales de los litigantes.
Experiencias Internacionales
La aplicación de la IA en sistemas judiciales de otros países ofrece lecciones valiosas para el contexto colombiano:
Estados Unidos: La IA se utiliza en herramientas como COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), que evalúa riesgos de reincidencia y recomienda sentencias. Sin embargo, estudios han demostrado que COMPAS presenta sesgos raciales, afectando desproporcionadamente a afrodescendientes (Dressel & Farid, 2018; Angwin et al., 2016). Este sesgo podría reforzar desigualdades estructurales en el contexto colombiano si se adopta sin consideración de las particularidades sociales.
China: El sistema judicial chino utiliza "tribunales inteligentes" para agilizar procesos y automatizar tareas. En el Tribunal de Internet de Hangzhou, la IA facilita litigios en línea, mejorando la eficiencia (Zhang, 2021). Sin embargo, el uso extensivo de IA también puede reducir la supervisión humana y descontextualizar decisiones judiciales.
Estonia: Se está probando un “juez robot” para resolver disputas de bajo monto económico. Este sistema busca acelerar procesos judiciales, pero plantea interrogantes sobre la falta de consideración del contexto humano y social en las decisiones automatizadas (Hindelang, 2020).
Estas experiencias resaltan que la adopción de IA sin mecanismos de supervisión y marcos éticos adecuados puede perpetuar injusticias y erosionar el principio de igualdad procesal.
Desafíos Éticos y Jurídicos
La IA puede mejorar la eficiencia y optimizar recursos, pero también plantea riesgos éticos y jurídicos al depender de datos históricos que pueden perpetuar sesgos, como el racismo o la discriminación socioeconómica (Crawford & Paglen, 2019). En una sociedad con brechas tecnológicas, los grupos con mayores recursos podrán aprovechar mejor la IA, mientras que sectores vulnerables, como las comunidades rurales y minorías étnicas, podrían quedar en desventaja (Zuboff, 2019).
Otro desafío es la posible deshumanización de los procesos judiciales. La justicia debe considerar el contexto humano de cada caso. La IA, basada en patrones matemáticos, puede generar decisiones rígidas que no aborden las particularidades sociales y emocionales (Nussbaum, 2003). Aunque la IA puede parecer objetiva, su aplicación sin flexibilidad podría contravenir los principios de justicia distributiva (Rawls, 2006).
Pregunta Problema.
¿Cómo garantizar que la implementación de la inteligencia artificial en la justicia en Colombia respete la igualdad procesal y evite perpetuar desigualdades estructurales?
Justificación de la Investigación
La investigación tiene relevancia social al abordar las desigualdades estructurales en Colombia que dificultan el acceso equitativo a la justicia. Además, busca llenar el vacío normativo existente, proponiendo lineamientos éticos y jurídicos para regular el uso de la inteligencia artificial en el sistema judicial. Las experiencias de países como Estados Unidos, China y Estonia muestran que la implementación de IA sin marcos adecuados puede acentuar las desigualdades. A nivel académico, el estudio contribuirá al debate global sobre el impacto de la tecnología en el derecho, analizando cómo la IA puede mejorar la justicia sin comprometer principios como la igualdad procesal.
Objetivos de la Investigación
Objetivo General:
Analizar el impacto de la inteligencia artificial en la administración de justicia en Colombia, evaluando su compatibilidad con el principio de igualdad procesal y proponiendo medidas normativas y éticas para garantizar decisiones judiciales inclusivas y equitativas.
Objetivos Específicos:
Identificar los riesgos éticos y jurídicos asociados al uso de la IA en la administración de justicia.
Evaluar la aplicabilidad del concepto de derecho dúctil y otros enfoques teóricos en la integración de la IA en sistemas judiciales.
Proponer recomendaciones normativas y éticas para el uso de la IA en la justicia, preservando la equidad procesal y la sensibilidad hacia las realidades sociales de las partes involucradas.
Conclusión
La inteligencia artificial puede ser una herramienta poderosa para modernizar la administración de justicia, pero su implementación debe llevarse a cabo con precaución para asegurar que respete principios fundamentales como el de igualdad procesal. Las experiencias internacionales muestran que, sin supervisión y marcos éticos claros, la IA podría exacerbar desigualdades. Esta investigación busca identificar los riesgos éticos, sociales y jurídicos de la IA en el contexto colombiano, ofreciendo soluciones que promuevan una justicia más equitativa y respetuosa con las realidades sociales.
Referencias
Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine bias. ProPublica. Recuperado de https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Calo, R. (2015). The boundaries of privacy harm. Indiana Law Journal, 86(3), 1131-1163.
Corte Constitucional de Colombia. (2005). Sentencia C-590/05. Bogotá: Corte Constitucional.
Crawford, K., & Paglen, T. (2019). Excavating AI: The politics of images in machine learning. New York: MIT Press.
Dressel, J., & Farid, H. (2018). The accuracy, fairness, and limits of predicting recidivism. Science Advances, 4(1), eaao5580. https://doi.org/10.1126/sciadv.aao5580
Ferrajoli, L. (2007). Principia iuris. Teoría del derecho y de la democracia. Madrid: Trotta.
Guastini, R. (2014). Interpretación y aplicación del derecho. Madrid: Marcial Pons.
Guastini, R. (2014). The philosophy of law and the rule of law: Essays in legal theory. Cambridge University Press.
Hindelang, S. (2020). Artificial intelligence and access to justice: The case of the Estonian judge-robot. European Review of Private Law, 28(5), 823-844.
Nussbaum, M. (2003). Las fronteras de la justicia: Consideraciones sobre la exclusión. Barcelona: Paidós
Nussbaum, M. (2003). Capabilities and social justice. Social Philosophy and Policy, 20(1), 37-51.
Rawls, J. (2006). Teoría de la justicia. México: Fondo de Cultura Económica.
Rawls, J. (2006). A theory of justice. Harvard University Press.
Zagrebelsky, G. (2004). El derecho dúctil: Ley, derechos, justicia. Madrid: Trotta.
Zhang, H. (2021). Smart courts and artificial intelligence in China: Opportunities and challenges. Chinese Journal of Comparative Law, 9(1), 1-23.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. New York: PublicAffairs.
R
Proyecto Lis o el mediador y las prácticas filosóficas como herramienta para la apropiación social de conocimientos.
Palabras clave: prácticas filosóficas, conocimientos, apropiación social, mediador.
Resumen
Planteamiento: Los conocimientos (como los tecnocientíficos, por ejemplo) deben poder ser compartidos, deben ser accesibles a cualquiera. Las prácticas filosóficas son una herramienta didáctica y pedagógica que pueden utilizar un mediador para contribuir a una epistemocracia pues de una manera informal o no académica, pero seria, reflexiva y contundente, es posible llegar a diferentes públicos para enseñar aquellos conocimientos que no son accesibles fácilmente. Además, esta forma representa una innovación social en el sentido de ser una manera novedosa, útil y significativa de aprender y no sólo aprender sino que es al mismo tiempo promueve la posibilidad de reflexionar por medio del diálogo socrático sobre esos mismos conocimientos, y de la misma forma es una actividad de difusión y divulgación de la misma filosofía.
Síntesis: Para una sociedad democrática es necesario que ciudadano y gobernante participen de la reflexión acerca de la naturaleza de los sistemas científico, tecnológicos y tecnocientíficos, sobre su importancia y sus efectos en la sociedad y la naturaleza, para ir construyendo una cultura en ciencia y tecnología.
El mundo contemporáneo tiene como una de sus principales características la creciente interacción, en los distintos niveles, de los diversos países y las diversas culturas, en un sentido positivo y negativo. El desarrollo científico y tecnológico alcanzado por las naciones industrializadas, ha producido un empequeñecimiento del mundo y ha obligado a estrechar relaciones entre países, pueblos y culturas muy diferentes y cuyo desarrollo técnico-económico son muy desiguales. Y si consideramos que esos conocimientos son bienes públicos, entonces deben ser utilizados para aumentar el bienestar social y para resolver una diversidad de problemas, económicos, sociales, culturales, ambientales y de preservación de recursos.
El proceso de globalización, por otra parte, parece llevar consigo una tendencia a la homogeneización en el mundo, este proceso que hoy puede apreciarse en toda su dramática dimensión, se convierte en uno de los más grandes problemas filosóficos actuales. Esta homogeneización no implica un carácter positivo, no en todos los aspectos que toca, y es más evidente en la inexistente relación equitativa entre la ciencia, la tecnología y la tecnociencia, con las sociedades, éstas no se apropian ni aprovechan siempre o en todos los casos el conocimiento generado por aquellas.
La tesis central que quiero mostrar en este trabajo es, que una condición necesaria para transitar hacia sociedades de conocimientos, primero esta en la construcción y/o el fortalecimiento de una cultura (de conocimientos) en ciencia, tecnología y tecnociencias, es decir, la utilización social, creativa y libertaria del conocimiento, fundado en una ética social y ambiental. La propuesta de una figura de un mediador, participa de esa construcción cultural de conocimientos ya que su labor proactiva es bidireccional entre comunidades y/o sociedades y diferentes instituciones de investigación que generan distintos tipos de conocimientos.
Para contribuir de alguna manera a la apropiación de conocimientos en nuestra localidad (La Paz BCS), es que planteamos que un mediador puede utilizar las prácticas filosóficas para facilitar ls procesos de comunicabilidad de conocimientos. El proyecto LIS es un nombre compuesto de las siglas L de laboratorio, I de innovación y S de social. Nace de una asignatura nueva en el plan curricular de la licenciatura en Filosofía de la Universidad Autónoma de Baja California Sur. Laboratorio de innovación social se imparte en el tercer semestre y corresponde al área de conocimiento de las prácticas filosóficas, es del ámbito complementario, obligatorio y sin seriación. Los contenidos de esta asignatura están dirigidos hacia la aplicación de los conocimientos filosóficos para compartir con la comunidad universitaria y con la sociedad en general, como una unidad de Responsabilidad Social Universitaria (RSU). Es también una unidad propedéutica de Prácticas filosóficas y Practicas docentes. En la materia se comparten conocimientos filosóficos a través de diferentes prácticas filosóficas, de la difusión y divulgación; los estudiantes se integran en los diferentes proyectos que ya existen al interior de la licenciatura o en los existentes en la universidad, o bien, participar de proyectos externos, para que al finalizar el semestre ellos sean capaces de construir sus propios proyectos que deberán incidir en la sociedad.
Sobre la prácticas filosóficas, podemos adelantar que en España durante el siglo XX, aparece lo que se conoce como el giro practicista de la filosofía, que se ha extendido a diversas partes de mundo hasta nuestros días y cada vez con mayor fuerza. Este movimiento filosófico también conocido como Filosofía aplicada trata de recuperar las prácticas de la antigüedad clásica, de llevar la filosofía a la calle. Lo que planteamos entonces es que a través de las distintas prácticas se puede promover la apropiación de conocimientos, que no sólo filosóficos, pues ha resultado positivos los ejercicios que ya se han realizado desde el Proyecto LIS para los aprendizajes no sólo de temáticas filosóficas sino de otros tipos como del ámbito de la salud, brecha digital, etc.; se trata de cualquier conocimiento que se desee transmitir, compartir, adquirir.
Referencias
Arnaiz, Gabriel (2007). “El estado de la cuestión. El giro practico de la filosofía”. En Diálogo Filosófico 68 (2007) 170-206. Universidad de Sevilla.
Echeverría, Javier (2017). El arte de innovar. España: Plaza y Valdés.
Echeverría, Javier (2008). “Apropiación social de las tecnologías de la información y de la comunicación”. Revista CTS, Número 10, volúmen 4, Enero 2008. Pp. 171-182
López Beltrán, C. y Velasco Gómez, A. (editores) (2013). Aproximaciones a la filosofía política de la ciencia. México: UNAM.
Olivé, L. (2007). La ciencia y la tecnología en la sociedad del conocimiento. Ética, política y epistemología. México: Fondo de Cultura Económica.
Uma crítica decolonial feminista sobre a ética principialista da IA
Palabras clave: ética da IA, feminismo decolonial, justiça, autonomia
Resumen
A ética da inteligência artificial (IA) examina os riscos éticos associados ao uso dessa tecnologia, um debate que ganhou destaque a partir de 2019, com a popularização de ferramentas de IA e suas aplicações. Embora o campo contemple diversas perspectivas — com autores concentrando-se em questões sobre agência moral da máquina, enquanto outros defendem o foco no design, desenvolvimento e implantação responsáveis, ou ainda na resolução de dilemas éticos clássicos, como o dilema do bonde — grande parte do debate contemporâneo foca nos riscos apresentados pelos modelos de IA atuais e na formulação de princípios que orientem sua aplicação, consolidando uma ética fundamentada no principialismo.
A abordagem principialista parte do pressuposto de que a ética da IA é um campo da ética aplicada que se constrói sobre uma base moral compartilhada. De fato, a maior parte dos trabalhos em ética da IA não se dedica à discussão teórica, deste modo, a tarefa da ética é garantir orientação à aplicação dos princípios, derivados de um conjunto de valores centrais, a instâncias particulares do julgamento moral. Apesar da predominância da abordagem principialista, os diversos modelos apresentam variações significativas nos princípios propostos, ou na interpretação sugerida a eles. Essa diversidade tem sido criticada por possibilitar práticas como o “ethical washing” ou “ethical dumping”. Para evitar esses problemas, Floridi e Cows propõem a unificação dos modelos em cinco princípios-chave: quatro oriundos do principialismo bioético — não maleficência, beneficência, autonomia e justiça —, e o quinto, explicabilidade, específico para a IA. Para os autores, essa transposição da bioética para a ética da IA é possível dado a proximidade desses dois campos da ética aplicada.
Embora os autores do modelo principialista proposto na bioética, e apropriada pela ética da IA afirmem que sua construção se baseia em princípios historicamente fundamentados, co-iguais e não universais, a análise crítica decolonial feminista revela os vieses embutidos nas teorias dominantes da ética anglo-americana que fundamentam esta abordagem. Para essa crítica, a moralidade dominante, enraizada na tradição kantiana, prioriza perspectivas masculinas, refletindo suas experiências e preocupações. Ao enfatizar a imparcialidade, racionalidade e universalidade, essa concepção dissocia a moralidade da política, de modo que a política se torna instrumental para a aplicação dos princípios morais. Para a análise feminista e decolonial, essa concepção moral é problemática por diversos fatores. Primeiro, uma moral que não se pretende política dificilmente fornecerá argumentos para as mudanças estruturais centrais ao projeto feminista e decolonial. Segundo, ela oculta os vieses masculinos na interpretação de conceitos como autonomia, igualdade e justiça, e terceiro ela se baseia em generalizações falsas sobre valores e comportamento humano, descartando experiências de mulheres, da população racializada e de outros grupos socialmente marginalizados, cujas necessidades e interesses são negligenciados.
A crítica feminista decolonial sobre a abordagem principialista demonstra a insuficiência desta abordagem para lidar com injustiças estruturais e sistemas de opressão. Dentro da abordagem principialista na ética da IA, a interpretação de autonomia e justiça, dois conceitos chaves para estes modelos, exemplificam esta insuficiência. A autonomia é frequentemente representada como uma proficiência igualmente possuída por todos os adultos competentes em todas as circunstâncias. Essa visão individualista enfatiza a maximização de escolhas individuais, de indivíduos que aparecem isolados da história e do contexto social. Como resultado, o debate sobre autonomia prioriza questões de privacidade e restrição da escolha individual, muitas vezes reduzindo-a ao consentimento informado, sendo incapaz de capturar a dimensão relacional da autonomia, ou refletir sobre as inúmeras constrições que moldam a tomada de decisão.
Já a justiça é interpretada a partir de concepções rawlsianas e utilitaristas que mantêm o princípio de imparcialidade, desconsiderando, portanto, os contextos históricos e sociais que produzem desigualdades estruturais. A idealização proposta por essas teorias reduz as desigualdades relacionadas à IA a um problema de enviesamento de dados, e ao entendimento de equidade em IA como uma espécie de paridade estatística. Contudo, essa visão tecnocentrista ignora a relação entre produção de conhecimento e poder. Por exemplo, a dependência de dados oriundos de populações WEIRD (ocidentais, educadas, industrializadas, ricas e democráticas) e a exclusão histórica de grupos marginalizados de estudos clínicos não apenas tornam os dados enviesados, mas também priorizam preocupações alinhadas aos interesses do Norte Global. Essa priorização reforça desigualdades globais e epistemológicas, negligenciando as necessidades de populações específicas no Sul Global e perpetuando uma produção científica que corrobora o ponto de vista dominante.
A partir da crítica decolonial feminista à tradição filosófica que fundamenta a ética da IA baseada em princípios, torna-se evidente que essa abordagem não apenas é limitada em sua capacidade de enfrentar desigualdades estruturais, mas também contribui para perpetuar os sistemas de opressão existentes. Ao ignorar contextos históricos, sociais e políticos, o principialismo reforça assimetrias de poder globais. Nesse sentido, é necessário repensar as bases éticas da IA, privilegiando abordagens inclusivas que reconheçam contextos históricos, sociais e políticos.
Referencias
Bakiner, O. (2023). What do academics say about artificial intelligence ethics? An overview of the scholarship. AI and Ethics, 3(2), 513–525. https://doi.org/10.1007/s43681-022-00182-4
Floridi, L., & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review. https://doi.org/10.1162/99608f92.8cd550d1
Jaggar, A. M., & Tobin, T. W. (n.d.). Coloniality and Analytic Moral Epistemology in the Twentieth Century. Journal of Social Philosophy, n/a(n/a). https://doi.org/10.1111/josp.12594
Lin, T.-A., & Chen, P.-H. C. (2022). Artificial Intelligence in a Structurally Unjust Society. Feminist Philosophy Quarterly, 8(3/4), Article 3/4. https://doi.org/10.5206/fpq/2022.3/4.14191
Ricaurte, P. (2023). Epistemologias de dados, colonialidade do poder e resistência. Dispositiva, 12(22), 6–26. https://doi.org/10.5752/P.2237-9967.2023v12n22p6-26
Trazando el mapa del lenguaje: Un viaje de exploración entre la cognición humana y la inteligencia artificial
Palabras clave: gramática universal, innatismo, modelo probabilístico, redes neuronales, cognición.
Resumen
El debate sobre la naturaleza del lenguaje y su generación ha sido central en las ciencias cognitivas y la inteligencia artificial. Noam Chomsky, con su teoría de la gramática universal (Chomsky, 1957, 1965), sostiene que los humanos poseen una capacidad innata para adquirir el lenguaje, activada por una exposición mínima a estímulos externos. Esta teoría plantea que todos los seres humanos comparten un conjunto de reglas y estructuras lingüísticas comunes inscritas en la biología del cerebro humano. Sin embargo, los avances recientes en la inteligencia artificial y en modelos probabilísticos dentro de la psicología cognitiva han planteado importantes desafíos a esta visión innatista del lenguaje.
Este estudio tiene como objetivo comparar las teorías de Chomsky, Tenenbaum y Lecun, mientras se incorpora también la crítica de Marcus (2018) sobre la importancia de una predisposición innata en el desarrollo de la inteligencia artificial. De esta manera, se busca ofrecer una visión más amplia de los mecanismos del aprendizaje y la generación del lenguaje, tanto en seres humanos como en sistemas artificiales.
En la primera parte del estudio, se explora el debate entre Chomsky y Joshua Tenenbaum. Tenenbaum es un firme defensor del aprendizaje probabilístico bayesiano y critica la idea chomskiana de una gramática universal rígida. Según Tenenbaum, los seres humanos no necesitan una estructura lingüística preprogramada para aprender el lenguaje; más bien, utilizan procesos probabilísticos que les permiten generar y evaluar hipótesis sobre las reglas del lenguaje a partir de datos limitados. Este enfoque contrasta con la teoría innatista de Chomsky, ya que implica que los humanos son capaces de aprender de manera flexible y adaptativa, sin la necesidad de un conocimiento preestablecido.
El trabajo de Tenenbaum sugiere que el cerebro humano utiliza modelos probabilísticos para inferir las reglas lingüísticas, basándose en información ambigua o incompleta. A diferencia del enfoque chomskiano, que insiste en la existencia de una gramática universal rígida, Tenenbaum propone que el aprendizaje es un proceso activo, en el que las personas generan hipótesis sobre el lenguaje y las ajustan a medida que reciben más información.
Gary Marcus (2018) también participa en este debate, criticando tanto el innatismo de Chomsky como los enfoques puramente probabilísticos como el de Tenenbaum. Marcus argumenta que tanto el aprendizaje humano como el artificial requieren de ciertos principios innatos para ser efectivos. Según Marcus, aunque los sistemas de aprendizaje basados en datos han logrado resultados notables, como AlphaZero en el ajedrez, estos no pueden alcanzar una verdadera comprensión sin predisposiciones innatas que permitan a las máquinas generalizar de manera flexible y adaptarse a contextos nuevos. Marcus sostiene que la IA, al igual que el cerebro humano, necesita incorporar predisposiciones innatas para lograr una inteligencia más completa.
La segunda parte del estudio examina el debate entre Chomsky y Yann Lecun. Lecun defiende el uso de los Large Language Models (LLMs) como una forma de replicar el procesamiento lingüístico humano. Estos modelos, que funcionan a partir del análisis de grandes volúmenes de datos textuales, han logrado avances significativos en la generación de lenguaje. Sin embargo, Chomsky critica estos desarrollos, argumentando que los modelos de IA actuales no capturan la verdadera esencia del lenguaje humano, ya que operan principalmente mediante correlaciones estadísticas y no mediante una comprensión cognitiva genuina.
Lecun (2022), por su parte, argumenta que las redes neuronales todavía están en sus primeras etapas de desarrollo, pero que representan un avance crucial hacia la creación de una inteligencia artificial más avanzada. Lecun sostiene que, con mejoras continuas en la arquitectura y capacidad de procesamiento de estos modelos, las máquinas podrán acercarse a la inteligencia humana, incluida la capacidad de comprender el lenguaje de manera más profunda. Según Lecun, las redes neuronales tienen el potencial de superar algunas de las limitaciones actuales, como la falta de comprensión contextual o la dificultad para generalizar entre tareas diferentes.
Gary Marcus refuerza las críticas de Chomsky, señalando que, aunque las redes neuronales profundas han mostrado resultados impresionantes en tareas específicas, como la clasificación de imágenes o la traducción automática, estos sistemas carecen de la capacidad de generalización que caracteriza al aprendizaje humano. Marcus sostiene que las redes neuronales actuales no pueden aprender de manera efectiva sin incorporar algún tipo de predisposición innata que les permita adaptarse y generalizar mejor.
En la tercera parte del estudio, se integran las críticas y propuestas de Chomsky, Marcus, Tenenbaum y Lecun. La discusión se centra en cómo las críticas de Chomsky y Marcus a los modelos de IA actuales pueden ser abordadas mediante la combinación de los enfoques probabilísticos de Tenenbaum y los principios innatos propuestos por Marcus. La posibilidad de que los LLMs y otros modelos de inteligencia artificial incorporen mecanismos probabilísticos más sofisticados permitiría que las máquinas no solo imiten patrones lingüísticos, sino que también generen hipótesis y ajusten sus respuestas en función de la experiencia y la incertidumbre (Tenenbaum et al., 2011). Gary Marcus, en este contexto, refuerza la idea de que la incorporación de predisposiciones innatas en la IA es esencial para desarrollar una inteligencia más completa y capaz de generalizar a través de diferentes tareas y contextos.
Finalmente, este estudio sugiere que el futuro de la inteligencia artificial no solo se centrará en replicar patrones humanos, sino también en desarrollar una forma más sofisticada de "comprensión" y "razonamiento". Tenenbaum argumenta que los procesos probabilísticos son esenciales para el aprendizaje humano y pueden mejorar las capacidades de los sistemas de IA, permitiéndoles generar hipótesis y ajustar sus respuestas de manera más eficiente. Lecun, por otro lado, defiende que las redes neuronales profundas y los Large Language Models son pasos importantes hacia la creación de una inteligencia artificial autónoma, aunque admite que todavía existen limitaciones. Por su parte, Marcus refuerza la idea de que, además del aprendizaje basado en datos masivos, la IA necesita incorporar predisposiciones innatas, similares a las que posee el ser humano, para poder alcanzar una comprensión más auténtica del lenguaje y la cognición. El desarrollo futuro de la inteligencia artificial dependerá de la integración de estos enfoques.
Referencias
Chomsky, N. (1957). Syntactic Structures. The Hague: Mouton.
Chomsky, N. (1965). Aspects of the Theory of Syntax. MIT Press.
Lecun, Y. (2022). A Path Towards Autonomous Machine Intelligence. arXiv.
Marcus, G. (2018). Innateness, AlphaZero, and Artificial Intelligence. arXiv.
Tenenbaum, J. B., Kemp, C., Griffiths, T. L., & Goodman, N. D. (2011). How to grow a mind: Statistics, structure, and abstraction. Science, 331(6022), 1279-1285. https://doi.org/10.1126/science.1192788
Valores, riesgo inductivo y el problema de la opacidad en Machine Learning
Palabras clave: valores no epistémicos, riesgo inductivo, entendimiento científico, modelos en machine learning
Resumen
Los filósofos de la ciencia han reconocido el papel ineludible que desempeñan los valores en la evaluación de los riesgos inductivos asociados con la aceptación de una hipótesis, señalando que, cuando esta tiene consecuencias no epistémicas, la evaluación de tales riesgos debe incorporar valores no epistémicos. En las últimas décadas, el creciente interés por el riesgo inductivo ha ampliado esta perspectiva, destacando que dichos riesgos no solo están relacionados con la aceptación de hipótesis, sino también con decisiones en la elección de metodologías, la caracterización de los datos y la interpretación de los resultados. Además, se ha puesto de relieve la existencia de diversas clases de riesgos inductivos vinculados a las decisiones tomadas por los científicos durante los procesos de abstracción e idealización, fundamentales en la construcción de modelos científicos.
En este sentido, resulta relevante examinar el papel que desempeñan los valores no epistémicos en la construcción de los modelos utilizados en el denominado "aprendizaje automático" (machine learning). En particular, en este contexto ha surgido una discusión sobre cómo esta clase de valores influyen en el problema de la opacidad; es decir, el problema de comprender cómo modelos complejos, como las redes neuronales profundas, toman decisiones y si, a pesar de esta falta de inteligibilidad, pueden proporcionar entendimiento válido sobre un fenómeno u objeto de estudio. El propósito de esta ponencia es delinear los principales ejes de esta discusión a partir de tres preguntas clave: ¿En qué se diferencian los modelos científicos tradicionales de los utilizados en machine learning? ¿Bajo qué condiciones los modelos de machine learning pueden ofrecer entendimiento sobre un objeto de estudio? ¿Qué papel desempeñan los valores no epistémicos en la delimitación del problema de la opacidad?
Referencias
Biddle, J. B. (2020). On predicting recidivism: Epistemic risk, tradeoffs, and values in machine learning. Canadian Journal of Philosophy, 1–21.
Creel, K. A. (2020). Transparency in complex computational systems. Philosophy of Science, 87(4), 568–589.
Søgaard, A. (2023). On the opacity of deep neural networks. Canadian Journal of Philosophy, 53(3), 224–239.
Sullivan, E. (2022). Inductive risk, understanding, and opaque machine learning models. Philosophy of Science, 89(5), 1065–1074.
Sullivan, E. (2023). How values shape the machine learning opacity problem. In I. Lawler, K. Khalifa, & E. Shech (Eds.), Scientific understanding and representation (pp. 306–322). Routledge.
Participación ciudadana e inteligencia artificial en la gestión de riesgos sanitarios
Palabras clave: Participación activa del paciente, ciencia posnormal, comunidad de pares extendida, riesgo tecnológico, inteligencia artificial
Resumen
En el contexto de la cultura clínica contemporánea, la noción de participación activa del paciente (patient engagement) está cobrando mucha fuerza. Plantearé que esta forma de participación ciudadana en ciencia y tecnología podría justificarse debido a sus implicaciones filosóficas –concretamente éticas y epistemológicas– y a sus implicaciones pragmáticas. También consideraré las formas en que la inteligencia artificial podría afectar la participación ciudadana y la gestión de riesgos en la atención médica.
Para comprender la noción de participación activa del paciente, primero debemos considerar las nuevas ideas de ciencia y tecnología que están surgiendo en nuestra actual “sociedad del riesgo” (Beck, 1986). La metodología que Kuhn (1962) caracterizaba como “ciencia normal”, que se regía únicamente por la contrastación de hipótesis y el razonamiento lógico-deductivo, es completamente insuficiente en estos “tiempos posnormales”, desbordados por hechos dudosos, conflictos de intereses y decisiones inmediatas (Funtowicz & Ravetz, 1993). Ni la neutralidad axiológica ni el gobierno de los expertos puede garantizar la calidad del conocimiento científico o la reducción del riesgo (en parte porque el riesgo contemporáneo es predominantemente de origen científico-tecnológico). Por lo tanto, ante la enorme impredecibilidad de los hechos, la falsa dicotomía hecho-valor y la tendencia actual en el discurso académico a enfatizar la importancia ética, epistémica y pragmática del diálogo entre diferentes agentes, está surgiendo un nuevo modelo de metodología científica: el modelo de ciencia posnormal de Funtowicz y Ravetz.
Una característica esencial de este modelo es la presencia de una “comunidad de pares extendida”. En tiempos posnormales, la ciencia no puede hablar con una sola voz. A medida que pasamos de la ciencia básica a la ciencia aplicada, de la ciencia aplicada a la consultoría profesional y de la consultoría profesional a la ciencia posnormal, la comunidad de pares que evalúa la calidad de la investigación se expande: incluye no solo a los especialistas, sino también a los usuarios de productos tecnológicos, a clientes de servicios sociales y a todos los miembros de la población en riesgo.
El fenómeno de la participación activa del paciente es un claro indicio de que la ciencia posnormal también ha cruzado las barreras de la medicina. Por ejemplo, en la investigación y el tratamiento de enfermedades crónicas, raras o estigmatizadas, los pacientes y otros grupos afectados han generado y evaluado conocimiento científico y tecnológico junto con los expertos. Esta colaboración es especialmente necesaria en el contexto médico actual, donde los procesos genéticos se caracterizan con mucha más exactitud y los especialistas ya no pueden permanecer en un solo lugar; deben desplazarse constantemente de la clínica al laboratorio o de un campo a otro. La perspectiva global y contextual del paciente es crucial para orientar a los expertos en esta gran complejidad disciplinar, es crucial tanto por razones éticas como epistemológicas: “éticas” porque otorga a los pacientes autonomía individual en la toma de decisiones sobre su propia salud; “epistemológicas” porque mejora las técnicas de investigación y tratamiento en medicina.
La participación activa del paciente también podría justificarse por razones pragmáticas, ya que desempeña un papel clave en la mitigación de ciertos riesgos tecnológicos provocados por la excesiva medicalización tan frecuente hoy en día, como la llamada “cascada iatrogénica”, la cronificación de enfermedades, la creación de dependencias y lo que se conoce como "disease mongering" (Payer, 1992). Con simplemente averiguar sobre los objetivos del tratamiento, las opciones de dosificación, la interferencia con otros medicamentos o los ensayos clínicos realizados hasta la fecha sobre el tratamiento, los pacientes ya pueden contribuir de manera significativa en la reducción de esos riesgos tecnológicos.
En cuanto a la inteligencia artificial, esta podría ser, por un lado, un instrumento de mediación entre el paciente y los conocimientos especializados, lo que impulsaría el cierre de la brecha entre los agentes expertos y los ciudadanos que reciben tratamiento o brindan atención médica a personas cercanas a ellos (por ejemplo, a través de chatbots de salud y atención médica). No obstante, la IA podría, por otro lado, agravar los riesgos mencionados ya que es capaz de “justificar” elaboradamente (utilizando ChatGPT, por ejemplo) la necesidad de un tratamiento farmacológico que en realidad acarrea más problemas que beneficios.
En cualquier caso, no parece que la IA pueda reemplazar por completo la práctica médica en el diagnóstico, pronóstico y tratamiento de enfermedades. Además de ser una tecnología, porque se basa en principios científicos para alcanzar su fin práctico de sanar, la medicina es un arte, en cuanto que técnica. Como las artes, la medicina implica necesariamente la prudencia, la cual, sin embargo, está ausente en los algoritmos de inteligencia artificial. Ciertamente, como modelo de lenguaje, estos algoritmos pueden aplicar lo que Anscombe (1957) llamaba “leyes éticas”, haciendo referencia a leyes morales universales como el imperativo categórico de Kant o el principio de utilidad de Bentham y Mill. Pero estas leyes en la ética normativa son defectuosas, porque no pueden calcular la prudencia, la deliberación ni la consideración de circunstancias concretas, obstruyendo espacios en los que los pacientes pueden tener un papel activo en la toma de decisiones y la gestión de riesgos tecnológicos.
La participación activa del paciente, como exponente de la comunidad de pares extendida en el contexto sanitario actual, no solo obedece a principios éticos, sino que contribuye al avance del conocimiento médico y ayuda a combatir riesgos propios de la cultura clínica en la que vivimos. En algunos aspectos, estos componentes éticos, epistemológicos y pragmáticos podrían verse fortalecidos con la introducción de la inteligencia artificial en la práctica facultativa médica. No obstante, la IA también podría suponer una amenaza para esta forma de participación ciudadana en ciencia y tecnología, pues podría privar a la medicina de una parte esencial suya: la prudencia.
Referencias
Anscombe, G.E.M. (1957). Intention. New York: Cornell University Press.
Beck, U. (1986). La sociedad del riesgo: hacia una nueva modernidad (Trad. Jorge Navarro, Daniel Jiménez, M° Rosa Borras). Barcelona: Paidós, 1998.
Funtowicz, S. & Ravetz, J. (1993). Science for the post-normal age. Futures, 25(7), 739- 755.
Kuhn, T. S. (1962). The Structure of Scientific Revolutions. London: The University of Chicago Press.
Payer, L. (1992). Disease-mongers: how doctors, drug companies, and insurers are making you feel sick. New York: Wiley.
Ética de la inteligencia artificial en la investigación científica
Palabras clave: ética de la IA, ética de la investigación, IA en ciencia.
Resumen
La inteligencia artificial (IA) está siendo empleada de manera creciente en la actividad científica. Los grandes modelos de lenguaje (LLM) se han convertido en herramientas altamente atractivas para el personal investigador. Algunos chatbots son de utilidad para apoyar el proceso creativo inicial, ayudando en el brainstorming y diseño inicial de los experimentos. Otros chatbots sirven para buscar referencias bibliográficas, mientras que otros LLM más conocidos permiten mejorar la redacción de los artículos científicos. A estas prácticas incipientes hay que sumarle el uso ya común de algoritmos de IA cómo método de investigación en múltiples proyectos científicos. El procesamiento de datos masivos y su habilidad para realizar inferencias y encontrar patrones, están convirtiendo a la IA en una tecnología que promete revolucionar múltiples áreas del conocimiento.
El uso de la IA en la ciencia, sin embargo, no está exenta de desafíos éticos. ¿Qué usos de la IA suscitan más problemas desde la ética de la investigación? ¿Cómo afecta el uso de LLM al reconocimiento de la autoría científica? ¿Qué prácticas se están mostrando más indeseables desde la ética de la IA aplicada a la investigación? Esta ponencia pretende abordar estas cuestiones de rabiosa actualidad. El objetivo principal es cartografiar los principales retos éticos del empleo de la IA en la ciencia y la actividad investigadora. La estructura de la charla será la siguiente. En primer lugar, se resumirán los principales usos actuales y emergentes de la IA en el mundo académico-científico. Despúes se mostrarán algunos de los desafíos morales y sociales más llamativos, que surgen en la intersección entre la ética de la investigación y la ética de la IA. A continuación, se presentarán las recomendaciones éticas principales para el uso de la IA en ciencia e investigación. Estas recomendaciones cuentan tanto con principios generales, como con recomendaciones éticas específicas a usos concretos de la IA en los distintos niveles de la actividad científica y académica. Estos resultados se enmarcan dentro del proyecto MOMENTUM (financiado por NextGeneration de la Unión Europea y el Ministerio para la Transformación Digital y la Función Pública del Gobierno de España).
Big Data y trabajo impago: Replanteando la frontera entre productividad y ocio en la era digital
Palabras clave: big data, marxismo feminista, economía digital, neoliberalismo, trabajo impago
Resumen
La recolección y el análisis de big data en el marco de la economía digital actual son actividades fundamentales en la producción del capitalismo contemporáneo. Aunque la práctica de producción de datos genera un valor económico significativo, ha sido constantemente obviada o no reconocida en el los análisis de economía política alrededor de la tecnología. En los últimos años, ha habido un desplazamiento en el neoliberalismo global que apunta a un papel cada vez más central a la extracción de datos para una variedad de propósitos, como la personalización de algoritmos, la coordinación y subcontratación más efectiva de trabajadores, la creación mediante inteligencia artificial, mayor flexibilidad de producción y la gestión de los mercados.
Si bien el marxismo ha dedicado grandes esfuerzos teóricos en los últimos años en pensar en el impacto de las nuevas tecnologías y lo que estas suponen para el trabajo remunerado y no remunerado, aquí me gustaría plantear que ciertas categorías propias del feminismo marxista pueden dar un marco teórico valioso para entender la explotación de datos en la economía digital contemporánea.
Mi propuesta en este trabajo se basa en defender que el papel de la tecnología centrada en la extracción de ganancias por medio del análisis de datos supone un cuestionamiento a los esquemas clásicos que plantean una distinción clara entre tiempo de trabajo y tiempo de ocio. Y, en ese mismo movimiento, entre vida privada y vida pública. Es decir, la valorización de la big data en la economía digital contemporánea nos puede llevar a pensar en la extracción de ganancias del tiempo no remunerado, es decir, la valorización del tiempo de ocio.
Dicho esto, busco plantear que el fenómeno de la valorización de los datos puede ser entendido a través de la perspectiva del feminismo marxista, que, históricamente, ya ha cuestionado la división entre “tiempo de trabajo” y “tiempo de ocio” a partir del su análisis del trabajo reproductivo y del trabajo de cuidados como formas de trabajo impago. Y, subsecuentemente, planteando que este trabajo no remunerado es una de las bases esenciales para la reproducción del sistema capitalista. Con esto, busco proponer un acercamiento a las nuevas tecnologías y la producción de datos utilizando categorías teóricas planteadas inicialmente por el marxismo feminista para pensar el trabajo impago. Esto pues, tanto el trabajo impago como la datificación del tiempo de ocio producen relaciones subjetivas que funcionan como vehículos para la acumulación capitalista y que sin embargo se encuentran fuera de la esfera pública de la producción de valor descrita en el marxismo clásico.
En este contexto, tanto el big data como los trabajos de cuidado, pueden verse como elementos que sostiene al capital neoliberal pero que no se inscriben en la temporalidad del trabajo estrictamente productivo en el sentido clásico y que escapan lo denominada “esfera pública”. Con esto, se busca proponer un análisis de la temporalidad neoliberal que de cuenta de los modos en las que el tiempo fuera del marco estrictamente “productivo” puede ser puesto al servicio de la acumulación y, más allá de eso, sostenerla. El concepto de trabajo impago, central en la teoría feminista marxista, hace referencia a las labores necesarias para la reproducción de la fuerza laboral, como el cuidado y las tareas domésticas, que, aunque no generen productos directamente vendibles, son esenciales para la acumulación de capital. La reproducción social es la condición previa para la producción y, por lo tanto, crea valor. En la misma línea, la recolección de datos personales y su análisis a gran escala se realiza sin remuneración directa, pero es un elemento clave en la creación de valor en la economía digital, ya sea a través de la publicidad dirigida o la optimización de procesos de consumo. Del mismo modo que el trabajo impago feminizado ha sostenido históricamente la relaciones sociales de producción capitalista, la producción de datos en redes, sostiene ahora las relaciones de consumo y producción de contenido sobre las que se despliega el capital neoliberal en la era digital.
Con esto, busco defender una perspectiva que deje ver el papel de la tecnología digital en la extracción de ganancias del tiempo no remunerado y a la vez mostrar que, el modo concreto en el que este movimiento opera, implica una extracción de valor del tiempo libre invertido en la virtualidad. Es decir, la datificación del tiempo libre implica una homogeneización operando dentro de nuevas relaciones sociales y más allá del tiempo de producción y de la relación salarial o, dicho de otro modo, el “principio de equivalencia general” empieza a operar en nuevos espacios de la temporalidad neoliberal permitiendo la posibilidad de producir valor mediante nuevas actividades humanas. Así, el consumo digital ya no se limita a la simple adquisición de productos o servicios; ahora implica un proceso de acumulación de datos que se comercializan para generar más ganancias. Este fenómeno refleja cómo la lógica de homogeneización, antes reservada a la esfera pública del trabajo, ahora impregna nuevas las esferas de la vida social y tradicionalmente “privada”.
Con esto, mi reflexión invita a un análisis en el que los conceptos de la teoría feminista de orden marxista, permitan dar cuenta de una temporalidad que muestre que el tiempo invertido fuera de lo que es estrictamente “tiempo productivo” también puede ser puesto al servicio, y de hecho sostener, la acumulación del capitalismo actual. En este movimiento, también busco preguntarme por las categorías filosóficas del trabajo y valor, y sobre la validez de esquemas duales como “vida privada” y “vida pública” o “tiempo de trabajo” y “tiempo de ocio” en el desarrollo actual del neoliberalismo digital.
Referencias
Crain, M. G., Poster, W. R., & Cherry, M. A. (Eds.). (2016). Invisible labour: Hidden work in the contemporary world.University of California Press.
Federici, S. (2003). Caliban and the witch: Women, the body and primitive accumulation. Autonomedia ; Pluto.
Fraser, Nancy (2016), ‘Capitalism’s Crisis of Care.’ Dissent, 63 (4): 30-37.
Fraser, N. (2016). Contradictions of capital and care. New Left Review, 100, 99–117.
Marx, K. (1990). El capital: crítica de la economía política. Tomo I, Volumen 1. México: Siglo XXI Editores.
S
Organismo, providencia y tecnociencia en perspectiva histórica
Palabras clave: Historia de la ciencia, providencia, tecnociencia, organismo, Cosmógrafos, Virreinato peruano
Resumen
El presente trabajo reflexiona, desde una perspectiva histórica, sobre la relación entre la perspectiva ontológica que acompañó los inicios de la reflexión científica y su actual dinámica tecnológica. Para Aristóteles, ciencia y filosofía eran equivalentes (como episteme) pues esta última la definía como la ciencia de las primeras causas y primeros principios. Es decir, el saber epistémico se ocupaba de aquello que no está sujeto a la contingencia. Esto le permitirá ocuparse de un problema ontológico, el de la physis. Pues ya no estaría sujeta al dilema de la contingencia –lo que es no puede no ser. El carácter contingente de la naturaleza adquiere racionalidad –logos- si su movilidad está organizada de modo tal que se dirige hacia un fin. La tarea de la sabiduría primera es conocer la finalidad suprema, mientras que los otros saberes epistémicos indagan por los principios de tal o cual ente, en vistas a aquel fin general. Lo que ahora llamaríamos el aspecto cultural del hombre, se integraba como un elemento más de dicha physis, por lo que la tarea del saber era contemplar el orden teleológico. No era urgente modificarlo. De esta forma, las técnicas utilizadas no pretendieron su transformación en aras de la productividad, sino que estarían subordinadas a los fines de la comunidad: la autarquía (Martínez et al., 2016).
Con la aparición paulatina de los presupuestos ontológicos de la ciencia ilustrada –entes mecánicos y corpusculares- las técnicas adquieren la justificación necesaria para someter el entorno natural a enormes transformaciones. Es en paralelo a estas transformaciones conceptuales que aparece en el Virreinato peruano una serie de pensadores ilustrados y Cosmógrafos que aportan una perspectiva crítica al mecanicismo corpusculista. Esta “epistemología patriota” (Cañizares, 2007), resistirá los esfuerzos científicos mencionados apelando a la teología providencialista (Cosme Bueno, 1711-1798) y al organicismo (Hipólito Unanue, 1755-1833). Si entendemos que la modernidad significa principalmente una dinámica temporal que quiebra el círculo de las tradiciones y somete al sujeto moderno a la incertidumbre y aceleración intensiva del futuro (Koselleck, 1993), los eruditos coloniales mencionados buscan contrarrestar esa experiencia apelando a la fe providencial (Sánchez, 2016) o a la unidad orgánica del hombre con la naturaleza (Ballón, 2007).
Entonces creemos que la aparición del horizonte moderno puso en juego dinámicas temporales que serán difícilmente compatibles en nuestra región americana. Y que podríamos interpretar la dinámica intelectual de estos Cosmógrafos como una manera de responder ante la incertidumbre y aceleración del tiempo. Visto ya desde las preocupaciones actuales, ante la aparición de un horizonte histórico en el que la tecnociencia abre la posibilidad de la puesta en riesgo, no solo la convivencia humana global, sino su supervivencia como ente natural -añadido a la modificación de la temporalidad que significa la implementación de los dispositivos de inteligencia artificial (IA)- creemos que podemos considerar, desde otra perspectiva, tanto los objetivos como los límites a los que se enfrentaron los epistemólogos patriotas mencionados.
Referencias
Ballón, José-Carlos. (2005). Hipólito Unanue visto por Augusto Salazar Bondy: La tradición organicista de la ciencia en el Perú. Anales de la Facultad de Medicina, 66(4), 328-343. Recuperado en 14 de diciembre de 2024, de http://www.scielo.org.pe/scielo.php?script=sci_arttext&pid=S1025-55832005000400010&lng=es&tlng=es.
Cañizares Esguerra, Jorge (2007). Cómo escribir la historia del Nuevo Mundo. Historiografías, epistemologías e identidades en el mundo del Atlántico del siglo XVIII. FCE.
Koselleck, Reinhart (1993). Futuro pasado. Para una semántica de los tiempos históricos. Paidos.
Martínez Botija, Sergio, Pinto Freyre, Jesús, & Santamaría Pérez, Adrián. (2016). Aristóteles en los orígenes del nacimiento de la ontología. Ene, 10(3) Recuperado en 14 de diciembre de 2024, de http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S1988-348X2016000300003&lng=es&tlng=es.
Sánchez Montenegro, Verónica Matilde (2016). El problema de la ciencia en el Virreinato del Perú, Siglo XVIII Francisco Antonio Cosme Bueno y Alegre: algunas de sus coincidencias con el mexicano Andrés de Guevara y Basoazábal. [Tesis Doctoral, Universidad Nacional Autónoma de México]. Repositorio de Tesis DGBSDI https://hdl.handle.net/20.500.14330/TES01000746827
Ética de la inteligencia artificial: la necesidad de una ética proléptica
Palabras clave: inteligencia artificial, ética proléptica, prolepsis, posthumanismo, mejoramiento humano, privacidad, autonomía, determinismo tecnológico, anticipación moral, ética aplicada
Resumen
La inteligencia artificial, campo de estudio surgido en la década de 1950, se ha consolidado como una herramienta fundamental en el desarrollo tecnocientífico en la actualidad, y afecta múltiples dimensiones del quehacer humano y el ambiente en que se desenvuelve. Su premisa fundamental radica en la posibilidad de emular actividades humanas consideradas inteligentes mediante sistemas informáticos, particularmente a través de “redes neuronales” artificiales que procesan información, aprenden y se adaptan a partir de datos (Bezlepkin & Zaykova, 2021).
Sin embargo, este desarrollo enfrenta dos obstáculos principales: la complejidad inherente a la definición de inteligencia y una falta de consenso sobre orientaciones éticas y axiológicas para su análisis, aprobación y ejecución. La primera es una problemática que se relaciona con dicotomías tradicionales como la del problema mente-cerebro y cuerpo-alma, que históricamente se han abordado desde tres perspectivas: como pseudoproblema, como problema irresoluble, o como problema con posibles soluciones (Bunge, 1985), y sólo desde la última se ha podido, como es de esperarse, ofrecer algún tipo de respuesta, que ha terminado por ser la más productiva, a los fines del campo de estudio en cuestión, aquella que operativiza las funciones biológicas que se consideran importantes para la manifestación de inteligencia, de manera que las convierte en fácilmente replicables mecánicamente.
A pesar de las dificultades conceptuales, desde la IA se ha logrado avances significativos en diversos campos. En medicina se destaca la capacidad para procesar grandes volúmenes de datos clínicos, lo que ha contribuido al diagnóstico y la puesta en práctica de una medicina personalizada (Rigby, 2019; Loh, 2018), aunque también se han generado problemas morales, como la oferta preferencial de tecnologías médicas basada en criterios puramente económicos (Khan et al., 2022).
En el ámbito político, los desarrollos en IA han facilitado mecanismos de control y operatividad, empero, la ausencia de marcos éticos y normativos adecuados, ha provocado que se llame la atención sobre problemas como la desinformación, la polarización inducida y los problemas relacionados a la privacidad (Telkamp & Anderson, 2022). Particularmente preocupante resulta la vulnerabilidad de los sistemas de información y la invasión de la privacidad en el contexto de la gobernanza digital (López et al., 2023).
Finalmente, para terminar con los principales campos que colocaremos de ejemplo, los avances en biotecnología han abierto posibilidades de modificación genética, heredable, que podrían alterar permanentemente las características de la especie humana o, incluso, de crear nuevas especies. La técnica denominada “aprendizaje profundo” ha mejorado la precisión en la predicción de estructuras proteicas (Jumper et al., 2021), mientras que aplicaciones en técnicas como CRISPR-Cas9 han hecho muy accesible la edición genómica (Zhang et al., 2022), planteando escenarios que hasta hace poco solo aparecían en la ciencia ficción (Kirby, 2020).
Ante esta realidad se propone desarrollar una actitud ética proléptica: una disposición epistémica, afectiva y práctica que se orienta hacia la anticipación y el cuidado responsable del futuro. Esta actitud ética resulta necesaria porque los avances en IA tienen implicaciones que trascienden lo inmediato y la celeridad con que desde la tecnologías se entregan productos novedosos exige capacidad de anticipación para prevenir consecuencias negativas.
La actitud proléptica implica desarrollar una imaginación moral para visualizar posibles escenarios futuros, cultivar sensibilidad hacia consecuencias intergeneracionales y para el ambiente, y mantener un compromiso activo con condiciones que posibiliten un desarrollo tecnológico beneficioso para la humanidad y su entorno. Esta perspectiva abre nuevos horizontes para repensar la relación humanidad-tecnología, centrándose en preguntas fundamentales sobre el futuro deseado, la naturaleza de la inteligencia y la consciencia, y nuestra responsabilidad hacia las próximas generaciones y la naturaleza.
Esta propuesta se fundamenta en la premisa de que la reflexión y el diálogo sobre la inteligencia artificial, y sobre la tecnología en general, deben orientarse hacia la construcción de principios éticos y marcos normativos que guíen sus desarrollos de manera que beneficien a la sociedad en su conjunto, considerando tanto las necesidades presentes como también las implicaciones futuras de las decisiones actuales.
Referencias
Bezlepkin, E. A., & Zaykova, A. S. (2021). Neurofilosofía, filosofía de las neurociencias y filosofía de la inteligencia artificial: el problema de la distinción. Философские науки, 64(1), 71-87. https://doi.org/10.21146/2413-9084-2021-64-1-71-87
Bunge, M. (1985). El problema mente-cerebro. Tecnos.
Cobianchi, L., Verde, J. M., Loftus, T. J., Piccolo, D., Dal Mas, F., Mascagni, P., & Kaafarani, H. M. (2022). Artificial Intelligence and Surgery: Ethical Dilemmas and Open Issues. Journal of the American College of Surgeons, 235(2), 268-275.
Jumper, J., Evans, R., Pritzel, A., Green, T., Figurnov, M., Ronneberger, O., & Hassabis, D. (2021). Highly accurate protein structure prediction with AlphaFold. Nature, 596(7873), 583-589.
Khan, S., Chanchal, D. K., Singh, G., Gupta, S., & Porwal, P. (2022). Artificial Intelligence as an Essential Tool for the Development of Medicine Requirement. Research Journal of Medicine and Pharmacy, 1(1).
Kirby, D. A. (2020). Genetically Modified Cinema: Film as Public Education About Biotechnology. Science Communication, 42(3), 318-343.
Loh, E. (2018). Medicine and the rise of the robots: a qualitative review of recent advances of artificial intelligence in health. BMJ Leader, 2(2), 59-63.
López, P. C., Maldonado, A. M., & Ribeiro, V. (2023). La desinformación en las democracias de América Latina y de la península ibérica: De las redes sociales a la inteligencia artificial (2015-2022). Uru: Revista Latinoamericana de Comunicación, 8(5), 69-89.
Rigby, M. J. (2019). Ethical Dimensions of Using Artificial Intelligence in Health Care. AMA Journal of Ethics, 21(2), 121-124.
Telkamp, J. B., & Anderson, M. H. (2022). The Implications of Diverse Human Moral Foundations for Assessing the Ethicality of Artificial Intelligence. Journal of Business Ethics, 178(4), 961-976.
Zhang, Y., Chen, F., & Dai, X. (2022). Artificial intelligence in CRISPR genome editing. Nature Machine Intelligence, 4, 142-152.
Máquinas y devenir: convergencias entre individuación, autopoiesis y meta-técnica
Palabras clave: Individuación, autopoiesis, meta-técnica, devenir, recursividad
Resumen
Los resultados semi-estocásticos obtenidos con el procesamiento masivo de datos a través de los LLMs (Large Language Models), popularmente conocidos como inteligencias artificiales, nos invitan a reflexionar sobre la dimensión teleológica y autoorganizativa de esta tecnología. Se abre el debate acerca de hasta qué punto podríamos anticipar sus salidas; así como su propio desarrollo interno, el cual proyecta esquemas de diseño y toma de decisiones alternativos, diferentes a la evolución y a las metodologías determinísticas propias de la ingeniería.
Con una perspectiva más amplia, podemos enmarcar la discusión desde tres enfoques complementarios que ofrecen luces sobre la fenomenología del devenir, tanto en seres vivos como en no-vivos, tales como las máquinas y algoritmos. A saber, desde los conceptos de individuación, autopoiesis y meta-técnica.
En el contexto de la filosofía de la técnica, el trabajo de Gilbert Simondon ofrece una descripción fenomenológica detallada del proceso de individuación de todos los entes, particularmente de los objetos técnicos. Su explicación parte por reconocer la existencia pre-individual de los entes (análoga a la noción de energía potencial) hasta la concretización e individuación de estos, después de alcanzar un equilibrio metaestable.
En el análisis de Simondon, se identifican varios tipos de individuación, entre ellas las biológicas, psíquicas y físicas, concernientes a los seres vivos y no-vivos. Precisamente, los biólogos investigadores Humberto Maturana y Fernando Valera propusieron el concepto de autopoiesis en un intento de profundizar y comprender los mecanismos de autoorganización, recursividad, automaticidad y autopreservación de los entes orgánicos e inorgánicos, examinando la frontera difusa que los separa.
En este mismo orden de ideas, el filósofo Ernesto Mayz Vallenilla propuso una crítica de la razón técnica, particularmente la que ha caracterizado a la tecnociencia del siglo XX. Inspirado en el trabajo de Kant, deconstruyó esa ratio technica en categorías, entre las cuales, y sin proponérselo, encontramos significativas convergencias con los conceptos de individuación y autopoiesis ya mencionados.
Así, Mayz Vallenilla explica fenomenológicamente cómo el ser humano de nuestro tiempo también está en constante devenir en su total constitución somato-psíquica; complementando, sustituyendo o alterando sus sentidos innatos con objetos técnicos. Esto implicaría directos cambios en su episteme, que lo dirigen hacia una nueva realidad meta-técnica, de otros logos de difícil determinación. Sus aportes de hace 50 años mantienen su vigencia en el presente, en debates relativos a la cibernética, transhumanismo, individuación psíquica e inteligencia artificial.
El objetivo de esta presentación consistirá en explorar los puntos de encuentro y la complementariedad que hay entre la individuación, la autopoiesis y la teoría meta-técnica, para luego aplicar sus fundamentos comunes al análisis de objetos técnicos digitales, como los algoritmos de inteligencia artificial.
A través de esta metodología será posible proponer una descripción y mayor comprensión del devenir de esta tecnología emergente en lo antropológico, pero también de su devenir interno, en tanto proceso automático, autárquico, recursivo y semi-estocástico.
Finalmente, señalaremos los alcances y límites de estas aproximaciones; y un par de perspectivas adicionales, desde la física (principio de mínima acción) y la teología (ratio seminalis), que también enriquecen la discusión sobre el dinámico devenir presente tanto en los seres humanos como en los objetos técnicos.
Referencias
Hui, Y. (2022). Recursividad y contingencia. 1ª Ed. (Editorial Caja Negra). Buenos Aires.
Mayz, E. (1993). Fundamentos de la meta-técnica. 1ª Ed. (Gedisa). Barcelona.
Mayz, E. (1974). Esbozo de una crítica de la razón técnica. 1ª Ed. (Equinoccio). Caracas.
Simondon, G. (2015). La individuación a la luz de las nociones de forma y de información. 1ª Ed. (Editorial Cactus). Buenos Aires.
Maturana, H., Valera, F. (2004). De máquinas y seres vivos. Autopoiesis: la organización de lo vivo. 1ª Ed. (Editorial Lumen). Barcelona.
T
Valoración identitaria del cuerpo en el cibermundo
Palabras clave: cibercuerpo, bienestar, salud, identidad.
Resumen
El desarrollo de las sociedades ha estado condicionado por el avance de las ciencias, el uso de las tecnologías y las técnicas. Esto ha permitido el avance en la mejora de la salud y la apariencia corpórea. Las diferentes aplicaciones tecnológicas sobre el cuerpo han favorecido el desarrollo de técnicas en la búsqueda de responder a las necesidades sobre el posicionamiento identitario del ser en el mundo, en concordancia con el ideal de belleza pensado y establecido en las diferentes sociedades. En efecto, en torno a la constante construcción y modificaciones del cuerpo, el sujeto persigue continuamente la reafirmación de lo socialmente impuesto a fin de establecer un discurso.
Se sabe que en el devenir planetario se desarrollaron los sujetos en los diferentes contextos, a partir de la presencia de un sin número de vidas unicelulares. Que luego se estructuraron como organismos multicelulares y que, posteriormente, se conformaron en cuerpos estéticamente constituidos. En cualquier caso, dichos cuerpos permitieron la representación simbólica de la belleza en el sujeto como ser ontológico, pasando así nuestros ancestros por diversos saltos evolutivos, dentro de los que cabe mencionar el desarrollo de la cognición. Es así como la carne empoderada de razonamiento convertiría al sujeto en un ente pensante, portador de subjetividades que inclinaban la mirada hacia la búsqueda y adquisición de nuevos conocimientos, que permitieron identificar, por una parte, la dualidad constituida entre la anexión de la imagen corporal ‒auto-observada y, a la vez, admirada o descalificada por el contexto‒ y, por otra parte, la autovaloración de lo existente a lo interno del individuo, lo cual en gran número de ocasiones, sufre una trasformación o distorsión en la manera en que se presenta a los demás.
Desde la dimensión antropológica, se rescatan algunos elementos que constituyen importantes puntos de reflexión en la dimensión psico-social contemporánea relacionada con la subjetividad identitaria de los sujetos en los ámbitos de la globalización y la mundialización cultural del sujeto cibernético, esto hace referencia a las llamadas identidades emergentes, las cuales surgen a partir de un cambio espacio-temporal brusco en la dinámica de vida de las sociedades a causa de la incorporación del fenómeno tecnológico.
Los beneficios que arroja la Inteligencia Artificial (IA) sobre el bienestar y la apariencia física permiten centrarnos en la idea del perfeccionamiento del cuerpo a través del uso de las biotecnologías y su impacto en la sociedad. La valoración identitaria del cuerpo en el cibermundo implica el desarrollo de avances importantes en las ciencias de la salud y de cómo estas responden a la demanda del sujeto en cuanto a la necesidad y el deseo. Dichas acciones, enfocadas en el alcance propuesto, dejan de lado en determinadas ocasiones aspectos inherentes a la dignidad humana, pues el sujeto, desprovisto de una identidad que ha sido sustituida por las exigencias estéticas del contexto, pone en marcha una serie de procedimientos mediados por la biotecnología, que desvirtúan el cuerpo-propio. De ahí que nos encontremos mujeres y hombres con rasgos prominentes en algunas estructuras anatómicas manipulados estéticamente, que no se corresponden con la edad o etapa de vida del sujeto.
De modo que, estos avances recientes en tecnología indican que es posible el incremento de mejorar en la capacidad cognitiva, el estado de salud y bienestar físico, lo cual puede favorecer al desarrollo de mejores habilidades personales e interacciones sociales. Esto permite reflexionar sobre la siguiente cuestión: ¿somos lo que realmente somos o lo que la técnica nos permite ser?.
Referencias
Arendt. H. (1993/2016). La condición humana. (Ramón Gil Novales, Trad.). Paidós. Barcelona.
Galparsoro, J. (2019). Más allá del Posthumanismo. Antropotécnica en la era digital. Ed. Comares.Eikasía Revista de Filosofía, (104), 263-266.
Le Breton, D. (2021). Antropología del cuerpo y modernidad. (J. Gorrais y N. Del Frari, trad.). Prometeo Libros.
Merejo, A. (2015). La era del cibermundo. Editora Nacional República Dominicana.
Merleau-Ponty, M. (1975). Fenomenología de la percepción. Península.
Ursua, N. (2008). La(s) identidad(es) en el ciberespacio: una reflexión sobre la construcción de las identidades en la red ("online Identity"). Ontology studies, 277-296.
Inteligencia Artificial en revistas de Filosofía (1990-2024): revisión sistemática e histórica
Palabras clave: Inteligencia artificial, revistas de Filosofía, Iberoamérica, Revisión sistemática, Historia de la ciencia
Resumen
El propósito de este trabajo es analizar de qué manera se llevó a cabo la incorporación de la inteligencia artificial en el debate filosófico de revistas iberoamericanas de Filosofía. Mediante el método mixto de búsqueda de revisión sistemática, verificamos cuándo se comenzó a publicar académicamente con respecto a la IA. También establecimos su periodización y registramos datos importantes de sus principales temáticas y debates, así como autores/as referenciados, fuentes bibliográficas, redes de conocimiento y de contacto académico, etc. Las bases de datos consultadas fueron Dialnet y Scopus. El periodo de estudio abarcó entre 1990 y 2024. Se identificaron las revistas iberoamericanas y los discursos filosóficos que se encuentran en los artículos referidos a la IA. Mediante el análisis documental, se graficaron y delimitaron las categorías de análisis que nos permitieron evaluar de qué manera se integraron conceptos, teorías, autores/as, propuestas emblemáticas y desconocidas, redes culturales, circulación de saberes, interdisciplina y periodos de reflexión de la Inteligencia artificial en términos filosóficos e históricos en el contexto Iberoamericano.
Referencias
Aliseda, Atocha y Manzano, María (2015). Apuntes para una historia de la lógica en Iberoamérica en el siglo XX. En Manuel Reyes Mate, Osvaldo Guariglia y León Olivé (eds.), Filosofía iberoamericana del siglo XX. Volumen I. Filosofía teórica e historia de la filosofía (pp. 101-170). Madrid: Editorial Trotta, Consejo Superior de Investigaciones Científicas.
Chibey-Rivas, T., & Rubio, R. (2024). Inteligencia artificial: cuatro planteos filosóficos. Resonancias. Revista De Filosofía, (17), 81–84. https://doi.org/10.5354/0719-790X.2024.75334
Ezcurdia, Maite (2015). Filosofía del lenguaje y de la mente en Iberoamérica. En Manuel Reyes Mate, Osvaldo Guariglia y León Olivé (eds.), Filosofía iberoamericana del siglo XX. Volumen I. Filosofía teórica e historia de la filosofía (pp. 267-342). Madrid: Editorial Trotta, Consejo Superior de Investigaciones Científicas.
Gálvez, Carmen (2024). Mapas científicos de la Revista General de Información y Documentación (2005-2022). Revista General de Información y Documentación, 34(1), 127-140, e(ID doi).https://dx.doi.org/10.5209/rgif.88515
Weed, Mike (2008). A Potential Method for the Interpretive Synthesis of Qualitative Research: Issues in the Development of ‘Meta-Interpretation.’ International Journal of Social Research Methodology, 11(1), 13–28. https://doi.org/10.1080/13645570701401222
V
Emisiones del sector TIC y cadena de extracción de minerales dentro del contexto del cambio climático
Palabras clave: Emisiones, TIC, Energía, Ciencia, Extractivismo, Justicia ambiental
Resumen
Nuestro planeta a través de los siglos ha sufrido un deterioro irreversible relaciona con la alteración de los procesos naturales por la intervención de la especie humana, es por esto que se afirma que el cambio climático es de origen antropogénico (Alonso et al., 2023) , es decir la huella que tenemos los seres humanos en el mundo.
El incremento de las actividades productivas a partir de la revolución industrial, y el uso intensivo de combustibles fósiles ha generado una huella de emisiones que incrementa por dos factores, el crecimiento poblacional y el desarrollo económico de los países, la intensidad energética es una característica de los procesos de la sociedad actual. Cada año se llega a un nuevo récord de consumo energético en sistemas de producción, consumo doméstico de electricidad, y sobre todo la producción a gran escala de artículos consumibles, que gracias a la globalización, recorre distancias intercontinentales desde su origen hasta su destino. La globalización, basada en el comercio de mercancías en un inicio, ha tocado todas las aristas de nuestra vida, una de las más importantes, las comunicaciones. Durante el siglo 19, los desarrollos tecnológicos, y la adaptación de dispositivos de comunicación diseñados para la producción en masa, ha igualado a los bienes de consumo convencionales. Ahora en el siglo XXI, todos los días somos testigos, de nuevos récords de ventas de las principales empresas tecnológicas, ya sea de venta de dispositivos y oferta de servicios electrónicos y de telecomunicación, es por eso que se vuelve de interés analizar el impacto de las emisiones del sector de las Tecnologías de la Información y de la Comunicación (TIC) y su importancia como segmento económico, y de esta manera desarrollar una mirada integral de los productos de consumo del sector TIC y su relevancia en un contexto de cambio climático. Actualmente, nos encontramos en una etapa de ebullición climática, es decir, el planeta pasó del calentamiento global a la ebullición, diversas áreas de nuestro planeta, ebullen. Esto se registra en los principales polos, principalmente por el deshielo presentado en los mismos. Está demostrado que esta ebullición está directamente relacionada con las emisiones de Dióxido de Carbono (CO2) principalmente, que mundialmente llegan a 37 400 millones de toneladas (Gt), las emisiones de CO2 son parte de la gama de Gases de Efecto Invernadero (GEI) y considerado uno de los más importantes, debido a que son emitidas por todas las fuentes, de acuerdo a su clasificación las identificamos como fuentes móviles, fuentes de área y fuentes fijas. Dentro de las fuentes fijas se encuentran las emisiones del sector energético.
Las emisiones globales de CO2 relacionadas con la energía crecieron un 1,1 % en 2023, aumentando 410 millones de toneladas (Mt) para alcanzar un nuevo récord de 37 400 millones de toneladas (Gt). Esto se compara con un aumento de 490 Mt en 2022 (1,3 %). Las emisiones del carbón representaron más del 65 % del aumento en 2023 (IEA, 2023).
La importancia del sector energía y el crecimiento de sus emisiones, está relacionada con el incremento del uso de las TIC y sus diferentes plataformas de contenido y centros de datos, redes de comunicaciones, producción y mantenimiento de satélites, routers para poder tener disponibilidad de almacenamiento en nubes, carga, descarga y envío de información, que queda invisible entre los sectores energéticos. Además de la cadena de valor que sostienen, basada en la extracción de minerales que produce componentes, necesarias para los dispositivos usados en los centros de datos y los de consumo masivo, como computadoras, laptops, iPad, pantallas, entre toda la cadena de electrónicos y la llamada tecnología 5G que operará la llamada Inteligencia Artificial. Dentro de este contexto, es que se aborda en esta investigación una perspectiva crítica que visibilice la importancia del sector TIC en la aportación de emisiones a la actual crisis climática y su relación con los conflictos generados por los proyectos extractivistas de materiales, principalmente de minerales raros, los cuales generan daños ambiental y social.
La industria TIC, necesita de componentes para fabricación de dispositivos, esta se enlaza de manera directa con la minería convencional, generando una nueva rama de extracción de materiales, los cuales tienen un alto valor en el mercado y son los llamados minerales de tierras raras o minerales raros, entre los que se encuentran, litio, Manganeso, Los elementos de tierras raras (REE) se han ganado el mote de “vitaminas de la Industria” debido a su relevancia para sectores industriales críticos. Se encuentran de manera abundante en la corteza terrestre, salvo el Prometio que no supera el kilogramo, y hoy sólo puede obtenerse artificialmente en reactores nucleares, como resultante de la fusión de Uranio. Los restantes 16 REE son tan abundantes como el Cromo, Níquel, Cobre o Zinc y superan la concentración de otros metales como el Oro y el Platino (Garcia, 2023). Lo que plantea una premisa adicional en términos de cambio climático, ya que su disponibilidad se encuentra principalmente en océanos, el sumidero más grande de carbono de nuestro planeta y que actúa como conservador de la biodiversidad y filtrador de emisiones que produce la industria TIC, esta situación acentúa los conflictos y los despojos en las comunidades pesqueras de Latinoamérica, Asía y África que albergan en su mayoría en estas comunidades.
Referencias
Alonso HG, Arumí-Planas C, Caínzos V, et al, (2023). El cambio climático se debe principalmente a causas antropogénicas. DIGITAL.CSIC. https://digital.csic.es/handle/10261/331564.
De Gustini, Eduardo A, (2024). Descarbonización y cero emisiones en el área TIC. Disponible en: https://sedici.unlp.edu.ar/handle/10915/167553. Published 2024.
García S, (2023). La cadena de suministro de tierras raras en la agenda geoestratégica mundial. https://cefadigital.edu.ar/handle/1847939/2487. Published 1 de junio de 2023.
IEA (2023). World Energy Outlook 2023. Agencia Internacional de Energía. Disponible en: https://www.iea.org/reports/world-energy-outlook-2023
Ribeiro, S (2018). Impactos invisibles de la era digital. Grupo ETC. Disponible en: https://www.etcgroup.org/es/content/impactos-invisibles-de-la-era-digital. Published 12 de mayo de 2018.
Neurotecnologia, aumento cognitivo e justiça social: abordando a dupla-face do problema (garantia de acesso vs. excesso de controle)
Palabras clave: Neurotecnologia, Aumento cognitivo, Justiça social, Inteligência Artificial, Capitalismo de vigilância.
Resumen
As neurotecnologias, como as interfaces cérebro-computador e as inovações de inteligência artificial (IA) voltadas para o aumento cognitivo, estão moldando o futuro das capacidades humanas. Ao prometerem expandir a inteligência e habilidades cognitivas, essas tecnologias desafiam não apenas os limites do 'ser humano' em termos teórico-filosófico-especulativos, mas também levantam questões ético-políticas práticas sobre justiça social e equidade de acesso.
O acesso às inovações tecnológicas costuma ser desigual. Sobretudo nas fases iniciais da sua disponibilização, os possíveis benefícios de uma nova tecnologia são desfrutados por um grupo pequeno e privilegiado, embora seus riscos e impactos negativos não fiquem restritos a este, de modo que inovações tendem a gerar (ou agravar) desigualdades. No caso das neurotecnologias, há o risco de que apenas uma elite tenha o privilégio de aprimorar suas capacidades cognitivas. Isso nos leva a questionar: quem realmente terá acesso a essas tecnologias e aos seus supostos benefícios? O surgimento de um elitismo tecnológico, onde apenas uma fração da sociedade se beneficiaria das inovações, poderia aprofundar ainda mais as desigualdades sociais já existentes.
Entretanto, ao mesmo tempo em que a justiça distributiva é um ponto central das preocupações sociopolíticas em torno do tema, é igualmente relevante pensar sobre os desafios que o acesso generalizado a essas tecnologias poderia trazer. A distribuição igualitária, embora pareça resolver o problema do acesso, pode criar novos problemas, como o aumento do controle e monitoramento populacional. Um exemplo claro disso é o uso massivo de smartphones, que, hoje, estão disponíveis para uma grande parcela da população, inclusive pessoas em condições de extrema pobreza. Se, por um lado, o acesso aos celulares pode promover algo como a chamada inclusão digital, por outro, ele também amplia as possibilidades de vigilância e controle, inaugurando a era do chamado “capitalismo de vigilância”.
Nesse contexto, surge uma ambiguidade importante: o não-acesso a neurotecnologias pode gerar uma elite tecnológica, enquanto o acesso universal pode gerar uma forma ainda mais sofisticada de controle social. Em um cenário onde todos têm acesso a essas tecnologias cognitivas avançadas, o mapeamento das capacidades e comportamentos humanos pode se tornar uma ferramenta poderosa para governos e corporações. Como, então, equilibrar a distribuição equitativa dessas ferramentas com a proteção da liberdade individual e o direito à privacidade?
A questão, aqui, não é apenas sobre quem terá acesso às neurotecnologias, mas também sobre o impacto de uma distribuição ampla e generalizada. O acesso igualitário poderia, em teoria, democratizar o acesso a tecnologias de aumento cognitivo, permitindo que indivíduos de diferentes classes sociais e condições financeiras aprimorem suas habilidades. No entanto, sem regulamentações éticas e políticas adequadas, o que segue sendo um grande desafio a ser superado, esse acesso pode se transformar em uma poderosa e problemática ferramenta de vigilância e controle. Assim, a justiça social, no contexto das neurotecnologias, precisa ser pensada não apenas em termos de equidade de acesso, mas também em termos de preservação de direitos e liberdades individuais, bem como de promoção de formas autônomas e responsáveis de vida.
Além disso, é necessário considerar o impacto dessas tecnologias no equilíbrio de poder. Se um pequeno grupo se torna superinteligente e tecnologicamente superior, isso pode resultar em uma concentração ainda maior de poder, o que traria implicações sérias para a justiça social e a democracia. Mas, ao mesmo tempo, um acesso universal sem os devidos mecanismos de controle pode levar a um estado de vigilância extrema, onde cada pensamento ou ação é monitorado, registrado e potencialmente manipulado.
A reflexão sobre a justiça social, no contexto das neurotecnologias, deve ser acompanhada por uma análise cuidadosa de como o acesso e o não-acesso podem impactar a estrutura social como um todo. O caminho para uma distribuição equitativa dessas tecnologias precisa ser trilhado com atenção às suas implicações, não só no campo das desigualdades, das liberdades, dos direitos e da autonomia, mas, também, por exemplo, da solidariedade e da coesão social ao longo do tempo.
Assim, ao pensar sobre o futuro das neurotecnologias e do aumento cognitivo, devemos ter em mente a importância de assegurar tanto o acesso quanto a liberdade de não utilizar essas tecnologias, sem que isso resulte na criação de uma elite tecnológica, tampouco na opressão daqueles que optam por seguir um caminho diferente. Além da preocupação com as garantias de escopo individual, é fundamental refletir cuidadosamente sobre as medidas de escopo coletivo e intergeracional. Ou seja, não são somente os indivíduos, menos ainda os de apenas uma época, que importam.
Promover o equilíbrio dinâmico, ao longo do tempo, entre os impactos (benéficos e/ou danosos) individuais e coletivos de uma nova tecnologia é um desafio para a manutenção das chamadas sociedades liberais e democráticas. Um desenho regulatório e de governança dessas neurotecnologias, que envolva aspectos éticos, políticos, econômicos e sociais, é uma chave para enfrenta-lo. Uma boa regulação/governança das neurotecnologias de aumento cognitivo deve oferecer respostas à questão do acesso a essas ferramentas, bem como visar a garantir liberdades, autonomia e privacidade individuais, de forma a evitar que o avanço tecnológico se torne uma nova forma de controle social injusto, que ponha em risco a estabilidade das sociedades, distribuindo riscos e benefícios de forma problematicamente desigual. Mas, por outro lado, deve se ocupar com impactos mais amplos e de longo prazo, tais como, preservação do meio-ambiente, a promoção dos valores democráticos e a solução dos conflitos.
Referencias
Dubljević, V., & Coin, A. (Eds.) (2023). Policy, Identity, and Neurotechnology: The neuroethics of brain-computer interfaces. Cham, Switzerland: Springer Nature.
Floridi, L. (2024). The Ethics of Artificial Intelligence: Principles, challenges, and opportunities. New York: Oxford University Press.
Tomczyk, B. (2023). The locus for agency in extended cognitive systems. Journal for General Philosophy of Science. doi: 10.1007/s10838-023-09666-1
Yuste, R. et al. (2017). Four Ethical Priorities for Neurotechnologies and AI. Nature, 551(7679), 159-163.
Zuboff, S. (2019). The Age of Surveillance Capitalism: The fight for a human future at the new frontier of power. New York: PublicAffairs.
A IA para além das abordagens genéricas e sensacionalistas: um experimento interdisciplinar (computacional, linguístico e ético) sobre o funcionamento do Google Tradutor
Palabras clave: Inteligência artificial, Máquinas de tradução, Interdisciplinaridade, Ética.
Resumen
Nesse trabalho, reunimos pesquisadores de três áreas (ciência da computação, linguística e filosofia) para analisar uma ferramenta de tradução automática (Machine Translation - MT) gratuita – o Google Translate (GT), no intuito de mostrar que abordagens bem delimitadas, multidisciplinares, tecnicamente respaldadas e que não adotem o discurso sensacionalista nos conduzem a reflexões epistemicamente mais consistentes e crítico-normativas mais ponderadas, o que seria fundamental para o avanço do debate ético sobre a IA. Nossos objetivos são: (1) apresentar uma explicação técnica sobre o funcionamento da MT-GT; (2) realizar alguns testes linguísticos, envolvendo expressões idiomáticas e polissemia; e (3) apresentar uma avalição ética ponderada da ferramenta.
Do ponto de vista técnico-computacional, os modelos atuais de MT são capazes de gerar resultados surpreendentes em termos de tradução e coerência, muitas vezes gerando texto indistinguível do texto produzido por humanos. No entanto, é importante observar que esses textos são essencialmente uma sequência inventada de palavras, isto é, os modelos formam frases estatisticamente prováveis em um idioma específico. Essas frases são geradas a partir da entrada textual por meio de modelos, mas os próprios modelos não entendem o conteúdo gerado. Em vez disso, eles aprendem durante o treinamento padrões linguísticos comuns derivados dos dados presentes no corpus, reproduzindo posteriormente esses padrões em novas saídas, semelhantemente aos papagaios estocásticos. Além disso, uma vez que se entende como os textos são convertidos em números, que os cálculos vetoriais são aplicados a eles e que as redes neurais são emaranhadas de equações matemáticas, fica claro porque essas abordagens são chamadas de caixas pretas. Uma vez que eles não permitem investigar como um resultado ou conclusão foi obtido, também fica claro porque eles são apontados como tendo implicações éticas negativas. Pode-se considerar que os conjuntos de dados de treinamento de modelos de linguagem em larga escala geralmente consistem em uma grande quantidade de dados linguísticos coletados da Internet e, dado o desequilíbrio no acesso à Internet, é provável que os dados de treinamento não sejam representativos. Por essa razão, não leva em conta a diversidade cultural e linguística existente, lembrando-nos de outra implicação ética, os famosos vieses.
Do ponto de vista linguístico, considerando que nosso objetivo é analisar cuidadosamente o debate, trata-se de mostrar pontos positivos, mas também apontar alguns negativos, como o fato de a IA não ter capacidade crítica, impedindo-a de identificar erros por conta própria. Outro fato digno de destaque diz respeito ao fato de que a linguagem humana possui algoritmos para o funcionamento de sua arquitetura gramatical, mas também possui ferramentas para lidar com fenômenos criativos proporcionando economia ao sistema. Isso inclui polissemia de palavras, ambiguidade estrutural, criação de novas palavras, estruturas que são fonologicamente nulas e espaço sintático reservado. A polissemia é econômica no sentido de que basta que o sistema sintático gere apenas uma construção, enquanto o sistema interpretativo semântico é responsável pelos diferentes significados contextualizados. Isso também vale para a ambiguidade estrutural. A criação de novas palavras prova que o sistema linguístico humano opera com algumas regras que podem gerar combinações infinitas e criativas. Por fim, a interface sintaxe-fonologia também mostra o funcionamento de um modelo capaz de dar conta de toda e qualquer construção linguística gerada. Dito isso, algumas questões motivaram a realização dos testes: como o Google Tradutor lida com componentes linguísticos gerados, como os mencionados? Dadas as suas limitações operacionais, podemos também criar conjecturas sobre algumas das suas consequências negativas, como o fato de não emergir da dicotomia Aquisição e Aprendizagem? O fato de não haver uma linguagem natural, ou seja, uma língua adquirida, gera consequências para o sistema artificial? Em síntese, os resultados dos testes revelaram algumas limitações dos sistemas de Inteligência Artificial que operam em aparelhos linguísticos, pois seu modelo, a linguagem humana, opera em um maior número de construtos regulares. Na maioria dos casos, entretanto, o sistema artificial tem o potencial de gerar traduções aceitáveis, do ponto de vista da gramaticalidade da frase e a frequência de erros nas construções composicionais vem diminuindo ao longo do tempo.
Do ponto de vista ético, distanciamo-nos tanto das abordagens apocalípticas quando das apoteóticas. Em outras palavras, concluímos que não há razão para superestimar o GT. A tecnologia continuará a cometer erros (assim como os humanos), mas continuará aprendendo e melhorando (idem). Seu desempenho e, logo, sua utilidade pode variar, a depender do contexto de uso, o que precisa ser levado em consideração, uma vez que traduções equivocadas (por exemplo, no campo da medicina/saúde pública) podem implicar consequências relevantes. O impacto sobre os profissionais de tradução (desemprego tecnológico) não deve ser desconsiderado, uma vez que a tecnologia pode substituir humanos que realizam um trabalho. Mas também, não há razão para subestimá-lo. A ferramenta pode ser bastante útil e, no caso de seu uso no ambiente acadêmico, seria irracional descartá-la. Embora muitos trabalhos apontem os limites da ferramenta em termos de aceitabilidade, especificamente no que diz respeito à qualidade gramatical dos resultados (que pode variar consideravelmente dependendo das línguas de origem e das línguas-alvo envolvidas), os benefícios de seu uso na academia parecem superar os problemas. Este é especialmente o caso em contextos em que a porcentagem da população proficiente em inglês - a língua predominante na ciência - é bastante pequena (o caso brasileiro, por exemplo). A percepção dos benefícios de algo pode variar de indivíduo para indivíduo, em virtude de fatores subjetivos. Entre uma infinidade de fatores individuais, a percepção pessoal dos benefícios relacionados à aceitabilidade, usabilidade e satisfação pode variar consideravelmente dependendo da idade, educação, conhecimento de idiomas e aspectos cognitivos relacionados à aprendizagem. Além disso, também pode variar de acordo com o nível de exigência a que um determinado utilizador está sujeito. Não obstante, como uma ferramenta não é benéfica se e somente se for igualmente benéfica para todos, avaliamos que não há razão para descartá-la como uma ferramenta baseada em IA útil.
Referencias
Bender, E.M. et al. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. New York, NY, USA: Association for Computing Machinery. Available at: https://doi.org/10.1145/3442188.3445922.
Castilho, S. & Caseli, H. M. (2023). Tradução Automática - Abordagens e Avaliação. In Caseli, H. M. & Nunes, M. G. V. (Orgs.), Processamento de Linguagem Natural: Conceitos, Técnicas e Aplicações em Português. (pp. 1-34). Available at: https://brasileiraspln.com/livro-pln/1a-edicao/parte8/cap18/cap18.pdf
Chomsky, N. (1969). Aspects of the Theory of Syntax. Cambridge, MA: MIT Press.
Chomsky, N. (1988). Language and Problems of Knowledge –The Managua Lectures. Cambridge: MIT Press.
Kasperé, R. et al. (2023). Is Machine Translation a Dim Technology for Its Users? Na Eye Tracking Study. Frontiers in Psychology, 14: 1076379.