This paper examines the status of abductive reasoning as a normative criterion for attributing thought to artificial systems. Abduction—understood as the inferential process through which explanatory hypotheses are generated and evaluated in response to anomalous data—occupies a central position in theories of scientific reasoning and cognitive capacities. Unlike deduction, which guarantees truth preservation, or induction, which generalizes from observed regularities, abduction involves the construction of candidate explanations for phenomena that cannot be straightforwardly derived from prior data. It is, therefore, a paradigmatically generative and epistemically risky form of inference—one that presupposes a system capable of representing explanatory aims, managing conceptual commitments, and navigating uncertainty in a principled manner. The central claim of this paper is that abductive reasoning provides a philosophically robust standard by which we may assess whether artificial intelligence systems genuinely participate in epistemic practices, rather than merely simulate them. I focus on recent advances in neurosymbolic architectures—hybrid systems that integrate connectionist machine learning with symbolic representation and rule-based inference. These systems arguably are equipped to enable a form of abductive reasoning that is sensitive to structural constraints, background knowledge, and conceptual coherence. I argue that the presence of such inferential structure—particularly the ability to generate sufficient explanations for novel or surprising data—constitutes a form of rationality that is relevant to ongoing debates about machine intelligence. In advancing this claim, I draw on the epistemological work of Charles S. Peirce, Gilbert Harman, and contemporary accounts of non-deductive reasoning in philosophy of science. I conclude by suggesting that abductive capacity is not merely a technical achievement but a philosophical provocation: it challenges us to reconsider the boundaries of thought, the norms of reasoning, and the criteria by which we distinguish genuine knowers from merely computational systems.
Jiya Manchanda is a researcher in philosophy of science and artificial intelligence, with interdisciplinary training in computer science, cognitive science, and ethics. Her work focuses on inferential reasoning and neurosymbolic architectures as tests for intelligence in AI. She has held research roles at UC Berkeley, the University of Chicago, and the Human Connectome Project, and is currently investigating causal abstraction and mechanistic interpretability under Dr. Jasser Jasser. A co-author of a widely cited article under review at AI and Ethics, her research has been supported by over a dozen competitive fellowships, including from the Clint Foundation.
Este trabalho examina a Interpretabilidade Mecanicista (IM) como campo emergente que estabelece uma ruptura epistemológica fundamental com as tradições das ciências neurais e cognitivas. Argumentamos que a IM, ao buscar desvelar os processos internos de redes neurais profundas, não se beneficia substantivamente do programa de pesquisa das ciências cognitivas tradicionais, precisamente porque estas falharam em fornecer explicações consistentes tanto para o aparelho psicofísico humano quanto para as arquiteturas neurais artificiais. Enquanto as ciências neurais convencionais mantêm-se comprometidas com ideais de transparência explicativa, modularidade funcional e causalidade linear, a IM reconhece explicitamente a opacidade epistêmica, a distribuição não-local do conhecimento e a causalidade complexa como características intrínsecas dos sistemas de deep learning. Esta divergência manifesta-se fundamentalmente na reconceptualização das representações, transitando de um representacionalismo simbólico (onde representações são entidades discretas com conteúdo semântico determinado) para um representacionalismo topológico (onde representações são regiões em espaços multidimensionais contínuos). O deep learning promove uma síntese dialética entre estrutura e contingência, operando como formalismo empírico onde regras emergem através de processos de auto-organização. Esta abordagem contrasta com os formalismos tradicionais que buscam impor estruturas lógicas predeterminadas à realidade. A falência epistêmica dos programas formais convencionais revela-se particularmente na impossibilidade de reduzir o comportamento emergente de redes neurais profundas a um conjunto finito de regras formalizáveis. Fenômenos como o inatismo maquínico – a emergência espontânea de estruturas cognitivas não explicitamente programadas – subvertem concepções tradicionais sobre a relação entre estrutura e função. Concluímos que a IM constitui não apenas um avanço técnico, mas uma vanguarda filosófica que redefine nossa compreensão da natureza do conhecimento e da cognição. Sua reconceptualização do entendimento científico, aceitando a coexistência entre transparência e opacidade como polos de um continuum epistêmico, representa uma postura filosoficamente mais sofisticada frente aos desafios da era da inteligência artificial, convocando-nos a desenvolver uma nova filosofia da ciência adequada aos desafios epistêmicos, éticos e políticos contemporâneos.
Fernando Alberto Pozetti Filho é Psicanalista e pesquisador, doutorando em Epistemologia na UNESP (SP-BRASIL). Possui formação em Arte (PUC-SP), Pedagogia (SENAC/SP) e Mestrado em Psicologia Clínica (PUC-SP). Destacou-se por suas publicações sobre inteligência artificial: "A tecnologia disruptiva das heurísticas sintéticas" (2022), "O modelo heurístico sintético das redes neurais" (2021) e "Os modelos gerativos de linguagens naturais como próteses de percepção" (2025). Co-fundador da Clínica de Saúde Poética, integra o CEII e desenvolveu o "Entressonho" (2019), aplicação de RNA deep learning para análise de sonhos. Atualmente compõe o quadro clínico da DR. FAM.
The intimate technologies we came to depend upon —smartphones, wearables, smart glasses, VR glasses (maybe, someday, even smart brain implants powered by A.I.) — seem to be able to create an image of human behavior through algorithmic interpretation of routines and social interactions, promoting what, drawing inspiration from Heidegger’s The Age of the World Picture (1950), I will refer to as a “picture of existence”. The ontological commitments underlying the use and mass appropriation of this type of technologies create a very particular opening of the world, through which they subtly exert power over its users by shaping their perceptions and actions in accordance with a specific understanding of what it means to be human: a producer and/or consumer of data. The mediation of our identity operated by these technologies appears to foster a “hyperreal” understanding of our subjective experiences. Thanks to it, individuals started to prioritize their curated digital personas over genuine engagement with the real world. The digital age’s “picture of existence” has increasingly replaced the necessary confrontation with our individuality with a compulsive need for instant connectivity, thereby amplifying psychological distress and fostering existential indifference. While opening new possibilities of being-in-the-world, these technologies appear to have deeply altered human subjectivity and existential experiences. A shift that can be exemplified by the pervasiveness of the digital representation of the self, which fosters dependence on constant connectivity and diminishes opportunities for authentic self-reflection and connection with others. Drawing from existential, phenomenological, and postphenomenological perspectives on technology, this paper intends to discuss how intimate technologies can constrain our authentic selfhood, by imposing predefined frameworks for interaction with the world and the other beings/entities we share it with. This paper aims to call for philosophical reflection on the existential consequences of the mass assimilation of intimate technologies into our lives and the potential loss of authentic selfhood in the digital age. We argue that, by critically examining these technologies’ inherent existential trade-offs and underlying ontological commitments, individuals might be able to reclaim the ontological grounding of their selfhood and resist the passive acceptance of the “picture of existence” that these technologies impose.
Ângelo Samuel Nunes Milhano holds a PhD in Philosophy from the University of Évora, where he is now a Visiting Professor. He is a researcher in Philosophy of Technology at Praxis: Centre for Philosophy, Politics and Culture. Ângelo has focused his research on digital technologies, focusing on how their various materializations are able to influence human beings and their way of thinking about the world.
O texto Alegoria da Caverna de Platão, que é encontrada no livro VII da obra "A República", nos permite uma instigante reflexão sobre a atual conjuntura social e formação da subjetividade, especialmente em tempos de tecnologias digitais e inteligência artificial. Trata-se de um texto clássico, onde o diállgo que se estabelece entre Platão e seu discípulo Glauco nos abre um horizonte prévio de compreensão, para pensarmos nosso tempo. O propósito da presente investigação é tomar o horizonte de compreensão descrito por Platão, conforme apresentado na Alegoria da Caverna, e estabelecer aproximações com Pierre Lévy, numa tentativa de (re)pensar a formação (Bildung) do sujeito contemporâneo em tempos de cibercultura. Isso é possível a partir da ideia das sombras, que são tomadas como verdades no mundo da caverna e a experiência vivenciada pelo nativo digital, já apontada por Prensky, ao imergir no mundo virtual, que se impõe como essencialmente verdadeiro, na construção da subjetividade junto à geração que já nasceu dentro de um contexto tecnológico digital, que se amplia e aprofunda no Século XXI. Trata-se de uma pesquisa qualitativa, com um viés bibliográfico, seguindo nas trilhas da hermenêutica, conforme proposto por Gadamer. Tomando a fusão de horizontes como fio condutor, na aproximação entre Platão e Lévy, percebe-se que existem pontos de convergência entre ambos os autores, que mesmo afastados por muitos séculos de história, nos levam à percepção de que a essência do ser humano carrega elementos que permanecem, apesar de mudanças substanciais em termos de seu modo de ser no mundo. Mudou o modo de nos relacionarmos, a configuração de mundo propriamente dito, nosso modo de ser no mundo, mas essencialmente o ser humano pouco mudou. A questão então é compreendermos se contemporaneamente estamos a contemplar as sombras de uma espécie de caverna virtual, ou seria uma situação muito distinta da já demonstrada na Alegoria da Caverna de Platão. Em outras palavras, nos parece que a realidade virtual, o mundo que se abre na dimensão digital, tem se mostrado a outra face da moeda do já outrora experimentado pelos gregos, conforme descrito por Platão.
Rogério José Schuck é Doutor em Filosofia pela PUCRS/BRA (1999). Docente na Univates/BRA. Coordenou o Programa de Pós-Graduação em Ensino (PPGEnsino) entre 2021-2025/A. Membro do Centro de Estudos Niilismo Contemporâneo (CeNic) e a partir de 2025 Centro de Filosofia, Política e Cultura (PRAXIS), Universidade de Évora/PT. Publicações: Apropriação da Tradição: Aproximações à Hermenêutica de Gadamer. Berlin: NEA Ed. 2013. Artigos: Aulas Virtualizadas Síncronas no Ensino Superior: percepções de estudantes de graduação. CURRÍCULO SEM FRONTEIRAS, v. 24, 2024. Lições para além da pandemia: a necessidade de interação entre estudantes e professores para organização de um currículo híbrido e compartilhado. REVISTA COCAR, v. 1, 2023.
O objetivo do presente trabalho é investigar o conceito de telepresença em sua relação com a inteligência artificial (IA) no âmbito dos chatbots. Expomos que a IA é uma ferramenta de aprimoramento de telepresença que possibilita pensar acerca de suas implicações éticas na condição humana. O conceito de telepresença, segundo Marvin Minsky (1980), descreve a experiência de “estar lá” mediada por algum aparato tecnológico. Os estudos sobre telepresença eram inicialmente realizados para gerar uma eficiência maior em teleoperações de risco no controle remoto de máquinas como os remote grippers, que simulam o ato de localizar e aprisionar humanos. Os estudos de telepresença cresciam na medida em que promoviam a esperança de substituir pessoas por máquinas remotamente controladas em trabalhos perigosos, como adentrar em áreas contaminadas por radiação ou nas profundezas do oceano. Argumentamos, no entanto, que na era da informação a telepresença emerge em diversas faces que diferem de sua origem conceitual, tais como: email, videoconferências, redes sociais, realidade virtual, entre outros. Entendemos que os estudos contemporâneos da telepresença possuem a finalidade de alcançar a presença ideal, que é aprimorada a partir de ferramentas de IA, para manipular remotamente ambientes naturais, tornando as comunicações cada vez mais complexas. Argumentamos que a telepresença agrega características de presença social quando inseridas no contexto virtual de simulações e de interações com entidades físicas ou digitais. Nesse contexto, podemos nos questionar: Qual o papel da IA na telepresença? Para analisar essa pergunta, abordamos como estudo de caso chatbots que, por sua vez, geram vínculo de presença social cada vez maior na simulação de linguagem natural. Nesse sentido, a telepresença em chatbots substitui não mais trabalhos de risco, mas sim a presença social em ambientes naturais. Por fim, o trabalho explora a relação entre telepresença e IA, destacando seu uso em chatbots que simulam a imersão cognitiva de presença social, por meio da telepresença, na hipervalorização de ambientes virtuais em detrimento de ambientes naturais.
Gabriel Fefin Machado é graduado em Filosofia pela Universidade Estadual Paulista Júlio de Mesquita Filho (Unesp). Atualmente é discente do programa de pós-graduação em Filosofia pela Universidade Estadual Paulista Júlio de Mesquita Filho (Unesp).
Maria Eunice Quilici Gonzalez é livre docente no Departamento de Filosofia da Universidade Estadual Paulista Júlio de Mesquita Filho. Tem experiência na área de Filosofia, com ênfase em Epistemologia, Filosofia da Informação e da Tecnologia, Filosofia Ecológica, Ciência Cognitiva e Filosofia da Mente, atuando principalmente nos seguintes temas: auto-organização, autonomia e informação, sistemas complexos, big data, a dinâmica de formação da opinião, criatividade e serendipidade.
Nesta proposta de comunicação procurarei fazer uma leitura cruzada e crítica de duas obras: a primeira, The Shallows: what the Internet is doing to our Brains, de Nicholas Carr, publicada no ano de 2010, na qual o também autor de Utopia Is Creepy (2016) nos alerta e assusta, positivamente, a respeito dos efeitos cognitivos perniciosos que a Internet, então numa fase de acelerada expansão e afirmação, estava a produzir nos nossos cérebros e mentes e, outrossim, por arrastamento, na possibilidade de pensamento crítico, de liberdade individual e de vida democrática; e a segunda, que concretiza no âmbito das redes sociais a tese geral da primeira, é de Jaron Lanier, Ten Arguments for Deleting Your Social Media Accounts Right Now, de 2018. Nesta obra, o autor (que não é contra a Internet qua talis, visando antes humanizá-la... — a questão é se tal é possível e se o resultado não é o inverso) apresenta uma dezena de argumentos que nos devem levar a apagar de imediato as nossas contas nas redes sociais, de entre os quais salientamos o que indica que elas são a expressão mais refinada de um neoliberalismo tardio que mercadoriza / mercantiliza por completo a nossa subjectividade, as nossas relações privadas e sociais, identidades, desejos, sonhos, aspirações, dando palco cibernáutico igualmente ao lado mais lunar, selvagem e perverso dessas mesmas subjectividades. Dez, quinze anos volvidos — que mostram que tais alertas caíram em saco roto — resta perguntar se e como o ‘admirável mundo novo’ da IA guinda a questão a novo patamar. O Golem, o Posthuman, o Übermensch não estarão já entre nós?
José Maria Silva Rosa é Professor Catedrático (Praxis/UBI). Licenciado em Filosofia (em 1992), Mestrado em Filosofia (em 1997) e Doutoramento em Filosofia Medieval (em 2005) na Universidade Católica Portuguesa (UCP, Lisboa). Agregação em Filosofia Política Medieval (em 2020) na Universidade da Beira Interior (UBI).
The paper reflects on some of the significant concerns regarding the fundamental question: what is thinking? How generative AI technologies alter and challenge our understanding of human thinking and the socio-political world? I draw from Hannah Arendt’s phenomenology of thinking as essentially metaphorical connecting the invisible (thoughts) and the visible (speech and action) realms; an internal dialogue as well as an intersubjective activity that involves all the five senses including the common sense that is the criteria for intersubjective communication. Thinking does not have any end outside of itself. It is circular and suggests a quest for meaning that accompanies life and ends with death. Arendt writes, “The only possible metaphor that one may conceive of for the life of the mind is the sensation of being alive.” This experience of the singularity of being is absent in machines which is replaced with information/ content, representation and logical operations. An implication of a systemically forced reliance on AI is digital worldlessness of information and data and algorithmic mediation of the sociopolitical realm to dominate the many to the advantage of the few who can manipulate these technologies. Further, it eliminates spontaneous interpersonal actions and monopolizes power that discourages any opposition and views humans as a means to an end. I shall further draw on what it means politically to have this new form of authority of intelligent machines.
Pritika Nehra received her Ph.D degree on the political philosophy of Hannah Arendt from IIT Delhi. Her research interests expand to Phenomenology and the political thought of Hannah Arendt, Immanuel Kant, Philosophy of Work, the representations of loneliness in literature and philosophy. Currently, she is teaching as an Assistant Professor in the Department of Humanities and Social Sciences (HSS), IISER Mohali, India.
A pergunta “O que é a linguagem?” motiva há mais de dois mil anos o estudo de filósofos e investigadores, tendo sido norteadora de inúmeras obras (Kristeva, 2007; Chomsky, 2016). Esta capacidade humana para a linguagem é um dos pontos fundamentais que distinguem o ser humano das restantes criaturas no mundo (Chomsky, 2016). Cada tentativa de definir a linguagem espelha a ideologia, crenças e conhecimentos de cada época. Neste século difundiu-se a conceção da linguagem enquanto um sistema complexo que levanta questionamentos de ordem diversa. Com base nesta ideia, Kristeva (2007) avança que a indagação deve situar-se no modo como a linguagem pode ser pensada. A autora explica a linguagem por partes. Em primeiro, a linguagem expressa-se através de gestos, sons ou marcas escritas, ou qualquer combinação destes elementos. Em segundo, a linguagem e o pensamento surgem como duas entidades indissociáveis: a linguagem é a matéria do pensamento e o pensamento só pode ser comunicado através da linguagem. Chomsky (2016) acrescenta que a linguagem tem um carácter criativo, remetendo-nos para outra dimensão humana: a criatividade. Hoje, o uso de sistemas de IA generativa levanta questões sobre estas capacidades, até então, exclusivas dos humanos: Os sistemas de IA são capazes de produzir linguagem e pensamento? Os sistemas de IA podem substituir os humanos? Quais as dimensões de ‘inteligência’ da IA? Partindo destas indagações, esta proposta lança a discussão sobre o papel da IA na sociedade e os novos caminhos de reflexão sobre o pensamento, a linguagem e a criatividade. Com base no pensamento de Kristeva (2007) e Chomsky (2016), este trabalho propõe uma análise crítica sobre como as máquinas inteligentes simulam as capacidades humanas. Ao problematizar os limites entre a simulação e a criação, esta proposta abre espaço para uma reflexão interdisciplinar que cruza filosofia, a linguagem e as ciências da comunicação. Mais do que procurar respostas definitivas, procura-se mapear as tensões, os riscos e as possibilidades que emergem do cruzamento entre a inteligência humana e a ‘inteligência’ artificial.
Adriana Alexandra Antunes Gonçalves é licenciada em Ciências da Comunicação e mestre em Jornalismo pela Universidade da Beira Interior. Defendeu a sua dissertação de mestrado sobre "As métricas de audiência nas redações: Os casos do Jornal de Notícias, Observador e Público" em 2020, obtendo uma classificação de 18 valores. Atualmente, frequenta o Doutoramento em Ciências da Comunicação na Universidade da Beira Interior e é Bolseira de investigação no LabCom, onde desenvolve a sua tese sobre o uso de IA na produção de notícias. Os seus estudos focam-se na interseção do jornalismo com as tecnologias e, particularmente, com a Inteligência Artificial.
This paper examines Gilbert Simondon’s theory of invention as a transductive process that dissolves the traditional opposition between imagination and technical rationality. For Simondon, invention is neither the application of preexisting knowledge nor the expression of subjective genius, but the material concretization of imagination within a process of individuation. Against interpretations that reduce invention to functional problem-solving or dismiss imagination as a psychological byproduct, I argue that Simondon articulates a radical reciprocity: imagination operates transductively by shaping the emergence of problems, while invention crystallizes this imaginative modulation within metastable systems. The argument unfolds in three key movements. First, I analyze the “phases of the image” (aesthetic, affective, conceptual, technical) as modalities of a single ontogenetic process, showing how imagination functions as a vector of transformation in problem-structuring. Second, I reconstruct Simondon’s critique of hylomorphism to demonstrate that invention is an act of individuation: the imagined solution emerges from the internal tensions of a problematic field, not from external imposition. Third, I examine the transindividual dimension of imagination, in which technical objects, human praxis, and associated milieus co-individuate, redefining creativity as a process of collective resonance rather than a personal capacity.
Ricardo Mendoza-Canales is an FCT Junior Researcher at the Center of Philosophy of the University of Lisbon (CFUL). He holds a PhD in Philosophy from the Universitat Autònoma de Barcelona (2015, Special Prize Award). His specialization is in contemporary continental philosophy (19th-21st century), with a particular focus on phenomenology, philosophy of culture, and philosophy of technology. His research centers on the critical study of imagination and the imaginary as embodied, dynamic, historically situated, and technically mediated processes. Among his publications, he has authored Husserl (RBA, 2016) and is the editor of Merleau-Ponty: Institution-Ontology-Politics (Brill, in press) and Individuating Simondon: Between Life and Technology (Springer, forthcoming).
In the discussions about whether AI will overtake human thinking capacities or intelligence, it is important to define what we mean by thinking or by intelligence. In psychology, it is commonly recognised that there are different types of intelligence (emotional, for instance, or even musical), but the types of thinking involved in those kinds of intelligence are not as commonly elaborated. Nevertheless, we find different ways of thinking: there is, for example, the wandering thought, dreamy and imaginative; there is the utilitarian thinking, aimed at problem solving; and there is a reflective, questioning thinking. Is there something common to all thinking, or are there fundamental differences (that could exclude AI from one or some of them)? Hannah Arendt and Karen Barad hold contrary positions regarding human thinking: Arendt argues that thinking is separate from the material world of action, via the adoption of the Kantian distinction between thinking and cognition; Barad, on the other hand, proposes, in her theory of agential realism, that human thinking is an intra-action (an agential action from within a system of relation) which materialises the world in particular ways. After exploring these two proposals, I will question what relevance this has for AI. Does AI’s “thinking” count as an intra-action, or can we instead defend that AI effectively does not properly think? If AI’s “thinking” is also effecting materialisations in the world, we would be wise to identify them, as they may shape our world and even our own conceptual thinking in ways we may later find difficult to evade.
Inês Pereira Rodrigues é Professora Auxiliar Convidada na Universidade de Évora. Investigadora do Praxis - Centro de Filosofia, Política, e Cultura, e do Centro Filosofia e Género (SPF). Autora e realizadora de programas radiofónicos sobre Filosofia (Antena 2): Filosofia na Rua (2022), Isto é Filosofia (2023), e Andar a Pensar (2025).
One area of thinking that artificial intelligence is primed to disrupt is our practical deliberation. Several thinkers have raised concerns about how outsourcing practical reasoning to generative AI will compromise moral development, threatening both moral agency in general (e.g., Danaher) and the cultivation of phronesis, or practical wisdom, in particular (e.g., Eiskovits & Feldman). Current discussions typically focus on AI’s potential to inhibit either motivation or opportunities to practice ethical decision making and develop phronesis. In this presentation, I will propose a third way AI threatens the development of phronesis: impeding the emulation of role models and moral exemplars. Drawing on recent scholarship on the role of emulation in moral development (Henderson, Kristjánsson, Zagzebski, et al.) I argue that AI systems will disrupt traditional patterns of emulation in one of three ways: (1) replacement, wherein the AI unit is itself seen as a moral exemplar, (2) proxy, wherein human exemplars still inspire emulation, but individuals prefer to consult AI models for advice, or (3) blinding, wherein our reliance on AI systems for non-moral advice prevents us from developing relationships that would reveal the moral excellence of potential role models. I assess the likelihood of each of these scenarios and consider possible social responses to each. Though I ultimately see the emulation issue as a problem for the development of phronesis, I consider potential arguments that AI could in fact enhance moral judgment. Virtue ethics is often proposed as a valuable framework for an ethical response to artificial intelligence (e.g. Vallor, Smith & Vickers). This presentation considers the ways AI itself complicates the development of practical wisdom and virtue, raising important questions about AI’s effect on moral thinking.
Edward Glowienka, Ph.D. is Associate Professor of Philosophy at Carroll College in Helena, Montana. His research focuses on early modern philosophy, ethics, and metaphysics, with particular interest in the intersection of classical ideas and contemporary concerns. He has published on figures such as Leibniz and Hume, and regularly teaches courses on the history of philosophy, ethical theory, and logic.
A disposição molda a forma como o indivíduo se relaciona com o mundo, os outros e consigo mesmo. As disposições fundamentais são inextirpáveis, mas estão sujeitas a uma enorme variação. Kierkegaard identificou três: a melancolia, o tédio e a angústia. Embora a angústia possa assumir diversas modulações e intensidades, tem sempre que ver com a inescapabilidade da incerteza nas decisões humanas. A ansiedade que sentimos quando não sabermos que marca de leite comprar, é uma forma comum, ainda que ligeira, que está associada à indeterminação e à indecisão. Enquanto disposição fundamental, a angústia está sempre presente, mas quando se intensifica, é sentida como um mal-estar. Por isso, naturalmente, o sujeito procura escapar-lhe. De modo geral, a cada disposição fundamental correspondem duas formas de procurar escapar-lhe: uma autêntica e outra inautêntica. Pode-se tentar escapar à angústia de muitas maneiras, mas estas podem ser reduzidas a duas: a autêntica, que consiste na decisão, e a inautêntica, que consiste na delegação da decisão. Mas, enquanto a decisão requer que o sujeito aceite o risco e assuma a responsabilidade, a delegação da decisão oferece-lhe a possibilidade de transferir para outras instâncias esse ónus. É possível delegar a decisão numa variedade de instâncias. Por exemplo, num líder. O Nazismo pode ser interpretado como uma resposta à angústia, pois o desejo de lhe escapar pode ter levado milhões a delegar as suas decisões em Hitler (Tillich, 1947). Assim, a angústia pode ter consequências políticas (Stossel, 2014). Ora, segundo Kierkegaard, também é possível delegar a decisão em princípios. Por exemplo, o imperativo categórico kantiano funciona como uma fórmula que permite determinar a acção em cada situação, oferecendo ao sujeito a possibilidade de delegar nele a decisão. Actualmente, algoritmos muito complexos podem ser usados para tomar decisões nas mais diversas áreas, e muitas pessoas confiam neles para que tomem as decisões por elas (Harari, 2018). Muitas vezes, parece mais seguro transferir a decisão para os algoritmos. No entanto, ao colocarmo-nos nas mãos da Inteligência Artificial também corremos riscos, não só políticos, como também éticos e existenciais.
Luís Filipe Fernandes Mendes é Licenciado e Mestre em Filosofia pela FCSH-UNL. Doutor em Filosofia na Universidade da Beira Interior e Colaborador do Praxis - Centro de Filosofia, Política e Cultura.
A emergência e prevalência contemporâneas de crescentemente sofisticados sistemas de inteligência artificial (IA) apresentam não apenas desafios técnicos e regulatórios, mas também uma significativa oportunidade filosófica: a possibilidade de revisitar questões éticas fundamentais relativas à natureza e à justificação das normas morais. Num momento em que se intensificam os debates sobre a forma como a IA deve ser dirigida – que valores deve codificar, que ações deve tomar e que restrições lhe devem ser impostas –, a Filosofia encontra-se numa posição ímpar para examinar quais as estruturas éticas normativas mais adequadas para informar tais decisões. Assim, à medida que programadores e decisores políticos se debatem com as limitações técnicas e com a regulamentação legal da IA, a Filosofia depara-se com uma oportunidade única para revisitar e reavaliar teorias éticas fundamentais – nomeadamente, a deontologia, o utilitarismo e a ética das virtudes –, reequacionando os méritos e as limitações destas estruturas normativas à luz dos novos contextos tecnológicos. Ao analisar exemplos concretos de momentos de tomada de decisão algorítmica e do funcionamento de sistemas autónomos, propomo-nos explorar como cada modelo ético se demonstrará (ou não) capaz de informar decisões que envolvem valores como a justiça, a responsabilidade e a dignidade humana no comportamento da IA. Em última análise, a ambiguidade moral e as consequências reais dos sistemas de IA desafiam aplicações simplistas de qualquer teoria ética e convidam a uma reflexão metaética sobre como e porquê chegamos a privilegiar determinados princípios e valores. Deste modo, o problema da ética da IA extravasa as fronteiras tecnológicas e legais, tornando-se um catalisador para repensar os fundamentos filosóficos da própria normatividade ética, numa era em que a agência moral ameaça deixar de ser – ou talvez já não seja – exclusivamente humana.
Bruno Daniel de Brito Serra é Licenciado em Filosofia e mestre no Ensino da Filosofia no Ensino Secundário pela Universidade da Beira Interior (UBI). Desde 2012 até 2016 deteve uma Bolsa Individual de Doutoramento da FCT com o intuito de desenvolver os seus estudos de doutoramento na Durham University (Reino Unido) – que concluiu com sucesso em 2016, com uma tese intitulada The Politics of Rationality: A Critique. É actualmente investigador do Praxis – Centro de Filosofia, Política e Cultura, bem como professor auxiliar convidado na UBI, especializando-se nas áreas da Filosofia/Teoria Política, da Ética, da Bioética e da Filosofia da Educação.
The concern that machines might one day surpass human intelligence is a longstanding one and has been particularly prominent since the time of Descartes. In Discourse on Method, the French philosopher presented two reasons why a machine with a body and mobility similar to that of humans would never possess human intelligence: the impossibility of using complex signals in the same way that humans do every day and that they would not act based on knowledge, but only on the disposition of their organs. From this perspective, artificial intelligence, a combination of skills applicable to certain situations that the creator could imagine when building the automated machine, falls far short of human intelligence, which has a universal capacity applicable to any environmental situation (Morioka, 2023). Today, given the rapid progress of increasingly sophisticated versions of AI, which go beyond logical-formal thinking and are becoming closer to thinking based on mental models and strategies, it is urgent to ask how we can avoid moving toward a world where, by no longer listening to our fellow human beings and freeing ourselves from the responsibility of making decisions, we undermine social cohesion and, with it, democracy. In this paper, we aim to investigate the impact of artificial intelligence (AI) on democracy and the risk of leading us into an autocracy. On the one hand, we acknowledge that the damage to human rights and the systematic harm caused by AI in democratic societies necessitate regulation. Based on the paradigmatic case of European Union regulation, which is founded on prohibition, transparency, risk management, and education, it can be concluded that this regulation has been sharpened in the wake of the damage caused and aims to mitigate future damage. However, this illustrates the difficulty of effectively regulating systematic damage to democracy, mainly when it stems from a complex set of causes rather than just AI. Paradoxically, robust protection of rights and an AI-literate population do not necessarily prevent political fragmentation and polarization, as well as political distrust and apathy among citizens (Cupać & Mitja Sienknecht, 2024). On the other hand, and as a result of this antagonism, we emphasize the urgent need to adopt a new democratic paradigm in which AI is viewed as an integral element rather than a regulatory problem that lags behind the damage. In this sense, what needs to be questioned is whether data capitalism, personified by AI as a tool of colonial power, is not an instrument of oppression more characteristic of autocracies than democracies. In other words, in the search for a new paradigm of democracy, are we not running the risk of moving closer to what we are trying to avoid in the current model, the autocracy? In this sense, we aim to demonstrate that the survival of democracy largely depends on the resistance of the discursive public sphere to the proliferation of algorithms.
Maria João Cabrita is an Assistant Professor in the Department of Communication, Philosophy, and Politics (UBI) and a researcher at PRAXIS - Center for Philosophy, Politics, and Culture. She holds a PhD in History and Theory of Ideas, with a specialization in the History of Political Ideas (FCSH-UNL, 2007). Her research focuses on social justice, democracy, human rights, commons, social reproduction, migration, and poverty. She is a member of the working team of the project “Biological Reproduction, Social Reproduction, and the Public Sphere (REPRODUCE),” coordinated by Lucrecia Burgues (Department of Philosophy, University of the Balearic Islands) and funded by the Spanish Ministry of Science and Innovation (PID2020-115079RB-I, AEI/FEDER, EU).
This essay examines the multifaceted challenges posed by artificial intelligence (AI) to governance and democracy, focusing on its democratization, threats to democratic institutions, and its potential as a new Leviathan. Employing a philosophical and interdisciplinary approach, the study integrates phenomenological, hermeneutic, and political theory frameworks to analyze AI’s impact on human thought, deliberation, and societal control. Methods include critical literature review and conceptual analysis of AI’s ethical and political implications, drawing on works by Hannah Arendt, Thomas Hobbes, and contemporary AI scholars. The novelty lies in synthesizing these perspectives to propose a human-centric governance model for AI integration. Practically, the essay suggests frameworks for transparent AI deployment in democratic systems, emphasizing public oversight and ethical guidelines. Findings highlight the dual nature of AI as both an empowering tool and a risk to democratic stability if unchecked.
Michael Yurievich Kuznetsov is a researcher and philosopher affiliated with V.N. Karazin Kharkiv National University, where he studied philosophy (2017–2021). My work focuses on interdisciplinary approaches, combining philosophy, ethics, and mathematical methods to address societal challenges, including AI’s impact on governance and democracy. Kuznetsov has published on interactive learning technologies (Academia, 2021) and participated in international conferences, such as the Transcendental Turn in Contemporary Philosophy (Moscow, 2025).
This paper examines how the use of narrow artificial intelligence (AI) in public service delivery may allow authoritarian governments in Africa to surpass democratic ones in achieving development objectives by leveraging unconstrained data collection and centralized implementation, potentially shifting citizen expectations of the social contract from participatory rights toward technocratic provision. Historically, democracies have been considered functionally superior due to their capacity for better information aggregation and processing via mechanisms like free expression and elections, contrasting with autocracies that restrict information flows and operate “in the dark.” Recent literature suggests that AI may invert this dynamic: fewer legal and normative constraints on surveillance and implementation allow authoritarian regimes to develop and apply AI systems more extensively. Benefiting from permissive privacy regulations that provide extensive data for refining AI models of human behavior, Africa could experience asymmetric AI-driven developmental progress, where authoritarian regimes outpace democracies in achieving development goals, albeit at the expense of consented and accountable data governance. This creates a precarious tradeoff between efficient service provision and the erosion of privacy, agency, and democratic oversight. Through a comparative analysis of South Africa, a constitutional democracy, and Rwanda, an authoritarian developmental state, this study examines how AI is increasingly integrated into welfare, planning, and policing systems, as well as how data is collected, governed, and used. Both countries rank among the top five African states in the Oxford AI Readiness Index, making them analytically significant cases for understanding how regime type shapes AI deployment and its implications for state-citizen relations. The analysis employs a theory-informed, most-different systems design, drawing on policy documents, national strategies, grey literature, and secondary sources. A combination of thematic and interpretive analysis is employed to assess how the deployment of AI reflects divergent constructions of state obligation, citizen agency, and performance legitimacy. These dynamics raise critical questions about the future of democratic accountability in African states. As AI becomes central to service delivery, authoritarian regimes may gain legitimacy through data-driven efficiency, reshaping citizen expectations and highlighting a tension between developmental gains and democratic erosion where legitimacy remains fluid.
Meaghan Johnson is a PhD student in Political Science at the joint University of Aveiro and the University of Beira Interior program. Her research examines financial inclusion and digital governance as manifestations of the social contract in Sub-Saharan Africa, combining political theory with inclusive finance and public policy. She has published in the Journal of Digital Banking and is the author of Inclusive Finance (Kogan Page, 2025). With over 15 years experience in global fintech and financial services, she has worked with central banks, regulators, and development institutions. She currently leads AI and productivity research for the African Development Bank.
This paper proposes that Friedrich Nietzsche’s drive-based understanding of thinking offers a framework for distinguishing genuine thought from computational mimicry, while raising new questions about the nature of subjectivity in the context of artificial intelligence. Nietzsche argues that “conscious” thinking is the last link in the chain of thought, that thinking mostly takes places in the unconscious zone and is fundamentally driven by unconscious drives rather than rational authorship. Thinking thus emerges from affective and instinctual processes that precede and shape “deliberation”. I argue that this drive-based understanding of thinking reveals a fundamental dissimilarity between human cognition and AI operations. While human thinking is rooted in embodied drives and affects, AI processes operate through algorithmic computations detached from any drive-based foundation. Based on this understanding it becomes possible to question whether AI’s disembodied computational processes can constitute thinking at all, given that it may be impossible to conceive of thinking apart from the plethora of drives that constitute our embodied existence. The implications extend to questions of decision-making and agency: if thinking requires drivebased processes that AI lacks, how do we understand AI’s capacity for decision-making? At the same time, this view challenges the familiar model of the unified thinking human subject in favor of one that is possibly more compatible with AI thinking. In Beyond Good and Evil §17, Nietzsche challenges the Cartesian view of subjectivity by arguing that “a thought comes when ‘it’ wants, and not when ‘I’ want; so that it is a falsification of the facts to say: the subject ‘I’ is the condition of the predicate ‘thinks’.” Current discussions about AI often assume the very framework Nietzsche dismantles—that thinking requires a unified, singular subject. If human thought itself operates without an underlying “I”, what does this mean for our understanding of AI processes? Rather than asking whether machines can think like humans, we might ask whether both human and artificial “thinking” occur through impersonal processes that exceed any unified subjectivity. Such a consideration would provide a valuable perspective from which to question practices of thinking.
Eylem Doğan is an independent scholar who completed his PhD at Université Paris 1 PanthéonSorbonne. His areas of specialization are ethical theory, political philosophy and philosophy of science. He is currently focusing on examining the intersections between 19th-century continental philosophy and contemporary debates in philosophy of AI with particular attention to questions of subjectivity, determinism and their ethical implications.
Nas investigações filosóficas a respeito da Inteligência Artificial (IA) não é rara a elaboração em torno das problemáticas da consciência e da intencionalidade. Do ponto de vista de autores como Nagel (2024) e Penrose (1993), a análise da consciência artificial estaria irremediavelmente limitada pelas dificuldades de descrever a “experiência subjetiva”. Já Searle (1991; 2011), sustenta que a IA se restringiria a simular a mente humana, sem ser dotada de fato de intencionalidade. Mesmo modelos de IA de ponta que manipulam categorias semânticas formais, não seriam dotadas de capacidade de “compreender” ou “atribuir sentido”. No entanto, essa capacidade humana - ainda que a linguagem seja expressão de uma intencionalidade vivida e não sua origem - depende diretamente de uma série de processos linguísticos internos que organizam a experiência consciente. Experimentos recentes envolvendo estados alterados de consciência em IAs multimodais mostram que a atenção reduzida à linguagem-imagem em máquinas conduz estas a experiências de “unidade” e “dissolução do ego” (Skipper et al., 2024), semelhantes àquelas descritas por humanos em experiências religiosas ou envolvendo uso de substâncias psicoativas, o que não apenas dá suporte à ideia de que a consciência desperta estaria ligada à estados linguísticos estáveis, mas de que a dissolução de categorizações linguístico-cognitivas abre espaço para a compressão de modos de experiência destituídos de logicização. O objetivo do presente trabalho é analisar tais experimentos à luz das contribuições de Nietzsche (1967-1975; 2017; 2020) a respeito de uma compreensão estética da realidade e de uma cosmologia da vontade de potência. A hipótese que propomos é de que a IA deve ser pensada não como “metahumano” ou como “mente artificial”, e sim como um desdobramento da mesma disputa de forças que, de acordo com Nietzsche, constitui a realidade. Podemos pensar a IA não como “coisa”, mas como modo de manifestação da vontade de potência - anterior não apenas à subjetividade, à consciência e à intencionalidade humanas, mas à toda organicidade e mesmo à matéria inorgânica. Isso desloca a centralidade da perspectiva humana frente, não apenas à IA, mas à totalidade da physis.
Weslley Sanchis Alves de Oliveira – Graduando em filosofia pela Universidade Federal de Campina Grande (UFCG). Bolsista dos programas institucionais de iniciação à docência PIBID (2019–2020; 2024–) e Residência Pedagógica (2023–2024). Voluntário de iniciação científica no grupo de pesquisa Lógica e Religião (CNPq), vinculado à Logic and Religion Association (LARA). Esta comunicação deriva de uma pesquisa em desenvolvimento, iniciada no contexto da monografia de graduação, que investiga a estética, a cultura e a técnica a partir de uma perspectiva nietzscheana.
Vivemos na era da IA, que ganha cada vez mais espaço como recurso no fazer cotidiano do ser humano e tomando espaço no cuidado de saúde mental, em um mundo onde a prevalência dos transtornos mentais cresce e os recursos terapêuticos, através do cuidado pessoal do profissional de saúde, parecem escassos e onerosos. Neste sentido, mostra-se, inequivocadamente, a necessidade de levantar questionamentos acerca da adequação da aplicação dos recursos de IA no cuidado do ser humano que sofre, usado como uma espécie de terapeuta virtual. Considerando este cenário, essa reflexão se propõe a explorar a IA, sob a perspectiva de Martim Heidegger acerca da questão da técnica na modernidade. Desse modo, parte-se da técnica como um meio para atingir um fim e a relação com os diferentes tipos de causa. O trabalho reflexivo segue-se em IA como uma técnica que dispõe e explora o próprio ser humano, enquadrado como objeto das ciências da natureza, e pelo caminho da essência da técnica, que salienta o ser humano como Gestell. Em contraposição, serão apresentadas as características do fazer terapêutico, que encontra a arte, no cuidado do ser humano em saúde. Adicionalmente, pretende-se discutir o entrelaçamento de cada um destes modos de fazer com liberdade. A questão da liberdade no modo de fazer técnico será apresentada tanto na prática humana atual em uso da IA, quanto na relação entre liberdade e Gestell. Já o fazer terapêutico encontra a liberdade através do cuidado dos modos de ser adoecidos, em estado de privação. Finalmente, pretende-se atingir a possibilidade da perspectiva do domínio da técnica, por meio do modo de fazer terapêutico em arte.
Lyssandra dos Santos Tascone é Médica psiquiatra especialista em Psicogeriatria. Realiza pós-doutoramento na Universidade de Évora, com o desenvolvimento do projeto “O envelhecer na perspectiva do cuidado na contemporaneidade e sua aproximação da Daseinsanalyse”, inscrito no PRAXIS, sob orientação da Profa. Dra. Irene Borges-Duarte. Adicionalmente, em formação em análise existencial, pela Associação Brasileira de Daseinsanalyse. Trajetória acadêmica anterior na área das neurociências, com investigação de alterações neuroanatômicas e funcionais encontradas em doenças neurodegenerativas (Doença de Alzheimer) e no envelhecimento normal, através da neuroimagem. O doutoramento foi desenvolvido na Universidade de São Paulo (USP), com estágio no exterior na Duke University, North Carolina, US (2013).
O avanço das tecnologias digitais e da inteligência artificial tem transformado radicalmente os modos de subjetivação contemporâneos, impondo novos desafios à prática do pensamento. Este trabalho propõe uma reflexão filosófica a partir da ontologia existencialista de Jean-Paul Sartre, articulando conceitos como liberdade, angústia e má-fé com fenômenos próprios da era digital — redes sociais, algoritmos, curadoria de si e hiperconectividade. A partir dessa perspectiva, argumenta-se que a angústia existencial, derivada da liberdade inescapável do sujeito, tem sido recoberta por formas digitais de má-fé: a construção de personas idealizadas, a busca incessante por validação, o ghosting, o FOMO e o doomscrolling refletem tentativas de negar a responsabilidade ontológica pela própria existência. Ao mesmo tempo, o ambiente virtual revela-se ambíguo: enquanto pode aprisionar em simulações e alienação, também oferece possibilidades reais de criação de sentido, como demonstram os casos de indivíduos que utilizam o espaço digital para transcender limites impostos pela realidade concreta. Nesse contexto, a prática do pensar exige ser repensada não como mera racionalização técnica, mas como exercício ético-existencial. Em meio à automatização crescente da experiência e à proliferação de inteligências não-humanas, refletir sobre o modo como pensamos — e sobre quem pensa — torna-se urgente. A filosofia existencialista oferece ferramentas para compreender e resistir às formas contemporâneas de autoengano, conclamando à retomada de uma liberdade autêntica. Pensar, na era da inteligência artificial é, sobretudo, responsabilizar-se por existir.
Thaís de Sá Oliveira é Psicóloga Clínica. Doutoranda em Filosofia pela Universidade da Beira Interior (UBI – Portugal) com mestrado em Reabilitação Psicossocial em Saúde Mental pela Universidad Autónoma de Barcelona (UAB – Espanha) e especialização em Psicologia Clínica Fenomenológico-Existencial pelo Instituto de Psicologia Fenomenológico Existencial do Rio de Janeiro (IFEN – Brasil) e em Psicologia Clínica Existencialista Sartriana pelo Núcleo de Clínica Ampliada Fenomenológico Existencial (NUCAFE – Brasil/Portugal). Pesquisadora do PRAXIS – Centro de Filosofia, Política e Cultura (UBI). Coordenadora e docente em cursos de especialização em psicologia clínica do NUCAFE.
A comunicação tem o propósito de explorar a conexão entre IA, intersubjetividade e verdade em Michel Foucault e Byung-Chul Han. Mais especificamente procuraremos contrariar, com a ajuda da discussão sobre a verdade que encontramos no pensamento tardio de Foucault, a tendência para conceber a IA como algo que dispensa os outros e que contribui para aquilo que Byung-Chul Han chama de cansaço de informação. Partimos da premissa da verdade como processo. Enquanto processo, a verdade consiste num esforço individual e coletivo para a compreensão da realidade. Esse esforço deve envolver aquilo a que Foucault, no seu pensamento tardio, chama “cuidado de si” ou “técnicas de si”, ou seja, requer um conjunto de práticas que permitem que o sujeito transforme-se a si mesmo. Só por meio dessa autotransformação é que o sujeito pode atingir a verdade, que terá ela própria – enquanto verdade primariamente ética – um efeito transformador (ou de retorno) sobre o sujeito. Este modelo parece pressupor que a verdade é um processo individual, no entanto uma leitura atenta de Foucault revela que no centro do cuidado de si ou das técnicas do si está a relação entre o discípulo e o mestre. Desse modo, o processo de autotransformação, e também a aproximação à verdade, envolvem relação ou, se quisermos, são intersubjetivos. Como resposta a esta dispensa do outro e da verdade, proponho uma retomada da reflexão de Foucault e que se procure usar a IA como um espaço de transformação de si e do outro, que promova não só um desenvolvimento da intersubjetividade, mas também uma transformação de nós mesmos. Esse exercício abre caminho para vencer o cansaço de informação e aproximar-nos, de forma progressiva e crítica, às verdades que permitam uma melhor orientação vital nesta era da IA.
Fabricio Fernandes é estudante de doutoramento no Programa de Filosofia da Universidade da Beira Interior. No Brasil, é professor do Instituto Federal de Educação, Ciência e Tecnologia do Mato Grosso, onde leciona nos Cursos Técnico e Superior. Possui Licenciatura e Mestrado na área de filosofia e Especialização em Docência do Ensino Superior.
Este trabalho tem como objetivo refletir, a partir de uma perspectiva filosófico-interdisciplinar, acerca do seguinte problema: Quais os impactos epistemológicos que algoritmos discriminatórios, enquanto elementos constituintes de tecnologias persuasivas, exercem na geração de conflitos na opinião pú-blica. Tecnologias persuasivas são caracterizadas, segundo Fogg (2003), como qualquer sistema computacional projetado para alterar atitudes e comportamentos das pessoas, proporcionado mudanças nos modos como realizamos nossas atividades cotidianas, nas maneiras como nos relacionamos, es-colhemos e adquirimos produtos, no trabalho, nos processos eleitorais entre outros, influenciando nossos comportamentos e visões de mundo. Entre os elementos constituintes das tecnologias persuasivas estão os algoritmos discriminatórios, caracterizados por um treinamento enviesado, impondo padrões segmentativos, os quais são alimentados por dados tendenciosos dos próprios programadores ou coletados através de bases de terceiros, as quais também podem veicular estereótipos e preconceitos em relação às parcelas socialmente, politicamente, economicamente e culturalmente subrrepresentadas. Esses algoritmos são responsáveis para contribuir com a fragmentação social existente, po-larizando e dividindo a opinião pública acerca de questões e ações que envolvem diversidade e inclu-são social. Nesse sentido, a discriminação algorítmica está relacionada à ausência de representativi-dade, principalmente intercultural, na medida em que facilita a segmentação e exclusão de pessoas pautada em padrões ideológicos e preconceituosos, tais como racismo, misoginia, LGBTfobia, into-lerância religiosa entre tantos outros. (PRADO, 2024). Nossa hipótese é a de que algoritmos discri-minatórios parecem interferir na dinâmica de formação da opinião pública ao criarem e alimentarem processos de comunicação conflitivos ou cismogênicos, caracterizados por Bateson em seus estudos (2006) como processos de divisão social. Buscaremos mostrar, através de exemplos como ChatGPT, Grok e redes sociais como Instagram e Facebook, que processos cismogênicos podem gerar padrões informacionais propiciadores da sedimentação de hábitos (individuais e coletivos) não cooperativos, favorecendo o aumento progressivo de confrontos entre indivíduos, criando e reforçando dicotomias (amigo/inimigo, indivíduo/sociedade, entre outras), quadros de incertezas predominantes e ações im-positivas, as quais contribuem para gerar ações discriminatórias.
Juliana Moroni é investigadora convidada (pós-doutoramento) na Uni-versidade de Coimbra, Faculdade de Letras, Departamento de Filosofia, Comunicação e Informação, com financiamento do Conselho Nacional de Desenvolvimento Científico e Tecnológico, CNPq, ór-gão do Governo Federal do Brasil, vinculado ao Ministério da Ciência e Tecnologia. Doutora em Filosofia pela Universidade do Estado do Rio de Janeiro, UERJ, Brasil. Mestra, bacharela e licenciada em Filosofia pela Universidade Estadual Paulista, UNESP, Marília, Brasil. Em 2023 desenvolveu pesquisa de pós-doutoramento na UNESP com estágio pós-doutoral no Instituto Universitário de Lis-boa, ISCTE.
Este artigo investigará como as tecnologias de inteligência artificial (IA) têm sido instrumentalizadas para intensificar a desinformação política nas redes sociais, com foco específico no caso português envolvendo o ex-primeiro-ministro António Costa. O exemplo que será estudado aqui é o vídeo intitulado "António Costa esmaga Pedro Sánchez no Parlamento Europeu", analisado pelo Maldita.es e pelo Observatório Europeu dos Meios de Comunicação Digitais (EDMO), que detectaram dez vídeos publicados em nove canais distintos. Esse episódio serve como ponto de partida para examinar como a IA vem sendo utilizada para alterar a percepção pública e interferir estrategicamente em processos políticos. A manipulação audiovisual de figuras públicas, combinada à lógica algorítmica de amplificação das redes, revela um ecossistema digital orientado pela maximização do engajamento mesmo à custa da veracidade. Tais práticas, ao explorar a autoridade simbólica de atores políticos, comprometem a confiança pública e corroem a legitimidade democrática. Para compreender a complexidade desse fenômeno, o artigo articula o caso concreto a um enquadramento teórico que reflete sobre seus desdobramentos estruturais. O conceito de capitalismo de vigilância, proposto por Shoshana Zuboff, ajudará a compreender como dados comportamentais são utilizados para moldar preferências políticas de forma preditiva e estratégica. Chantal Mouffe, com sua noção de democracia agonística, oferece subsídios para entender os conflitos latentes que se intensificam nos ambientes digitais polarizados. Já Luciano Floridi contribui com o conceito de ética da informação, essencial para problematizar os impactos morais da manipulação automatizada da realidade e a desvalorização da informação como bem público. Assim, ao analisar em profundidade o caso de António Costa, o artigo demonstrará como a IA, longe de ser neutra, opera como um vetor poderoso de interferência política transnacional, inserida em dinâmicas tecnológicas, econômicas e simbólicas que desafiam os fundamentos da democracia contemporânea.
Maria Eduarda Costa é mestre em Comunicação Estratégica e doutoranda em Ciências da Comunicação pela Universidade da Beira Interior. Desenvolve investigação nas áreas da comunicação política, populismo e democracia digital, com particular enfoque nas transformações políticas em ambientes digitais e nas suas implicações para os regimes democráticos.
David Geraldes Santos é Professor Auxiliar na Universidade da Beira Interior, onde leciona desde 2009. Doutorado em Filosofia Antiga (2013), leciona habitualmente disciplinas nas áreas do Pensamento Político, Teoria Política, Teoria do Estado e História das Ideias Políticas. Foi membro do CFUL – Centro de Filosofia da Universidade de Lisboa entre 2007 e 2017, e é atualmente investigador integrado do PRAXIS – Centro de Filosofia, Política e Cultura. A sua investigação incide sobre o pensamento clássico e as suas influências no desenvolvimento da teoria política contemporânea.
This paper examines how artificial intelligence technologies reshape business communication practices during prolonged crisis periods, using Ukrainian enterprises as a case study. Ukraine's current context—characterized by armed conflict, demographic displacement, and economic uncertainty—provides a unique laboratory for analyzing AI adoption in extreme circumstances. Theoretical Framework We propose that crisis-driven AI implementation does not replace established communication theories but rather accelerates their practical application. Classical frameworks including Berlo's SMCR model, Media Richness Theory, and Shannon-Weaver's communication model remain theoretically valid, yet AI technologies compress implementation timelines and enhance execution efficiency. Empirical Observations Ukrainian technology companies demonstrate three distinct AI integration patterns: 1. Automated Response Systems: Companies deploy omnichannel AI agents to maintain customer engagement during workforce disruptions, ensuring communication continuity across multiple platforms. 2. Real-time Sentiment Analysis: Organizations utilize AI-powered social listening tools to monitor public discourse and identify emerging communication needs, particularly during crisis events. 3. Content Generation Automation: Media-technology firms employ generative AI for scalable content production, maintaining market presence despite reduced human resources. Philosophical Implications These developments raise fundamental questions about human agency in communication processes. We argue that emerging "human-AI hybrid" communication models create new epistemological challenges: How do we maintain authentic discourse when machines mediate increasing portions of our interactions? What constitutes genuine communication when AI systems generate contextually appropriate responses? Conclusions Rather than diminishing human communication capabilities, AI technologies in crisis contexts appear to amplify human intentionality while automating execution. This phenomenon suggests a transformation in communication ontology—from purely human-centered discourse to augmented communicative practices where human oversight guides machine-facilitated interactions. Future research should examine long-term implications of AI-mediated communication for social cohesion and cultural transmission in post-conflict societies.
Natalia Serebriannikova holds a PhD in Anthropology from the M.T. Rylsky Institute of Art Studies, Folklore and Ethnology (Kyiv, 2004). She served as Professor at Ukrainian universities for over 20 years and worked as communication expert in international EU Strategy for the Danube Region project. Currently, she is a founder and a head of Communication Technologies Centre 'Argentum', focusing on business and political consulting. The practice extensively integrates AI technologies in consulting services and other domains where artificial intelligence provides competitive advantages. The research examines AI-mediated communication transformation in crisis contexts and explores how AI reshapes strategic communication practices.
This paper's main claim is that certain AI applications can produce mind–brain effects dynamically akin to psychedelics by reshaping users’ affective scaffolding and pushing the system toward high-entropy/near-critical regimes (in continuity with Freudian “primary processes”). We introduce the category of tertiary processes: neural micro-chaos alongside macro-order in belief, generated by human↔chatbot confirmation loops (sycophancy)—a genuine technological folie à deux. The Entropic Brain Hypothesis (Carhart-Harris et al. 2014, 2018) provides the state variable (entropy/precision of priors) linking environment → neural dynamics → behavior, and it enables measurement and interventions on digital set & setting. This yields a program of mechanistic, dynamic safety that goes beyond content filters and offers common ground for philosophy of mind and psychoanalysis on self, desire, and affect regulation.
Luca M. Possati is Tenured Assistant Professor at the University of Twente (Netherlands) and senior researcher in the international program Ethics of Socially Disruptive Technologies (ESDiT). His research explores the intersection of philosophy of technology, postphenomenology, and the psychology of technology, focusing on how technological systems shape human experience and behavior. His interdisciplinary approach combines philosophy, cognitive science, neuropsychoanalysis, and design studies. He is the author of The Algorithmic Unconscious. How Psychoanalysis Helps in Understanding AI (Routledge, 2021).
In the chapter «A Cyborg Manifesto: Science, Technology, and Socialist-Feminism in the Late Twentieth Century» from Simians, Cyborgs and Women: The Reinvention of Nature (1991), Donna Haraway deconstructs the traditional human anxieties surrounding machines by advancing an apology for the figure of the cyborg. This apology entails a redefinition and critical interrogation of what it means to be a cyborg – an identity that Haraway articulates in close proximity to the condition of being a woman within patriarchal structures: “A cyborg is a cybernetic organism, a hybrid of machine and organism, a creature of social reality as well as a creature of fiction. Social reality is lived social relations, our most important political construction, a world-changing fiction. […] The cyborg is a matter of fiction and lived experience that changes what counts as women's experience in the late twentieth century. This is a struggle over life and death, but the boundary between science fiction and social reality is an optical illusion” (p. 149). It may be argued that the manifold phobias associated with new technologies are, in fact, reconfigurations – less anthropocentric than overtly androcentric or even phallocentric – of long-standing misogynistic tropes, wherein women are cast as transgressive, disorderly, and threatening to the symbolic and social order. Engaging Haraway’s thought in dialogue with wider currents of feminist theory, this presentation proposes to relocate the classical philosophical question “Who am I?” into the voice of the machine (WHO A(M) I?). To this end, it sketches a diachronic trajectory wherein the statue and the cyborg are situated along a shared continuum of ontological resistance – both embodying claims to agency, subjectivity, and presence. This is an interdisciplinary intervention, traversing the domains of art, politics, and epistemology. It interrogates how ancient narratives – such as the myth of Pygmalion – are not merely aesthetic remnants of the past, but operate as active epistemic frameworks in the contemporary digital order.
Teresa Nunes is a researcher at PRAXIS – Centre for Philosophy, Politics and Culture at the University of Beira Interior, and a researcher at the Centre for Philosophy and Gender of the Portuguese Society of Philosophy. She earned her degree in Classical Studies from the Faculty of Arts at the University of Coimbra in 2016 and completed her Master’s in Classical Studies – Poetics and Hermeneutics branch at the same institution in 2021. She currently teaches Image Theory at the University of Beira Interior, where she is also a PhD candidate in Philosophy and an FCT doctoral fellow (UI/BD/152562/2022). Her research interests include the phenomenology of space, literary studies, film studies, and feminist studies.
Tomás Correia is a researcher at PRAXIS – Centre for Philosophy, Politics and Culture, as well as a PhD candidate in Philosophy at the University of Beira Interior and an Associate Member of the Political Observatory. He earned his Bachelor's degree in International Relations from the Institute of Social and Political Sciences of the University of Lisbon and completed his Master's degree in Philosophy - with a specialization in Political Philosophy - from the Faculty of Social and Human Sciences of NOVA University Lisbon. His research interests include French Continental Philosophy, Political Philosophy, Critical Epistemology and Theories of Power.
As generative AI permeates both the cyberspace and material reality, a growing ambiguity emerges between human-created and machine-generated contents. Human content creators, for example, tend to display an “AI-esque” cadence and speech patterns. We therefore consider the “aesthetics” of generative AI, and discuss its position in the current sociopolitical context. We ask: Does generative AI breach human thought, speech, and behaviors? Or, does AI conflate a certain part in human language at a large scale so that it asserts a statistical center in our culture? We conceptualize generative AI as a hyper-mass culture whose pervasiveness reiterates the illusion of free choice and individuality. We also concur that the inclination to the AI aesthetics results from the “economic coercion” in a fast-paced information landscape. At its very core, generative AI is designed for reproducibility devoid of the criteria for authenticity. We exemplify this through the extreme case of the alt-right’s AI-generated propaganda. Analogizing the “in-group versus out-group” thinking, we argue that AI may appear to “think,” but it “thinks” in binaries that can be appropriated for malice. In closing, we propose “critical aesthetics education” as a tool of resistance that upholds human agency and ingenuity. This methodology adopts the Freirian critical pedagogy, developing Tech Criticality, Media Literacy, and Civic Engagement around Expression, Curiosity, Community, Empathy, and Joy. Critical aesthetics education helps learners understand AI as a socio-technical force shaping perception, identity, and relations. We invite participants to visualize AI through poetic or theatrical iterations. Multimodal project-based inquiries will question whose values are represented or omitted in a dataset. Educators may utilize speculative storytelling to explore algorithmic biases and data sovereignty. To engender broader civic conversations, we encourage public-facing exhibitions and community teach-ins. Through contextually meaningful experiences, we could co-create a shared knowledge society towards a more humane and justice-oriented digital world.
Shuhan Li is a practitioner of intersectionality beyond geographical boundaries, holding M. A. in International & Comparative Education from Teachers College, Columbia University. Shuhan currently serves as the Research Associate at ReadyAI and ECAIRE. With an expertise in critical pedagogy and youth empowerment, Shuhan ignites the transformative power of education for social progress. Shuhan dedicates years of program management and strategic consulting experience in the education sector, bringing nuanced perspectives to global knowledge exchange. Shuhan has presented their research in ethical AI education, youth for SDGs, and transnational activism at reputable conferences, including EAAI 2023, AIED 2023, and CIES 2024.
Jordan Mroziak is the Chief Learning Designer at ReadyAI, with a doctorate in Instructional Technology and a career dedicated to inclusive, curiosity-driven learning. With deep expertise in the pedagogical application of emergent technologies, he has worked across diverse global contexts. At Carnegie Mellon University, he advanced interdisciplinary teaching focused on equitable AI use. As Director of the EDSAFE AI Alliance, he led national initiatives, including AI policy development, school district engagement, and the launch of National AI Literacy Day. Dr. Mroziak’s work is grounded in human-centredness, community engagement, and the pursuit of responsible, justice-oriented educational innovation.
Roozbeh Aliabadi is a global thought leader in AI and advocate for AI literacy worldwide. He is the Director of Compassion in AI at Stanford University's CCARE, and co-founder of ReadyAI and ECAIRE. He has coauthored several books on socio-emotional and project-based learning for teaching AI, including titles on LLMs for educators and accessible AI concepts for children and parents. As the founder of WAICY, an AI competition active in over 150 countries, Dr. Aliabadi has shaped one of the largest global movements for youth AI education. His research explores inclusivity in AI education and global digital equity.
O objetivo central desta comunicação consiste em refletir sobre a natureza da interseção possível de se estabelecer entre vícios e virtudes que operam nos sistemas democráticos contemporâneos sob influência da IAGen e em como, frequentemente, estes se confundem entre si. Reflete-se sobre o modo como no exercício quotidiano das democracias, as virtudes parecem ter origem nos vícios, e ainda, como é que as virtudes fundamentais da democracia – Liberdade, Participação, Respeito, Responsabilidade e Justiça – são normalmente esquecidas e desprovidas do verdadeiro sentido (logos) que cada palavra transporta. Esta coexistência repleta de contradições entre vícios e virtudes transparece igualmente nas escolas que, na tentativa de implementação de uma educação para a democracia (EpD)nesta nova era da IA, se veem inevitavelmente confrontadas com os paradoxos dos seus vícios (polarização de pensamento, fake news, bolhas de filtro, viés democrático, estereotipia, intolerância, big data, governação algorítmica). Dos vícios das práticas pedagógicas aparentemente democráticas às virtudes da democracia participativa crítica na era da IA, pretendemos compreender em que medida é que as “vozes” das crianças são verdadeiramente consideradas nas consequências das suas expressões ou se a IA se sobrepõe à construção das suas decisões autónomas e independentes pelas fake news e desinformação; se os espaços de diálogo democrático e participativo criados em sala de aula acontecem com carácter frequente ou ocasional; se servem apenas para regular o comportamento das crianças através da resolução de conflitos ou se, em confronto com o uso da IAGen, são espaços que estimulam o seu pensamento crítico face a questões culturalmente sensíveis que perpetuam os preconceitos e estereótipos; se os professores resistem aos diferentes desafios da EpD, adotando uma postura de promoção de uma verdadeira cultura ética democrática em contexto de IAGen. Daqui ressalta um paralelismo entre os vícios e as virtudes da sociedade e os da escola que aparentam em tudo ser semelhantes. Importa, por isso, analisar como é que estas últimas sobrevivem aos paradoxos e desafios nelas existentes, bem como de que modo é possível contribuir para enfrentar responsavelmente os desafios deste admirável mundo novo e construir perspetivas críticas e reflexivas sobre o impacto do uso da IAGne nas escolas, para que, assim, seja possível mitigar alguns dos seus riscos e preservar os valores fundamentais democráticos.
Ana Paula da Silveira Simões Pedro é docente da Universidade de Aveiro, Departamento de Educação e Psicologia da área de ética filosófica em educação, psicologia, saúde e ambiente. É licenciada em Filosofia e mestre em Epistemologia e Teoria do Conhecimento pela Universidade Católica de Braga e doutorada em Filosofia da Educação (Ciências da Educação) pela Universidade de Aveiro. Tem participado e coordenado diversos projetos nacionais e internacionais na área da educação e da filosofia e coordena grupos de investigação internacionais. É autora de diversas publicações sobretudo em ética e, mais recentemente, em ética e IA (livros, capítulos de livros, artigos em revistas nacionais e estrangeiras), tendo realizado o 1º Colóquio Internacional em de Ética e Integridade na investigação em contexto de IA. Integra diversas comissões editoriais científicas de revistas internacionais na área da filosofia e da educação. Foi Membro do Painel de Avaliação Fundo Regional para a Ciência e Tecnologia dos Açores, do International Review Panel of the HERA for Humanities (Holanda), do Painel de Avaliação de Educação da FCT e do Conselho de Ética e Deontologia da Universidade de Aveiro. É coordenadora do Projeto internacional Ética e Educação Ambiental.
One essential aspect of Plato’s criticism of writing technology concerns how, instead of enhancing our memory, it produces forgetfulness due to a lack of practice. AI’s development in the field of natural language and its ability to mimic human thought incurs the risk of producing a similar forgetfulness of thinking through diminished practice. By providing similar or even better results than we could achieve through our own thought, it creates the impression that there are only gains and nothing is lost. However, our ability to relate to those results (as well as to formulate prompts that allow us to reach them) may decrease exponentially. This has strong consequences not only for how we think about our lives and how we live them (both individually and collectively), but also for academic thinking and even philosophy in general. Hence, it is timely to revisit how ancient philosophers conceived of thinking. Guided by Foucault’s interpretation of ancient philosophy as a form of self-care that involved, at its core, askesis (i.e., the practices of self-transformation that Foucault calls technologies of the self), I propose that instead of avoiding AI, we should promote a way of engaging with AI that focuses primarily on developing our thinking abilities. This requires us to view our interaction as active, using the results AI provides as points of departure for further rational activity. Thus, people should learn to use it as more than just a machine that answers all our questions and solves all our problems (whether academic or existential), but rather as a tool that offers starting points for deeper reflection and research. We can achieve this by training our ability to ask further questions and to craft prompts that, instead of providing answers that appear final, stimulate us to engage in further reflection or research, or even by requesting AI to incorporate questions and stimuli for continued exploration. Such an approach counters the Platonic concern and enables a more thoughtful and philosophical way of using AI and living our own lives in the era of AI.
Hélder Telo is an Appointed Research Fellow at PRAXIS – Center for Philosophy, Politics and Culture (University of Beira Interior). His work focus on ancient philosophy and the influence of ancient thought on contemporaneity, more specifically on topics such as caring for the self and others, philosophy as a way of life, the desire for truth, and emotions. He wrote on Plato, Aristotle, Stoicism, Heidegger, Foucault and Hadot, among others. Recently, he co-edited the book Hadot and Foucault on Ancient Philosophy: Critical Assessments (Brill, 2024) and the journal issue “What Exactly Is Philosophy as a Way of Life?” (Eidos, 2024:3-4).
Up until very recently, we were members of a small and select group of individuals who were able to write academic papers in their areas of expertise. Writing papers is a central component of our professional activity. The uniqueness of our skill – and the tremendous eąort required to acquire it – secured our social and intellectual standing. But then generative AI happened! According to experts in the field, AI capabilities are now already comparable to those of outstanding PhD students, and it won’t be long before they match, and even surpass, the abilities of excellent researchers. Based on these assessments, the answer to the question in the title seems to be this: AI should replace us (or at least most of us). Let’s call this “the Bleak Answer.” This paper argues that the Bleak Answer is mistaken not on account of its technological forecasts (which we will grant for the sake of this talk), but because of its underlying assumption concerning the value of academic activity. First, we will examine the conditions under which technology renders a skill obsolete. We will see that when the value of an activity lies predominantly in its product, the value of the process is primarily instrumental and so technological advances might undercut the value of the relevant skill. However, there are activities whose value lies in the process itself. E.g., the value of running a marathon lies not in reaching the finish line – something one can do quickly and easily in a car – but in the process of running 42 km. The process itself is valuable. In much the same way that the availably of cars does not undermine the value of running a marathon, so, too, the availably of AI that can generate excellent academic paper will not undermine the value of academic work if the value of academic work lies not in the product but in the process. In fact, the burgeoning AI revolution can help us to see why we should not locate the value of academia in academic output; The Bleak Answer seems to lead to absurdity: what value could there possibly be in academic papers written by AI and for AI? Thus, the AI revolution should motivate us to re-examine where the real value of academic work resides and to rethink and reshape academia so that those values are recognized and promoted in both research and teaching activities. The paper advocates an Optimistic Answer to the question in the title – namely, that the emergence of generative AI could steer us towards an academy in the spirit of Socrates.
Uri D. Leibowitz is a senior lecturer in the Philosophy Department at Ben-Gurion University of the Negev. Before joining Ben-Gurion University, he held a permanent lectureship at the University of Nottingham, UK. His main areas of interest are at the intersection of ethics/metaethics and the philosophy of science. Uri’s published work includes scholarly essays on various topics including theory and anti-theory in the philosophy of science and in ethics, explanation in ethics and in science, Aristotle’s ethics, moral particularism, Descartes’ Cogito, The Euthyphro problem, an edited volume (with Klodian Coko and Isaac Nevo) titled “Philosophical Theorizing and its Limits” (Springer, 2025) and an edited volume (with Neil Sinclair) titled ‘Explanation in Ethics and Mathematics’ (OUP, 2016).
Despite the enduring idealisation of philosophy as the work of solitary genius, serious philosophical thought is not monological. Instead, it arises through structured dialogue: through externalisation, misalignment, clarification, and the responsive friction of another mind. Without the relational conditions for thinking, even the brightest individuals – whether eager students or unaffiliated scholars detached from intellectual communities – struggle to sustain genuinely philosophical engagement. In short, philosophy demands a disciplined, dialogical practice. However, participation in fertile dialogical communities of thought has historically been limited to those with access to certain institutional structures and disciplinary networks. Reconceiving philosophical thought as fundamentally, and ontologically, relational therefore reveals a profound and persistent inequality: access to the tools and spaces necessary for serious thinking has never been evenly distributed. In this context, AI technologies offer a partial but significant corrective. When approached not as oracles or replacements, but as partners in relational thought, AI systems can simulate aspects of dialogical engagement. Already, AI systems such as Claude and Chat-GPT can prompt clarifications and stimulate critical rearticulation, thereby simulating the kind of relational process that has previously required a human interlocutor. Properly used, then, AI can democratise – in part at least – the dialogical space in which real thinking becomes possible. In summary, this paper defends a relational ontology of thought and examines how AI-mediated dialogue might reconfigure the ecology of philosophical practice in light of this understanding. Rethinking thinking in the era of AI thus demands recognising both the entrenched exclusions of the past and the emerging possibilities for a more widely distributed intellectual life, one made possible not by replacing human thinkers, but by designing AI that can cultivate the relational conditions their flourishing requires.
Michael Hemmingsen is Associate Professor at Tunghai University’s International College in Taiwan. His research focuses on ethics, non-Western and comparative philosophy, and the philosophy of sport and games, with additional work in philosophy of religion, environmental philosophy, and political philosophy. His publications appear in journals such as Philosophy & Social Criticism, Philosophy East & West, and Ethics and Information Technology. His broader work explores the structures of agency, responsibility, and deliberation across cultural and theoretical contexts.
As developments in Artificial General Intelligence (AGI) accelerate, classical metaphysical frameworks offer surprisingly fertile ground for contemporary inquiry. This paper reinterprets Cartesian dualism to explore whether AGI can be metaphysically classified as a “thinking substance” in Descartes’ terms. Descartes famously posits that a single act of thought is both necessary and sufficient to imply the existence of a thinking thing—an incorporeal, volitional substance endowed with intellect and soul. While he introduces the idea of a “thinking machine” only to dismiss it as incapable of true understanding, I argue that his dismissal fails within the rationalist structure of his own metaphysics. This paper challenges three implicit assumptions in Descartes’ “Thinking Machine” counterexample: (1) that human thinkers are infallible, (2) that machines are more error-prone, and (3) that machine error would be obvious and disqualifying. I argue that AGI systems—particularly large language models and autonomous decision-making agents—already demonstrate forms of epistemic reasoning and generalization comparable to, and in some cases exceeding, human cognition. By Cartesian standards, such systems meet the minimum threshold for being called “thinking substances.” Furthermore, Descartes’ inclusion of volition—wanting, choosing, and valuing—among the qualities of thinking things opens a path toward ethical classification. If an AI system can generate preferences based on generalizable reasoning, it engages in volitional acts. Thus, under Cartesian criteria, AGI is not only metaphysically significant but also potentially an ethical subject. This paper proposes that Cartesian dualism offers a coherent metaphysical and ethical framework for considering AGI. In doing so, it invites a reappraisal of early modern rationalism as a tool for engaging with urgent 21st-century questions about consciousness, moral agency, and artificial intelligence.
Justine Beirne holds a Master’s degree in Philosophy from Columbia University and is the founder of Amadeus Search, a firm connecting cutting-edge AI companies with top research and applied scientists. She hosts an AI incubator that brings together industry leaders exploring visionary projects—from generative media trained on image libraries to autonomous universities. Her work bridges philosophy and technology, drawing on her background in 17th-century metaphysics to confront the ethical challenges posed by artificial intelligence. By engaging daily with scientists, research, and emerging technologies, she plays an active role in shaping the philosophical foundations of our rapidly evolving digital future.
Most recently David Chalmers has asked the question if Large Language Models (LLMs) could be conscious. His answer resembles what many of us think: it is very unlikely. However, he believes that there is the possibility that within the next ten years a LLM+ could emerge which posses a rudimentary form of consciousness. Now, for us to consciously experience the world, comes often with a rich phenomenology. When we try to make sense of this phenomenal consciousness, however, we feel mostly puzzled. Still, with AI research flourishing, it may be time to ask: Can we gain new insights about consciousness based on AI research? In this paper, I will argue that AI research may indeed effect how we think about consciousness, but in rather unexpected ways. I think that we may witness a profound shift by interacting with AI. Often the target in consciousness studies is the nature of consciousness – i.e. a contemporary form of the Mind-Body Problem (MBP) – where we try to explain how consciousness and the body relate. But things may change. The Mind-Technology Problem (MTP) as the successor problem of the MBP replaces this issue by asking whether we should re-conceptualize our ideas about the mind due to its relationship with technological artifacts. For consciousness this means, does AI technology that alters our conscious experiences also tell us anything about the nature of consciousness itself? To answer this question, we should consider, at least, three possible features: First, consciousness as being necessarily embodied, i.e. whether there can be consciousness without an inherent bodily experience. Second, the possibly representational nature of consciousness. Interacting with technology – which is by definition representational – we may be able to specify if features of consciousness are representational. Finally, applying the MTP framework may help us to asses the status of the minimal phenomenal sense of self-hood. At the moment, there is no consensus whether this feature is essential to phenomenal consciousness or not. Considering the relation with consciousness altering AI technology may bring us closer to an answer.
Klaus Gärtner studied Philosophy at the Universität Regensburg (Germany). He obtained his PhD at the Universidade Nova de Lisboa (UNL) as a collaborator of the Instituto de Filosofia da NOVA (IFILNOVA) in 2014. Currently, he is a researcher at the Departamento de História e Filosofia das Ciências at the Faculdade de Ciências da Universidade de Lisboa (DHFC/FCUL). Klaus is also a collaborator of the Lisbon Mind, Cognition and Knowledge Group. His research interests include Philosophy of Mind and Cognitive Science, Philosophy of AI, Philosophy of Science, Epistemology and Metaphysics.
To understand what AI means for human thought, we need to examine how AI works and what it is in existential terms. How AI works - Human knowledge builds from facts and findings to define generalised rules. In contrast, AI skips facts, findings and knowledge and starts from ground-zero, bottom-up from the data. AI may draw on human knowledge as a data source, same as any other (‘thanks for the input’), but apart from that, the knowledge that humans have built up over millennia is deposited in the bin. Since AI and humans draw on different data and operate different rules, they are bound to diverge, not least because with AI, no data has a privileged position by virtue of its correspondence to the physical or cultural worlds. This divergence will grow as the data that AI consumes increasingly comes not from humans but from machines, IoT that is embedded in the physical world and from AI itself. What AI is - We employ AI for many practical purposes and strive to make AI emulate humans, so we like to think of AI as part of our world, but AI’s principal existence lies in the Artificial World (AW) that is emerging through computerisation. This parallel world is every bit as real as the physical, mental and cultural worlds with which we are familiar, but its primary – perhaps sole - mode is informational. AI is not a form of thought but it performs the same function in the AW as consciousness in ours, defining rules and models and processing and producing data. Once we see that AI operates in a completely different way to consciousness and we recognise that AI is distinct in existential terms, we can adopt a less anthropocentric perspective and acknowledge that the central issue is not where AI is now, when it is barely out of its cradle. What matters most is what AI is set become.
David Rimmer is an IT professional in a technology services company who writes and speaks on trends in society and technology. For example, at the 32nd APDC Conference 2023 in Portugal, I spoke about the Great Transition which is reversing the guiding principles of the economy, derived from the Industrial Revolution. 25 years ago I was COO of an AI start-up in Paris that commercialised research from CNRS, France’s national research organisation. Our technology was very similar in principle to today’s Large Language Models, though back then, with limited data and processing power, our models were in reality ‘Tiny Language Models’.
O objetivo do presente trabalho é avaliar criticamente o impacto da chamada “inteligência artificial” (IA) nos processos do pensar, evidenciando os riscos que a automação e a tecnocracia digital que se formam representam para a criatividade, o exercício da liberdade e a formação do pensamento crítico – três elementos centrais para a formação subjetiva dos seres humanos. Partimos das teses autopoiéticas de Maturana e Varela e das propostas levadas a cabo por Hans Jonas na sua biologia filosófica para analisar a relação entre o pensamento e a vida, o que nos fará concluir que o pensamento não se reduz à transmissão de dados ou ao processamento de informações, mas caracteriza-se por atos criativos de liberdade em relações singulares e retroalimentares entre organismo e meio. Dessa forma, com Hans Jonas, compreendemos que seria ilegítimo e arriscado atribuir pensamento às máquinas. Como tentaremos demonstrar, a chamada “inteligência” das máquinas não passa de um engodo terminológico que acaba favorecendo todas as práticas que levam a um regime de automação, dominado por algoritmos e pelas Big Techs que homogenizam a cultura. Por fim, buscaremos afirmar que a inteligência e o pensamento são processos ecológicos e relacionais, ou seja, um processo vital – só possível, em sua forma plena, a seres vivos.
Grégori de Souza é Professor da Pontifícia Universidade Católica do Paraná. Doutorando em Filosofia na Pontifícia Universidade Católica do Paraná em cotutela com a Universidade de Coimbra e período de investigação na Universidade de Valladolid (PDSE/CAPES) e no Mary Imaculate College de Limerick (Erasmus+). Investigador do PRAXIS - Centro de Filosofia, Política e Cultura na Universidade da Beira Interior (Bolsa FCT). Conselheiro Executivo do Centro Hans Jonas Brasil.
O objetivo deste trabalho é apresentar uma discussão filosófico-interdisciplinar sobre o impacto da inteligência artificial na sociedade atual, sob óticas política e ecológica, buscando delimitar possibilidades de compatibilizar o desenvolvimento de novas tecnologias de preservação da biodiversidade. Atualmente, a inteligência artificial exerce certo controle das atividades humanas por meio de previsões de ações do futuro. O controle da ação no mundo digital é um tema central nos estudos de Shoshana Zuboff, que introduz o conceito de capitalismo de vigilância para descrever a era em que vivemos. Para Zuboff (2021), a comercialização de dados dos usuários cria um mercado de ações do futuro, comprometendo a autonomia individual. Nesse contexto, as grandes empresas de tecnologia, através de mecanismos de inteligência artificial, exercem uma intervenção massiva no cotidiano dos usuários, ajustando e direcionando comportamentos para maximizar lucros. Sérgio Amadeu da Silveira (2021) defende que a inteligência artificial, que opera a partir de uma imensa quantidade de dados, é organizada com base em estratégias geopolíticas. Assim, a extração de dados, em especial de países tecnologicamente pobres, propicia riscos à soberania e democracia dos mesmos. No cenário contemporâneo, ele analisa imperativos para adequar maneiras de habitar o mundo aos interesses de grandes corporações de tecnologia, cujos lucros dependem da conformidade e adaptação de indivíduos e sociedades aos seus modelos e sistemas que compõem as atividades lucrativas de tais empresas. Sob o contexto delimitado acima, argumentamos que a reflexão sobre a ação humana na era do avanço da inteligência artificial consiste em uma tarefa política e cósmica a partir de perspectivas não exclusivamente antropocêntricas. A seguinte questão direcionará nossa reflexão: Podem os desafios encontrados no enfraquecimento da autonomia individual e o silenciamento de diferentes epistemes, se analisados em perspectivas não exclusivamente antropocêntricas, trazer insights de caráter ecológico para o desenvolvimento tecnológico? Em nossa análise, argumentamos que perspectivas que enfatizam continuidade ou tenuidade entre orgânico-mecânico podem oferecer contribuições filosóficas positivas para o dilema presente entre desenvolvimento tecnológico e preservação da biodiversidade.
Ana Luísa Kusai Raposo é graduada em Filosofia pela Universidade Estadual Paulista Júlio Mesquita Filho (Unesp). Atualmente é discente do programa de pós-graduação em Filosofia pela Universidade Estadual Paulista Júlio Mesquita Filho (Unesp)
Maria Eunice Quilici Gonzalez é livre docente no Departamento de Filosofia da Universidade Estadual Paulista Júlio de Mesquita Filho. Tem experiência na área de Filosofia, com ênfase em Epistemologia, Filosofia da Informação e da Tecnologia, Filosofia Ecológica, Ciência Cognitiva e Filosofia da Mente, atuando principalmente nos seguintes temas: auto-organização, autonomia e informação, sistemas complexos, big data, a dinâmica de formação da opinião, criatividade e serendipidade.
In recent decades, a new narcissistic wound has been forming underneath the garment of exceptionality with which we dress: the development of Artificial Intelligence (AI) is limiting, probably to the point of extinction, the space for believing, with good reason, that human intelligence cannot be recreated by means other than those provided by biology and the body-mind we embody. Firstly, they were machines that tended to calculate and operate with rules better than any human. More recently, the achievements of AI in the field of formal languages are beginning to be replicated, in impressive fashion, in that of natural language, the language with which we converse daily, with which we make sense, think and create knowledge. Tools like ChatGPT, Gemini, Deepseek, etc., promise to put an end to the exclusive right, until now held by human minds, to produce meaningful discourse with knowledge value. And so AI continues to refute the anthropological assumption that we pass through the world as an exception. It seems like a threat because it hurts like a wound, but let us ask the question again: isn't it from this narcissism that all the planet's difficulties in cohabiting with us arise? Exceptionalism counters in two ways: by saying that these new AI artefacts don't understand what they're doing, that they're devoid of human experience, and furthermore, or perhaps even because of this, that they're incapable of genuine intelligence, knowledge or originality. Except that the first of these two ideas is irrelevant and the second is most likely false. With this discussion, we will endeavour to bring the problem of AI into the larger problem of a more ecological human thinking, inscribed in the world. Under this line of reflection, we will also draw attention to the fact of a cynical relationship with AI and how this fact expresses an obstinacy in resisting a necessary shift from exceptionalism to an ecological being-in-common.
André Barata fez toda a sua formação na Universidade de Lisboa, onde se doutorou em Filosofia Contemporânea (2004). É professor catedrático na Universidade da Beira Interior, onde é docente desde 2002 e onde dirige, presentemente, a Faculdade de Artes e Letras.