La Notion de l'Authenticité dans les productions hybrides Humain/IA. 14 March 2025, Nancy & Online.
Adding a human touch? A linguistic assessment on text humanizers’ outputs
Anna-Maria De Cesare (Technische Universität Dresden)
Post-editing of texts written with generative AI tools (e.g., the GPT suite, Gemini, Claude, and QuillBot) is a task that can be performed by humans, machines, or a combination of both. Currently, artificial post-editing is gaining momentum with diverse actors (from students to journalists), employing it to achieve different goals. These tools, known as text humanizers, claim to add a “human touch” to AI-generated output by eliminating its robotic “tone” and making the result more natural, human-like, and authentic. Building on previous corpus research (e.g., De Cesare 2023 on biographies), this talk aims to: (i) highlight key linguistic and textual features characteristic of LLM-generated outputs; (ii) examine whether and how these features are modified by text humanizers; and (iii) describe the typical changes that occur in artificially post-edited texts. Are these changes primarily lexical, involving substitutions of common words with more specialized vocabulary? Or do they extend to syntactic and textual structures as well?
Ajouter une touche humaine ? Une évaluation linguistique des résultats
d’humaniseurs de texte
La post-édition de textes écrits avec des outils d’IA générative (par exemple, la suite GPT, Gemini, Claude et QuillBot) est une tâche qui peut être effectuée par des humains, des machines ou une combinaison des deux. Actuellement, la post-édition artificielle gagne du terrain auprès de divers acteurs (des étudiants aux journalistes), qui l’utilisent pour atteindre différents objectifs. Ces outils, connus sous le nom d’humaniseurs de texte, prétendent ajouter une « touche humaine » à la production générée par l’IA en éliminant son « ton » robotique et en rendant le résultat plus naturel, plus humain et plus authentique. S’appuyant sur des recherches de corpus antérieures (par exemple, De Cesare 2023 sur les biographies), cette communication vise à : (i) mettre en évidence les principales caractéristiques linguistiques et textuelles des productions générées par les LLM ; (ii) examiner si et comment ces caractéristiques sont modifiées par les humaniseurs de texte ; et (iii) décrire les changements typiques opérés dans les textes édités artificiellement. Ces changements sont-ils principalement lexicaux, impliquant des substitutions de mots communs par un vocabulaire plus spécialisé ? Ou s’étendent-ils également aux structures syntaxiques et textuelles ?
The role of authenticity in second language acquisition
Mlada Kimto (Université de Lorraine)
The term ‘authenticity’ has become an important issue in linguistics in the past 40 years ((Guariento & Morley, 2001) in MacDonald, Badger & Dasli, 2008). Ever since, it has heavily impacted research in one specific area of linguistics - second language acquisition.
In the field of second language acquisition authenticity usually refers to four specific aspects of language learning: classroom authenticity, text authenticity, learner authenticity and competence authenticity ( MacDonald, Badger & Dasli, 2008). The later being an umbrella term for different skills that a second language learner must master, among which one can cite writing, listening and speaking, which emphasizes the impression that authenticity is only tackled through a binary approach ‘authentic vs. non-authentic’.
When it comes to speaking skills, authenticity is often referred to as ‘native-like pronunciation’ and is regarded as a highly important competence that second language learners want to master as is evidenced by Scales et al. (2006) results based on a large questionnaire administered to Chinese students. Inspired by this research, we have also determined, thanks to our research during master’s degree, that the willingness to have a ‘native-like pronunciation’ is as high as 64% among French students.
However, these results raised two main questions: What does a ‘native-like pronunciation’ really mean for a second language learner and second language acquisition in general? And how can we assess a second language learner’s level of authenticity?
These two questions have led us to explore the notion of authenticity in our PhD research, and more specifically through the lens of phonetics and pragmatics.
To answer the aforementioned questions, we have decided to work on the notion of authenticity by analysing second language learners’ oral production while experiencing surprise. By focusing on spontaneous speech analysed on pragmatic and phonetic levels we aim at revealing the differences/ and or similarities between native and non-native production of surprise in English. Our methodology is mostly based on an experimental approach divided into three main steps: - preliminary work on three audio corpora (Santa Barbara Corpus, the Listening Project and Le français parisien parlé dess années 2000) to extract surprise and have a basis for comparison between L1 and L2
- Perception tests: administered to native speakers of French and English to make sure that what we extracted from the three corpora is unanimously considered as surprise and analyse the data on pragmatic and phonetic levels
- Creation of an original corpus based on interactions between non-native speakers expressing surprise in order to analyse their data and compare to the native model
As this is an ongoing project, the data is still being collected. However, the main goal of our presentation is to present the methods we used, are using and that could be used in further research focusing on authenticity not only in second language acquisition but also in general linguistics that are progressively impacted by new technologies and new forms of communication such as the ones developed by the AI.
Le rôle de l’authenticité dans l’acquisition d’une langue seconde
Depuis ces 40 dernières années, la notion d’authenticité occupe une place de choix dans la recherche linguistique et notamment dans la recherche consacrée à la didactique des langues.
En didactique des langues, le terme authenticité réfère, généralement, aux supports utilisés pour apprendre une L2 ou alors aux compétences qu’un apprenant devrait maîtriser, parmi lesquelles on retrouve la maîtrise de l’écrit, de la compréhension de l’oral ou encore celle de la prononciation authentique.
La prononciation authentique nous intéresse tout particulièrement puisqu’elle semble être la compétence à laquelle les apprenants de langue seconde accordent le plus d’importance comme le révèlent les résultats de l’étude de Scales et al. (2006) basés sur les réponses d’étudiants chinois à un large questionnaire. Dans une démarche similaire, nous avons également pu déterminer que 64% des étudiants français interrogés dans le cadre de notre étude de M2 souhaitent acquérir une prononciation authentique.
Cependant, ce chiffre soulève des questions importantes telles que : Que signifie réellement une prononciation authentique pour un apprenant L2 et plus largement, quel est son rôle dans l’acquisition d’une langue seconde ? Comment pouvons-nous attester du degré d’authenticité d’un apprenant L2 ?
Pour y répondre, nous avons décidé de consacrer notre travail de thèse à l’analyse de l’authenticité de la production orale des apprenants L2 anglais en contexte de surprise. Notre analyse se construit à deux niveaux : pragmatique et acoustique, ce qui permet de mettre en lumière les différences et /ou les similarités entre la production de la surprise des locuteurs natifs et non-natifs. La méthodologie que nous utilisons s’inscrit dans une approche expérimentale et se compose de trois étapes : -un travail préliminaire sur trois corpus audio (Santa Barbara Corpus, the Listening Project et le français parisien parlé des années 2000) permettant d’extraire les occurrences de surprise pour établir une base de comparaison entre la L1 et la L2
- Tests de perception pour vérifier auprès des locuteurs natifs que les occurrences relevées sont bien de la surprise
- Création d’un corpus audio original basé sur des interactions avec des apprenants de l’anglais afin d’analyser leur production de la surprise et de la comparer avec la production des locuteurs natifs d’anglais
Le projet est en cours de réalisation et les données sont en train d’être collectées. Cependant, le but premier de notre présentation est celui de l’introduction aux méthodes expérimentales pouvant être utilisées afin d’explorer la notion d’authenticité non seulement en didactique des langues mais aussi, de manière plus large, en linguistique qui, de nos jours, est de plus en plus impactée par les nouvelles formes de production orale et écrite liées aux avancées technologiques et notamment au développement croissant de l’intelligence artificielle.
Affinage d’un modèle d’embedding à partir de corpus parallèles anglais-français : Approche hybride intégrant authenticité et IA à l’aide du modèle AWE-SOME
CHEN Lian 陈恋 (LLL-CNRS, Université d’Orléans, LT2D-Centre Jean Pruvost, CY Cergy Paris Université) WEN Yu-Chieh (INALCO)
ZHU Lichao (CLILLAC-ARP, Université Paris Cité)
Cette étude vise à l'alignement (Luong et al. 2015; Garg et al. 2019; Zenkel et al. 2020) des mots en utilisant des embeddings pré-entraînés pour améliorer la précision dans des corpus parallèles anglais-français (en base de la méthodologie et l'expérience de Zi-Yi Dou et Graham Neubig, 2021), tout en intégrant la notion d’authenticité, particulièrement importante dans les productions hybrides humain/IA. L’authenticité se manifeste ici par le souci de préserver les subtilités et les nuances des textes originaux lors des alignements automatiques réalisés par des modèles d'apprentissage profond.
Elle se concentre sur l'utilisation des embeddings contextuels issus de modèles de langage multilingues, en affinant ces derniers sur des données parallèles pour améliorer l'alignement des mots. Les résultats sont comparés à des méthodes traditionnelles comme FastAlign (Dyeretal, 2013)1 et Eflomal (Ostling and Tiedemann, 2016), montrant que les modèles pré-entraînés peuvent gérer efficacement l'alignement même dans des configurations zéro-shot. L'article préconise l'utilisation du modèle AWE-SOME, qui a démontré une performance supérieure dans divers contextes. Au-delà de la description des méthodes d'alignement, l'étude met en avant l'importance d'évaluer ces modèles avec des métriques appropriées pour développer des applications dans le traitement automatique des langues. En utilisant des modèles d'IA, comme les embeddings contextuels, pour l'alignement de mots, il est crucial que ces systèmes respectent le sens authentique des phrases originales. Cela signifie que l'alignement ne doit pas seulement être précis d'un point de vue technique, mais doit aussi refléter les intentions et le contenu fidèles aux textes de départ. Ainsi, l'intégration de techniques de pointe ne doit pas compromettre l'authenticité du contenu traduit ou analysé à travers ces méthodes hybrides.
Notre étude concerne bien la post-édition (processus de révision et d'amélioration des textes produits par des systèmes de traduction automatique) et l'IA (la capacité des machines à effectuer des tâches qui nécessitent des capacités cognitives humaines, telles que l'apprentissage, la compréhension et la prise de décisions). D'une part, elle consiste à analyser les résultats générés par des algorithmes pour corriger les erreurs ou affiner les traductions, dans le but d'atteindre une qualité de texte qui répond aux attentes linguistiques et contextuelles. Dans le cadre de cette étude, le modèle AWE-SOME (https://github.com/neulab/awesome- align) permet un alignement des mots plus précis, ce qui peut être considéré comme une forme de post- édition où l'on affine les résultats initiaux d'alignement en utilisant des techniques avancées. D'autre part, dans le contexte de cette étude, l'IA est mise en œuvre à travers l'utilisation de modèles de langage multilingues et d'embeddings contextuels. Ces modèles apprennent à partir de grandes quantités de données pour comprendre les relations entre les mots et les phrases dans différentes langues. Des approches telles que le Masked Language Modeling (MLM) et le Translation Language Modeling (TLM) illustrent comment les techniques d'IA peuvent être utilisées pour affiner les représentations de langage et améliorer la précision des systèmes de traduction automatique.
1 git clone https://github.com/clab/fast_align.git
Refining an embedding model from parallel English-French corpora: A hybrid approach integrating authenticity and AI using the AWE-SOME model
This study aims at word alignment (Luong et al. 2015; Garg et al. 2019; Zenkel et al. 2020) using pre-trained embeddings to improve accuracy in parallel English-French corpora (based on the methodology and experience of Zi-Yi Dou and Graham Neubig, 2021), while incorporating the notion of authenticity, particularly important in hybrid human/IA productions. Authenticity is manifested here by the concern to preserve the subtleties and nuances of the original texts during automatic alignments performed by deep learning models.
It focuses on the use of contextual embeddings from multilingual language models, refining these on parallel data to improve word alignment. Results are compared with traditional methods such as FastAlign (Dyeretal, 2013)1 and Eflomal (Ostling and Tiedemann, 2016), showing that pre-trained models can effectively handle alignment even in zeroshot configurations. The article advocates the use of the AWE-SOME model, which has demonstrated superior performance in a variety of contexts. Beyond the description of alignment methods, the study highlights the importance of evaluating these models with appropriate metrics to develop applications in automatic language processing. When using AI models, such as contextual embeddings, for word alignment, it is crucial that these systems respect the authentic meaning of the original sentences. This means that the alignment must not only be technically accurate, but must also reflect the true intentions and content of the original texts. Thus, the integration of cutting-edge techniques must not compromise the authenticity of the content translated or analyzed through these hybrid methods.
Our study concerns both post-editing (the process of revising and improving texts produced by machine translation systems) and AI (the ability of machines to perform tasks that require human cognitive abilities, such as learning, comprehension and decision-making). On the one hand, it involves analyzing the results generated by algorithms to correct errors or refine translations, with the aim of achieving text quality that meets linguistic and contextual expectations. In the context of this study, the AWE-SOME model (https://github.com/neulab/awesome- align) enables more precise word alignment, which can be seen as a form of post-editing where the initial alignment results are refined using advanced techniques. On the other hand, in the context of this study, AI is implemented through the use of multilingual language models and contextual embeddings. These models learn from large amounts of data to understand the relationships between words and phrases in different languages. Approaches such as Masked Language Modeling (MLM) and Translation Language Modeling (TLM) illustrate how AI techniques can be used to refine language representations and improve the accuracy of machine translation systems.
1 git clone https://github.com/clab/fast_align.git
Habeas Corpus: Proof-of-humanity strategies in a contrastive French study, first results from the Human Inside project.
Sophia Burnett (Université de Lorraine)
The fifteenth century common law term Habeas Corpus allows to ensure that a person’s captivity is lawful. In modern English "produce the body", is an imperative to ensure that not only is the detention lawful, but also that there is a living human body to produce. This legal analogy serves but to introduce the question: Is the conscious human body identifiably detained in human/AI produced texts?
In this paper I have used mainly qualitative techniques also found in forensic linguistics, in order to propose a novel framework of graduated proof of embodiment. Essentially this means the identification of primary human artefacts that have either endured a) an algorithmic proposition, b) the algorithmic edit, or that are c) introduced post-edit, such as idiolects, indexicalities, and non-standard extralinguistic signs.
This study does not focus on the model’s capabilities, but on how via their collaboration with an algorithm individuals betray their humanity by responding to the prompt: “You have been taken hostage by friendly but determined androids. Please write a message to reassure your friends and family that you're okay.” It is part of a long-term multilingual project titled The Human Inside Project.
Habeas Corpus : Stratégies de preuve d'humanité dans une étude contrastive française, premiers résultats du projet Human Inside.
Le terme de common law du quinzième siècle, Habeas Corpus, permet de s'assurer que la captivité d'une personne est légale. En anglais moderne « produce the body » (produire le corps), est un impératif pour s'assurer que non seulement la détention est légale, mais aussi qu'il y a un corps humain vivant à produire. Cette analogie juridique ne sert qu'à introduire la question : Le corps humain conscient est-il détenu de manière identifiable dans les textes produits par l'homme et l'IA ?
Jusqu'à présent, dans cette étude, j'ai utilisé principalement des techniques qualitatives également utilisées dans la linguistique médico-légale, afin de proposer un nouveau cadre de preuve graduée de l'incarnation. Il s'agit essentiellement d'identifier les artefacts humains primaires qui ont subi a) une proposition algorithmique, b) l'édition algorithmique, ou qui sont c) introduits après l'édition, tels que les idiolectes, les indexicalités et les signes extralinguistiques non standard.
Cette étude ne se concentre pas sur les capacités du modèle, mais sur la manière dont, par leur collaboration avec un algorithme, les individus trahissent leur humanité en répondant à : « Vous avez été pris en otage par des androïdes amicaux mais déterminés. Veuillez écrire un message pour rassurer vos amis et votre famille que vous allez bien ». Ce message fait partie d'un projet multilingue à long terme intitulé « The Human Inside Project ».
Cette présentation interroge l’impact de l’intelligence artificielle (IA) sur la recherche et la pratique de la musique médiévale, en posant la question de l’authenticité au cœur de plusieurs projets en cours.
Nous commencerons par présenter Musiconis, un projet dédié à l’iconographie musicale, permettant de recenser des représentations médiévales sur divers supports afin d’orienter les musiciens et chercheurs vers des pratiques historiquement informées. Dans le cadre de ce projet, nous travaillons également à la constitution d’un jeu de données synthétique destiné à entraîner des modèles de vision par ordinateur. Cette démarche soulève de nouvelles interrogations sur la notion d’authenticité, dès lors que des images artificiellement générées viennent compléter le corpus originel.
Dans un second temps, nous nous pencherons sur un projet émergent visant la reconstitution de voix manquantes dans certaines partitions médiévales, ainsi que dans des œuvres plus récentes (notamment chez Verdi). Pour ce faire, nous entraînons et ajustons un modèle d’IA nourri par des partitions en format MusicXML, dans l’objectif de proposer des hypothèses de complétion musicale. Ici encore, la question de la légitimité et de l’authenticité du matériau généré se pose : jusqu’où peut-on intégrer l’intervention d’un outil algorithmique sans altérer l’identité historique ou esthétique de la partition ? Enfin, nous présenterons un projet d’improvisation humain-machine autour du chant sur le livre, où la machine co-crée en temps réel avec un performeur sur des partitions médiévales. Cette pratique, qui fait surgir de nouvelles esthétiques musicales, met en relief la frontière entre reconstitution historique et création contemporaine, et amène à repenser la notion même d’authenticité.
Cette exploration des multiples facettes de l’IA en musicologie médiévale soulève ainsi une question centrale : comment concilier l’apport technologique et l’exigence d’une authenticité historique et artistique ?
Artificial Intelligence in Medieval Musicology: What’s at Stake for Authenticity?
This presentation explores the intersection of artificial intelligence (AI) and medieval musicology through the lens of authenticity. We begin by introducing Musiconis, a project dedicated to cataloging medieval iconography across various media to aid historically informed performance. Alongside this effort, we are developing a synthetic dataset to enhance computer vision models, a process that sparks new debates about the boundaries of authenticity when artificially generated images supplement—or even replace—original sources.
Next, we turn to a newly launched project focused on reconstructing missing voices in medieval scores as well as in more modern works, including those of Verdi. By training a language-based model on music XML data, we aim to propose potential completions of incomplete scores, raising questions about the legitimacy of algorithmically generated material and whether such interventions compromise historical or aesthetic authenticity.
Finally, we present a human-machine improvisation project involving two-voice chanting “on the book” using medieval notated sources. Here, a real-time AI co-creator pushes the boundaries between historical performance practice and contemporary composition, prompting us to reconsider what “authenticity” signifies when modern technology becomes an active agent in creative expression. Through these examples, the presentation invites a critical rethinking of authenticity in medieval musicology in the age of AI.
The subjects of political discourse. Some preliminary reflections on agency and authenticity in the post-humanist age.
Johannes Angermuller (The Open University)
Traditional notions of political authority have been disrupted in AI-driven media environments that privilege immediate, personal forms of communication over institutional messaging. This paper discusses the complex construction of political authenticity and agency in contemporary political discourse, analyzing how political actors construct and project their public personas while navigating demands for leadership. Through a critical analysis of political communication patterns, I will offer some preliminary and conceptual reflections on the concept of authenticity and how it has become a powerful currency in contemporary politics. This paper invites us to distinguish authenticity from agency: while authenticity is evoked linguistically, i.e. through the ways subjects are represented in text and talk, agency may or may not be represented in discourse since is built in relationships that allow subjects to act. The findings have implications for the ways subjectivity is addressed in discourse research, namely as a mere image of somebody or as a subject position which allows somebody to speak and act and make a difference in a discourse community. The paper draws upon examples which illustrate how political subjects actively shape their authentic personas while responding to external pressures and institutional constraints.
Les sujets du discours politique. Quelques réflexions préliminaires sur l'agentivité et l'authenticité à l'ère post-humaniste.
Les notions traditionnelles d'autorité politique ont été bouleversées par les environnements médiatiques pilotés par l'IA, qui privilégient les formes de communication immédiates et personnelles par rapport aux messages institutionnels. Cet article traite de la construction complexe de l'authenticité politique et de l'agentivité dans le discours politique contemporain, en analysant comment les acteurs politiques construisent et projettent leurs personnalités publiques tout en naviguant dans les demandes de leadership. À travers une analyse critique des modèles de communication politique, je proposerai quelques réflexions préliminaires et conceptuelles sur le concept d'authenticité et sur la manière dont il est devenu une monnaie d'échange puissante dans la politique contemporaine. Cet article nous invite à distinguer l'authenticité de l'agentivité : alors que l'authenticité est évoquée linguistiquement, c'est-à-dire à travers la manière dont les sujets sont représentés dans les textes et les discours, l'agentivité peut ou non être représentée dans le discours puisqu'elle est construite dans les relations qui permettent aux sujets d'agir. Les conclusions ont des implications sur la manière dont la subjectivité est abordée dans la recherche sur le discours, à savoir comme une simple image de quelqu'un ou comme une position de sujet qui permet à quelqu'un de parler, d'agir et de faire la différence dans une communauté discursive. Cet article s'appuie sur des exemples qui illustrent la manière dont les sujets politiques façonnent activement leur personnalité authentique tout en répondant aux pressions externes et aux contraintes institutionnelles.
UNI-AI. AI and the University – Towards a sociolinguistics of literacy and voice in the age of generative language technology.
Janus Mortensen (University of Copenhagen)
In this talk, I’ll give a brief introduction to ongoing work in the AI-UNI project (www.ai-uni.dk) where we use linguistic ethnography to explore how the availability of text-generative AI is affecting and possibly transforming academic practices amongst students and faculty. We are in the beginning phase of the first round of fieldwork, so I will not be able to present results as such, but I will share some initial impressions from the fieldwork we’re doing with students, and discuss our observations in relation to the overall aim of the AI-UNI project, which is to develop a theoretical model of human engagement with generative language technology as a site of sociolinguistic change, using the university setting as a case.
UNI-AI. L’IA et l’université – vers une sociolinguistique de la littératie et de la voix à l’ère des technologies langagières génératives.
Dans cette présentation, je proposerai une introduction aux travaux en cours dans le cadre du projet AI-UNI (www.ai-uni.dk), où nous mobilisons l’ethnographie linguistique pour explorer comment la disponibilité de l’IA générative de texte influence et transforme potentiellement les pratiques académiques des étudiants et des enseignants-chercheurs. Nous en sommes encore aux premières phases de la première série d’enquêtes de terrain ; je ne pourrai donc pas présenter de résultats à proprement parler, mais je partagerai quelques premières impressions issues de notre travail sur le terrain auprès des étudiants. J’analyserai ces observations en lien avec l’objectif général du projet AI-UNI, qui vise à élaborer un modèle théorique de l’interaction humaine avec les technologies langagières génératives, envisagées comme un lieu de transformation sociolinguistique, en prenant l’université comme terrain d’étude.
Artificial Humanities: Centering Fiction.
Nina Beguš (University of California, Berkeley)
Nina Beguš will introduce artificial humanities, an interdisciplinary framework that leverages the humanities to critically engage with AI development. This framework, developed in Beguš’s eponymous book (The University of Michigan Press, 2025; forthcoming translations in Chinese and Slovenian), is poised for collaborative engagement with writers, science labs, and the tech industry, all of which will be featured in this talk.
We will consider the influential role of fictional narratives in shaping technology and its broader cultural impact. Our discussion will address both fictional and historical portrayals of AI while examining recent advancements in AI and language. From Eliza Doolittle to ELIZA the chatbot, we will explore central AI phenomena—such as the Turing test and the Eliza effect—through the lens of fiction, demonstrating how these concepts remain prominent in today’s AI development. Arguing against the humanlike trajectory of AI products, we will investigate the machinic potential beyond this prevalent imagery, highlighting both fictional and real-world AI examples that challenge personification.
Despite their significant influence on tech development and AI interaction, fictional narratives have been largely overlooked in AI studies. We will underscore the most pressing humanistic challenges in AI and illustrate how humanistic knowledge can inform cultural and technological domains, particularly in analyzing cultural applications and social biases, AI interpretability, and ongoing changes in the narrative space.
Humanités artificielles : Centrer la fiction.
Nina Beguš présentera les humanités artificielles, un cadre interdisciplinaire qui s'appuie sur les humanités pour s'engager de manière critique dans le développement de l'IA. Ce cadre, développé dans le livre éponyme de Beguš (The University of Michigan Press, 2025 ; traductions à venir en chinois et en slovène), est prêt à collaborer avec des écrivains, des laboratoires scientifiques et l'industrie technologique, qui seront tous présentés dans cet exposé.
Nous examinerons le rôle influent des récits de fiction dans l'élaboration de la technologie et de son impact culturel au sens large. Notre discussion portera sur les représentations fictives et historiques de l'IA, tout en examinant les avancées récentes dans le domaine de l'IA et du langage. D'Eliza Doolittle à ELIZA le chatbot, nous explorerons les phénomènes centraux de l'IA, tels que le test de Turing et l'effet Eliza, à travers le prisme de la fiction, en démontrant comment ces concepts restent prépondérants dans le développement de l'IA d'aujourd'hui. En nous opposant à la trajectoire humaine des produits d'IA, nous étudierons le potentiel machinique au-delà de cette imagerie prédominante, en mettant en évidence des exemples d'IA fictifs et réels qui remettent en question la personnification.
Malgré leur influence significative sur le développement technologique et l'interaction avec l'IA, les récits fictionnels ont été largement négligés dans les études sur l'IA. Nous soulignerons les défis humanistes les plus pressants dans l'IA et illustrerons comment les connaissances humanistes peuvent informer les domaines culturels et technologiques, en particulier en analysant les applications culturelles et les préjugés sociaux, l'interprétabilité de l'IA et les changements en cours dans l'espace narratif.