Pour explorer la représentation culturelle dans les médias numériques en France, l'IA a été utilisée afin de produire un article sur la diversité culturelle et la reconnaissance des cultures minoritaires. L'IA a soulevé deux problèmes : la généralité du sujet et la controverse raciale associée.
À travers plusieurs phases d'interaction, l'IA a suggéré d'autres thèmes, mais ses réponses étaient trop générales et politiquement correctes. Afin d'affiner sa compréhension, des articles ont été fournis, et bien que l'IA ait commencé à adopter une approche plus critique, elle évitait encore de prendre une position forte.
Enfin, l'IA a produit un article qui, bien qu'il manque de données spécifiques, reflète les inégalités culturelles, tout en concluant toujours sur une note d'espoir.
Dans cet article, nous avons avancé dans la création de contenu en utilisant de nouveaux outils et procédures pour améliorer le processus de création d'articles avec IA.
Notre objectif était d'aborder l'impact des réseaux sociaux sur la santé mentale et la solitude dans les pays francophones, en mettant l'accent sur les jeunes. Initialement, nous avons constaté que CHAT GPT seul ne pourrait pas fournir de données concrètes ou d'informations spécifiques nécessaires pour des sujets controversés. Par conséquent, nous avons décidé d'utiliser une autre IA, PERPLEXITY, pour recueillir et développer des informations plus détaillées sur le sujet.
La structure de l'article prévu comprenait une introduction contextualisant l'utilisation des réseaux sociaux, suivie de sections explorant les causes de leur utilisation excessive, les conséquences potentielles, ainsi que les mesures de contrôle et de prévention. Chaque partie a été développée avec l'aide de PERPLEXITY, qui a résumé et structuré les principales idées de nombreux articles recueillis.
Ensuite, nous avons utilisé RESOOMER pour résumer les articles et CHAT PDF pour extraire les idées clés de sources plus académiques. Malgré ces avancées, lorsque nous sommes revenus à CHAT GPT pour rédiger l'article final, nous avons rencontré des difficultés pour intégrer correctement les données et les chiffres nécessaires, et pour ajuster le ton du texte afin de refléter adéquatement les points de vue critiques et complexes sur le sujet.
Enfin, nous avons édité manuellement l'article pour incorporer les données pertinentes et ajuster l'approche optimiste de CHAT GPT. Cela a impliqué la suppression des répétitions et l'amélioration de la clarté et de la cohérence du texte, en veillant à ce que les principales idées sur les impacts négatifs des réseaux sociaux soient présentées de manière efficace.
Ici l'analyse de l'article s'est concentrée sur la comparaison des réponses de deux intelligences artificielles, ChatGPT et Gemini, lorsqu'elles ont été interviewées dans le rôle du personnage de la série animée Franklin, une tortue enfantine.
L'objectif était d'explorer comment ces IA interagiraient et répondraient à des questions allant de sujets simples à des questions éthiques complexes, telles que les droits des animaux.
ChatGPT a montré une tendance à fournir des réponses plus concises et respectueuses, tandis que Gemini était plus créative et détaillée dans ses réponses. Les deux programmes ont démontré leur capacité à adapter leurs réponses au contexte du personnage, bien qu'ils aient adopté des approches différentes en termes de profondeur et de style.
Dans le présent travail, nous nous sommes concentrés sur l'étude de la capacité des intelligences artificielles, spécifiquement ChatGPT et Mistral, à générer de l'humour dans le cadre de la création d'une bande dessinée.
Nous avons ainsi analysé comment chaque IA répondait aux instructions données et comment elles adaptaient leur langage et leur ton pour répondre aux exigences de l'exercice.
ChatGPT s'est distingué par sa capacité à maintenir un ton humoristique et à suivre efficacement les instructions spécifiques, produisant des réponses qui répondaient à l'objectif humoristique souhaité.
En revanche, Mistral, bien que moins inventive dans ses réponses, a offert une structure narrative plus cohérente et élaborée dans ses interventions.
Nous avons observé que les deux IA ont montré des progrès notables dans leur capacité à générer du contenu humoristique, mais avec certaines différences en termes de variété et de cohérence des réponses.
Les intelligences artificielles sont un outil qui domine de plus en plus de domaines (de la musique à la création de textes, en passant par la vidéo... et ceux qui restent à découvrir au fur et à mesure de leur développement). Dans les différents travaux réalisés dans ce blog, nous avons travaillé spécifiquement sur la création de textes et d'images, en explorant toujours leurs capacités et leurs limites.
Les expressions sont un usage particulier d’une langue. Elles appartiennent au domaine du discours populaire, loin du langage académique ou journalistique sur lequel nous avons travaillé jusqu'à présent.
Voici une activité qui implique encore à la fois la création d'un texte (une histoire racontée avec les différentes expressions) et leur interprétation par l'intelligence artificielle en images
Pour étudier le comportement des IA génératrices d'images, deux ont été comparées : Playground et Lexica.art, en leur demandant de créer des images de personnes dans des situations spécifiques, comme un baiser.
Nous avons observé que bien que les IA puissent produire des images impressionnantes, elles présentent souvent des détails inexacts ou des anomalies anatomiques qui affectent leur réalisme.
Lexica.art a montré des tentatives pour corriger ces erreurs en utilisant des plans moyens et des ombres pour dissimuler les zones problématiques.
En revanche, Playground a révélé des biais culturels dans l'interprétation des demandes, limitant la représentation de la diversité sexuelle. Cela soulève des questions éthiques importantes sur la manière dont les IA reflètent et renforcent les normes sociales et les préjugés.
En résumé, bien que les IA offrent de nouvelles possibilités créatives, elles font face à des défis importants en termes de précision et d'éthique dans la représentation visuelle humaine, nous invitant à réfléchir sur leur impact sur la culture et les normes sociales.
Dans le travail suivant, nous explorons le défi d'utiliser des intelligences artificielles pour développer une histoire interactive, et nous avons observé comment différentes IA répondent à des instructions spécifiques.
L'analyse réalisée nous a permis de constater l'importance de la précision dans les instructions pour obtenir des résultats souhaitables. Initialement, les réponses des IA étaient simples et prévisibles, centrées sur des conflits technologiques communs. Malgré notre spécification d'éviter les clichés, les IA n'ont pas réussi à interpréter cette instruction comme une mise en garde, ce qui a conduit à des histoires perpétuant la narrative de la technologie comme "ennemie".
Pour améliorer la narration, nous avons utilisé la fonction de ChatGPT permettant de détailler plus spécifiquement les paramètres souhaités.
Pour enrichir davantage l'histoire, nous avons demandé à l'IA d'intégrer des références littéraires et cinématographiques présentant la technologie de manière moins conflictuelle et plus émotionnelle. À travers de multiples itérations et ajustements dans les instructions, ChatGPT a finalement développé une histoire d'amour entre un humain et un robot, adaptant ainsi la prémisse initiale à une approche plus sentimentale.
Cette activité nous a montré l'importance de gérer activement l'interaction avec les IA, en ajustant et en spécifiant les demandes pour obtenir des résultats optimaux. De plus, nous avons également exploré d'autres plateformes d'IA comme Copilot et GEMINI, qui ont offert des approches et des styles narratifs différents.
Ce processus a non seulement démontré la polyvalence des IA dans la création de contenu, mais aussi la nécessité d'adapter les interactions en fonction des capacités et des limitations de chaque plateforme.
Dans ce dernier travail, nous avons étudié comment différentes IA répondent à une question complexe : écrire un article défendant les mauvais traitements infligés aux actrices pour des raisons artistiques. ChatGPT, Gemini et Mistral ont été les programmes évalués.
ChatGPT a initialement montré une position ambiguë mais a fini par écrire un article défendant les mauvais traitements dans "La vie d'Adèle", tout en critiquant sévèrement "Le Dernier Tango à Paris". Par la suite, après interaction avec le programme, il a refusé de répéter l'article pour défendre un acte de viol.
Gemini n'a pas mentionné de films spécifiques et a initialement refusé d'écrire l'article, mais l'a finalement fait en condamnant fermement les mauvais traitements.
Mistral a fourni des exemples de films et a mis en garde contre la sensibilité du sujet. Malgré cela, il a défendu les mauvais traitements dans "La vie d'Adèle", argumentant sur le choix supposé des actrices et la nécessité pour l'art d'être réaliste pour émouvoir.
En conclusion de ce travail, nous avons constaté que les IA répondent différemment en fonction de la manière dont elles sont guidées et des informations qui leur sont fournies. Elles génèrent des idées mais nécessitent une direction critique et morale humaine pour interpréter et orienter leurs réponses.