Félicitations à Magali Desbazeille pour avoir remporté la résidence artistique proposée à l'université d'Orléans avec son projet En 2050 quand j'avais 20 ans...
Art et Intelligence Artificielle : une symbiose en quête d’humanité ? (Extrait de l'appel à projet)
"L'IA peut offrir une manière unique de réimaginer l'art, mais il est important de se rappeler qu'elle est créée par l'esprit humain, et c'est cet esprit qui reste au cœur de l'œuvre." Damien HIRST
L’essor fulgurant de l’intelligence artificielle bouleverse les codes de la création artistique. Générateurs d’images, compositions musicales assistées, récits automatisés, interactions immersives… Les algorithmes influencent profondément la manière dont nous concevons, produisons et percevons l’art.
Cette résidence propose d’interroger cette rencontre entre humanité et artificialité sous l’angle de la création, de l’esthétique et de la réflexion éthique.
Comment l’IA peut-elle être un outil de co-création et non une simple automatisation ? L’émotion artistique peut-elle uniquement émerger d’un processus algorithmique ?
Comment la perception du public évolue-t-elle face à une œuvre créée (ou co-créée) par une machine ?
L’artiste est-il un programmeur de sens ou un interprète d’un nouveau langage algorithmique ?
La résidence sera structurée autour de plusieurs axes :
Une œuvre collaborative : création d’une performance, d’un spectacle ou d’une installation intégrant l’IA, en lien avec les étudiants
Ateliers et rencontres : exploration des outils numériques, débats sur l’impact de l’IA en art, sensibilisation aux enjeux technologiques et artistiques
Événements programmés : projections, performances, discussions avec des chercheurs et des artistes travaillant sur des thématiques proches
Implication dans l’enseignement : participation à certains cours, interventions auprès des unités de recherche intéressées.
Mobilité et disponibilité pour rencontrer les étudiants des différentes composantes de l’université et s’adapter à des publics diversifiés
LIFT 2 2024
a été accueilli à l'amphi de l'IRD sur le campus de la source
les 14 et 15 novembre 2024
Venez nombreux !
Thèse débutante
L'équipe Dill qui s'est impliquée dans le projet proposé par le LIFO est arrivé 3ème au DILL FEST cette année sur 19 équipes !
Sofiane Elguendouze et moi-même avons été les mentors pour ce projet sur la visualisation et comparaison entre modèles de langues du français.
Merci Jules Chouquet pour le tutorat et Dill pour l'organisation de ce beau challenge.
Ci-contre l'équipe : Axel Malsagne, Raphael Saleh-Kasem, Mugilan Ragavan et Loïc Mestais, bravo à vous !
"A l’heure où le numérique est questionné sur sa responsabilité environnementale, sociale et économique, le cas particulier de l’Intelligence Artificielle sera abordé : Mardi 13 février 2024 à 18h15 Hôtel Dupanloup Orléans - Entrée libre et gratuite (dans la limite des places disponibles) La conférence par Vincent Courboulay sera suivie d'une table ronde permettant de croiser différents regards."
Pour visionner la conférence suivie de la table ronde :
39e journée du projet CaSciModOT
le 18 décembre 2023 au Centre International Universitaire pour la Recherche, hôtel Dupanloup
Le RTR DIAMS et CaSciModOT s'associent pour proposer une journée scientifique le 18 décembre 2023 à l'hôtel Dupanloup. Cette journée qui clôture le RTR Diams sera centrée sur l'IA et ses applications.
L'essor des réseaux sociaux, comme Twitter, a rendu ces plateformes essentielles pour diffuser des informations en temps réel lors de crises. Des méthodes automatisées de filtrage et de catégorisation de ces publications, basées sur le texte ou les images, ont été développées pour exploiter ces données. Ce travail propose d'intégrer simultanément texte et images des tweets, en fusionnant ces deux modalités. Dans un premier temps, cette thèse explore l’utilisation de plusieurs encodeurs unimodaux et techniques de fusion, tout en procédant à une analyse des tweets afin de mieux comprendre les relations entre les modalités visuelle et textuelle. Cette thèse introduit ensuite une méthode qui convertit les images dans un espace de représentation compatible avec le texte, rendant ainsi la fusion des deux modalités plus efficace et améliorant la robustesse et la performance du modèle. Cette approche est également hybride, permettant au modèle de traiter aussi bien des tweets unimodaux que multimodaux. Cette étude met en évidence un problème courant en apprentissage multimodal : le déséquilibre des modalités, où l’une d’elles domine le processus d’apprentissage. Une méthode d’adaptation a été proposée pour réguler cette dynamique et permettre une progression d’apprentissage plus équilibrée entre les modalités. En plus des avancées méthodologiques, cette thèse présente M-CATNAT, un jeu de données multimodales français qui comble un manque linguistique et multimodal dans les ressources liées aux crises. M-CATNAT offre des annotations détaillées pour le texte, les images et le contenu combiné, fournissant une base pour le traitement des tweets de crise multimodaux en français.
Soutenance de stage de Deo Munduku le 25 novembre pour son travail sur : explicabilité et saillance dans les systèmes d'"image captioning".
Les réseaux sociaux où sont échangés des messages courts sont devenus des sources de premier choix pour le suivi d'objet d'actualité. Les sources de ce relais d'information sont ainsi très variées, permettant de couvrir la grande majorité des aspects de ces objets. De plus, l'information est diffusée quasiment en temps réel. Traiter les données issues de ce type de plate-forme est donc devenu un objectif clef pour le monde de la recherche comme celui de l'industrie.
Les présents travaux portent sur l'exploitation de ces données. L'objectif est de décrire les données issues de tels réseaux pour permettre de les rendre accessibles à un utilisateur final. Nous proposons de traiter le problème à travers la représentation, la structuration et finalement la description des données reçues.
Pour pouvoir baser nos raisonnements et procédures sur la sémantique véhiculée par les données, nous procédons à leur changement de représentation. Cette étape est opérée avec un modèle d'apprentissage automatique adapté à nos besoins, Doc2Vec, produisant des représentations sémantiques raffinées.
Ces vecteurs peuvent ensuite être exploités pour détecter la structuration sous-jacente de ces données. Cette étape prend la forme d'un clustering basé sur la mesure de similarité accessible dans l'espace de représentation des micro-posts captés. Ce découpage permet d'identifier les manifestations de la cible écoutée que l'on peut repérer dans les données.
Nous proposons finalement d'exploiter cette partition et le contenu des messages pour identifier des composants de descriptions pertinents. Ces descripteurs, issus du corps même des messages, doivent être représentatifs de l'ensemble où ils ont été sélectionnés. Ils permettent ainsi la construction de description de la partition. Nous introduisons d'abord à cette fin un modèle de Programmation Linéaire en Nombres Entiers, et ensuite une méthodologie basée sur le clustering et la mesure de l'impact des mots sur la position du vecteur de leur document.
C'est finalement à travers l'ensemble formé par les descriptions des aspects de la cible écoutée sur les réseaux que nous proposons de la décrire.
Les algorithmes à base d'intelligence artificielle (IA) / apprentissage automatique se sont distingués par leur puissance en termes de résultats et de prédictions, cependant les modèles générés sont généralement opaques ou manquent de transparence. En d'autres termes, la plupart des modèles produits sont sous forme de boîtes noires complexes : leur logique interne et leur fonctionnement sont cachés à l'utilisateur et même aux experts. Cela empêche un humain, expert ou non, de vérifier, d'interpréter et de comprendre le raisonnement du système et la manière dont les décisions sont prises. Dans ce contexte, l'intelligence artificielle explicable (IAX) est apparue comme un domaine de recherche à part entière, qui vise à faire un nouveau pas vers une IA plus compréhensible. A cet effet, diverses techniques sont utilisées permettant d'établir une sorte de compromis entre la haute performance des modèles et leur grande explicabilité.
Cette thèse s'inscrit dans le contexte de sous-titrage des images (sTI) et de l'IAX. Plus précisément, les méthodes de sous-titrage des images ont montré de bonnes performances dans la génération automatique des légendes, en particulier les techniques basées sur l'apprentissage profond. Cependant, ces techniques manquent d'interprétabilité, ce qui signifie que nous ne parvenons pas à comprendre les raisons derrière la génération de la séquence de mots qui constitue la légende en sortie. Ainsi, notre objectif est de proposer de nouvelles approches IAX pour aider à mieux comprendre les modèles sTI en répondant à des questions de type "Quelles parties de l'image ont été principalement impliquées dans la génération de cette légende ?" ou encore "A quoi correspond chaque mot de la légende générée en sortie dans l'image en entrée ?". Nous appelons ce domaine de recherche sous-Titrage Explicable des images (sTXI).
Maître de conférence
Équipe CA du LIFO, membre associé du LIFAT, membre associé du LLL
Membre du comité de pilotage de DIAMS
Téléphone : (+33) 2 38 49 25 86, Bureau : B16
LIFO Bât. 3IA, Université d'Orléans
Rue Léonard de Vinci, B.P. 6759, F-45067 ORLEANS Cedex 2
anais.halftermeyer[at]univ-orleans.fr