See the site in English
L'apprentissage profond a eu une influence profonde sur l'IA, rendant possible des performances de niveau humain en vision par ordinateur, en reconnaissance de la parole, ainsi qu'en contrôle du mouvement. Un élément clé du succès de l'apprentissage profond est la solution qu'il apporte au problème de l'attribution du mérite : pour que l'apprentissage réussisse dans un réseau neuronal profond, chaque neurone doit se voir attribuer correctement le « mérite » pour sa contribution à un comportement quelconque. L'attribution du mérite dans un réseau hiérarchique et/ou récurrent n'est pas une tâche triviale, car l'impact d'un neurone agissant à un stade précoce du traitement d'information dépend de son impact en aval. En IA, le problème d'attribution du mérite est généralement résolu à l'aide de l'algorithme de rétropropagation de l'erreur (backprop). Cependant, la backprop présente certaines caractéristiques qui la rendent loin d'être idéale pour l'IA et la compréhension du cerveau.
Du point de vue de l'IA, la backprop rend difficile l'apprentissage en temps réel, car elle requiert une propagation directe de l'information à travers le réseau, suivie d'une propagation en sens inverse des erreurs, pour l'attribution de mérite. La nécessité de propager les activations à travers le réseau en entier (ou en sens inverse à travers le temps) rend aussi difficile l'apprentissage par module. Ce qui plus est, la backprop traditionnelle opère sur des fonctions différentiables avec des valeurs réelles, requérant beaucoup d'énergie lorsque réalisée en matériel informatique. Du point de vue de la neuroscience, la backprop n'est pas biologiquement réalisable. Non seulement le cerveau n'utilise pas des propagations directes complètes, qui alternent avec des propagations en sens inverse, mais il n'emploie pas non plus des fonctions différentiables. Finalement, le cerveau n'a pas à sa disposition des voies directes et de rétroaction symétriques (ce que requiert la backprop), et demeure bien plus économe en termes d'énergie que les réseaux de neurones profonds actuels.
La découverte de la solution développée par le cerveau au problème d'attribution du mérite mènerait à deux avancées principales. Premièrement, nous pourrions améliorer l'IA, mettant en oeuvre une attribution du mérite en temps réel modulaire et énergétiquement économe. Deuxièmement, nous pourrions mieux comprendre les algorithmes d'apprentissage utilisés par le cerveau, ce qui ouvrirait la porte à des modèles mathématiques plus précis de la cognition humaine, ainsi qu'au développement d'interfaces cerveau-ordinateur plus sophistiquées. L'un des domaines de recherche les plus importants du LiNC Lab est le développement de nouveaux algorithmes inspirés par la biologie pour résoudre le problème de l'attribution du mérite.
Nous sommes explicitement conscients des événements de notre passé. Nos souvenirs sont fondamentaux au sentiment de soi et, ce qui est peut-être encore plus important, ils nous permettent de tirer profit de notre expérience pour planifier de manière intelligente nos actions futures. Par exemple, si vous vous souvenez avoir perdu vos clés hier, vous prévoirez de faire les arrangements nécessaires avec quelqu'un qui peut vous donner accès à votre appartement. Par contre, nos souvenirs ne sont pas simplement des traces statiques d'événements tels qu'ils ont été vécus. Ils sont bien plus complexes. De nombreuses études antérieures en neuroscience, dont certaines du LiNC Lab, ont démontré que le cerveau combine des souvenirs en des amalgames statistiques, qu'il modifie les souvenirs lorsqu'ils sont rappelés à la mémoire, et qu'il oublie activement de l'information pour favoriser la flexibilité cognitive. Par conséquent, les souvenirs que nous avons en mémoire sont en réalité des combinaisons malléables de nos expériences précédentes, et l'oubli est en fait une fonctionnalité de notre mémoire et non un bogue.
ll est commun de nos jours que les développeurs en IA dotent les agents artificiels de systèmes mnésiques inspirés du cerveau dans le but d'améliorer leur capacité à apprendre rapidement, raisonner, prendre des décisions et apprendre par renforcement. Par contre, certaines caractéristiques de la mémoire naturelle n'ont toujours pas été exploitées. Par exemple, les systèmes mnésiques en IA ne possèdent toujours pas de systèmes détaillés de consolidation comme ceux qui existent dans le cerveau. Il est aussi possible que l'oubli, s'il est réalisé correctement, améliorerait la flexibilité des IA, tout particulièrement chez les agents artificiels ayant des ressources computationnelles limitées, comme c'est le cas chez les personnes et les animaux. Ainsi, un second domaine de recherche du LiNC Lab est d'appliquer nos connaissances croissantes sur la mémoire naturelle au développement de systèmes mnésiques chez les réseaux de neurones artificiels qui en amélioreraient la flexibilité et la perspicacité.
La neuroscience s'est historiquement penchée sur l'identification de traces claires et interprétables de computations spécifiques dans le cerveau. Par exemple, la recherche innovatrice de Hubel et Wiesel dans les années 1950 et 1960 a révélé l'existence de cellules dans le cortex visuel primaire qui calculent la présence de contours ayant une orientation particulière dans le champ visuel d'un animal. Par contre, dans les faits, la majorité de l'activité cérébrale n'est pas interprétable pour l'humain. Dans le cortex visuel, par exemple, de nombreux neurones ne montrent aucune sélectivité à des contours, mais présentent plutôt des réponses à des stimuli visuels dans lesquelles il est impossible pour un observateur humain de discerner des motifs clairs. Néanmoins, des analyses préliminaires de ces neurones « ininterprétables » démontrent qu'ils peuvent encoder autant, sinon plus, d'information que les neurones dits interprétables. Ceci soulève une difficulté importante en neuroscience : l'évolution n'a pas de raison d'avoir favorisé des computations cérébrales sujettes à l'interprétation humaine. Par conséquent, nous n'avons pas, a priori, de raison de croire qu'il est nécessairement possible de comprendre les opérations du cerveau en général en nous concentrant uniquement sur les composantes de l'activité cérébrale qui se portent à une interprétation intuitive.
Comment pouvons-nous surmonter cet obstacle ? La voie la plus prometteuse est de développer des outils d'apprentissage machine qui peuvent agir sur des données neuroscientifiques et permettre de mieux discerner les principes de computation neuronale que nous, en tant qu'être humains, ne pouvons pas facilement découvrir par nous-mêmes. Par exemple, inspirés d'avancées récentes dans l'utilisation de réseaux neuronaux profonds pour l'analyse de données, nous travaillons sur différents autoencodeurs variationnels pour des applications en microscopie à deux photons pour l'imagerie cellulaire. Le but de ce travail est d'identifier des motifs d'activité cérébrale partagés entre individus pour ensuite prédire les caractéristiques de leur comportement et de leur mémoire. Ainsi, le troisième objectif du programme de recherche du LiNC Lab est de développer des algorithmes d'apprentissage machine qui aideront les neuroscientifiques à élucider les fonctions des computations neuronales ininterprétables pour l'être humain.