Segmentation automatique des structures du cerveau profond en IRM par deep learning
Le projet Ptolémée développe des méthodes de deep learning pour segmenter automatiquement les IRM du cerveau profond afin d’améliorer la connaissance anatomique et d’aider la planification pré-opératoire. La thèse d’Aigerim Dauktulova a proposé un modèle basé sur nn-UNet intégrant des données multimodales et un atlas anatomique, ainsi qu’un pipeline d’augmentation de données pour améliorer la précision des segmentations. Ces travaux ont conduit au logiciel DBSeg3000, utilisé depuis 2024 au CHU de Clermont-Ferrrand pour la cartographie cérébrale, tandis que les recherches se poursuivent pour améliorer les performances grâce au transfert d’apprentissage. Publications : (2), (3), (4)
Perception coopérative de scènes urbaines 3D par deep learning basée sur les Stixels
Ce projet vise à développer des méthodes de perception 2D et 3D de l’environnement pour les systèmes d’aide à la conduite (ADAS), capables de fonctionner même dans des conditions de visibilité difficiles. La thèse de Marcel Vaußans, menée en co-tutelle avec l’Université d’Esslingen (Allemagne), étudie la perception coopérative entre plusieurs véhicules et caméras d’infrastructure afin d’améliorer la compréhension des scènes urbaines 3D. Les travaux reposent sur StixelNExT++, un modèle de deep learning transformant les images de caméras monoculaires en représentations 3D compactes appelées Stixels, permettant une détection rapide et efficace des objets. Un jeu de données dédié, CoopScenes, a également été développé pour évaluer ces approches et démontrer la faisabilité d’une perception coopérative basée uniquement sur des caméras. Publications : (20), (21)
Analyse des conditions météorologiques pour la vision embarquée par deep learning et transfert de style
Cette thèse, menée par Hamed Ouattara depuis juin 2023 dans le cadre du projet européen ROADVIEW en partenariat avec le Cerema, vise à améliorer la robustesse des systèmes de conduite autonome face aux conditions météorologiques extrêmes. L’objectif est de détecter automatiquement les caractéristiques météorologiques à partir d’images RGB en s’appuyant sur l’idée que la météo modifie principalement le style visuel d’une scène. Les travaux proposent un modèle de deep learning nommé PatchGAN-MultiTasks, combinant transfert de style et mécanismes d’attention, capable de détecter en temps réel douze caractéristiques météorologiques (type, intensité, visibilité, état du sol). Léger et rapide, ce modèle est adapté aux systèmes embarqués et atteint des performances élevées, avec un F1-score moyen de 97 %. sur des caméras.