Séance du 18 mai 2009

lundi 18 mai 2009

Organisateurs: Patrice Bertail et Gersende Fort

14h00 Julien Cornebise (Statistical and Applied Mathematical Sciences Institute, Caroline du Nord, Etats-Unis)

Adaptation dans les méthodes de Monte-Carlo séquentielles: récents résultats théoriques et algorithmiques.

Résumé: Les méthodes de Monte Carlo séquentielles (ou méthodes particulaires), telles que le filtre bootstrap ou le filtre particulaire auxiliaire, rencontrent un succès fulgurant ces dix dernières années, dans des domaines aussi variés que le traitement du signal, la simulation d'évènements rares, ou la génétique des populations. Cet engouement les confronte à des challenges de plus en plus grands, et rend criant le besoin d'algorithmes adaptatifs, capables d'ajuster automatiquement les paramètres tels que le noyau de proposition ou les poids d'ajustement multiplicatifs du filtre particulaire auxiliaire. Le but est d'effectuer les choix optimaux en termes d'efficacité calculatoire et de précision des estimateurs obtenus, cette optimalité étant formalisée mathématiquement par des critères dont l'étude est elle-même un sujet de recherche actif. Dans cet exposé, nous présenterons nos récents résultats, de la théorie jusqu'à leur mise en pratique algorithmique. Nous relierons tout d'abord les critères que sont le coefficient de variation et l'entropie des poids d'importance, actuellement utilisés sur des bases empiriques, aux divergences du khi-deux et de Kullback-Leibler entre deux distributions clés que nous expliciterons. Nous montrerons ensuite que de nouveaux critères sont plus adaptés au développement d'algorithmes adaptatifs, permettant tout particulièrement de découpler l'adaptation des poids d'ajustement et celle du noyau de proposition. Sur ces bases, nous présenterons de nouveaux algorithmes susceptibles d'être utilisés sur les modèles actuels les plus complexes, tout en gardant à l'esprit la simplicité calculatoire requise dans le cadre fondamentalement itératif des méthodes MCS. Pour l'adaptation des poids d'ajustement, nous esquisserons des algorithmes de rechargement de l'échantillon combiné à un échantillon exploratoire. Enfin, nous adapterons le noyau de proposition par des méthodes d'optimisation de mélange d'experts profondément liées à l'algorithme EM et à ses variantes par approximation stochastique et par Monte Carlo, qui apportent une grande flexibilité d'approximation.

15h00 Florence Forbes (Equipe Mistis, INRIA Grenoble Rhone-Alpes)

Bayesian Weighting of Multiple MR Sequences for Brain Lesion Segmentation

Abstract: We propose a technique for fusing the output of multiple Magnetic Resonance (MR) sequences to robustly and accurately segment brain lesions. It is based on a Bayesian multi-sequence Markov model that includes weight parameters to account for the relative importance and control the impact of each sequence. The Bayesian framework has the advantage of allowing 1) the incorporation of expert knowledge on the a priori relevant information content of each sequence and 2) a weighting scheme which is modified adaptively according to the data and the segmentation task under consideration. The model, applied to the detection of multiple sclerosis and stroke lesions shows good results.

16h00 Stephan Clémençon (ENST TSI, Paris)

Méthodes adaptatives pour l'optimisation de la courbe ROC

Résumé: Depuis la seconde guerre mondiale, époque où elles furent introduites dans le but de discriminer entre signaux radars/sonars et bruits de fond à partir des informations reçues, les courbes ROC (où COR, pour «Caractéristique de l'Opérateur de Réception ») sont un des outils graphiques de visualisation de la performance des règles de discrimination les plus utilisés dans de nombreux domaines : scoring de crédit, diagnostic médical, détection d'anomalie en traitement du signal, moteur de recherche, etc. Ce critère de performance doit sa richesse à sa nature fonctionnelle, laquelle l'a aussi longtemps restreint à un simple outil de diagnostic, tant l'apprentissage statistique d'une règle fondé sur son optimisation paraît ardu à première vue. Dans une série d'articles récents, nous avons abordé ce problème de discrimination binaire sous l'angle de la théorie de l'approximation. Le problème de l'optimisation de la courbe ROC y est vu comme un continuum de problèmes de classification « à coûts sensitifs », consistant à recouvrer la collection des ensembles de niveaux du rapport de vraisemblance.Deux méthodes pratiques ont été proposées afin de déterminer de façon adaptative une sous-famille finie d'ensembles de niveaux définissant une règle quasi-optimale, discrétisant ainsi le problème d'optimisation fonctionnelle. La première, fondée sur le principe de partitionnement récursif de l'espace des observations à la manière de l'algorithme CART, appelée « «TreeRank » et produisant une règle de scoring dont la courbe ROC est une version statistique d'une approximation de la courbe optimale obtenue par un schéma adaptatif de type « éléments finis ». La seconde, appelée « RankOver », est au contraire associée à une procédure de partitionnement non récursive. Toutes deux conduisent à des règles dont les courbes ROC convergent vers la courbe optimale, non seulement au sens L_1 (i.e. au sens du critère AUC), mais aussi en norme sup.