Séance du 15 janvier 2024

Séance organisée par Aurélie Fischer et Emilie Lebarbier 

Lieu : IHP,  amphi Hermite


14.00 : Diala Hawat (CRIStAL, Université de Lille et LPSM)

Titre :  Processus ponctuels pour l’intégration numérique

Résumé : La méthode de Monte Carlo estime une intégrale en utilisant des évaluations de l'intégrande en certains points appelés nœuds, qui peuvent être choisis comme les points d'un processus ponctuel. Alors que la méthode Monte Carlo brute repose sur le processus ponctuel de Poisson homogène (PPP), certains processus de points plus régulièrement répartis produisent des méthodes avec une décroissance plus rapide de la variance. Pendant mon doctorat, nous avons étudié deux familles de processus ponctuels réguliers qui sont des candidats potentiels en tant que nœuds pour accélérer la convergence de la méthode de Monte Carlo brut. Cette présentation se concentre sur l'une de ces familles, plus précisément, la famille des processus ponctuels repoussés que nous avons construite en utilisant un opérateur de répulsion. L'opérateur de répulsion réduit le regroupement dans une configuration de points en repoussant légèrement les points les uns des autres. Notre principal résultat théorique est que l'application de l'opérateur de répulsion à un PPP fournit une méthode de Monte Carlo non biaisée avec une variance inférieure qu'avec un PPP. De plus, nos simulations numériques mettent en lumière la capacité de l'opérateur de réduire la variance, même lorsqu'il est appliqué à des processus ponctuels plus réguliers que le PPP. Cela suggère que l'application de l'opérateur de répulsion aux nœuds de n'importe quelle méthode de Monte Carlo peut réduire sa variance et ainsi améliorer la précision statistique de la méthode.


15.00 : Charlotte Dion-Blanc (LPSM, Sorbonne Université)

Titre : Multiclass classification for Hawkes process

Résumé : We investigate the multiclass classification problem where the features are event sequences. More precisely, the data are assumed to be generated by a mixture of simple linear Hawkes processes. In this new setting, the classes are discriminated by various triggering kernels. A challenge is then to build an efficient supervised classification procedure. We derive the optimal Bayes rule and provide a two-step estimation procedure of the Bayes classifier. In the first step, the weights of the mixture are estimated; in the second step, an empirical risk minimization procedure is performed to estimate the parameters of the Hawkes processes. We establish the consistency of the resulting procedure and derive rates of convergence. Then, we tackle the case of multivariate Hawkes processes. The challenge here is the high-dimension of the classification problem which can be solved using a LASSO-type step in the procedure. We investigate this classification procedure and prove (based on the obtained consistency in support of the LASSO), the consistency of the classifier. 

Joint work with Christophe Denis, Romain Lacoste and Laure Sansonnet. joint work with Christophe Denis, Romain Lacoste and Laure Sansonnet.


16.00 : Marina Gomtsyan (LPSM, Sorbonne Université)

Titre : Méthodes de sélection de variables dans des modèles GLARMA parcimonieux.

Résumé : Nous proposons de nouvelles méthodes de sélection de variables pour les modèles linéaires généralisés auto-régressifs à moyenne ajustée (GLARMA) parcimonieux, qui peuvent être utilisés pour modéliser des séries temporelles à valeurs discrètes. Ces modèles permettent en effet d'introduire de la dépendance dans les modèles linéaires généralisés (GLM). Plus précisément, nous présentons une procédure d'estimation pour les modèles GLARMA de Poisson parcimonieux. Nous établissons un résultat de consistance en signe pour l’estimateur des coefficients de régression dans un modèle de Poisson parcimonieux sans dépendance temporelle. En outre, nous étendons notre procédure d'estimation au cas multivarié et au cas de la loi binomiale négative. L'idée principale de notre procédure d'estimation est d'estimer d'abord les coefficients de la partie ARMA du modèle, puis d'utiliser une approche régularisée, à savoir le Lasso, pour estimer les coefficients de régression de la partie GLM du modèle. Dans le cas du modèle binomial négatif, nous estimons également le paramètre de surdispersion avant d'estimer les coefficients de régression. La performance des méthodes proposées a été évaluée par des études de simulation dans différents cadres et sur différents jeux de données de biologie moléculaire. Nos approches présentent de très bonnes performances statistiques, et obtiennent de meilleurs résultats que les autres méthodes dans l'identification des coefficients de régression non nuls. En outre, leur faible temps de calcul permet de les appliquer à des jeux de données de grande dimension. Les méthodes proposées sont implémentées dans les packages R GlarmaVarSel, MultiGlarmaVarSel et NBtsVarSel, qui sont accessibles sur le CRAN (Comprehensive R Archive Network).