Lieu : IHP, Salle 314.
14.00 : Thomas Verdebout (Département de Mathématique, Université libre de Bruxelles)
Titre : Inference on the mode of weak directional signals: a Le Cam perspective on hypothesis testing near singularities.
Résumé : In this paper we consider the problem of testing the null hypothesis that the mode of a directional signal is equal to a given value. The problem is tackled under asymptotic scenarios for which the signal strength goes to zero at an arbitrary rate. We study the classical Wald and Watson tests that are known to be asymptotically equivalent when the signal is strong. We show that they exhibit very different (null and non-null) behaviours when the signal becomes arbitrarily weak. The Watson test is shown to be adaptively rateconsistent and essentially adaptively Le Cam optimal. Throughout, our theoretical findings are illustrated via Monte-Carlo simulations. The practical relevance of our results is also shown on a real data example. Joint work with Davy Paindaveine.
15.00 : Angelina Roche (CEREMADE, Université Paris-Dauphine)
Titre : Estimation adaptative de la fonction de risque instantanée dans le modèle de censure multiplicative
Résumé : En collaboration avec Gaëlle Chagny et Fabienne Comte. Le modèle de censure multiplicative a été proposé par Vardi (1989). Dans ce modèle, la variable d’intérêt X est reliée à la variable observée par la relation Y=XU, avec U une variable uniforme sur [0,1], indépendante de X. Nous proposons une famille d’estimateurs de la fonction de risque instantanée de la variable X construite par minimisation d’un contraste adapté au problème, à partir d’un échantillon {Y_1,…,Y_n} de copies de Y. La dimension de l’espace d’approximation est ensuite sélectionnée par minimisation d’un critère de type contraste pénalisé. Nous montrons que l’estimateur obtenu vérifie une inégalité de type oracle, à un terme additionnel près, que nous discuterons.
16.00 : Guillaume Lecué (CNRS et CREST-ENSAE)
Titre : Regularization methods and the small ball property
Résumé : We obtain bounds on estimation error rates for regularization procedures with respect to the quadratic loss and any regularization function $\Psi$. In particular, it sheds some light on the role various notions of sparsity have in regularization and on their connection with the size of subdifferentials of $\Psi$ in a neighbourhood of the true minimizer. As `proof of concept' we extend the known estimates for the LASSO, SLOPE and trace norm regularization.