Séance du 24 novembre 2014

Séance organisée par Fabienne Comte et Eva Löcherbach.

Lieu : IHP, Amphithéâtre Darboux.

14h00: Céline Duval (Université Paris Descartes)

Titre : Estimation of the jump size density in a mixed compound process.

Résumé : Consider a mixed compound process $Y(t)=\sum_{i=1}^{N(\Lambda t)}\xi_i$ where $N$ is a Poisson process with intensity 1, $\Lambda$ a positive random variable, $(\xi_i)$ a sequence of {\em i.i.d.} random variables with density $f$ and $(N,\Lambda,(\xi_i))$ are independent. In this paper, we study nonparametric estimators of $f$ by specific deconvolution methods. Assuming that $\Lambda$ has exponential distribution with unknown expectation, we propose two types of estimators based on the observation of an {\em i.i.d.} sample $(Y_j(\Delta))_{1\leq j\leq n}$ for $\Delta$ a given time. One strategy is for fixed $\Delta$, the other for small $\Delta$ (with large $n\Delta$). Risks bounds and adaptive procedures are provided. Then, with no assumption on the distribution of $\Lambda$, we propose a nonparametric estimator of $f$ based on the joint observation $(N_j(\Lambda_j\Delta), Y_j(\Delta))_{1\leq j\leq n}$. Risks bounds are provided leading to unusual rates. The methods are implemented and compared via simulations.

15h00: Florence Merlevède (Université de Marne-la-Vallée)

Titre : Approximation forte pour des fonctionnelles additives de chaînes de Markov géométriquement ergodiques.

Résumé :Dans cet exposé, on s'intéressera à des résultats d'approximation forte de type Komlos-Major-Tusnady pour des fonctionnelles additives de chaînes de Markov. Dans le cas de fonctionnelles bornées d'une chaîne de Markov stationnaire, Harris récurrente et géométriquement ergodique, on montrera qu'il est possible d'approximer le processus des sommes partielles par un mouvement Brownien avec une erreur d'approximation en O(log n) presque sûrement. Cet exposé est issu d'un travail en commun avec Emmanuel Rio.

16h00: Arnaud Gloter (Université d'Evry)

Titre : Propriété LAMN pour des équations différentielles stochastiques dirigées par un processus stable

Résumé : Nous démontrons la propriété de 'Local Asymptotic Mixed Normality' pour l'observation haute fréquence

d'une équation différentielle stochastique dirigée par un processus de Lévy.

Le processus est observé sur l'intervalle $[0,1]$ avec un pas de discrétisation $1/n$ convergeant vers $0$. Le paramètre à estimer apparaît dans le terme de dérive de l'équation différentielle stochastique. L'intensité des petits sauts du processus de Lévy dirigeant l'E.D.S. est égale à celle d'un processus stable d'indice $\alpha$. Nous montrons que la vitesse dans la propriété LAMN est égale à $n^{1/2-1/\alpha}$ et dépend donc de l'intensité des sauts au voisinage de zero. De plus, nous calculons explicitement l'information de Fisher du modèle. La preuve de ce résultat repose sur une étude des développements de densité, en temps petit, pour la solution de l'E.D.S.

Cet exposé est issu d'un travail en commun avec Emmanuelle Clément.