L'estimateur du paramètre de la loi de poisson

Exercices théoriques sur le paramètre de Poisson

Siméon Denis Poisson fut certainement l’un des plus brillants physiciens et mathématiciens français du début du dix-neuvième siècle. Pionnier des statistiques avec Quételet, a montré que la distribution normale, découverte par Gauss sur des erreurs de mesures astronomiques, s’appliquait régulièrement sur des données sociales. En quelque sorte, il a ouvert la voie à la sociologie en découvrant que le comportement d’un groupe social est plus prévisible que celui d’un individu isolé. En théorie des probabilités, il a donné son nom à une loi discrète irremplaçable pour modéliser les situations où les évènements ont de faibles chances de réalisation.

Cette loi présente cette étonnante propriété de ne reposer que sur un seul paramètre, \(λ,\) qui est à la fois son espérance et sa variance.

L’énoncé ci-dessous vous propose deux questions de démonstration sur celui-ci.

Avant de vous lancer, vous devez savoir calculer un maximum de vraisemblance et connaître le raisonnement permettant de définir l’efficacité d’un estimateur.

 

Énoncé

1- Soit une suite de variables aléatoires indépendantes \((X_n)\) qui suivent une loi de Poisson. Déterminer un estimateur de son paramètre \(λ\) à l’aide du maximum de vraisemblance.

Nous partirons de la fonction de vraisemblance de l’échantillon à valeurs positives \((k_1, k_2, … k_n)\) établie en page de paramètre de la loi de Poisson :

\( L({k_1},{k_2},...,{k_n},\lambda ) = {e^{ - n\lambda }}\frac{{{\lambda ^{\sum\limits_{k = 1}^n {{k_i}} }}}}{{\prod\limits_{k = 1}^n {\left( {{k_i}} \right)!} }}\)

2- Montrer que \(\widehat{λ},\) établi sur un n-échantillon, est un estimateur efficace de \(\lambda.\)

chercheur

 

Corrigé de la question 1

Procédure habituelle, la log-vraisemblance.

\( \ln \left [L({k_1},{k_2},...,{k_n},λ)  \right ]\) \(=\) \( \ln \left [{e^{ - n\lambda }}\frac{{{\lambda ^{\sum\limits_{k = 1}^n {{k_i}} }}}}{{\prod\limits_{k = 1}^n {\left( {{k_i}} \right)!} }}\right ]\)

Utilisons les propriétés du logarithme.

\( \ln \left [L({k_1},{k_2},...,{k_n},λ)  \right ] =  - n\lambda  + \left( {\sum\limits_{i = 1}^n {{k_i}} } \right)\ln \lambda  - \ln \left( {\prod\limits_{i = 1}^n {{k_i}!} } \right)\)

La dérivée partielle par rapport à \(λ\) n’est pas difficile à établir :

\(\frac{\partial }{{\partial \lambda }}\ln \left[ {L({k_1},{k_2}...{k_n},\lambda )} \right] =  - n + \frac{1}{\lambda }\sum\limits_{i = 1}^n {{k_i}} \)

Annulons la dérivée pour déterminer l’extremum.

\(- n + \frac{1}{\lambda }\sum\limits_{i = 1}^n {{k_i}} = 0\)
\(⇔ \lambda  = \frac{1}{n}\sum\limits_{i = 1}^n {{k_i}} \)

Nous reconnaissons la formule de la moyenne.

La dérivée seconde négative nous confirme qu’il s’agit bien d’un maximum :

\(\frac{\partial ^2 \ln L}{\partial \lambda ^2} = - \frac{1}{\lambda ^2} \sum\limits_{i = 1}^n {{k_i}}\)

 

Corrigé de la question 2

À la question précédente nous avons établi l’expression de la dérivée par rapport à \(λ\) de la fonction de log-vraisemblance.

\(\frac{∂}{∂ λ} \ln L = - n + \frac{∑ k_i}{λ}\)

Déterminons à présent la quantité d’information de Fisher.

\(I_n(λ) = V \left( - n + \frac{∑ X_i}{λ} \right)\)
\(⇔ I_n(λ) = \frac{1}{X^2} ∑ V(X_i)\)

Or \(V(X_i) = \lambda\) donc \({\sum\limits_{i = 1}^n {V(X_i)}} = n \lambda\)

Ainsi \(I_n(λ) = \frac{n}{λ}\)

Sur un échantillon, l’estimateur \(\widehat{λ}\) est-il efficace ?

Nous avons \(V(\widehat {\lambda}) = V \left( \frac{1}{n} \sum X_i \right)\) (voir question précédente).

Donc \(V(\widehat {\lambda}) = \frac{1}{n^2} \sum V(X_i)\)
\(\Leftrightarrow V(\widehat {\lambda}) = \frac{1}{n^2} \times n \times p(1 - p)\)
\(\Leftrightarrow V(\widehat {\lambda}) = \frac{p(1 - p)}{n}\)
\(\Leftrightarrow V(\widehat {\lambda}) = \frac{\lambda}{n}\)

C'est l'inverse de l'information de Fisher : \(V(\widehat{\lambda}) = \frac{1}{I_n(\lambda)}\)

Conclusion : cet estimateur est efficace.

 

ça s'arrose