La nature du paramètre de la loi de Poisson

Démonstrations sur la loi de Poisson

La modeste ambition de cette page est de donner un coup de pouce aux étudiants qui cherchent à comprendre certaines démonstrations relatives à la loi de Poisson.

 

Rappel

Une variable aléatoire \(X\) suit une loi de Poisson sur un espace probabilisé si l'on a pour tout entier naturel \(k\) (utilisons \(k\) plutôt de \(x\) puisque c'est une loi de probabilité discrète), avec \(\lambda > 0\), la probabilité suivante :

\[P(X = k) = \frac{{{e^{ - \lambda }}{\lambda ^k}}}{{k!}}\]

Il est de notoriété publique que \(\lambda\) est l’espérance mais aussi la variance de la loi de Poisson. Prouvons-le.

 

Exercice 1

Démontrer que \(E(X) = \lambda \)

Nous savons depuis le lycée que l’espérance d’une loi de probabilité s’obtient par la somme de toutes les valeurs prises par \(X\) pondérées par leurs probabilités. La loi de Poisson étant discrète, les valeurs de \(X\) sont des entiers \({k_i}\). Pour \(\lambda\) donné, chaque probabilité affectée à \({k_i}\) est donc l’élément d’une suite. Si l’on multiplie ces éléments par \({k_i}\), on obtient une seconde suite dont le premier terme est 0 (pour l’évidente raison que c’est une probabilité multipliée par \(k=0\)). L’ADDITION des \(k\) premiers termes forme une troisième suite, ou plus exactement une série puisque c’est une suite de cumuls. On peut donc formaliser l’espérance de la loi de Poisson ainsi :

\(E(X) = \sum\limits_{k = 1}^{ + \infty } {k\left( {\frac{{{e^{ - \lambda }}{\lambda ^k}}}{{k!}}} \right)} \)

\( \Leftrightarrow E(X) = {e^{ - \lambda }}\sum\limits_{k = 1}^{ + \infty } {k\left( {\frac{{{\lambda ^k}}}{{k!}}} \right)} \)

Il est clair qu’il s’agit d’une série à termes positifs qui converge (mais il n’est pas nécessaire de connaître ces termes mathématiques pour poursuivre la démonstration). Tour de magie très facile : faisons disparaître le facteur \(k\) :

\(E(X) = \lambda {e^{ - \lambda }}\sum\limits_{k = 1}^{ + \infty } {\frac{{{\lambda ^{k - 1}}}}{{(k - 1)!}}} \)

Or, la propriété suivante est en principe connue des étudiants qui se sont creusé la tête sur les développements limités : \(\sum\limits_{i = 0}^{ + \infty } {\frac{{{x^i}}}{{i!}}} = {e^x}\)

À partir de là, nous allons amener notre expression de l’espérance vers une autre expression plus simple. Un changement de variable permet d’y voir un peu plus clair. Posons très provisoirement \(j=k-1\).

\(\begin{array}{l}
E(X) = \lambda {e^{ - \lambda }}\sum\limits_{k = 1}^{ + \infty } {\frac{{{\lambda ^j}}}{{j!}}} \\
\Leftrightarrow E(X) = \lambda {e^{ - \lambda }}{e^\lambda } = \lambda
\end{array}\)

 

Exercice 2

Démontrer que \(V(X)=\lambda\).

La variance est l’espérance des carrés moins le carré de l’espérance (selon le théorème de König). Nous fonderons la démonstration à partir de cette formule.

La première étape est donc de trouver l’expression de \(E({X^2})\). Pour ne pas se heurter à une impasse, utilisons sans plus attendre une ruse, à savoir \({x^2} = x(x - 1) + x\) et l’expression de la variance devient :

\(\begin{array}{l}
{\rm{Var}}(X) = E[X(X - 1) + X] - E{(X)^2}\\
\Leftrightarrow {\rm{Var}}(X) = E[X(X - 1)] + E(X) - E{(X)^2}
\end{array}\)

Donc, il faut modifier l'écriture de \(E[X(X - 1)]\) qui est le seul élément mystérieux de notre expression. Attelons-nous à cette stimulante entreprise. Les probabilités multipliées par \(k=0\) et \(k=1\) sont toutes deux nulles (Cf. exercice précédent). Donc, la somme qui permet d’établir l’espérance commence à \(k=2\). Chaque probabilité de \(k\) est maintenant pondérée par \(k(k - 1)\).

\(E[X(X - 1)] = \sum\limits_{k = 2}^{ + \infty } {k(k - 1)\frac{{{e^{ - \lambda }}{\lambda ^k}}}{{k!}}} \)

Simplifions l’écriture en ôtant \(k(k - 1)\) au numérateur et à la factorielle :

\(E[X(X - 1)] = \sum\limits_{k = 2}^{ + \infty } {\frac{{{e^{ - \lambda }}{\lambda ^{k - 2}}{\lambda ^2}}}{{(k - 2)!}}} \)

On devine alors qu’un changement de variable permettra une simplification encore plus épurée. Soit \(h=k-2\). D’où…

\(\begin{array}{l}
E[X(X - 1)] = {e^{ - \lambda }}{\lambda ^2}\sum\limits_{k = 2}^{ + \infty } {\frac{{{\lambda ^h}}}{{h!}}} \\
\Leftrightarrow E[X(X - 1)] = {e^{ - \lambda }}{\lambda ^2}{e^\lambda } = {\lambda ^2}
\end{array}\)

Revenons à notre variance. Compte tenu de la conclusion de l’exercice 1, nous pouvons affirmer sans crainte que…

\({\rm{Var}}(X) = E[X(X - 1)] + E(X) - E{(X)^2}\) \( = {\lambda ^2} + \lambda - {\lambda ^2} = \lambda \)

Ainsi s’achève la démonstration.

 

Exercice 3

Soit une suite de variables aléatoires qui suivent une loi de Poisson de paramètre \(\lambda\). Déterminer la fonction de vraisemblance d'un échantillon \(({k_1},{k_2},...,{k_n})\), réalisation de cette suite de v.a.

\(L({k_1},{k_2},...,{k_n},\lambda ) = \prod\limits_{i = 1}^n {\frac{{{e^{ - \lambda }}{\lambda ^{{k_i}}}}}{{({k_i})!}}} \)

\( \Leftrightarrow L({k_1},{k_2},...,{k_n},\lambda ) = {e^{ - n\lambda }}\prod\limits_{k = 1}^n {\frac{{{\lambda ^{ki}}}}{{\left( {{k_i}} \right)!}}} \)

\( \Leftrightarrow L({k_1},{k_2},...,{k_n},\lambda ) = {e^{ - n\lambda }}\frac{{{\lambda ^{\sum\limits_{k = 1}^n {{k_i}} }}}}{{\prod\limits_{k = 1}^n {\left( {{k_i}} \right)!} }}\)

 

vie au village