Le bruit poissonnien


Observer

Statistique de Poisson

Lorsqu'une moyenne de N quanta par unité de temps est attendue, un détecteur idéal (rendement unité) en comptera un nombre plus ou moins voisin de N. La distribution des valeurs dépend du nombre N : 10, 100, 1000. Plus N est grand, plus la distribution apparaît piquée en valeur relative, quand bien même elle est plus étalée en valeur absolue.

Distribution de Poisson
poisson1.png
Série de valeurs et histogramme, dans le cas N = 10
Crédit : ASM
Distribution de Poisson
poisson2.png
Série de valeurs et histogramme, dans le cas N = 100
Crédit : ASM
Distribution de Poisson
poisson3.png
Série de valeurs et histogramme, dans le cas N = 1000
Crédit : ASM
stat4.png
Statistiques poissonniennes. La dispersion relative décroît avec le nombre de quanta attendus.
Crédit : ASM

Apprendre

objectifsObjectifs

La statistique de Poisson concerne un phénomène régulier quantifié.

La détection d'un rayonnement électromagnétique en est un exemple concret, l'arrivée d'énergie étant quantifiée en photons.

Plus le nombre de photons attendus est grand, mieux on pourra préciser la valeur moyenne observée.

Un exemple concret... et discret

La statistique de Poisson va être abordée via un cas concret. L'analyse de l'arrivée de photons d'une signal lumineux de moyenne constante.

Un rayonnement monochromatique de fréquence \nu de luminosité L, observé pendant une durée T, apporte une énergie LT. Ce rayonnement est véhiculé par un nombre moyen de photons N obéissant à :

N\ = \ {L\ T\over h\nu}

La discrétisation du flux en quanta d'énergie implique que le nombre de photons arrivant par intervalle de temps fluctue autour de cette valeur moyenne.

Arrivée des photons

La probabilité de détecter n photons lorsque N sont attendus en moyenne s'écrit :

p(n) \ = \ {N^n\ e^{-N}\over n!}

C'est la loi de Poisson de moyenne N. Il faut retenir que :

demonstrationDémonstration

En découpant l'intervalle de temps en m parties, suffisamment petites pour assurer qu'un seul photon peut arriver pendant l'intervalle de temps T/m, on peut estimer la probabilité de voir arriver n photons, en les rangeant dans les m cases.

La probabilité d'avoir un photon par case temporelle est q=N/m, et la probabilité opposée 1-q. Comme il y a C_m^n façons de ranger n photons dans les m cases, on obtient finalement en développant le coefficient de combinaison :

p(n) \ = \ C_m^n\ q^n \ (1-q)^{m-n}\ =\ {m!\over n! (m-n)!}\ \left( {N\over m}\right)^n \ \left(1- {N\over m} \right)^{m-n}

Avec un très grand nombre m d'intervalles, on retrouve la loi énoncée :

p(n) \ \simeq \ {N^n\over n!} {m!\over (m-n)!\ m^n} \ \left(1- {N\over m} \right)^{m-n} \ \simeq \ {N^n\over n!} \ e^{-N}

vu les approximations pour N grand et n \ll m :

{m!\over (m-n)!\ m^n} \ \simeq \ 1 \ \hbox{ ; } \ \left(1- {N\over m} \right)^{-n}\ \simeq \ 1 \ \mathrm{\ ;\ et\ } \ \left(1- {N\over m} \right)^{m}\ \simeq \ e^{-N}

Extrapolation aux grandes valeurs

Pour les grandes valeurs de N, on peut montrer que cette loi se confond très rapidement avec la gaussienne :

p(n) \ \propto \ \exp \left[ - {(n-N)^2 \over 2 N}\right]

On en conclut alors, en se basant sur la statistique gaussienne, que pour une valeur moyenne N, l'écart-type vaut \sqrt{N}.

Il en résulte un point important : lorsque N croît, l'écart-type croît, mais le rapport écart-type/moyenne du signal décroît.


Simuler

Distribution de Poisson

A l'aide de l'appliquette : tracer une distribution de Poisson, et identifier les variations majeures lorsque la moyenne \mu varie.

application.png