Les statistiques sont d'un usage fondamental pour la mesure et le traitement du signal en Astronomie. Cette section illustre quelques notions de base :
De nombreux processus physiques correspondent à une situation où l'on compte des événements aléatoires indépendants. C'est par exemple le cas des désintégrations radioactives ou de l'émission de lumière par une source, de façon générale toute situation où l'événement se produit avec une probabilité constante par unité de temps. On veut connaître précisément la loi du phénomène pour calculer les fluctuations associées et les minimiser.
La loi de Poisson est ainsi utilisée pour rendre compte de phénomènes aléatoires qui vérifient les deux propriétés suivantes :
Un événement se produisant en moyenne avec une fréquence , on note P(k) la densité de probabilité pour qu'il se produise k fois durant le temps t (avec k ≥ 0). La loi de Poisson de paramètre donne :
où k! est la factorielle.
L'appliquette ci-dessous illustre la loi de Poisson : elle trace les valeurs obtenues au cours d'un certain nombre de tirages, pour une valeur de donnée.
Loi de Poisson
Difficulté : ☆☆ Temps : 40 min
Retrouver la forme générale de la loi de Poisson à partir d'un raisonnement discret.
Déterminer la moyenne et l'écart-type de la loi de Poisson.
On observe une source lumineuse faible pendant un temps . Quel est le nombre de photons détectés en moyenne, de quoi dépend-il ? Que représente l'écart-type de cette distribution ? Quel paramètre permet de quantifier la précision de la mesure, et comment améliorer la mesure de cette source ?
L'applet ci-dessous illustre ce dernier résultat : on améliore le rapport signal sur bruit en posant plus longtemps, mais cette amélioration est lente. Elle est spectaculaire au début (en permettant la reconnaissance de l'objet), mais ralentit de plus en plus (les détails sont de plus en plus longs à se préciser).
Loi de Poisson
La loi de distribution gaussienne est sans doute la plus employée, en physique comme ailleurs, à tel point qu'on l'appelle généralement loi normale.
La densité de probabilité gaussienne est :
Dans cette formulation, représente la moyenne, et l'écart-type. Le coefficient numérique sert à normaliser l'intégrale à 1.
On remarque la symétrie de la fonction autour du pic central, et son aspect caractéristique ("en cloche"). On note habituellement N( , ) la loi normale. N(0,1) est appelée loi normale centrée-réduite (moyenne nulle, variance normalisée à 1).
L'importance de la loi normale est liée au théorème de la limite centrale, qui montre que la superposition de lois de distribution différentes tend vers une loi normale. Ceci est en particulier important pour estimer les erreurs de mesure : si elles sont de provenance différentes, et de statistique mal connue, on peut généralement faire l'approximation que leur somme est distribuée de manière gaussienne. C'est le théorème de la limite centrale qui explique l'omniprésence de la loi normale.
Difficulté : ☆ Temps : 20 min
Le calcul des moments de la loi normale est donné ici en exercice.
Calculer la largeur à mi-hauteur de la gaussienne
Déterminer graphiquement l'aire délimitée par une gaussienne entre ± 1, 2 et 3 écart-types de la valeur moyenne. Quel est l'intérêt de cette question ?
On observe un astéroïde de la ceinture principale avec un télescope de 2 m depuis le sol. Le fond de ciel produit un signal de 100 pas-codeurs à la sortie de la caméra. A quel niveau de signal peut-on penser avoir détecté l'objet ?
On peut montrer en utilisant la formule de Stirling que pour les grandes valeurs de l'argument, la loi de Poisson tend vers une loi normale. La loi de Poisson décrit correctement les situations où l'intervalle de valeurs possibles est borné d'un côté, donc pour les petits nombres. Dans les autres cas elle se confond pratiquement avec une loi normale (dès que n > 30 et > 5).
L'applet ci-dessous illustre ce résultat : la distribution de Poisson est comparée à la loi normale correspondante (appuyer sur le bouton "moyenne").
Loi de Poisson
On se propose d'estimer le temps nécessaire pour qu'un photon produit dans le Soleil soit émis à sa surface.
Le processus correspond à une suite d'émissions et absorptions successives par les atomes rencontrés en chemin. On l'assimile à une marche au hasard en trois dimensions (bien que l'identité du photon ne soit pas conservée au cours de ces événements, et que la longueur d'onde puisse changer au cours des diffusions successives).
Difficulté : ☆ Temps : 45 min
On considère une particule se déplaçant en trois dimensions de façon aléatoire par pas de longueur d. Ecrire sa position en coordonnées sphériques après le premier pas. La distance d est appelée libre parcours moyen.
Ecrire les coordonnées après N pas en fonction des directions successives. Quelle est la distance au point de départ ?
Simplifier cette expression, sachant que les directions successives sont aléatoires et indépendantes.
On donne la densité et le coefficient d'absorption massique , qu'on suppose uniformes au premier ordre. Calculer le libre parcours moyen.
Connaissant le rayon du Soleil , combien de diffusions un photon produit au centre du Soleil subit-il en moyenne avant d'arriver en surface ? Quelle est la longueur du trajet réellement parcouru dans le Soleil ? Combien de temps faut-il au photon pour effectuer le trajet ?
Mesurer une quantité physique, c'est faire une estimation de la valeur de cette quantité. Cette estimation peut être entachée de deux types d'erreurs : erreur systématique, et erreur aléatoire. La première est liée à l'instrument de mesure ou au type d'observation (si on mesure plusieurs phénomènes simultanément sans s'en rendre compte), elle peut être additive (niveau de base ou offset, par exemple le courant d'obscurité d'une caméra) ou multiplicative (réglage de gain défectueux). Les erreurs aléatoires sont liées au processus de mesure lui-même (bruit de lecture) ou à la nature du phénomène mesuré (bruit de photon d'une source lumineuse faible, lié au processus d'émission). Une bonne mesure est telle que les erreurs aléatoires sont minimisées, et que les erreurs systématiques sont beaucoup plus petites que celles-ci.
L'exercice consiste à dériver la meilleure estimation de l'éclairement d'un corps céleste, dans l'hypothèse où l'erreur systématique est faible.
Difficulté : ☆ Temps : 30 min
On mesure l'éclairement d'une étoile. La valeur "réelle" est notée (celle que mesurerait un instrument parfait).
Pour obtenir une bonne estimation de cette quantité, une méthode usuelle est de pratiquer N mesures successives . On s'attend à ce que celles-ci se répartissent de façon gaussienne autour de la valeur (théorème de la limite centrale).
A partir de ces N estimations indépendantes de l'éclairement, dériver le résultat de la mesure : valeur estimée de la moyenne , et incertitude sur cette estimation.
Plusieurs équipes ayant publié leurs résultats (maintenant notés ), on veut en tirer la meilleure évaluation possible. Ce problème est équivalent à celui de mesures successives entachées d'incertitudes indépendantes .
Application numérique : on a deux mesures indépendantes 100±5 et 94±20. Quelle est l'estimation résultante ?
On s'intéresse souvent à une fonction des quantités mesurées. Le problème est alors de dériver l'incertitude associée à cette estimation.
C'est par exemple le cas en spectroscopie, où on mesure une intensité à diverses longueurs d'onde (variable indépendante). Les quantités physiquement importantes sont liées aux variations spectrales ; elles s'expriment comme des différences ou des rapports d'intensités à différentes longueurs d'onde, ou comme des fonctions plus complexes de ces intensités. Une incertitude individuelle est associée à chaque mesure spectrale . En principe, les incertitudes sur les mesures individuelles sont indépendantes les unes des autres. Si ce n'est pas le cas, il y a un problème avec l'étalonnage de l'instrument et il faut ajouter un terme de covariance dans les formules ci-dessous (on parle improprement de « bruit corrélé », parce qu'un signal inconnu se superpose à celui qu'on mesure).
Difficulté : ☆☆ Temps : 30 min
L'exercice consiste à dériver la précision des estimations de différentes fonctions spectrales.
La fonction est une combinaison additive de variables :
où a et b sont des constantes, et x et y sont affectées des incertitudes et .
Quelle est l'incertitude associée ?
On utilise maintenant une fonction multiplicative :
où a, b et c sont des constantes.
Quelle est l'incertitude associée ?
Pour les cas plus compliqués où l'on connaît la forme analytique de la fonction, écrire la formulation générale.
On applique ces résultats à la situation suivante :
On mesure les intensités a, b et c aux longueurs d'onde , et situées autour d'une bande d'absorption, avec les incertitudes , et .
On estime le continuum (pente spectrale) autour de la bande d'absorption comme
et la profondeur de cette bande comme
Écrire les incertitudes sur ces quantités en fonction de celles des mesures.
On utilise maintenant la mesure d'éclairement pour estimer la magnitude à la longueur d'onde .
Ecrire cette magnitude en fonction de et d'une constante d'échelle.
Ecrire l'incertitude sur cette magnitude en fonction de celle sur l'éclairement.
Auteur: Jérôme Thiébaut
On a très souvent accès en astrophysique à des données d (par exemple des spectres lumineux, des images CCD...) dont on veut extraire une quantité physique inconnue X (magnitude, masse, champ magnétique...). Si le problème est linéaire et si on connait les lois physiques sous jacentes, on peut modéliser le problème sous la forme , où est un vecteur contenant les données, est le vecteur des paramètres recherchés et est une matrice. Connaissant on veut , c'est ce qu'on appelle un problème inverse. Pour résoudre ce genre de problème on utilise très souvent la méthode des moindres carrés c'est à dire qu'on cherche le vecteur qui minimise la quantité .C'est ce qu'on appelle un ajustement. On se propose ici de montrer que faire des à priori gaussiens sur les distributions de probabilité de et revient à utiliser la méthode des moindres carrés.
Difficulté : ☆☆ Temps : 20 min
On a le problème suivant et on va chercher à déterminer la probabilité conditionnelle .
.
Exprimer cette probabilité en fonction de , et en utilisant le théorème de Bayes.
On suppose que suit une loi gaussienne multivariée de matrice de variance covariance . Ecrire cette loi.
On suppose que le vecteur suit lui aussi une loi gaussienne de matrice de variance covariance et de moyenne (a priori sur la solution, sur son spectre de puissance...) et que . Exprimer .
Montrer que chercher les paramètres physiques les plus probables revient à résoudre la méthode des moindres carrés généralisés soit à trouver .
Dans les cas simples, on n'a pas d'a priori sur et on considère que les covariances sont nulles et les variances égales entre elles donc où est la matrice identité. Que devient ?
pages_proba/poisson.html
On découpe la durée considérée en n petits intervalles de temps, et on utilise une loi binomiale.
Le problème est équivalent à calculer la probabilité de trouver k occurrences de l'événement pour n tirages, la probabilité de réalisation durant chaque intervalle étant p = λt/n. La loi de Bernoulli donne :
Où est le nombre de combinaisons de k éléments parmi n (notation standard moderne).
Pour passer à la limite continue, on prend n → ∞ en gardant pn = λt, et on remarque que :
Par ailleurs,
Au total on trouve bien l'expression de la loi de Poisson :
Si X est une variable aléatoire discrète suivant une loi de Poisson, sa valeur moyenne s'écrit :
On note ici
On remarque que la série est le développement de l'exponentielle, il reste :
La variance de X s'écrit :
D'où l'écart-type :
Si la fréquence d'émission des photons par la source est λ, le nombre moyen de photons détectés (valeur moyenne du signal) est :
Cette quantité est proportionnelle au temps de pose et à la fréquence d'émission.
L'écart-type réprésente la variation moyenne autour de cette valeur moyenne, qu'on observerait par exemple entre des mesures successives. Cette fluctuation est liée au processus d'émission de photons lui-même, pas à la méthode de mesure ; c'est donc une incertitude fondamentale qu'on ne peut pas outrepasser en changeant d'instrument. On l'appelle couramment bruit de photons dans ce cas.
La qualité de la mesure est estimée par le rapport signal sur bruit. Si aucune autre incertitude n'affecte cette mesure, le rapport signal sur bruit est :
On améliore donc la mesure en posant plus longtemps, mais cette amélioration est lente (en racine de t, voir l'animation ci-dessous).
pages_proba/gauss.html
La largeur à mi-hauteur (FWHM) correspond à la valeur de la variable pour laquelle la fonction est réduite de moitié par rapport au pic central, soit :
et
Une intégration numérique donne :
X | Pr(X) |
0,68 | |
0,955 | |
0,997 |
La totalité des observations (à 3 ‰ près) se répartit à moins de 3 de la moyenne. C'est la limite de détection généralement utilisée pour des mesures.
Un télescope de cette taille n'est pas normalement équipé d'un dispositif d'optique adaptative. La résolution angulaire est donc limitée par la turbulence atmosphérique, et à cette distance l'objet apparaît quasiment ponctuel.
Le signal total en provenance de l'objet est donc concentré sur quelques pixels (la taille de la tache de diffraction). Il est à comparer avec le niveau du ciel et ses fluctuations.
Le niveau du fond de ciel suit une loi de Poisson. Les fluctuations associées sont donc en racine de N, soit un écart-type de =10 pas-codeurs. Selon la règle énoncée plus haut, l'objet sera considéré comme détecté si un niveau supérieur à 3 = 30 pas-codeurs est mesuré au dessus du signal moyen (100 pas-codeurs) sur un pixel du champ : on n'a en effet que 3 chances sur mille d'obtenir un tel niveau comme réalisation d'un tirage aléatoire gaussien.
Cependant, on a dans ce cas de très nombreux pixels (on utilise typiquement des détecteurs de 500x500), et donc un nombre significatif de pixels à 3 (750 en moyenne dans ce cas). Ce qui facilite la détection est le fait que l'image d'un objet ponctuel est une tache étendue sur le détecteur ; les observations significativement au-dessus du fond de ciel sont donc groupées spatialement, ce qui permet de les repérer facilement. Outre le rapport signal sur bruit, la largeur à mi-hauteur (LMH) de cette tache est donc également un critère de détection important.
Remarque : attention, dans les deux exemples ci-dessus le niveau de la source (l'intégrale du signal sur tous les pixels de la tâche de diffraction) est différent. Dans le deuxième exemple, la source est plus étalée mais en fait beaucoup plus brillante (le niveau maximum est identique malgré l'étalement du signal). Si on dégrade la résolution en sommant sur des boîtes larges de quelque lmh, on revient à une situation où l'on peut comparer l'écart avec la loi normale ; mais on voit que le critère à 3 est généralement insuffisant pour ce type d'application.
pages_proba/exo-soleil.html
Après un pas de longueur d, on a :
Après N pas de longueur d, l'expression générique des coordonnées est :
La distance au point de départ est :
Si on développe le premier terme, on voit que :
Les directions et étant aléatoires et indépendantes, le second terme s'annule en moyenne. On a donc :
Les deux autres termes intervenant dans la distance donnent de façon similaire :
Si N est suffisamment grand, on a donc :
soit
ou encore
Le nombre de diffusions subi est
La distance parcourue dans le Soleil est , soit années-lumière.
Le photon se déplace par définition à la vitesse de la lumière, m/s. Le trajet prend donc un temps an, près d'un million d'années — à comparer aux 8 minutes requises pour pourcourir la distance Soleil-Terre dans le vide.
pages_stat/se.html
Le meilleur estimateur de l'éclairement de la source est la moyenne des mesures :
L'écart-type σ donne la dispersion des mesures :
Le facteur N / (N-1) provient du fait qu'on doit utiliser dans le calcul un estimateur de la moyenne plutôt que la moyenne elle-même, et corrige du biais ainsi introduit.
La précision sur l'estimateur de la moyenne est l'erreur-type :
Le résultat est donc . En pratique, on peut utiliser comme barre d'erreur "réaliste" sur le résultat pour éviter toute sur-interprétation.
Le meilleur estimateur de l'éclairement est la moyenne des mesures pondérées par leurs incertitudes :
L'incertitude globale est :
Elle est normalement égale à l'erreur-type. Si ce n'est pas le cas, cela indique qu'on a probablement négligé une erreur systématique.
Application numérique : la meilleure estimation est 100±5 (en conservant la précision des données d'origine). La moyenne arithmétique naïve (sans pondération par l'incertitude) 97±10 est particulièrement trompeuse dans ce cas : l'incertitude sur la deuxième mesure est ici si grande qu'elle ne contribue pas au résultat, mais ne le dégrade pas non plus.
pages_stat/err.html
On écrit la différence quadratique à un sigma :
si les erreurs sont indépendantes.
On calcule dans ce cas directement l'incertitude relative à partir de la dérivée logarithmique (sachant que le résultat sera correct seulement si les incertitudes sont petites) :
On revient à la formule générale au premier ordre en utilisant les dérivées partielles :
où est la covariance de et , qu'on néglige habituellement (en faisant l'hypothèse que les mesures sont décorrélées).
L'application des formules ci-dessus donne :
La quantité étant un éclairement (ou irradiance), en notant l'éclairement qui correspond à la magnitude 0, on a :
L'application des formules précédentes conduit à :
pages_dist-gauss/ex-m-carre.html
Sachant que l'on a , la valeur la plus probable pour est .
Par définition d'une loi gaussienne multivariée, avec m le nombre d'élement de .
pas d'a priori sur donc le terme en disparait.
L'écriture se simplifie et on obtient