Auteur: Jérôme Thiébaut
On a très souvent accès en astrophysique à des données d (par exemple des spectres lumineux, des images CCD...) dont on veut extraire une quantité physique inconnue X (magnitude, masse, champ magnétique...). Si le problème est linéaire et si on connait les lois physiques sous jacentes, on peut modéliser le problème sous la forme , où est un vecteur contenant les données, est le vecteur des paramètres recherchés et est une matrice. Connaissant on veut , c'est ce qu'on appelle un problème inverse. Pour résoudre ce genre de problème on utilise très souvent la méthode des moindres carrés c'est à dire qu'on cherche le vecteur qui minimise la quantité .C'est ce qu'on appelle un ajustement. On se propose ici de montrer que faire des à priori gaussiens sur les distributions de probabilité de et revient à utiliser la méthode des moindres carrés.
Difficulté : ☆☆ Temps : 20 min
On a le problème suivant et on va chercher à déterminer la probabilité conditionnelle .
.
Exprimer cette probabilité en fonction de , et en utilisant le théorème de Bayes.
On suppose que suit une loi gaussienne multivariée de matrice de variance covariance . Ecrire cette loi.
On suppose que le vecteur suit lui aussi une loi gaussienne de matrice de variance covariance et de moyenne (a priori sur la solution, sur son spectre de puissance...) et que . Exprimer .
Montrer que chercher les paramètres physiques les plus probables revient à résoudre la méthode des moindres carrés généralisés soit à trouver .
Dans les cas simples, on n'a pas d'a priori sur et on considère que les covariances sont nulles et les variances égales entre elles donc où est la matrice identité. Que devient ?
pages_dist-gauss/ex-m-carre.html
Sachant que l'on a , la valeur la plus probable pour est .
Par définition d'une loi gaussienne multivariée, avec m le nombre d'élement de .
pas d'a priori sur donc le terme en disparait.
L'écriture se simplifie et on obtient