Distribution gaussienne

Auteur: Jérôme Thiébaut

Moindres carrés

Auteur: Jérôme Thiébaut

On a très souvent accès en astrophysique à des données d (par exemple des spectres lumineux, des images CCD...) dont on veut extraire une quantité physique inconnue X (magnitude, masse, champ magnétique...). Si le problème est linéaire et si on connait les lois physiques sous jacentes, on peut modéliser le problème sous la forme accent(d;->)=A*accent(X;->), où accent(d;->) est un vecteur contenant les données, accent(X;->) est le vecteur des paramètres recherchés et A est une matrice. Connaissant accent(d;->) on veut accent(X;->) , c'est ce qu'on appelle un problème inverse. Pour résoudre ce genre de problème on utilise très souvent la méthode des moindres carrés c'est à dire qu'on cherche le vecteur accent(X_0;->) qui minimise la quantité |A*accent(X;->) - accent(d;->)*|^2.C'est ce qu'on appelle un ajustement. On se propose ici de montrer que faire des à priori gaussiens sur les distributions de probabilité de accent(X;->) et accent(d;->) revient à utiliser la méthode des moindres carrés.


Ex: Moindres carrés

Auteur: Jérôme Thiébaut

exerciceMoindres carrés

Difficulté : ☆☆   Temps : 20 min

On a le problème suivant accent(d;->)=A*accent(X;->) et on va chercher à déterminer la probabilité conditionnelle P(accent(X;->)*|*accent(d;->)).

.

Question 1)

Exprimer cette probabilité en fonction de P(accent(X;->)), P(accent(d;->)) et P(accent(d;->)*|*accent(X;->)) en utilisant le théorème de Bayes.

Question 2)

On suppose que P(accent(d;->)*|*accent(X;->)) suit une loi gaussienne multivariée de matrice de variance covariance C_d. Ecrire cette loi.

Question 3)

On suppose que le vecteur accent(X;->) suit lui aussi une loi gaussienne de matrice de variance covariance C_p et de moyenne accent(X_p;->) (a priori sur la solution, sur son spectre de puissance...) et que P(accent(d;->))=1 . Exprimer P(accent(X;->)*|*accent(d;->)).

Question 4)

Montrer que chercher les paramètres physiques les plus probables revient à résoudre la méthode des moindres carrés généralisés soit à trouver accent(X_0;->)=argmin_(accent(X;->))*(((accent(d;->)-A*accent(X;->))^T*C_d^(-1)*(accent(d;->)-A*accent(X;->))+(accent(X;->)-accent(X_p;->))^T*C_p^(-1)*(accent(X;->)-accent(X_p;->)))).

Question 5)

Dans les cas simples, on n'a pas d'a priori sur accent(X;->) et on considère que les covariances sont nulles et les variances égales entre elles donc C_d=sigma*II est la matrice identité. Que devient accent(X_0;->) ?


Réponses aux exercices

pages_dist-gauss/ex-m-carre.html

Exercice 'Moindres carrés'