Cosmologie

Auteurs: Sylvain Fouquet, François Hammer

Introduction

Ce cours est dédié à la cosmologie. Il traite donc de notre univers dans sa globalité. La cosmologie a pour but de répondre à trois questions majeures : de quoi est fait notre univers ? comment s'est-il créé ? et quelle est son évolution ? Bien que les scientifiques se soient posés ces questions depuis fort longtemps, ce n'est qu'avec la relativité générale et les instruments performants du XXe siècle que les premières réponses crédibles, basées sur des observations et non des croyances, ont vu le jour. La cosmologie est paradoxalement une science assez récente en astronomie comparée par exemple à la planétologie.

Que répond la cosmologie du début du XXIe siècle aux trois questions fondamentales que sont la composition, la formation et l'évolution de l'univers ? Premièrement, l'univers serait constitué d'étoiles, de gaz chaud ou froid mais surtout de matière noire, invisible et toujours inconnue, et d'une énergie noire encore plus mystérieuse. Le résultat est que 97% de la composition masse-énergie de notre univers serait inconnue. Deuxièmement au sujet de sa formation, l'univers serait né d'une singularité, le Big Bang, où toute la matière et l'espace-temps seraient réduit à un point. D'où vient cette singularité, comment s'est-elle créé, est-elle réelle ou est-elle le fruit d'une connaissance physique insuffisante ? Ces questions sont encore sans réponse claire. Dernièrement, au sujet de l'évolution de l'univers, grâce entre autre à l'observation du Fond Diffus Cosmologique, on sait que l'univers a évolué d'un état de gaz quasi-homogène pour arriver à une répartition inhomogène de la matière caractérisée par des filaments de matière remplis de galaxies qui se croisent en formant des amas entourés de vide.

En définitif, l'apparition du Big Bang est un mystère, la quasi-totalité du contenu masse-énergie est très mal comprise et l'évolution de l'univers commence à bien être contrainte. Bref, la cosmologie est une science encore jeune, en plein développement, qui requiert encore beaucoup de travail et d'observations pour comprendre les mécanismes du l'univers.

Ce cours traite de ce qui est le mieux confirmé en cosmologie. Il commence par montrer que l'univers est en expansion. Cette caractéristique s'explique dans le cadre de la relativité générale et implique que dans le passé, l'univers était plus dense. En poussant ce raisonnement à ses limites, le concept de Big Bang apparaît naturellement, l'univers est si compressé dans le passé qu'il se réduit à un point. Cette expansion induit une évolution de l'univers, d'un état très chaud homogène et dense, il y a plus de 13 milliards d'années, à un état froid et inhomogène, aujourd'hui. Le Fond Diffus Cosmologique permet d'avoir une image d'une époque très reculée de l'univers lorsqu'il n'avait que 380 000 ans. Le modèle du Big Bang explique la fabrication des atomes et la prédominance de l'hydrogène (75% de la masse totale) et de l'hélium (25%). Enfin, la physique subatomique, les observations des galaxies lointaines et les simulations numériques permettent d'avoir une idée de l'évolution de l'univers de ses premiers instants jusqu'à nos jours.


L'expansion de l'Univers

Auteurs: Sylvain Fouquet, François Hammer

Introduction

La découverte des galaxies et la compréhension de leur nature ont débouché sur la représentation d'un univers constitué d'îles de matière contenant chacune des milliards d'étoiles telles que la Voie Lactée, M31 et bien d'autres encore. A l'échelle de l'univers ces galaxies sont presque des points qui se déplacent dans l'espace. Quelle est la cinématique de ce "gaz" de galaxies ? Est-il en équilibre, s'effondre-t-il sur lui-même ? En fait, depuis notre point d'observation qu'est la Voie Lactée, l'écrasante majorité des galaxies ont l'air de s'éloigner de nous et ceci d'autant plus vite qu'elles sont distantes. Comment comprendre cette fuite des galaxies qui est mesurée par le décalage spectral vers le rouge de la lumière des galaxies ? Comment comprendre cette apparente répulsion alors que la loi universelle de la gravitation énonce que toutes les masses s'attirent ? Penser l'univers régi par les lois classique de la mécanique de Newton nous amène à ne plus rien comprendre à l'univers. Penser l'univers avec la relativité générale d'Einstein nous donne la solution. L'espace n'est plus une donnée indépendante et statique mais bien un objet qui peut se contracter ou se dilater en fonction de la matière qu'il contient. En effet, notre univers est en expansion, ce qui explique que les galaxies semblent s'éloigner de nous. Dans les faits, c'est l'espace lui-même qui se dilate et non les galaxies qui s'éloignent les unes des autres. Ce chapitre traite de l'observation de cette expansion, de sa mesure et de sa loi, la loi de Hubble, alors que le prochain l'expliquera théoriquement par le biais de la relativité générale.


Dynamique de l'univers - l'expansion

Expansion de l'Univers
Cette animation montre le principe de l'expansion de l'Univers à partir du Big Bang ; les galaxies s'éloignent les unes des autres, non par leur mouvement propre mais par la dilatation de l'espace.
Crédit : Astrophysique sur Mesure / Florence Durret et Gilles Bessou

Après avoir compris et prouvé par des mesures de distances que les galaxies n'étaient pas des nuages de gaz de notre galaxie mais bien des galaxies à part entière et clairement séparées les unes des autres, les astronomes se sont posés la question de leur cinématique, leur mouvement, ainsi que de leur dynamique, la cause de leur mouvement. Une méthode simple et directe consiste à observer les galaxies qui nous entourent en mesurant leur distance et à mesurer leur déplacement par rapport à nous. Cela permet d'avoir leur position en trois dimensions et leur vitesse radiale par rapport à la ligne de visée. La vitesse tangentielle est encore inaccessible pour la quasi-totalité des galaxies, excepté les plus proches représentant seulement une dizaine de galaxies. Leur dynamique est supposée être dominée par la force gravitationnelle entre les galaxies. La cinématique montre cependant des galaxies qui ont tendance à fuir la Voie Lactée, comme si notre galaxie exerçait une force gravitationnelle négative sur les autres galaxies, ce qui est en complète contradiction avec les lois de la gravitation classique.

La compréhension de la nature des galaxies et la découverte de leur cinématique apparaît à la même période qu'une autre grande découverte scientifique, la relativité générale, dans les années 1920. Très rapidement, plusieurs scientifiques, tels que Lemaître ou Friedmann, ont compris que cette fuite n'était pas due au mouvement propre des galaxies dans l'espace mais à l'évolution de l'espace qui se dilate, éloignant ainsi les galaxies les unes des autres. L'étude de l'univers, la cosmologie, nous oblige donc à étudier la matière et son évolution mais aussi l'évolution du continuum espace-temps qui ne peut plus être considéré comme statique et immuable.


Exercice

Auteur: Sylvain Fouquet

exerciceUn univers sphérique en expansion

Difficulté : ☆☆   Temps : 30 min

Expansion de l'univers
redshift-expansion.jpeg
Expansion de l'univers dans le cas d'un univers en deux dimensions représenté par un ballon que l'on gonfle. Les galaxies très proches à gauche se séparent de plus en plus, vers la droite.
Crédit : James N. Imamura of U. of Oregon

Avant de regarder l’expansion dans notre univers, illustrons ce phénomène dans un univers à deux dimensions et sphérique. Imaginons que nous vivons à la surface d'une sphère de rayon R. Cet univers a pour caractéristique d’être de taille finie, avec une surface égale à 4\pi R^2, mais sans bord. De fait, il est possible d’aller indéfiniment en ligne droite sans jamais trouver d’obstacle. Imaginons que cet univers est en expansion, le rayon R évoluant suivant la loi R(t) = R_0+V*t, t en milliards d’années, V exprimant la vitesse d'expansion qui vaut 1000 Mpc par milliard d'années, et R en Mpc, avec R_0 = 100 Mpc.

Question 1)

Quelle est la surface de cet univers à t = 0 ?

Question 2)

Soit deux points proches supposés sans interaction. A t = 0, leur distance, à la surface de la sphère, est notée D_0 = R_0*alpha, avec alpha=1°. Au fil du temps, cette distance va s’accroître. Quelle est leur distance en Mpc au temps t = 0 et quelle est sa loi d'évolution ?

Question 3)

Combien vaudront le rayon et la surface de cet univers à 10 milliards d'années ?

Question 4)

Donner la vitesse à laquelle les deux points s'éloignent l'un de l'autre en fonction de la distance initiale.


L'effet Doppler cosmologique

Effet doppler classique
doppler.png
Illustration de l'effet Doppler avec la sirène d'un camion de pompier. Augmentation de la longueur d'onde pour un observateur qui voit le camion s'éloigner et vice-versa. C'est l'effet Doppler classique.
Crédit : S.Ilovasky, observatoire de Haute Provence, OHP
Effet Doppler cosmologique
redshift_cosmologique.jpg
Dilatation de la longueur d'un photon dans un univers en expansion. De la longueur d'onde bleu, le photon parvient au rouge passant par l'orange. Ce changement de longueur d'onde n'est pas dû à la vitesse entre deux objets comme pour l'effet Doppler classique mais à l'expansion de l'univers. C'est donc un effet Doppler cosmologique.
Crédit : James N. Imamura of U. of Oregon

Afin de mesurer l'évolution de l’espace-temps, il convient de mesurer le déplacement des galaxies nous entourant. Une méthode théoriquement possible serait de mesurer, pendant un intervalle de temps, la distance d'une galaxie et de la diviser par l'intervalle de temps. Cette méthode est, en pratique, impossible à réaliser du fait qu'elle requiert des précisions sur les mesures de distances inaccessibles. Une autre méthode plus réaliste pour calculer une vitesse est l'effet Doppler. Ce phénomène physique est bien connu pour la mesure de la vitesse d'un objet émettant une onde, soit un son ou de la lumière.

Effet Doppler classique

Lorsqu'un objet en mouvement par rapport à vous émet une onde, définie par une longueur d'onde, le déplacement de l'objet induit une dilatation ou une compression de l'onde, si l'objet s'éloigne ou se rapproche de vous. Par exemple, lorsqu’un camion de pompier s’approche de vous avec la sirène allumée, le son est plus aigu que lorsqu’il s’éloigne de vous, bien que le camion émette le même son en continu (voir image). De là, un décalage la de longueur d'onde, ou, ce qui est équivalent, de la fréquence de l'onde, permettra de déduire la vitesse de l'objet. La relation trouvée par le physicien Christian Doppler au XIXe siècle relie la longueur d’onde émise (\lambda_e) à celle observée (\lambda_o) en fonction de la vitesse de l’émetteur (V_e, négative quand l'émetteur se rapproche et positive quand il s’éloigne) et de la vitesse de l’onde (c) :

\lambda_o = \lambda_e (1+\frac{V_e}{c})

Si l’on connaît la longueur d’onde émise, il est alors possible d'en déduire la vitesse de l’émetteur en renversant la relation précédente :

V_e = c\,\frac{(\lambda_o - \lambda_e)}{\lambda_e} = cz

L'effet Doppler cosmologique

En astronomie, le terme z = (\lambda_o - \lambda_e) / \lambda_e est défini comme le décalage spectral d’une galaxie. S’il est positif, la longueur d’onde est allongée, décalée vers le rouge (le redshift en anglais) ; s’il est négatif, la longueur d’onde est décalée vers le bleu (blueshift).

Dans le cas des galaxies, le phénomène physique du décalage de la longueur d'onde est un peu plus subtil. Prenons le cas de deux galaxies distantes sans vitesse propre l'une par rapport à l'autre. L'effet Doppler devrait être nul ainsi que le décalage de longueur d'onde. Cependant, si l'univers est en expansion, cela induit une dilatation de l'onde lumineuse pendant son trajet de la galaxie émettrice jusqu'à nous. Si bien qu'en atteignant notre galaxie, l'onde lumineuse connaît un décalage qui s'apparente à un effet Doppler classique, comme si la première galaxie l'avait émise avec la vitesse due à l'expansion de l'univers. On parle alors d'effet Doppler cosmologique. De ce fait, certaines galaxies peuvent avoir des décalages spectraux supérieurs à 1 et donc des "vitesses d'expansion" équivalentes supérieures à la vitesse de la lumière. Cependant, il faut bien garder à l'esprit que ce n'est pas la galaxie qui a une vitesse supérieure à celle de la lumière mais l'univers qui se dilate. En plus de leur vitesse d'expansion, les galaxies ont des vitesses propres, dues à leur mouvement dans l'espace. Ces dernières sont bien plus faibles que la vitesse de la lumière (< 10 000 km/s). En définitif, le décalage d'une onde lumineuse provient de deux phénomènes physiques : l'effet Doppler classique dû au mouvement propre de la galaxie émettrice et l'effet Doppler cosmologique dû à l'expansion de l'univers.


Exercices

Auteur: Sylvain Fouquet

exerciceSirène de pompier - effet doppler classique

Difficulté : ☆☆   Temps : 20 min

Supposons un camion de pompier s’approchant de vous à 100 km/h en émettant la note La à 440 Hz se propageant à une vitesse de 330 m/s.

Question 1)

Quelle est la longueur d'onde de cette note ?

Question 2)

Quelles longueur d'onde et fréquence entendez vous ?

Question 3)

Même question mais lorsque le camion s'éloigne de vous à 100 km/h.

Auteur: Sylvain Fouquet

exerciceDoppler cosmologique et classique

Soit deux galaxies distantes l'une de l'autre et sans vitesse relative. Entre le moment où la première galaxie a émis des photons de la raie H\alpha à 650 nm et celui où la deuxième galaxie les reçoit, l'univers a doublé sa taille.

Question 1)

Quelle est alors la longueur d'onde reçue par la seconde galaxie ?

Question 2)

Combien vaut le décalage spectral z ?

Question 3)

Dans quel domaine se situe cette longueur d'onde ?

Question 4)

Les deux galaxies ont en fait une vitesse propre relative de +1 000 km/s, elles s'éloignent, quelle sera alors la mesure du décalage spectral en prenant en compte la vitesse propre et l'expansion de l'univers ?


Relevé de décalages spectraux

L'importance de la connaissance de la vitesse d'expansion des galaxies pour comprendre l'évolution du continuum espace-temps de l'univers a généré plusieurs séries de relevés dédiés à la mesure d'un grand nombre de décalages spectraux. Il fallut attendre les années 1970 pour que des programmes de grande envergure prennent place (> 1 000 décalages spectraux). L'immense majorité des galaxies dans ces relevés ont des décalages spectraux positifs. Donc, la lumière provenant de ces galaxies est décalée vers le rouge. Cela signifie qu'entre leur émission et leur réception l'univers s'est dilaté. Cela étant confirmé pour des galaxies proches comme pour des galaxies plus lointaines, on en conclut que l'univers a connu de tout temps une expansion. Les très rares galaxies dont la lumière n'est pas décalée vers le rouge se situent juste à côté de la Voie Lactée dans le Groupe Local (< 1,5 Mpc). M31, notre galaxie voisine, en est un bon exemple avec une vitesse radiale de -120 km/s par rapport à la Voie Lactée. Leurs mouvements relatifs ne sont pas dominés par l'expansion de l'univers mais par l'attraction gravitationnelle. Dans ce cas, le décalage vers le bleu est dû à l'effet Doppler classique et non cosmologique.

Premières mesures de décalages spectraux

Historiquement, le premier relevé spectroscopique a été entrepris par Slipher entre les années 1913 et 1927. Il a mesuré les décalages spectraux de quelques dizaines de galaxies se situant dans l'univers très proche (< 3 Mpc). Cela a permis par la suite à Lemaître puis à Hubble de montrer que l'univers est en expansion.

Le relevé CfA

Relevé CfA2
cfa2.jpg
Représentation des sources du CfA2. Les couleurs correspondent à la vitesse radiale de galaxies observées. Rouge : V < 3000 km/s, Bleu 3000 < V < 6000 km/s, Magenta 6000 < V < 9000 km/s, Cyan 9000 < V < 12000 km/s, Vert V > 12000 km/s.
Crédit : Tiré du site web du CfA, CfA.
Le grand relevé australien 2dF
2df_map.jpg
Distribution de 63 361 galaxies dans une tranche de 4 degrés en déclinaison obtenue par une équipe de chercheur australien. Chaque point est une galaxies dont la lumière est décalée vers le rouge. Les décalages spectraux sont compris entre 0 et 0,25. La diminution apparente du nombre de galaxie à grand décalage spectral provient du fait que les galaxies deviennent difficiles à observer car étant trop éloignées, leurs luminosités deviennent trop faibles.
Crédit : Équipe 2dF (Australie)
Spectres de galaxies spirales
Sp_z0.05.gifSp_z0.17.gif
Deux spectres de galaxies spirales tirés du relevé SDSS à deux décalages spectraux différents, 0,05 et 0,17. Les raies d'émission sont utilisées pour déterminer le décalage spectral.
Crédit : Tirés de la base de données SDSS, SDSS

En 1977, Marc Davis, John Huchra, Dave Latham et John Tonry établissent un relevé spectroscopique de grande envergure pour l'époque : le relevé de décalages spectraux du CfA (Center for Astrophysics). A la différence de celui de Slipher, qui était confiné à l'univers très proche, ce relevé sonde l'univers jusqu'à 200 Mpc. Son objectif est de mesurer la vitesse radiale des galaxies plus brillantes que la magnitude 14,5 dans l'hémisphère nord. Des vitesses de 15 000 km/s ont été mesurées, ce qui correspond à un décalage spectral de 0,05. La suite de ce relevé, le CfA2, comprend 18 000 décalages spectraux de galaxies mesurés entre 1984 et 1995.

2df et 6df

Un autre relevé plus récent est le 2dfGR (Two degrees field Galaxy Survey, Relevé de galaxies sur des champs de 2 degrés carrés). Il a mesuré des décalages spectraux jusqu’à une valeur de 0,2 et compilé plus de 200 000 objets. Son successeur, le 6dF Galaxy Survey a commencé ses observations en 2001 et a fini six ans plus tard. Il a cartographié presque tout le ciel de l’hémisphère sud et a obtenu plus de 100 000 décalages spectraux de galaxies proches (z < 0,06). Son nom provient aussi de son champ de vue, ici de six degrés carrés, qui permet de faire en une pose plus de 150 spectres.

L'incontournable SDSS

Des exemples de spectres de galaxies spirales à différents décalages spectraux sont illustrés par les images ci-contre. Elles proviennent du relevé SDSS (Sloan Digital Sky Survey) qui en plus de cartographier une grande partie du ciel de l’hémisphère nord a aussi effectué un relevé spectroscopique des galaxies plus brillantes que la magnitude 17 en bande r. Le nombre de décalages spectraux ainsi mesurés approche le million. La majorité est entre 0 et 0,1. Cependant des quasars, bien plus éloignés, ont aussi été observés. On en trouve à des décalages spectraux supérieurs à 2 dans le SDSS.


Exercice

Auteur: Sylvain Fouquet

exerciceContraintes sur les relevés spectroscopiques

Le but de cet exercice est de montrer les contraintes de temps liées aux relevés spectroscopiques.

Question 1)

Pour une magnitude limite de 14,5, le relevé CfA2 a permis de mesurer le décalage spectral de près de 15 000 galaxies. Pour une magnitude limite de 17, le SDSS en a mesuré près d'un million. Cela montre que le nombre de galaxies augmente de manière exponentielle et non linéaire avec la magnitude, en supposant que la surface couverte par le CfA2 et le SDSS est la même, ce qui est assez vrai. Cela permet très grossièrement de conclure que pour une magnitude de plus le nombre de galaxies est multiplié par 10. Combien de décalages spectraux de galaxies devrions nous alors mesurer pour une magnitude limite de 20 ?

Question 2)

Quelle méthode instrumentale est la plus adaptée pour faire une campagne efficace de relevé de décalage spectral ? Quelles sont les contraintes observationnelles les plus gênantes pour y parvenir ?


La loi de Hubble

Découverte de la Loi de Hubble
Lemaitre_Hubble.gif
Graphique montrant la loi reliant la vitesse radiale et la distance des galaxies du Groupe Local (< 2 Mpc) : la Loi de Hubble. A gauche, le graphique du cosmologue belge Goerges Lemaître fait en 1927 fournit une constante de Hubble de 625 km/s/Mpc. A droite, celui de Hubble, fait en 1929 et un peu affiné, fournit une constante de Hubble de 530 km/s/Mpc.
Crédit : Graphe tiré de "A Hubble Eclipse: Lemaître and Censorphip", David L. Block, juin 2011
Loi de Hubble
hubble_1929_1931fr.gif
Amélioration de la mesure de la constante de Hubble. La figure de gauche montre les premiers résultats obtenus par Edwin Hubble en 1929, pour des galaxies très proches (distance inférieure à 2 Mpc) et fournit une constante de Hubble de 530 km/s/Mpc. Celle de droite montre les résultat de Hubble et Humason en 1931, pour des galaxies ayant des décalages spectraux nettement plus grands allant jusqu'à une vitesse de 20 000 km/s. La constante de Hubble déduite de cette étude est de 558 km/s. L'importante différence de valeur avec la constante actuelle de 70 km/s/Mpc provient de la mauvaise détermination des distances.
Crédit : Hubble (1929), Hubble & Humason (1931)

Découvertes de la loi de Hubble

A la suite de la mesure des décalages spectraux, des études ont tenté de relier ces dernières à la distance des galaxies. Cela a débouché sur la célèbre loi de Hubble qui historiquement avait déjà été découverte par le cosmologue belge Georges Lemaître. Cette relation montre une proportionnalité entre la distance d'une galaxie et son décalage spectral. Plus une galaxie est éloignée, plus son décalage spectral est grand. La constante de proportionnalité est appelée constante de Hubble et est estimée aujourd'hui à près de 70 km/s/Mpc, alors qu'une valeur de plus de 500 km/s/Mpc a été mesurée lors de sa découverte. La relation s'écrit donc sous la forme :

v_{expansion} = H_0 \times D

H_0 est la constante de Hubble et D la distance d'une galaxie. Cette relation entre vitesse d'expansion et distance a deux conséquences physiques. La première est qu’à faible distance l’expansion de l’univers ne se fait pas sentir. Qui sur Terre a déjà vu des objets s’éloigner sans raison ! Sur une échelle un peu plus grande (<2 Mpc), l’expansion de l’univers n’est pas dominante dans la dynamique des galaxies ; la force gravitationnelle domine. Quelques dizaines de galaxies ont alors un décalage vers le bleu dans le Groupe Local. Entre 10 et 50 Mpc, l’expansion bien que dominante se compose avec les vitesses particulières des galaxies pour produire un décalage spectral. Par exemple, dans l'amas de la Vierge à 16 Mpc, l'expansion de l'univers produit un décalage spectral de l'ordre de 1 100 km/s. Or les vitesses particulières des galaxies dans un amas tel que l'amas de la Vierge peuvent atteindre des valeurs de l'ordre de 500 km/s ajoutant un effet Doppler classique à celui cosmologique. Ainsi, M100 a un décalage spectral de 1 470 km/s quand M49 en a un de 840 km/s. Les vitesses particulières contribuent pour près de 30% au décalage spectral. Au-delà de 50 Mpc, la valeur du décalage spectral est dominé par l'expansion de l'univers.

La loi de Hubble - Conséquences

Sur les millions de mesures de décalages spectraux effectuées depuis plus de 100 ans, l'écrasante majorité se révèle être des décalages spectraux vers le rouge et non vers le bleu. Deux possibilités peuvent expliquer cette tendance. Soit la Voie Lactée connaît une position très privilégiée au sein de l'Univers et il existe un mécanisme étrange qui fait que les autres galaxies s'en éloignent et d'autant plus rapidement qu'elles sont éloignées ; soit l'univers est homogène et isotrope et ces décalages vers le rouge ainsi que la Loi de Hubble résultent naturellement des lois d'Einstein.

La loi de Hubble est un outil très efficace pour estimer la distance des galaxies dans l'univers proche. Grâce à cela il est possible d'accéder à la troisième dimension spatiale et de voir la structure de l'univers à grande échelle.


Exercice

Auteur: Sylvain Fouquet

exerciceConvertir des redshifts en distance

Difficulté : ☆☆  

Question 1)

Quelle est la relation entre le décalage spectral d'une galaxie de l'univers proche et sa distance ?

Question 2)

Soit une galaxie à un décalage spectral de 0,08, quelles sont sa distance et sa vitesse radiale ?

Question 3)

Soient deux galaxies sans vitesse par rapport à nous mais en interaction à une distance de la Voie Lactée de 200 Mpc. Leur interaction mutuelle confère une vitesse radiale de 100 km/s à la première galaxie et de -100 km/s à la seconde. Quel est le décalage spectral de chacune des galaxies et quelle devrait être leur distance sans tenir compte de leur interaction ? Que valent les erreurs absolue et relative de leur distance ?

Carte de positions des galaxies proches
geller_huchra_1989d.jpg
Positions de 957 galaxies dans une tranche de déclinaison en fonction de leur ascension droite et de leur vitesse.
Crédit : de Lapparent, Geller & Huchra (1991) ApJ 369, 273
Auteur: Sylvain Fouquet

exerciceLes amas découverts par des relevés spectroscopiques

Question 1)

Expliquer à quoi correspond le "bonhomme" visible sur la figure ci-dessus (dans l'ellipse rouge).


Le continuum espace-temps de l'univers

Auteurs: Sylvain Fouquet, François Hammer

Introduction

Le précédent chapitre a montré que les galaxies s'éloignent de la Voie Lactée, et ceci d'autant plus vite qu'elles sont éloignées de cette dernière. Pour comprendre ce phénomène physique, il faut envisager l'espace dans le cadre de la relativité générale et non plus dans le cadre de la physique classique de Newton. Depuis Einstein, on sait que l'espace et le temps ne sont pas indépendants. Le continuum espace-temps peut se dilater, se comprimer et cela en fonction de la masse et de l'énergie qu'il contient. Le lien entre le couple masse-énergie et le continuum espace-temps est résumé par l'équation d'Einstein : "masse + énergie équivaut à la courbure de l'espace-temps". Plus l'univers a une forte densité de masse et d'énergie, plus il est courbé et vice-versa. Au-delà d'une densité critique, l'univers est clos et connaîtra une phase de compression après sa phase d'expansion, alors qu'au dessous de cette limite, il se révèle infini et en continuelle expansion. La relativité générale, en plus d'expliquer l'espace-temps de l'univers actuel et futur, permet aussi de le décrire dans le passé. Cette théorie, associée à des hypothèses sur l'univers, prédit que l'univers était plus dense dans le passé et qu'il a même existé un temps où toute la masse était réduite à un point, une singularité, le Big Bang.


Les principes cosmologiques

Distribution de la matière stellaire
2MASS_Showcase.jpg
Distribution de sources extra-galactiques émettant dans l'Infrarouge dans l'univers proche. Bien qu'à petite échelle la répartition de matière soit inhomogène, à grande échelle un univers homogène et isotrope se dessine.
Crédit : The 2MASS Showcase : the Two Micron All Sky Survey (California Institute of Technology)

D'après la relativité générale d'Einstein, pour connaître parfaitement le continuum espace-temps, il faut prendre en compte la distribution du couple masse-énergie de l'univers : la position de chaque atome, leur vitesse ainsi que la position des photons avec leur énergie propre. C'est évidemment impossible en pratique, il faut alors faire les bonnes simplifications pour décrire la distribution d'énergie de l'univers et être ainsi capable de résoudre l'équation d'Einstein et d'accéder au continuum espace-temps de l'Univers. Ces simplifications sont définies sous le terme de "principes cosmologiques" ; ce sont des postulats caractérisant les propriétés de l'univers. En utilisant les données observationnelles de la distribution de la matière dans l'univers de la fin du XXe siècle jusqu'à nos jours, on s'aperçoit que ces principes tendent à être vérifiés dans la partie de l'univers observable.

Principe d'homogénéité et d'isotropie

Les premiers principes de cosmologie concernent le caractère spatial de l'univers. Il est supposé isotrope et homogène. Cela signifie que l'univers n'a pas de direction privilégiée, il est le même quelque soit la direction dans laquelle on le regarde. De plus, il n'a pas de position privilégiée, il est le même quelque soit l'endroit où l'on se trouve.

Principe d'équivalence temporelle

Le second principe cosmologique concerne le temps. Peu importe où l'on se situe dans l'univers, son évolution a été la même. Ce principe est très important lorsque l'on observe des galaxies lointaines. En effet, étant très éloignées, elles sont vues dans le passé. Ces galaxies ne sont donc pas directement les ancêtres de notre Voie Lactée et des autres galaxies proches de nous. Cependant grâce au principe d'équivalence temporelle, ces galaxies sont statistiquement les ancêtres des galaxies de l'univers proche.

Discussion sur les principes cosmologiques

Historiquement, le principe d'homogénéité était généralisé au temps. En effet pour Einstein, l'univers était identique quelque soit le lieu mais aussi l'époque. Cela a généré un univers statique ; ce qui est faux. L'expansion de l'univers montre que l'univers n'est pas statique, l'univers évolue. Toute la suite de ce cours présentera son évolution.

En ce qui concerne les postulats sur le caractère spatial de l'univers, si ce dernier était réellement homogène et isotrope, ce serait un nuage de gaz dont la masse volumique moyenne serait de 1 atome d'hydrogène par mètre cube. Il est évident qu'à petite échelle ces deux propriétés sont fausses ; galaxies, étoiles et planètes le prouvent. Cependant à grande échelle, plusieurs centaines de Mpc, elles paraissent cohérentes avec les données observationnelles. Cela signifie que nous ne décrirons l'évolution de l'univers qu'à grande échelle ; tout comme l'on décrit la terre comme une sphère alors qu'elle est couverte de montagnes la rendant non sphérique à petite échelle. Il est certain que lorsque nous aurons une bonne connaissance du continuum espace-temps à grande échelle, l'étape suivante sera de comprendre et de quantifier l'effet des inhomogénéités de masse tels que les amas ou les grands vides sur le continuum espace-temps.


La métrique de l'univers

Courbure de l'univers
plat.pngelliptique.pnghyperbolique.png
Représentation des trois types de courbure de l'univers : plat, elliptique et hyperbolique.
Crédit : A. Füzfa (image de fond : Hubble Ultra-Deep Field, télescope spatial Hubble, NASA/ESA).

Le concept de métrique

Avant Einstein, l'espace de la physique classique était considéré comme statique et plat. Deux masses seules supposées sans interaction et sans vitesse relative, séparées dans l'espace, ne pouvaient ni s'éloigner ni se rapprocher. L'espace de la physique classique était aussi décorrélé du temps et comprenait trois dimensions. On pouvait lui joindre un repère cartésien pour donner à chaque point des coordonnées (x, y, z). Dans cet espace, la distance, dl, entre deux points très proches s'écrivait de la manière suivante en coordonnées cartésiennes (x, y, z) et sphériques (r, \theta, \phi) :

dl^2 = dx^2 + dy^2 + dz^2 = dr^2 + r^2d\theta^2 + r^2sin(\theta)^2d\phi^2 \right)

dx, dy et dz sont les différences de coordonnées en coordonnées cartésiennes et dr, d\theta et d\phi les différences de coordonnées en coordonnées sphériques entre les deux points. Ces deux relations sont ce que l'on appelle la métrique de l'univers dans les coordonnées cartésiennes ou sphériques car elles permettent de mesurer la distance entre deux points proches. Le temps quant à lui est séparé de l'espace et ne fait pas partie de la métrique ; il est absolu, peu importe votre référentiel pour décrire un événement, le temps de ce dernier sera toujours le même.

La relativité restreinte apporte un premier changement en mêlant espace et temps et définit pour cela une métrique en quatre dimensions notée ds. Entre deux événements E1(x1, y1, z1, t1) et E2(x2, y2, z2, t2) dans un espace à quatre dimensions, la distance est notée :

ds^2 = cdt^2 - dl^2, le même dl qu'en physique Newtonienne, avec dt = t_2-t_1 et c étant la vitesse de la lumière.

Ce changement de définition de distance mêlant espace et temps, et surtout l'invariance de cette distance par changement de référentiel, provoque un grand changement conceptuel. L'espace et le temps sont maintenant liés et le temps perd son caractère absolu. Cette métrique de la relativité restreinte est appelée métrique de Minkowski, du nom du mathématicien Hermann Minkowski.

La métrique de notre univers

Avec la relativité générale, Einstein bouleverse encore les concepts d'espace-temps. Après avoir lié l'espace et le temps, Einstein le courbe. En effet, l'espace-temps euclidien est plat, i.e. il correspond à la géométrie euclidienne. Dans ce cas deux droites parallèles ne se croisent jamais, la somme des angles d'un triangle fait 180°, etc. Einstein comprend que la métrique de l'espace-temps n'est pas définie de manière absolue mais qu'elle dépend de la quantité de matière et de la distribution d'énergie dans l'univers. Plusieurs scientifiques, Friedmann, Lemaître, Robertson et Walker, ont aidé à la mise en place de la forme de la métrique de l'univers. En effet, le caractère isotrope et homogène de l'univers contraint la forme de sa métrique. Ainsi, la métrique déduite est appelée métrique FLWR et elle s'écrit sous la forme :

ds^2 = c^2dt^2 - a(t)^2\left(\frac{dr^2}{1-kr^2} + r^2d\theta^2 + r^2sin(\theta)^2d\phi^2 \right)

En comparant cette nouvelle métrique avec la métrique de la relativité restreinte, trois caractéristiques apparaissent. Premièrement, la partie temporelle ne change pas, cela implique que l'univers évolue de manière identique dans tout l'espace, c'est le principe d'équivalence temporelle. Deuxièmement, la constante k peut pendre trois valeurs possibles, -1, 0 ou 1. En fonction de ces valeurs l'univers sera :

  • hyberbolique et infini (-1), décrit par la géométrie de Lobatchevski ;

  • plat et infini (0), décrit par la géométrie euclidienne ;

  • elliptique et refermé sur lui même donc fini (1), décrit par la géométrie de Riemann.

Troisièmement, cette nouvelle métrique a un terme d'accroissement a(t). S'il augmente avec le temps, les distances sont dilatées, sinon elles sont compressées. Ce terme, s'il est constant avec le temps, traduit l'expansion de l'univers. La constante k et la fonction a doivent être déterminées par l'observation pour caractériser l'espace-temps de l'univers.


Cinématique dans un univers relativiste

Vitesse

La métrique de l'univers décrite précédemment conduit à des phénomènes inhabituels. Si deux masses sont supposées immobiles l'une par rapport à l'autre, leur distance relative peut tout de même changer. Elle augmente si l'univers est en expansion, elle diminue s'il se comprime. On peut ainsi définir une vitesse d'expansion. Cette vitesse n'en est pas réellement une car elle ne décrit pas le déplacement d'un objet dans l'espace au cours du temps mais le changement de l'espace lui même au cours du temps. La "vitesse d'expansion" entre deux points, distants d'une longueur D, qui résulte de la métrique de l'univers, est donnée par la relation suivante :

vitesse(t) = \frac{\dot{a}(t)}{a(t)}D = H(t)D qui est la forme générale de la Loi de Hubble (qui a été présentée au chapitre sur l'expansion de l'univers) pour un univers quelconque. Cette relation montre que la constante de Hubble n'en est pas réellement une. Actuellement, la constante de Hubble vaut près de 70 km.s-1.Mpc-1.

Accélération

Si nous suivons l'évolution entre deux masses sans interaction comment évoluera leur vitesse d'expansion ? Elle n'a pas de raison d'être constante car la distance entre les masses change ainsi que la valeur de H avec le temps. Le terme d'accélération de l'expansion décrit ce changement de vitesse :

acceleration(t) = \frac{\ddot{a}(t)}{a(t)}D = -q(t) H(t)^2Dq(t) = -\frac{\ddot{a}(t)a(t)}{\dot{a}(t)^2}

Le terme q (défini historiquement de la sorte) n'est pas directement l'accélération mais son signe indique s'il y a une accélération (négatif) ou une décélération (positif) car il est multiplié à un terme toujours positif H(t)^2. Actuellement, ce terme semble être négatif et valoir -0,55 m/s2. Son signe négatif implique que l'univers est en expansion accélérée.


Le décalage spectral vers le rouge

La mesure la plus utile en cosmologie est le décalage spectral vers le rouge (redshift en anglais). Cette mesure est directement reliée à l'expansion de l'univers. Elle est basée sur le ratio entre la valeur de la fonction d'accroissement, a, actuelle, a_0, et dans le passé, a(t) :

1+z = \frac{a_0}{a(t)}

Comme l'univers est en expansion a_0 > a(t) alors z est strictement supérieur à 0. Le décalage spectral vers le rouge tient son nom de la manière de le mesurer. En effet, lorsque l'on reçoit la lumière d'une galaxie lointaine, la longueur d'onde de cette dernière, du fait de l'expansion de l'univers, entre le moment où elle a été émise et le moment où elle est observée par un télescope, s'est dilatée. La lumière apparaît alors plus rouge ; quantitativement \lambda_{obs} = \lambda_{emise} (1+z). La mesure de ce décalage vers le rouge permet de connaître l'état de l'expansion de l'univers quand la lumière a été émise.


Exercices

Auteur: Sylvain Fouquet

exerciceCinématique dans un univers relativiste

Question 1)

Posons que a_0 vaut 1 à 13,7 milliards d'années. Si au temps t = 5 milliards d'années a(t) = 0,2, quel est le décalage spectral d'une galaxie de cette époque ?

Question 2)

Si l'univers n'a connu qu'une phase d'expansion, comment classer chronologiquement les galaxies observées ?

Question 3)

Supposons que la constante de Hubble H(t) soit constante à tous temps et vaille 70 km.s-1.Mpc-1. Décrire qualitativement le mouvement dû à l'expansion de l'univers d'une galaxie par rapport à la Voie Lactée.


Les distances cosmologiques

Que peut bien signifier le terme de distance dans un univers où l'espace se dilate et donc change continuellement les distances entres les objets ? L'astrophysicien a dû définir différentes distances qui toutes ont un intérêt. Dans un univers classique, les trois distances présentées, distance propre, distance lumineuse et distance angulaire auraient la même valeur. Leur changement de valeur est dû à l'expansion de l'univers et elles se déduisent de la valeur du décalage spectral vers le rouge.

Distance propre et distance comobile

La définition la plus naturelle de la distance consiste à figer l'univers à un instant t et à mesurer la distance entre deux points, deux galaxies en pratique. C'est la définition de la distance propre. Cette distance propre dépend du temps par le biais de l'expansion de l'univers. Le lien entre deux distances propres est :

\frac{d_{pr}(t)}{a(t)} = \frac{d_{pr}(t_0)}{a(t_0)} alors d_{pr}(t)} = d_{pr}(t_0)\frac{a(t)}{a(t_0)} = \frac{d_{pr}(t_0)}{(1+z)}

Le temps t_0 est par définition notre temps présent. On définit la distance comobile par la distance propre au temps actuel, t_0. On fixe la valeur de a(t_0) à 1. Dans le passé, les distances propres étaient donc plus petites car z > 0 dans un univers en expansion constante tel que le nôtre.

Distance lumineuse

Dans un univers classique, lorsqu'un objet émet de la lumière avec une luminosité L, un observateur à une distance D percevra un flux dépendant de cette distance. Plus il est éloigné et plus faible sera le flux de lumière. La décroissance est inversement proportionnelle à la distance au carré :

F = \frac{L}{4\pi D^2}

Si la luminosité intrinsèque de l'objet, L, est connue, il est alors possible d'en déduire la distance de l'objet émetteur par la mesure de son flux. Cette dernière s'appelle la distance lumineuse. Dans un univers relativiste plat, l'expansion ou la contraction de l'univers dilue ou renforce ce flux. De fait, le flux reçu est alors :

F = \frac{L}{4\pi D^2}\frac{a(t)^2}{a(t_0)^4} de là D_{lumineuse} = D\frac{a(t_0)^2}{a(t)} = D(1+z)

D est la distance comobile avec a_0 = 1. L'expansion de l'univers (z > 0) fait que les galaxies paraissent plus lointaines.

Distance angulaire

De même que pour le flux lumineux, la taille angulaire dépend de la distance. Plus un objet est lointain et plus sa taille angulaire diminue. Il existe une relation linéaire entre la distance d'un objet, D, sa taille réelle, d, et sa taille angulaire, \alpha :

d = \alpha D

La distance D, qui découle du rapport entre la taille réelle et la taille angulaire, est appelée distance angulaire. Elle n'est plus la même dans un univers relativiste. Un univers plat en expansion tend à faire voir un objet plus grand qu'il ne l'est, un effet de loupe, tandis qu'un univers en contraction réduit la taille angulaire des objets. La distance angulaire devient :

D_{angulaire} = \frac{D}{(1+z)}

où D est la distance comobile. La distance angulaire est alors identique à la distance propre.

La brillance de surface

Ces nouvelles distances, lumineuses et angulaires, ont des répercussions sur la brillance de surface des galaxies. La brillance d'une galaxie n'est rien d'autre que le rapport entre sa luminosité divisé par sa surface. Cette dernière était constante dans un univers Newtonien mais décroît dans un univers relativiste avec le décalage spectral.

BS_{observée} = \frac{BS_{emise}}{(1+z)^4}

En effet, la surface apparente des galaxies est dilaté par un terme en (1+z)^2 et leur flux est divisé par le terme (1+z)^2 d'où la puissance quatrième.


Exercices

Auteur: sylvain Fouquet

exerciceLes distance cosmologiques

Question 1)

Si aujourd'hui une galaxie se situe à D = 500 Mpc, quelle était sa distance propre à z = 0,6, 1 et 3 ?

Question 2)

Quelle est alors sa distance lumineuse et angulaire pour z = 0,6 ?

Question 3)

Par combien sa brillance de surface est-elle divisée pour les trois décalages spectraux ?

Question 4)

Prenons des galaxies identiques de tailles 10 kpc à différents décalages spectraux. Dans notre univers, pour un décalage spectral de 0,6 une des galaxies a une distance comobile D=2206 Mpc, pour un décalage spectral de 1, une autre galaxie a une distance comobile D=3303 Mpc, pour z = 2, la troisième galaxie a une distance comobile D = 5179 Mpc et pour la dernière galaxie à z = 10, la distance comobile est D = 9440 Mpc. Quelles seront les distances angulaires pour chaque décalage spectral ? Calculez ensuite les tailles angulaires en secondes d'arc et commentez.

Question 5)

Si les galaxies à grands décalages spectraux peuvent être aussi grandes qu'à plus petits décalages spectraux, pourquoi est-il tout de même plus difficile de les voir ?

Question 6)

Soit une galaxie à z = 1 dans un univers en expansion. Via un modèle cosmologique, il est déduit que la lumière de la galaxie fut envoyée il y a huit milliards d'années. Le modèle prédit aussi que la galaxie est aujourd'hui à une distance propre de 3 343 Mpc. Quelle était sa distance propre quand elle a envoyé sa lumière ? Quel distance a traversé la lumière pendant les huit milliards d'années ?


Equation d'évolution du terme d'accroissement

Les équations de Friedmann

Pour décrire le continuum espace-temps de l'univers, il suffit de connaître sa courbure k et la fonction d'accroissement a qui définissent la métrique de l'univers. Ces deux quantités sont déduites des équations d'Einstein dans le cadre d'un univers isotrope et homogène. De plus, l'univers étant supposé être un fluide de masse volumique constante, l'énergie équivalente à sa densité de masse est donnée par E = \rho c^2 avec en plus une pression P. Les équations d'Einstein dans le cadre de la cosmologie furent obtenues dans les années 1920 par le mathématicien russe Alexandre Friedmann :

(a) 2\frac{\ddot{a}(t)}{a(t)} +\frac{\dot{a}(t)^2 + kc^2}{a(t)^2} = \frac{-8 \pi G}{c^2}P

(b) \frac{\dot{a}(t)^2+kc^2}{a(t)^2} = \frac{8 \pi G}{3c^2}\rho c^2

c est la vitesse de la lumière et G la constante de la gravitation. Ces équations qui dépassent le cadre de ce cours sont seulement là pour illustrer le fait que seules les valeurs de k et de a sont inconnues dans ces équations. Des théorèmes mathématiques prouvent que ce système de deux équations à deux inconnues admet des solutions.

La constante cosmologique

Les équations d'Einstein ont la particularité qu'il est possible de leur ajouter une constante d'intégration, notée \Lambda. La valeur de cette constante peut avoir de grandes conséquences dans les propriétés de l'univers. Sa valeur n'a pas de réelle contrainte, si bien qu'elle peut être considérée comme un paramètre libre. Einstein, en son temps, l'avait utilisée pour faire de l'univers un univers statique. Aujourd'hui, cette constante sert à expliquer la possible accélération de l'univers. Dans le cadre de la cosmologie, les équations d'Einstein avec constante cosmologique deviennent :

(a) \ddot{a}(t)} = \frac{-4 \pi G}{3}\left(\rho + \frac{3P}{c^2}\right)a(t) + \frac{\Lambda c^2}{3}a(t)

(b) \dot{a}(t)^2+kc^2 = \frac{8 \pi G}{3}\rho a(t)^2 + \frac{\Lambda c^2}{3}a(t)^2


Composantes énergétique de l'univers

Pour résoudre les équations de Friedmann et déterminer k et a, il faut connaître la valeur de la densité, \rho, et de la pression, P. Pour déterminer ces deux valeurs, il faut prendre en compte l'effet de chaque composante de l'univers dans le bilan masse-énergie.

La matière non relativiste

La composante la plus simple de l'univers est la matière non relativiste, ayant des vitesses très inférieures à la vitesse de la lumière, avec une pression négligeable par rapport à la densité d'énergie de masse, P = 0, et une énergie équivalente E = \rho c^2. Les galaxies, les amas de galaxies et le gaz intergalactique forment cette composante énergétique. Cette matière est considérée comme un fluide à l'échelle cosmique (plusieurs centaines de Mpc). Elle est continue et d'une masse volumique constante. Parmi cette composante énergétique, en plus de la matière classique, il semble y avoir une matière dite noire car elle n'interagit que par la gravitation et est donc invisible. La masse volumique de matière actuelle est notée \rho_0 et vaut près de 0,6.10-29 g/cm3. La densité équivalente d'énergie de cette composante de l'univers diminue au cours de l'expansion de l'univers du fait de l'augmentation des volumes :

\rho(t) = \rho_0\left(\frac{a_0}{a(t)}\right)^3 = \rho_0(1+z)^3

De manière inverse, la densité d'énergie augmente lorsque l'on remonte le temps, pour prendre des valeurs de plus en plus grandes vers l'origine de l'échelle du temps.

Le rayonnement

Sous l'appellation rayonnement, la lumière de même que le gaz relativiste sont pris en compte. Les particules matérielles deviennent relativistes lorsque leurs énergies cinétiques deviennent similaire à leurs énergies de masse, mc^2, donc à des vitesses proches de celle de la lumière. En effet, à grande vitesse un gaz relativiste se comporte comme un gaz de photons ayant une pression, P. Cette dernière est reliée par une équation d'état à sa masse volumique, \rho_r :

P = \frac{\rho_r c^2}{3}

c est la vitesse de la lumière. De même que la matière, dans un univers en expansion, la densité d'énergie de ce gaz relativiste se dilue et de plus les photons perdent de l'énergie par la dilatation de leurs longueurs d'onde. De ce fait, la densité d'énergie décroît plus rapidement que celle de la matière. A contrario, cela veut aussi dire qu'elle augmente plus vite lorsque l'on remonte le temps. Ce gaz relativiste décrit alors bien l'état de l'univers durant ses premiers instants lorsqu'il n'était qu'un plasma chaud.

\rho_r(t) = \rho_r_0\left(\frac{a_0}{a(t)}\right)^4 = \rho_r_0 (1+z)^4

L'énergie noire

Cette dernière forme d'énergie peut être considérée de deux manières. Soit elle est reliée à la constante cosmologique \Lambda qui serait due à la forme même des équations d'Einstein ; soit elle s'explique par une matière qui aurait des propriétés assez étranges de pression négative qui permettrait d'écrire l'équation d'état suivante : P = -\rho c^2. Dans tous les cas, son influence contribue à l'expansion et peut même l'accélérer.


Influence de chaque composante

Répartition de l'énergie
concordance.jpg
Répartition de l'énergie parmi les différentes composantes de l'univers.
Crédit : A. Füzfa

Durant l'évolution de l'univers, l'énergie de chaque composante a évolué ; des particules relativistes, en se refroidissant, sont devenues de la matière froide, un plasma de particules s'est transformé en gaz de photons, l'augmentation des volumes a fait décroître les densités énergétiques, etc. Ces changements de la densité énergétique pour chaque composante influe sur la manière qu'a l'espace-temps d'évoluer. Pour mieux comprendre l'influence de chaque composante, elles sont comparées à une densité critique. Les paramètres cosmologiques sont ainsi définis :

Le choix de ces paramètres se comprend lorsque les équations de Friedmann sont reprises avec ces paramètres cosmologiques. Cela crée deux relations très simples entre ces paramètres et le terme d'accélération :

2q = \Omega_{m} + \Omega_r - 2\Omega_{\Lambda}

\Omega_k = 1 - \Omega_m - \Omega_r - \Omega_{\Lambda}


Exercice

Auteur: Sylvain Fouquet

exerciceTransition entre l'époque radiative et stellaire

Actuellement, la densité équivalente d'énergie pour la composante du rayonnement, \Omega_r = 10^{-4}, n'est pas dominante face à la composante de matière, \Omega_m = 0,3. Cependant dans le passé, la composante du rayonnement était plus importante que celle de la matière. Le but de cet exercice est d'avoir une idée grossière de l'époque de transition.

Question 1)

Que valent actuellement les masse volumiques \rho_m et \rho_{r} ?

Question 2)

Comment évoluent-elles lorsque l'on remonte le temps ?

Question 3)

Pour quel décalage spectral, leur valeur est-elle identique ?


Evolution sans constante cosmologique

Evolution de la fonction d'accroissement
univ_mat.jpg
Les trois cas de la fonction d'accroissement pour un univers n'ayant pas de rayonnement ni de constante cosmologique.

Après avoir défini les concepts importants de l'évolution du continuum espace-temps, les sections qui suivent montrent des cas particuliers d'univers en fixant les paramètres cosmologiques et la constante de Hubble. Les premiers exemples d'univers sont uniquement constitués de matière. Le rayonnement est en effet négligeable durant la majeure partie de l'histoire de l'univers ; il ne joue un rôle important que pendant les premiers milliers d'années. De ce fait, l'évolution de l'univers est bien décrit même sans cette composante. La constante cosmologique, \Lambda, est supposée être nulle. Le paramètre de la courbure de l'espace se trouve donc être \Omega_k = 1 - \Omega_m < 1 car \Omega_m est plus grand que 0. La constante de Hubble est prise valant 70 km.s-1.Mpc-1. Tous les paramètres sont alors connus, il est possible d'en déduire k et a.

L'évolution de l'univers prend trois formes différentes en fonction de la valeur de \Omega_m. Si le paramètre de densité est plus grand que 1, donc si la densité de la matière est plus grande que la densité critique, alors \Omega_k est plus petit que 0 et après une phase d'expansion, l'univers s'effondrera sur lui même. La courbure de l'univers est alors positive et l'univers est fini. Si le paramètre de densité vaut 1, \Omega_k = 0, l'univers est plat et l'expansion continue indéfiniment. Les galaxies s'éloigneront avec des vitesses de plus en plus faibles jusqu'à arriver à une vitesse quasi-nulle dans un temps infini. Le troisième cas offre un univers hyperbolique qui ne fera qu'enfler avec une vitesse d'expansion qui certes diminuera mais ne sera jamais nulle. Le graphique illustre les trois fonctions possibles pour le terme d'accroissement, a. Seul le cas \Omega_m > 1 admet pour un temps différent de 0 l'égalité suivante a(t) = 0. Cela représente une deuxième singularité appelé le Big Crunch.


Exercice

Auteur: Sylvain Fouquet

exerciceL'univers d'Einstein de Sitter

Cet exercice traite des particularités de l'univers d'Einstein-de Sitter. Bien que faux, cet univers est bien connu pour ses vertus pédagogiques ; en effet tout y est décrit analytiquement. Dans cet univers seule la matière courbe l'espace-temps, le rayonnement et la constante cosmologique sont supposés être nuls. Cet univers est de plus plat.

Question 1)

Quelles sont les valeurs des quatre paramètres cosmologiques, \Omega_m, \Omega_k, \Omega_r et \Omega_\Lambda ?

Question 2)

Dans ce modèle t_0 = \frac{2}{3 H_0}, quel est donc l'âge de l'univers ? Est-ce raisonnable ?

Question 3)

La densité vaut \rho(t) = \frac{1}{6\pi G t^2}. Que vaudrait-elle à présent et lorsque l'univers avait 380 000 ans ?

Question 4)

Pour ce modèle, a(t) = a_0\left(\frac{t}{t_0}\right)^{2/3} et H(t) = \frac{2}{3t}. Est-ce cohérent avec un univers plat ? Comment seront distribuées les galaxies dans une époque très lointaine ?


Evolution avec une constante cosmologique

Evolution de la fonction d'accroissement
accroissement_plat.jpeg
Fonctions du terme d'accroissement dans le cas d'un univers plat. Les trois cas dépendent de la valeur de la constante cosmologique : un univers accéléré (gauche), un univers qui décélère mais toujours en expansion (millieu), un univers qui s'effondre sur lui-même après une phase d'expansion (doite).

La découverte assez récente de la possible accélération de l'expansion de l'univers oblige les astronomes à revoir leurs modèles d'univers composés uniquement de matière. En effet, dans ce dernier cas l'expansion de l'univers ne peut que ralentir. La seule façon d'expliquer une accélération dans le cadre d'un univers homogène et isotrope est l'ajout d'une composante de pression négative : l'énergie du vide ou la constante cosmologique.

La valeur du paramètre de la constante cosmologique avoisine \Omega_{\Lambda} = 0,7. La valeur de la densité de matière actuelle, \Omega_m, est 0,3. Ces deux paramètres impliquent un paramètre de courbure égal à 1 - 0,7 - 0,3 = 0, donc un univers plat. De plus, l'apport de la constante cosmologique permet d'avoir un univers dont l'expansion est accélérée. L'univers ne se contente plus de se dilater en décélérant mais il accélère sa dilatation.

Ce modèle de l'univers où H_0 = 70 km.s-1.Mpc-1, \Omega_m =0,3 et \Omega_{\Lambda} = 0,7 est nommé le modèle \LambdaCDM, pour rappeler que la majorité de l'énergie actuellement est sous la forme de la constante \Lambda, près de 70%, et qu'une grande partie du reste est contenu dans la matière noire froide (cold dark matter en anglais, d'où le CDM), c'est à dire non relativiste, avec 27% de l'énergie totale. Les 3% restant sont l'univers visible que nous connaissons. Pour l'instant, ce modèle est le modèle standard dans la communauté scientifique, cependant il est frustrant de se rendre compte que 97% du couple énergie-masse de l'univers soit inconnu. Aucun modèle n'explique à ce jour d'où peut provenir l'énergie noire et aucune détection directe n'a permis de mettre en évidence la matière noire. Tout reste encore à faire dans ce domaine.


Le concept du Big Bang

A la suite de ces deux premiers chapitres de cours, deux aspects essentiels de l'univers sont à noter. L'univers est constitué d'un espace-temps qui n'est pas statique, et ce dernier est en expansion donc l'univers évolue. Si l'espace de l'univers se dilate cela signifie que l'univers était plus dense dans le passé. Les modèles cosmologiques nous apprennent qu'il doit exister un instant dans le passé où la fonction d'accroissement, a, vaut zéro et où l'univers serait donc sans espace ni temps réduit à un point. Après cette époque l'univers aurait connu une phase d'expansion. Cette idée a pris le nom de Big Bang comme une explosion qui éjecterait tout autour d'elle de la matière. Cependant, cette comparaison fausse la bonne compréhension du Big Bang. En vérité, la matière n'est pas éjectée à partir d'un endroit de l'univers mais c'est l'espace de l'univers lui-même réduit en un point qui se serait dilaté. De plus, cet instant où tout ne serait réduit qu'à un point est une vision purement mathématique. Physiquement nous ne savons pas comment se comporte la matière et donc l'univers quand il atteint de très fortes densités. La singularité du Big Bang signifie un univers sans espace, avec une densité infinie. Les physiciens se méfient des valeurs infinies, elles montrent surtout la méconnaissance du physicien face à un phénomène et le besoin de nouveaux outils mathématiques pour décrire le phénomène physique.

Dans la suite de ce cours, les différentes étapes de l'univers seront exposées. L'époque de recombinaison puis celle de la nucléosynthèse primordiale seront mises en valeur. Ces deux époques sont importantes car leurs conséquences sont visibles actuellement via le Fond Diffus Cosmologique et la répartition de la quantité des atomes dans l'univers. Enfin, l'histoire de l'univers sera détaillée étape par étape, des premiers âges très denses, très chauds et très homogènes jusqu'à notre univers actuel, froid et très inhomogène.


Le Fond Diffus Cosmologique

Auteurs: Sylvain Fouquet, François Hammer

Introduction

L'expansion de l'univers décrite au précédent chapitre révèle un univers régi par les lois de la relativité générale confortant la théorie du Big Bang. L'expansion prédit que la lumière qui nous parvient des galaxies éloignées est décalée vers les grandes longueurs d'onde, vers le rouge. Donc regarder à de grandes longueurs d'onde, c'est pouvoir regarder les galaxies dans le passé. Cependant d'après la théorie du Big Bang, au début de l'univers, il y a plus de 13 milliards d'années, il n'y avait pas de galaxies, il n'y avait qu'un plasma mêlant de la lumière en interaction avec de la matière. Ce chapitre traite de la signature observationnelle de cette époque en présentant le Fond Diffus Cosmologique (FDC). Alors que nos instruments modernes détectent difficilement des galaxies à des décalages spectraux plus grands que 4, la lumière du Fond Diffus Cosmologique nous parvient d'un décalage spectral de près de 1 100, décalée à des longueurs d'onde si grandes, de l'ordre du centimètre, que nos yeux ne peuvent la percevoir. Cette lumière des tous premiers âges de notre univers est une ressource irremplaçable pour comprendre l'état de la matière au début de l'univers (380 000 ans) : un plasma quasi-homogène à l'équilibre, d'une température de près de 3 000 K. Plusieurs sondes ont cartographié cette lumière, la dernière en date, encore active, est la sonde Planck qui délivra ses premiers résultats en mars 2013.


La découverte du Fond Diffus Cosmologique

Le radiotélescope de Holmdel
Horn_Antenna-Holmdel.jpeg
Radio télescope de Holmdel (laboratoires Bell Labs) ayant permis à Penzias et Wilson la découverte du fond diffus cosmologique.
Crédit : Bell Labs

Jusqu'à la seconde guerre mondiale, les observations astronomiques étaient limitées aux longueurs d'onde visibles. Pendant la seconde guerre mondiale, la technologie des radars a énormément évolué, en premier lieu pour des applications militaires, puis pour des applications civiles avec le retour de la paix. Durant les années 1959 - 1961, un cornet de 6 m a été construit aux États-Unis, installé sur la colline de Crawford, à Holmdel dans le New Jersey par le Bell Telephone Laboratory, pour recevoir le signal du satellite Echo puis Telstar.

En 1963, ce cornet a été transformé en radiotélescope par Alan A. Penzias et Robert W. Wilson pour observer le halo de notre Galaxie à la longueur d'onde d'environ 7,35 cm. Durant leurs observations pendant les années 1963 - 1965, Penzias et Wilson ont détecté un signal supérieur à celui prévu. Ils ont d'abord cherché à mieux estimer les contributions "parasites" qui pouvaient être dues au ciel, à l'antenne, au guide d'onde, aux détecteurs. Mais toutes ces contributions étaient trop faibles pour pouvoir rendre compte de l'excès observé. De plus, le signal observé était identique dans toutes les directions, donc ne pouvait pas provenir de sources ponctuelles. Il était aussi constant dans le temps. En résumé, nous baignons dans un flux permanent de photons de grandes longueurs d'onde.

Dans le but de tenter de comprendre le phénomène observé, Penzias et Wilson ont alors pris contact avec des théoriciens (Dicke, Peebles, Roll, Wilkinson) de l'Université de Princeton, l'une des meilleures Universités des États-Unis. Deux premiers articles ont paru en 1965 dans la revue américaine The Astrophysical Journal (volume 142, pages 414 et 419) présentant la découverte et l'interprétation de ce rayonnement comme étant un "fond diffus cosmologique", que nous noterons désormais FDC.

Leur interprétation était la suivante : le FDC est le résidu d'un rayonnement émis par l'Univers lorsqu'il était dans une phase très chaude et dense. Un tel rayonnement avait été prédit par Lemaître dans les années 1920, puis par Gamow, Alpher et Herman dans les années 1950. Ce rayonnement aurait été émis par l'univers tout entier environ 380 000 ans après le Big Bang et aurait aujourd'hui un spectre de corps noir à la température de quelques Kelvin, refroidi par l'expansion de l'univers.

L'observation de ce rayonnement qui sera détaillée et expliquée dans ce chapitre est l'argument le plus fort en faveur du modèle du Big Bang.


L'époque de la recombinaison

Avant la recombinaison
univers_opaque.gif
Univers opaque. Les photons sont arrêtés par la matière en interagissant avec cette dernière.
Crédit : Astrophysique sur Mesure / Florence Durret et Gilles Bessou
Après la recombinaison
univers_transparent.gif
Univers transparent. Les photons moins énergétiques n'interagissent plus avec la matière, ils peuvent se déplacer sur de longues distances.
Crédit : Astrophysique sur Mesure / Florence Durret et Gilles Bessou

Avant de décrire plus en détail les propriétés du FDC, ce dernier doit être remis dans son contexte cosmologique afin d'être bien compris. Pour cela, il faut revenir à près de 380 000 ans après le Big Bang, quand l'univers était très jeune.

Avant la recombinaison

A cette époque qui correspond à un décalage spectral de 1 100, l'univers était bien différent de celui que l'on connaît aujourd'hui : pas de structure cosmologique, pas de galaxie ni même d'étoile ou de molécule. L'univers âgé de 380 000 ans était constitué essentiellement de photons, de noyaux d’hydrogène et d’hélium ainsi que d'électrons. L'univers était un plasma en équilibre thermique à la température de plus de 3 000 K où les photons interagissaient violemment et rapidement avec les électrons, les protons et les quelques autres noyaux atomiques formés alors (hélium en grande majorité). Cet équilibre thermique à plus de 3 000 K conditionne l'énergie des photons qui est rassemblée autour d'une énergie moyenne, c'est le modèle du corps noir qui sera vu par la suite. Cette énergie moyenne était si grande à cette époque qu'elle pouvait arracher un électron lié à un proton. Dans ces conditions, la lumière ne pouvait pas se propager librement, l’Univers était donc complètement opaque, et les noyaux atomiques ne pouvaient pas se combiner avec les électrons. On ne peut donc pas observer ce qui a pu se passer durant et avant cette période, car aucun photon n’a pu s’en échapper pour parvenir jusqu'à la Terre, tout comme il est impossible de voir à travers un épais brouillard.

Après la recombinaison

Passés 380 000 ans après le Big Bang, l’expansion de l’Univers fait chuter la température de l'univers en dessous de 3 000 K. Les photons perdent alors de l'énergie via l'augmentation de leur longueur d'onde due à l'expansion de l'univers (voir le chapitre sur l'expansion de l'univers). Ils ne peuvent plus arracher d'électrons aux atomes, il n'y a plus d'interaction entre les photons et les noyaux. Les photons alors se découplent de la matière et peuvent parcourir des distances infinies. L'univers devient alors transparent. De leur côté, les noyaux atomiques peuvent enfin se combiner avec les électrons pour donner des atomes d’hydrogène et d'hélium neutre : c’est la phase dite de recombinaison bien qu'il n'y ait jamais eu de phase de combinaison. A la suite de cette phase, les photons libres constituent le FDC (aussi appelé rayonnement « fossile »). Avec l’expansion de l’Univers, la longueur d'onde de ces photons continue à augmenter et leur énergie à diminuer. Il en est de même de la température du corps noir correspondant ; de 3 000 K au moment de la recombinaison la température est tombée actuellement (13,7 milliards d'années après l’émission du FDC) à 2,728 K.


Le modèle du corps noir

Courbes de luminosité de corps noirs
corps_noir.png
Exemple de courbes de luminosité pour trois corps noirs de températures différentes. On reconnaît la forme de cloche des courbes des corps noirs. La courbe noire représente la courbe de luminosité en mécanique classique sans tenir compte des quanta ; elle se révèle fausse aux petites longueurs d'onde. Plus la température est grande plus le pic est décalé vers les faibles longueurs d'onde. Cela illustre la loi de Wien.
Crédit : Wikipédia
Exemple de spectres d'étoiles
spe_etoi_chaude.gifspec_etoi_moybas.gif
Exemples de spectres d'étoiles ayant des températures différentes. On y reconnaît deux spectres de corps noirs avec en plus des raies d'absorption et d'émission. Le pic est indiqué par un trait rouge. En haut, le pic n'est pas clairement visible (attention à ne pas le confondre avec la raie d'absorption), la température est de plus de 10 000 K. En bas, le pic semble être à 530 nm, la température avoisine les 5400 K.
Crédit : Le relevé SDSS.

Le FDC est un rayonnement issu d'un univers dense et chaud lequel peut être modélisé par un corps noir. Afin de comprendre les propriétés de ce reliquat des premiers temps, il faut connaître les propriétés des corps noirs et de leur rayonnement.

Définition d'un corps noir

La branche de la physique qui étudie les propriétés liées à la température des corps et aux échanges d’énergie entre eux (échanges de chaleur, émissions de rayonnement) s’appelle la thermodynamique. Un corps noir y est défini comme un corps en équilibre thermodynamique qui absorbe tout le rayonnement électromagnétique qu’il reçoit, contrairement à un miroir par exemple. Noir ne signifie pas qu'il est invisible comme un trou noir mais qu'il absorbe toute la lumière. En raison de sa température, un corps noir émet un rayonnement dit thermique qui est caractérisé par sa température. Le nombre de photons produits en fonction de leur longueur d'onde est une fonction qui a une forme de cloche asymétrique. Le pic de ce rayonnement est directement lié à sa température par la loi de Wien :

\lambda_{max}T = 2,898.10^{-3} m.K

Ainsi le corps humain, qui est à une température d’environ 37°C (soit environ 37+273 = 310 K) émet un rayonnement principalement dans l’infrarouge à 9,3 \mu m (d’où les jumelles à infrarouge utilisées pour repérer des êtres humains la nuit). La température étant inversement proportionnelle à la longueur d'onde du pic d'émission, plus un corps est chaud, plus son rayonnement a lieu vers les hautes énergies, c’est à dire vers les petites longueurs d’onde. Ainsi au fur et à mesure que l’on chauffe un morceau de fer il apparaîtra d’abord rouge, puis orange, et enfin bleu, diminuant sans cesse de longueur d'onde. Passée une certaine température, le pic se trouvera dans l'ultra-violet et l'oeil ne verra que la queue de distribution des photons des grandes longueurs d'onde.

Exemple de corps noirs en astrophysique

Les poussières dans le milieu interstellaire sont un exemple de corps noir dont la température est de quelques centaines de Kelvin. Elles émettent principalement à des longueurs d'onde dans l'InfraRouge. Les étoiles dont la température superficielle peut prendre des valeurs entre quelques milliers et quelques dizaines de milliers de Kelvin sont aussi des corps noirs (voir figure). Leurs pics d'émission se situent entre 1000 et 100 nm. A noter que l'atmosphère des étoiles crée des raies d'émission et d'absorption dans le spectre d'une étoile, ce qui l'éloigne du corps noir parfait. Cependant, elles restent de meilleurs corps noir que le corps humain ou le fer.

Rayonnement du corps noir

La loi de rayonnement du corps noir, découverte par Max Planck à la toute fin du XIXe siècle, relie l'énergie rayonnée par unité de volume, u, ou le nombre de photon par unité de volume à la fréquence, \nu, des photons pour un corps noir d'une température T. Elle englobe la relation de Rayleigh-Jeans qui décrivait cette loi pour les grandes longueurs d'onde, au-delà du pic central de rayonnement. Elle est historiquement importante car la compréhension physique de la partie des courtes longueurs d'onde a requis l'ajout d'un concept nouveau en physique, le quantum d'énergie qui sera développé ultérieurement pour la mécanique quantique. Le loi de Planck est la suivante :

u(\nu) = \frac{2 h \nu^3}{c^2}\frac{1}{\exp(\frac{h \nu}{k_B T}) - 1}

c est la vitesse de la lumière (300 000 km/s), h la constante de Planck (6,6 \times 10^{-34} J.s) et k_B la constante de Boltzmann (1,38 \times 10^{-23} J/K).


Exercice sur le corps noir

Auteur: Sylvain Fouquet

exerciceExercice sur le corps noir

Un corps noir à la température T émet un rayonnement qui dépend de sa température et dont l'intensité I en fonction de la longueur d'onde est visualisée par l'applet suivant :

Le rayonnement du corps noir application.png

Question 1)

De quel côté de l'échelle en longueur d'onde se trouve l'ultraviolet ? l'infrarouge ?

Question 2)

Dans quel domaine de longueur d'onde un corps assimilable à un corps noir à la température ambiante émet-il ?

Question 3)

Qu'est-ce qui est le plus chaud : une une étoile rouge ou une étoile bleue ?

Question 4)

Quand on augmente la température d'un corps, le maximum d'émission se déplace-t-il vers les plus grandes longueurs d 'onde ?

Question 5)

En décochant "normaliser", l'échelle des ordonnées est maintenant absolue, c'est-à-dire qu'elle va de zéro au maximum d'intensité pour une température de 30 000K. Un corps à 15 000 K est-il plus ou moins lumineux qu'un corps à 5000 K ?


Le spectre du FDC

Spectre du Fond Diffus Cosmologique
spectre_CMB2.jpg
Spectre du FDC obtenu avec divers instruments au sol et dans l’espace. Les points correspondent aux observations, la courbe en pointillés correspond à l’émission théorique d’un corps noir à la température de 2,728 K. On remarque l’accord excellent avec les points d’observation sur trois ordres de grandeur en fréquence et quatre ordres de grandeur en intensité. Attention, les petites longueurs d'onde (wavelength) sont ici du côté gauche et non droite.
Crédit : Site web de l'APC de Paris VII.

Le FDC a été émis par l'univers quand il était sous la forme d'un plasma. L'univers à cette époque était un corps noir d'une température de près de 3 000 K. Le FDC est donc le spectre de ce corps noir mais décalé vers le rouge. En mesurant les propriétés de ce spectre, il est possible de connaître la température actuelle du FDC qui est de 2,728 K. En faisant le lien entre la température du FDC aujourd'hui et à l'époque de la recombinaison via le décalage spectral, on trouve un redshift de près de 1 100 pour l'époque de la recombinaison, que l'on associe à un âge de 380 000 ans après le Big Bang dans le modèle \LambdaCDM.

L'image ci-jointe montre les mesures du flux du FDC pour différentes longueurs d'onde. Le pic se situe à proximité de 0,1 cm, ce qui équivaut d'après la loi de Wien à une température de 2,7 K. Penzias et Wilson avaient mesuré le FDC à 7,3 cm. L'intensité à cette longueur d'onde est près de 100 fois inférieure à celle du pic. L'utilisation de ballons stratosphériques et le manque de mesure terrestre à faible longueur d'onde sont dus à l'absorption d'une partie du FDC par l'atmosphère pour les faibles longueurs d'onde. Afin de résoudre ce problème et d'avoir une meilleure résolution spectrale et spatiale les missions suivantes d'observations du FDC se feront exclusivement dans l'espace.

Connaissant la loi de rayonnement du FDC, il est possible d'en déduire la densité volumique d'énergie et donc le nombre de photons dû au FDC par litre. Il est proche de 400 000, ce qui équivaut à 400 photons par cm^3. Il est intéressant de le comparer aux nombres de particules massives, protons et neutrons. Ce dernier semble approcher les 0,5 atomes par litre. Cela conduit à un rapport de 1 particule massive pour 1 milliard de photons. Le nombre de particules et celui des photons du FDC n'ayant que peu évolué depuis la recombinaison, leur rapport est resté constant depuis plus de 13 milliards d'années.


La distribution spatiale du FDC

Le FDC par COBE
cmb_fluctuations_big.gif
Le FDC vu par COBE après traitement des données. Les zones rouges sont les sur-densités, les zones bleues les sous-densités.
Le FDC par WMAP
wmapresults.jpg
Le FDC vu par WMAP après traitement des données. Le gain de résolution spatiale comparé à COBE est évident. Les grandes structures sont retrouvées et des plus petites sont découvertes.
Le FDC par Planck
planck_cmb.jpgComp_FDC.jpg
Le FDC vu par Planck après traitement des données. Le gain de résolution comparé à WMAP est moins flagrant. Ce n'est qu'en zoomant que l'on s'aperçoit du progrès accompli.

A basse résolution spatiale et de température, le FDC est isotrope (le même dans toutes les directions du ciel). Pourtant des anisotropies étaient attendues par le modèle théorique du FDC, de l'ordre de quelques \muK, 10^{-6} K. Les résultats du satellite COBE, Cosmic Background Explorer, ont été les premiers à mettre en évidence sur tout le ciel des fluctuations du FDC. Ces résultats ont ensuite été affinés par des expériences utilisant des ballons envoyés dans l'atmosphère qui couvraient des parties plus petites du ciel mais avec une meilleure résolution (Archeops et Boomerang). Des résultats spectaculaires sur tout le ciel sont obtenus par la sonde WMAP en 2003. Le satellite Planck, lancé en 2009, a encore permis un bond en avant dans l’étude du FDC.

Plusieurs phénomènes peuvent expliquer les fluctuations du FDC. Il y a des raisons physiques dues à l'état de l'univers âgé de 380 000 ans qui n'était pas complètement isotrope (ceci cause des fluctuations dites primaires) et des interactions entre le FDC et les composantes de l'univers durant le voyage de treize milliards des photons pour parvenir à la Voie Lactée (ceci cause des fluctuations dites secondaires).

Certaines fluctuations primaires sont dues aux oscillations acoustiques. Dans l'univers chaud du début de l'univers, le fluide formé de photons, baryons et électrons oscille à la manière d'une onde acoustique. Le potentiel gravitationnel est contrebalancé par la force de pression de radiation, créant des bulles de légères sur-densités ou sous-densités. A la suite de la recombinaison la force de pression radiative due aux photons disparaît et les anisotropies sont figées. Ces oscillations du plasma primordial créent des changements dans la température donc dans le spectre du FDC et expliquent en partie ses anisotropies.

Certaines fluctuations secondaires sont dues à l'effet Sunyavev-Zel'dovich. Durant le long voyage des photons du FDC de leur lieu d'émission à la Voie Lactée, treize milliards d'années se sont écoulés et les photons ont parcouru une distance qui fait aujourd'hui près de 15 Gpc soit près de 50 milliards d'années lumière en prenant en compte l'expansion de l'univers (voir chapitre sur le continuum espace-temps de l'univers). Sur leur trajectoire, certains photons ont traversé des amas de galaxies formés bien après le Big-Bang. L'interaction (par diffusion) avec ce milieu rempli de gaz chaud et d'électrons libres a modifié leur température.

En définitif, les fluctuations de température mesurées sont de l'ordre de 10\:\muK en erreur absolue et donc de 10^{-5}, 1 sur 100 000, en valeur relative. Le FDC a gardé l'empreinte du profil de densité de l'univers au moment du découplage lumière-matière.


Exercices

Auteur: Sylvain Fouquet

exerciceInfluence du mouvement du système solaire sur le FDC

Le FDC sans correction
cobe_terre.jpg
Le FDC sans la correction du mouvement de la terre. Cela crée un dipôle.
Crédit : Differential Microwave Radiometer, Cosmic Background Explorer, NASA, Four-Year Sky Map

Le système solaire se meut dans le référentiel du FDC qui est en moyenne à 2,728 K. Cela donne lieu a un dipôle lorsque l'on observe le FDC (voir figure). Les parties qui se rapprochent de nous sont moins décalées vers le rouge que celles qui s'éloignent de nous. C'est l'effet Doppler classique.

Question 1)

Sachant que la différence de température entre les deux pôles peut atteindre près de 10 mK, quelle est la longueur d'onde minimale des photons du FDC comparé à celle moyenne ?

Question 2)

Quel redshift est déduit de cette compression de la longueur d'onde moyenne ?

Question 3)

Quelle est alors la vitesse du système solaire par rapport au FDC ?


Le spectre de puissance du FDC

Le spectre de puissance du FDC
PowerSpectrumExt.png
Spectre de puissance du FDC. En abscisse, ce sont les moments multipolaires, et, en ordonnée, leur intensité.
Crédit : Wikipédia, creative commons
Le spectre de puissance du FDC
multipole2_anim.gif
Animation montrant composition en moments multipolaires (indices l) des fluctuations angulaires sur la sphère céleste (une zone de 2°x2° est agrandie en haut à droite) et le spectre de puissance qui en résulte (en haut à gauche).
Crédit : Site de l'APC, APC

Définition du spectre de puissance

Après les images du FDC montrées dans la section précédente, il faut maintenant quantifier les inhomogénéités du FDC. Comment caractériser par des chiffres les anisotropies du FDC ? La méthode est de décomposer le FDC en une somme de moments multipolaires. Tout comme le nombre \pi se décompose en la somme de 3 + 0.1 + 0.04 + 0.001 + 0.0005... le FDC peut se décomposer par une somme d'images ayant des résolutions spatiales de plus en plus grandes (voir l'animation). Le premier moment est une image homogène correspondant à un corps noir parfait sur tout le ciel de 2,728 K. Les autres images servent à affiner l'image pour retrouver l'image du FDC. Le résultat de cette décomposition s'appelle la loi de puissance du FDC. Elle donne l'intensité de chaque moment (voir graphique ci-joint). Les pics donnent une information sur la taille typique des anisotropies. Le premier pic est proche de 0,75°, c'est la taille typique des petites taches visibles sur la carte de WMAP. Elles seraient dues aux oscillations acoustiques de l'univers primordial.

Déductions à partir de ce spectre

Le spectre de puissance est très important pour contraindre les paramètres cosmologiques. En effet, pour reproduire ce spectre dans le cadre du modèle \LambdaCDM, les paramètres cosmologiques sont ajustés : la densité de matière baryonique, celle de matière noire, la constante cosmologique, etc. Chaque mission d'observation du FDC (COBE, WMAP, Planck) a fourni et affiné la valeur des paramètres cosmologiques.

Les données ont montré que le FDC était très faiblement inhomogène ; une précision de l'ordre du \muK est nécessaire pour déceler les anisotropies. Cette faible inhomogénité sur tout le ciel pose un problème. De fait, deux directions opposées lors de l'émission du FDC, il y a plus de 13 milliards d'années, étaient distantes de près 81 millions d'années lumière. Or l'univers n'ayant que 380 000 ans, il est impossible que ces deux zones aient pu interagir l'une avec l'autre pour établir un équilibre de quelques \muK à cause de l'existence d'une vitesse limite : la vitesse de la lumière. Ces infimes fluctuations pourraient être expliquées par une phase d'inflation de l'univers. Il s'agit d'une période au tout début de l'univers pendant laquelle l'univers aurait connu une expansion exponentielle. De ce fait, elle aurait transformé des inhomogénéités microscopiques en inhomogénéités macroscopiques.


La nucléosynthèse primordiale

Auteurs: Sylvain Fouquet, François Hammer

Introduction

La terre est riche d'une diversité chimique exceptionnelle. On y trouve des molécules chimiquement simples, formées de seulement deux atomes, comme le dihydrogène (H2) jusqu'à des molécules géantes combinant des milliers d'atomes telles que l'ADN en passant par des cristaux de toutes sortes, etc. Cette diversité est trompeuse. A l'échelle de l'univers deux éléments règnent sur les composants chimiques, l'hydrogène et l'hélium, le reste ne représente qu'une infime fraction laborieusement formée dans les étoiles massives depuis plus de 13 milliards d'années. Plus de 99% des atomes de l'univers (75% d'hydrogène et 25% d'hélium en fraction de masse) ont été formés pendant la nucléosynthèse primordiale qui date des trois premières minutes de l'univers.


Les atomes

Avant d'en venir à la nucléosynthèse primordiale, un rapide bilan des connaissances sur les atomes et leur structure est entrepris.

Historique

Tableau de Mendeleïev
tableau_mendeleiev.gif
Tableau périodique des éléments. Ce tableau classe les atomes par leurs nombres d'électrons.
Crédit : Fururama Sciences
Vision classique de l'atome
elect-atome.png
Vision classique de l'atome. Les protons sont représentés en rouge, les neutrons en vert et les électrons en bleu. L'échelle des tailles n'est pas respectée car le taille du noyau atomique est près de 1000 fois plus petite que la distance entre le centre et les électrons.
Crédit : EDF

Le terme atome a été utilisé, au XIXe siècle, pour désigner des particules qui ne peuvent se casser, du grec a-tomos. A cette époque, on croyait avoir découvert les briques élémentaires de la physique, classées dans le célèbre tableau de Mendeleïev. Le XXe siècle a cassé cette vision. Les atomes sont en vérité constitués de protons, de neutrons et d'électrons.

Structure d'un atome

Un atome est composé de trois types d'éléments, neutrons, protons et électrons. Les neutrons et protons sont unis par la force nucléaire forte au sein d'un noyau d'une taille de l'ordre du femtomètre (10^{-15} m). Les électrons sont liés par la force électromagnétique et "orbitent" autour du noyau atomique. Le terme "orbiter" comme pour les planètes est faux mais bien commode. Pour bien appréhender l'électron, il faudrait utiliser la mécanique quantique, parler d'onde de probabilité et de quantification de l'énergie, etc. Pour ce cours, on supposera que toutes les particules sont des billes très petites ; la vérité est plus complexe mais cette simplification est suffisante pour notre propos. Les électrons orbitent donc à une distance de 10^{-12} m du noyau. Les masses du proton et du neutron sont sensiblement les mêmes, 1,6.10^{-27} kg, alors que celle de l'électron est de l'ordre de 10^{-30} kg ; l'électron est donc 1800 fois moins massif qu'un proton. Cela entraîne qu'un atome est constitué d'un noyau très dense contenant 99.99 % de la masse autour duquel orbitent des électrons de masses négligeables. Un atome est donc principalement constitué de vide.

Propriétés des constituants atomiques
MasseCharge
Proton1,672.10-27e
Neutron1,674.10-270
Électron9,1.10-31-e

Isotopes et ions

Isotopes
isotopes.gif
Exemples d'isotopes pour les atomes légers. Les billes bleues représentent les neutrons et les rouges les protons. Le noyau d'hydrogène (H) et son isotope le deutérium (D ou 2H). De même pour l'hélium (3He et 4He) et le lithium (6Li et 7Li).
Crédit : ASM

Les isotopes

Les neutrons, comme leur nom l'indique, sont électriquement neutres. Les protons ont eux une charge positive +e (+1,6.10^{-19} Coulomb) alors que l'électron a une charge négative de -e, l'exact opposé. Ainsi, pour qu'un atome soit neutre, il faut qu'il y ait autant de protons que d'électrons. Le nombre de neutrons n'est pas contraint pour la neutralité ; cependant il est défini afin que le noyau soit le plus stable possible. Les petits noyaux (hélium, carbone, azote) ont autant de neutrons que de protons tandis que les noyaux plus massifs (Uranium) ont un excès de neutrons. Le nom de l'atome est déterminé par son nombre de proton. Ainsi un atome de carbone a 6 protons et un atome de Fluor 9, etc. Deux atomes ayant le même nombre de protons mais un nombre différent de neutrons sont appelés des isotopes, du grec iso (même) et topos (lieu dans le tableau périodique). Seule leur masse totale change. Parmi les isotopes d'un atome, certains sont stables tandis que d'autres subissent des réactions nucléaires de désintégrations qui les transforment en un nouvel atome stable. L'exemple le plus connu est l'isotope ^{14}C (carbone 14), un noyau de carbone avec 6 protons (donc du carbone), 6 électrons pour être neutre, et 8 neutrons. Cet atome instable se transforme au bout d'un temps caractéristique de 6 000 ans, en ^{14}N (sept protons et sept neutrons). Une réaction nucléaire change un neutron en un proton en éjectant un électron pour conserver la charge électronique totale. Cet isotope existe encore sur terre même après des milliards d'années d'évolution séculaire car il est régénéré par les rayons cosmiques qui frappent quotidiennement la terre, changeant un atome d'azote en carbone 14. Lorsqu'un corps meurt, il devient un système fermé sans échange avec l'extérieur et alors son rapport entre le ^{14}C et le ^{12}C ne cesse de décroître par désintégration. La mesure du rapport permet de déterminer à quelle date l'être vivant est mort. Cela est très utilisé pour déterminer l'âge des momies. Cette méthode ne peut permettre des datations plus anciennes que quelques dizaines de milliers d'années car après cela tout le ^{14}C est désintégré.

Les ions

Les atomes sont par définition neutres, cependant des réactions chimiques peuvent faire qu'un atome gagne ou perde un électron. L'atome résultant devient un ion, négatif s'il a gagné un électron, positif s'il en a perdu un. Étant chargé, un ion aura tendance à fortement interagir avec une autre particule chargée de signe contraire pour reformer un élément neutre ; un atome ou une molécule.


Exercices

Auteur: Sylvain Fouquet

exerciceDensité d'un atome

Question 1)

Avec les ordres de grandeurs donnés dans le cours, retrouver la masse volumique d'un atome d'hydrogène et celle de son noyau.

Question 2)

Expliquer la différence de masse volumique avec celle de l'eau ?

exerciceIsotopes de l'hélium

Question 1)

Combien le noyau d'3He contient-il de neutrons et de protons ? Même question pour le noyau d'4He.

Question 2)

Comment noter le deutérium sous la forme xH ? Même question pour le tritium.

exerciceQuels sont ces éléments ?

Question 1)
Schémas d'élements
helium_au_carbone.gif
Crédit : Astrophysique sur Mesure / Florence Durret, Fabienne Casoli et Gilles Bessou

De quels éléments chimiques s'agit-il ?


La chimie dans l'univers proche

Proportions des éléments dans l'univers
abondance.jpg
Abondance des éléments chimiques dans l'Univers rapportée à celle du silicium (Si), prise arbitrairement à 10^6.
Crédit : CEA

La chimie moléculaire

Où trouve-t-on des molécules dans l'espace ? Sur Terre, il existe des milliers de molécules différentes ; de simples molécules comme le dihydrogène dans l'air, H2, à des molécules géantes telles que l'ADN. De même, les autres planètes telluriques mais aussi les planètes gazeuses contiennent des molécules. Des molécules assez simples (moins d'une dizaine d'atomes) se trouvent aussi dans les nuages moléculaires (CO, HCN, ...). Les masse volumiques atteintes dans ces régions permettent de refroidir le gaz et de créer assez de collisions pour assembler des molécules. On trouve même des molécules d'eau, H20, jusqu'aux confins de l'univers (dans l'environnement de noyaux actifs de galaxies très distantes). Il peut paraître surprenant de trouver des molécules à la surface de certaine étoiles. Cependant, bien que les étoiles soient des environnements très chauds et donc impropres à conserver des molécules stables, les étoiles les plus froides 2 000 - 3 000 K (les étoiles K et surtout M) peuvent héberger des molécules simples sans les casser par collisions.

Bien que l'on trouve des molécules dans divers endroits de l'univers, leur masse totale est négligeable comparée à la masse totale des éléments chimiques de l'univers.

La chimie des métaux

Les métaux en astrophysique englobent tous les éléments plus lourds que l'hélium. Il est assez facile d'en détecter dans les nuages de gaz galactique peu denses et chauds, par leur raies d'absorption ou d'émission. Certaines raies du calcium, de l'oxygène ou du fer ionisés sont maintenant bien connues et étudiées. De manière similaire, les métaux sont aussi visibles par les raies d'absorption qu'ils génèrent dans le spectre d'une étoile.

Bien que la totalité des métaux soit plus massifs que les molécules, ils ne représentent toujours qu'une infime partie de la masse totale de l'univers, moins de 1%.

Hydrogène et Hélium

Les éléments qui forment l'écrasante majorité de la matière ordinaire dans l'univers sont l'hydrogène, à près de 75% de la masse, et l'hélium à près de 24%. Ces deux éléments se retrouvent presque partout. Les étoiles en sont remplies et s'en servent comme carburant pour leurs réactions thermonucléaires. Les nuages interstellaires et intergalactiques sont des réservoirs de gaz qui pourront potentiellement se transformer partiellement en étoiles. Seules les zones de très fortes masse volumiques et froides sont moins fournies en hydrogène et en hélium. La terre par exemple n'a que peu d'hydrogène et d'hélium dans son atmosphère comparé à l'azote et l'oxygène. L'hélium fut ainsi découvert non pas sur terre mais sur le soleil en essayant d'expliquer ses raies d'absorption ; hélium vient de hélios, le Soleil en grec.


Composition de l'univers avant la nucléosynthèse primordiale

L'hydrogène et l'hélium ne peuvent pas s'être formés dans les étoiles comme pour les autres atomes car c'est justement l'endroit où ils sont détruits, fusionnés pour former les métaux. Très vite les modèles de Big Bang ont prédit une production de ces atomes dans les premiers instants de l'univers quand les températures étaient bien plus élevées que dans les étoiles. Cette période de formation des atomes légers, hydrogène, hélium (3He et 4He) mais aussi du deutérium (D ou 2H) et du Lithium 7 s'appelle la nucléosynthèse primordiale, à différencier de celle stellaire actuellement en cours dans les étoiles. Elle s'est déroulée près de trois minutes après le Big Bang.

L'univers avant cette nucléosynthèse primordiale avait une température de 10^9 K et était un plasma. On est bien avant l'époque de la recombinaison. La matière se divisait en deux catégories : les protons (87% de la masse) et les neutrons (13% de la masse). Du deutérium et du tritium pouvaient se former mais ils étaient instables du fait des collisions et de l'énergie des photons qui existaient à cette époque.


Formations des élements légers

Réaction de formation de l'hélium
helium.gif
Réactions de synthèse de l'hélium, en bleu les neutrons, en rouge les protons, en jaune les photons.
Crédit : Astrophysique sur Mesure / Florence Durret, Fabienne Casoli et Gilles Bessou

Réaction de formation du deutérium

Le deutérium est formé par l'addition d'un proton et d'un neutron. Au dessus d'un milliard de Kelvins, il est instable car des photons peuvent facilement le dissocier.

p + n \rightarrow D +\gamma, où \gamma est un photon résultant de la réaction.

Réaction de formation de l'Hélium et du tritium

Une fois la température descendue en dessous d'un milliard de Kelvin, il est possible de créer des noyaux plus massifs que le deutérium, le tritium, l'hélium 3 et 4, par le biais de plusieurs réactions nucléaires.

D + p \rightarrow 3He + \gamma puis 3He + n \rightarrow 4He + \gamma

D + n \rightarrow T + \gamma puis T + p \rightarrow 4He + \gamma

D + D \rightarrow ^3He + n et D + D \rightarrow T + p

D + ^3He \rightarrow ^4He +p

3He + 3He \rightarrow 4He +2p

Proportion des atomes légers

La nucléosynthèse a commencé près de trois minutes après le Big Bang quand les protons représentaient 87% de la matière et quand les neutrons en représentaient 13%. Cette dissymétrie est due au fait qu'un neutron libre est instable et se transforme en proton avec un temps caractéristique de 10 min. La quasi-totalité des neutrons a servi à créer des noyaux d'hélium. Cela conduit à une masse d'hélium comprenant les 13% de neutrons ainsi que 13% de protons pour faire des noyaux d'hélium (2 protons, 2 neutrons). Le tout comprend 26% de la masse totale. Les 74% restant sont des protons qui formeront ultérieurement les atomes d'hydrogène à l'époque de la recombinaison.


Bilan de la nucléosynthèse primordiale

Les trois minutes de la nucléosynthèse primordiale
3minutes.gif
L'abondance des éléments pendant les premières minutes de l'Univers, par rapport à celle des protons.
Crédit : E. Vangioni-Flam, IAP

Après l'hélium 4 (deux neutrons, deux protons), qui est un noyau particulièrement stable, le processus de construction des noyaux par addition d'un neutron ou d'un proton tourne court. En effet, il n'existe pas de noyau stable de masse 5. Pour sauter le pas, il faudrait fusionner de l'hélium avec du deutérium ou un autre noyau d'hélium, mais à cause de l'expansion de l'Univers, température et masse volumique ne sont plus suffisantes pour vaincre la répulsion entre les noyaux chargés positivement. C'est un goulot d'étranglement de la nucléosynthèse.

Pendant la nucléosynthèse primordiale, il se forme donc extrêmement peu d'éléments plus lourds que l'hélium, juste un peu de lithium (7Li) et de béryllium (7Be). Il n'y a pas de noyau stable de masse 8, ce qui forme un nouveau goulot d'étranglement pour la formation nucléaire.

La figure ci-contre représente l'évolution des éléments légers pendant la nucléosynthèse. L'axe des abscisses est la température en unités de milliards de degrés : à t = 1 s, la température est de 15 milliards de degrés. En trois minutes, elle diminue à 1,1 milliard de degrés. Au début de la nucléosynthèse, l'Univers ne contient que des protons et des neutrons. Trois minutes après, le paysage s'est considérablement enrichi, et presque tous les neutrons ont été consommés pour fabriquer des noyaux d'hélium 4. Les autres neutrons vont rapidement disparaître car les neutrons libres (en dehors d'un noyau) sont instables avec un temps de demi-vie de 10 minutes, ils se transforment alors en protons.


Les différentes phases de l'univers

Auteurs: Sylvain Fouquet, François Hammer

Introduction

Les sections précédentes ont décrit trois résultats concrets et observables du modèle du Big Bang, un univers en expansion, le Fond Diffus Cosmologique et les proportions d'hydrogène et d'hélium de notre univers. Ces trois phénomènes sont de puissants arguments en faveur du modèle du Big Bang. Par la suite, les différentes étapes de l'univers seront décrites dans le cadre du Big Bang, des premières millièmes de secondes jusqu'à nos jours. L'univers y est décrit comme une fournaise primordiale composée d'éléments subatomiques mélangés interagissant fortement avec la lumière. Cet univers, du fait de son expansion, se refroidit rapidement permettant la création d'éléments plus complexes tels que des protons, des neutrons et ensuite des noyaux d'hydrogène et d'hélium. Après 380 000 ans, la lumière et la matière se découplent enfin, laissant un univers composé de 75% d'atomes d'hydrogène et 25% d'atomes d'hélium. Cet univers qui est devenu froid et neutre rentre dans l'âge sombre et connaîtra, des centaines de millions d'années plus tard, une phase de réionisation où le gaz neutre deviendra ionisé. La dernière grande étape de l'univers qui dure plus de 13 milliards d'années correspond à la formation et surtout à l'évolution des étoiles et des galaxies.

Formation des structures de l'univers
060915_CMB_Timeline150.jpg
Résumé des différentes étapes de structuration de l'univers depuis le Big Bang à nos jours : le Big Bang, la recombinaison, l'âge sombre, la réionisation, la structuration de l'univers.
Crédit : La mission WMAP.

Les particules sub-atomiques

Dans ses premiers instants, l'univers s'apparente à un plasma de particules élémentaires qui interagissent entre elles et avec la lumière, formant un système à l'équilibre. Des connaissances sur la physique des particules est alors primordiale pour comprendre ces premiers instants. L'expansion de l'univers ne remet pas en cause cet état d'équilibre mais oblige la matière à passer d'un état en équilibre à un autre. Les premiers instants de l'univers sont l'unique moment où l'univers connaît des températures de plusieurs milliards de Kelvin et des densités de plusieurs milliards de fois celle de l'eau. Bien que l'homme ait construit des accélérateurs de particules pour reproduire des chocs très énergétiques similaires à ceux du début de l'univers pour obtenir des particules subatomiques, il n'accède pas encore aux énergies des tous premiers instants (les premières 10^{-35} secondes).

Par la suite, nous utiliserons une nouvelle unité pour la masse des particules. Cela tient au fait que leurs masses sont si faibles que la notation en kg est assez lourde et peu parlante. Par la suite, les masses seront données en eV (électron-Volt), qui est une unité d'énergie. Chaque masse peut être considérée comme une énergie par la formule d'équivalence E = mc^2. La conversion de la masse en énergie qui en découle donne des Joules, l'unité standard. Puis, cette énergie est convertie en eV (électron-Volt, énergie que gagne un électron dans un champs de 1 Volt en une seconde) par la relation suivante : 1 eV = 1.60218 \times 10^{-19} J. Par exemple, un proton ayant une masse de 1,67 \times 10^{-27} kg a une énergie de 1,44 \times 10^{-10} J qui équivaut à 900 MeV (Mega-eV).

De même, pour parler de l'énergie d'un photon, on sera amené à utiliser l'énergie propre d'un photon donnée par la relation E = h \nu, où h est la constante de Planck 6,6 \times 10^{-34} J.s et \nu la fréquence du photon mais aussi l'énergie statistique moyenne des photons qui découle de la loi de Wien. Pour une température donnée, l'énergie des photons se situe au alentour du pic du corps noir. En moyenne, un photon, dans un corps noir d'une température de 10^{6} K, aura, d'après la loi de Wien, une longueur d'onde de 2,9 nm ce qui correspond à une énergie de 6,8 10^{-17} J ou 426 eV.

Enfin, pour les particules, on peut parler de l'énergie cinétique d'une particule, E_c = \frac{1}{2}mv^2m est sa masse et v sa vitesse. On peut aussi dans le cas d'un corps noir parler d'énergie statistique des particules reliant leurs vitesses et la température du corps noir : E_c = \frac{3}{2} k_B Tk_B = 1,38 \times 10^{-23} m2.kg.s-2.K-1 est la constante de Boltzmann et T la température du corps noir. En moyenne, un proton dans un plasma de corps noir à la température de 10^{6} K aura une énergie cinétique égale à 2.10^{-17} J = 129 eV qui correspond à une vitesse de 160 km/s.

Les hadrons

Liste des particules subatomiques
Classement_particules.jpg
Classement des particules subatomiques en fonction de leur familles : photon, lepton et hadron.
Crédit : Wikipédia
Tableau des particules élémentaires
quarks.png
Tableau des particules élémentaires d'après le modèle standard. On y retrouve la famille des leptons. Les photons appartiennent à la famille des bosons avec le gluon et les bosons Z et W. Les six quarks sont les particules élémentaires dont les combinaisons forment les hadrons.
Crédit : Wikipédia

Les hadrons forment la famille de particules subatomiques la plus riche. Elle compte des représentants très connus tel que le proton et le neutron (les nucléons), mais aussi une flopée de particules instables qui ne s'observent qu'assez rarement. Parmi elles se trouve la sous famille des mésons (\Pi, \eta, ...), ou celle des hypérons (\Delta, \Sigma, ...). Le schéma ci-joint résume clairement ces différentes familles. Les hadrons forment une structure complexe car ce ne sont pas des particules élémentaires. Elles sont elle-mêmes l'association de particules élémentaires, les quarks, jusqu'à preuve du contraire. Par exemple, le proton est l'assemblage de trois quarks : deux quarks up et un quark down. A l'inverse, le neutron est constitué de deux quarks down et d'un quark up. Les hadrons ont une masse, une charge et un spin. Ils peuvent donc ressentir les interactions gravitationnelles et électromagnétiques sauf si leur charge est nulle comme pour le neutron. En plus de cela, ils sont sujets par définition à l'interaction forte et faible. A chaque hadron est associé un nombre hadronique. Par exemple, le neutron et le proton ont un nombre hadronique de 1. Ce nombre doit être conservé dans une transformation tout comme est conservée la charge électrique.

Les leptons

Les leptons sont de vraies particules élémentaires pour autant que l'on sache. Les leptons les plus connus sont l'électron et le neutrino, découvert plus récemment. Ils ont une masse, même le neutrino qui auparavant était jugé sans masse, et peuvent aussi être chargés. Ils ont un nombre leptonique qui à l'instar du nombre hadronique est constant dans les réactions nucléaires. Par exemple, l'électron et le neutrino électronique, \nu_e, ont un nombre leptonique de 1.

Les photons

Les photons sont les premières particules élémentaires connues. Elles nous entourent et sans elles le monde serait invisible pour l'homme. Elles ont la particularité de ne pas avoir de masse, ni de charge mais un spin de valeur 1. Elles font partie de la famille des bosons.


Exercices

exerciceGrandeurs caractéristiques

Question 1)

Quel est la masse en MeV de l'Uranium 235 et de l'Uranium 238 ?

Question 2)

Pour un plasma à une température T, la vitesse moyenne d'une particule vaut :

\sqrt{\frac{3k_BT}{m}}

k_B est la constante de Boltzmann, 1,38 \times 10^{-23} m2.kg.s-2.K-1, T la température en Kelvin et m la masse en kg. Quelle est la vitesse d'un proton à 3 000 K et à 3x109 K ? Vérifier que nous sommes bien dans un régime classique et non relativiste.

Question 3)

Soit l'électron de masse 0,511 MeV, à quelle température la collision de deux neutrons pourrait donner un couple électron-positron en plus des deux neutrons de base ?

Question 4)

Quel photon a l'énergie de masse d'un proton ?


L'antimatière

Propriétés de l'antimatière

L'antimatière, contrairement à ce que son nom indique, est de la matière dans le sens où elle a une masse, une charge, un spin, etc, comme la matière classique. Le suffixe "anti" met en exergue le fait que chaque particule de matière que l'on connaît a un jumeau d'antimatière ayant la même masse mais dont toutes les autres grandeurs sont opposées. Par exemple, la particule d'antimatière la plus connue et utilisée à ce jour est sans doute le positron, l'anti-électron ou électron positif. Le positron a la même masse que l'électron mais sa charge est positive, d'où son nom. Cette inversion vaut aussi pour le nombre leptonique qui passe de +1 pour l'électron à -1 pour le positron. De même, le neutron a son anti-neutron et le proton son anti-proton, etc. Le photon a la particularité d'être sa propre anti-particule.

L'antimatière dans notre univers

Où est l'antimatière ? A l'état naturel, l'antimatière s'observe au cours de la désintégration dite \beta^+ qui transforme un proton en neutron et libère un positron. Cette désintégration intervient au sein des noyaux atomiques dans la matière dite radioactive comme l'Uranium 235. Les rayons cosmiques peuvent aussi générer des anti-particules. En effet, ces derniers sont des particules provenant de l'espace et ayant une grande énergie cinétique, donc une vitesse proche de celle de la lumière. Ce sont souvent des protons. En pénétrant dans l'atmosphère, ils rentrent en collision avec des particules de gaz et forment une gerbe de particules contenant des anti-particules. Historiquement, le positron fut découvert à la suite d'un rayon cosmique. Les accélérateurs de particules sont un autre moyen de créer des anti-particules. Le principe est le même que pour les rayons cosmiques sauf que c'est un accélérateur de particules créé par l'homme qui accélère un proton grâce à de puissants champs magnétiques et le fait collisionner dans une immense chambre pour étudier avec précision les particules résultantes de la collision. Néanmoins, exceptés ces trois processus, l'univers semble dépourvu d'antimatière. En effet, au contact de la matière, l'antimatière s'annihile pour former des photons très énergétiques. Si une partie de notre univers était faite d'antimatière nous devrions voir la limite avec la zone de matière par un dégagement de lumière intense, or il n'en est rien. On peut toujours rêver à une zone de l'univers si bien isolée et éloignée de nous que l'antimatière aurait survécu, mais cela est de plus en plus improbable.


Création de particules élémentaires

Disparition de l'antimatière
particules2.gif
10^{-35} seconde après le Big Bang, l'Univers contenait des nombres de particules (représentées par des points jaunes) et d'antiparticules (en bleu) proches, mais avec un nombre très légèrement plus grand de particules. Cette animation montre le processus d'annihilation des particules et d'antiparticules. Cependant, il subsiste le léger déséquilibre entre particules et antiparticules.
Crédit : ASM/Florence Durret, Fabienne Casoli et Gilles Bessou

Création de particules élémentaires

Comment créer des particules élémentaires ? La manière de créer des particules subatomiques est liée à la relation la plus célèbre de la physique E = mc^2, où E est l'énergie de masse d'une particule, m sa masse et c la vitesse de la lumière. Cette relation nous dévoile le fait qu'il existe une équivalence entre matière et énergie. Il est alors possible de transformer l'une en l'autre. Cependant, comme dans une réaction nucléaire, la charge, le nombres baryonique et leptonique doivent être conservés, donc cela interdit certaines réactions. Par exemple, la réaction suivante :

proton \rightarrow neutron + électron

ne conserve pas la charge (+1 avant, -1 après), ni le nombre leptonique (0 avant, 1 après).

Lorsqu'une anti-particule rencontre une particule, les deux se transforment en photons, il y a annihilation de la matière. En revanche, lorsque deux photons collisionnent, il peut se former une particule et son anti-particule à condition que les photons aient une énergie totale supérieure à l'énergie de masse des particules créées. Par exemple, pour créer une paire électron-positron, d'énergie deux fois 0,511 Mev, il faut des photons d'une énergie totale de plus de 0,511 Mev, c'est à dire ayant une longueur d'onde d'au moins 2,4.10^{-3} nm, soit des rayons gamma. Le rayonnement visible (400-800 nm) est bien trop faible énergétiquement pour créer des particules élémentaires.

D'un autre côté, des chocs très énergétiques peuvent aussi créer de nouvelles particules. Ce phénomène physique est utilisé dans les collisionneurs de particules au CERN (Conseil européen pour la Recherche nucléaire). Ce processus requiert des conditions extrêmes. Créer une paire électron-positron exige des températures de plusieurs milliards de Kelvin donc des vitesses proches de celle de la lumière. Par comparaison, les températures atteintes au centre des étoiles ne sont que de quelques centaines de millions de Kelvin.

Comprendre la disparition de l'antimatière

Si la création d'une particule entraîne celle d'une anti-particule et si leur destruction est aussi symétrique, comment expliquer la prédominance des particules sur les anti-particules ? Ce problème reste à ce jour mal compris et sans réelle réponse. Une possible piste serait que certaines réactions nucléaires, plus compliquées que la simple collision de deux photons, aient créé une dissymétrie rendant prédominante la matière sur l'antimatière. Cela se serait passé dans les tous premiers instants de l'univers.


Exercices de physique subatomique

Auteur: Sylvain Fouquet

exerciceLes nombres quantiques

Question 1)

Sachant que le proton est constitué de deux quarks u et d'un quark d et que le neutron est constitué de deux quarks d et d'un quark u, donnez la charge du quark u et d.

Question 2)

Le méson pion \pi^+ est constitué d'un quark u et d'un antiquark \bar{d}. Quelle est sa charge ? Quelle est son antiparticule et la charge de celle-ci ?

Auteur: Sylvain Fouquet

exerciceDésintégration du neutron

Difficulté : ☆☆☆  

Question 1)

Lorsque un neutron est à l'état libre, il est instable et se transforme en proton. Dans un noyau, il devient stable. Son temps de désintégration est de 885,7 s soit près de 15 min. Il se désintègre en un proton, un électron et un antineutrino électronique.

n \rightarrow p + e + \bar{\nu_e}

Vérifier que la charge, le nombres baryonique et le nombre leptonique sont conservés.

Question 2)

Une fois que le neutron s'est désintégré, les trois particules résultantes prennent des directions différentes. Il est possible de détecter le proton et l'électron mais le neutrino n'interagit quasiment pas avec la matière. Arrêter la moitié d'un flux de neutrinos requiert un mur d'une année lumière de plomb. Comment montrer alors son existence sans recourir à l'argument de la conservation du nombre leptonique ?


Terra incognita - l'ère quantique

La théorie du Big Bang s'attache à décrire l'univers depuis ses premiers instants. Plus on remonte dans le passé, plus l'univers est dense et chaud. En théorie, la température et la densité croissent de manière infinie jusqu'au temps zéro. Cela crée un univers avec des conditions que nous n'avons jamais rencontrées sur terre et que nous n'avons jamais reproduites dans un accélérateur de particules. Cette époque de l'univers, les 10^{-35} premières secondes, sont terra incognita.

Cela n'empêche pourtant pas les chercheurs d'échafauder de nombreuses théories pour expliquer cette époque de l'univers. Il en est même qui tentent d'expliquer ce qu'il y avait avant le Big Bang. Ce processus est normal en science, mais seule la contrainte observationnelle pourra trancher entre les différentes théories : théorie des supercordes, M-cordes, gravitation quantique, grande unification des lois fondamentales. C'est à cette époque de l'univers que pourrait avoir eu lieu l'inflation qui permet d'expliquer la grande homogénéité du FDC. En une fraction de seconde, l'univers se serait étendu d'un facteur 10^{60} faisant passer des inhomogénéités sur des échelles microscopiques à des échelles macroscopiques. C'est aussi à la fin de cette époque que les quarks se seraient assemblés pour former les hadrons : muons, protons, neutrons, ...

Tout cela est encore une terra incognita. Il faut des instruments plus performants pour créer des conditions de température et de pression qui avoisinent celles de l'univers durant les 10^{-35} premières secondes. Le Large Hadron Collider (LHC large collisionneur d'hadron) devrait donner des pistes en produisant des énergies de l'ordre du Tev (10^{12} eV) ce qui correspond à une température de l'ordre de 10^{16} K.


L'ère hadronique

Revenons vers des contrées plus connues de la science avec l'ère hadronique de l'univers. Cette ère commence à une température de plus de 10^{13} K jusqu'à une température de 10^{12} K, lorsque la température seuil du plus léger des hadrons est atteinte : le méson \pi neutre ( m_{\pi} \sim 135 Mev/c^ 2). Cette ère dure seulement un dix-millioniène de seconde. Les hadrons et leurs antiparticules forment alors un système en équilibre thermodynamique. Leurs masses imposantes face aux leptons en font la composante dominante de la matière de cette époque. L'origine de la prédominance de la matière sur l'antimatière dans l'univers contemporain est à situer au coeur de ces ères, comme une conséquence possible de l'asymétrie de leurs propriétés dans les processus de création-annihilation qui régissaient l'équilibre thermodynamique. Cependant, cela reste encore une question très débattue.


l'ère leptonique

Entre les température 10^{12} K et 10^{10} K, pendant un peu plus d'une seconde, l'univers se situe dans l'ère leptonique. La température de seuil des hadrons n'est plus atteinte. Les hadrons et leurs anti-particules se sont annihilés pour la plupart. Du fait d'une très légère dissymétrie avant l'annihilation, quelques hadrons ont survécu, un sur un milliard en ordre de grandeur. Il ne reste alors que des protons et des neutrons. L'univers est rempli de photons, de neutrinos, d'anti-neutrinos, d'électrons et de positrons. Le rapport entre les hadrons et les autres composantes est de 1 pour 1 milliard à peu près. Il y a presque autant de neutrinos, d'antineutrinos, d'électrons et de positrons. Des réactions incessantes se produisent, changeant protons en neutrons et vice-versa. Cependant, l'égalité du nombre des leptons assure l'égalité entre la proportion de neutrons et de protons.

Après 0,11 s, la température descend à 3.10^{10} K, rien ne change de nature mais il est maintenant plus facile aux neutrons, plus lourds, de se transformer en protons. Les proportions ne sont plus symétriques : 38% de neutrons contre 62% de protons.

Après 1,09 s, à une température de 10^{10} K, les neutrinos et antineutrinos qui interagissent bien moins fortement avec les autres particules deviennent libres. Ils peuvent alors se déplacer sans interagir avec la matière environnante. C'est le premier découplage. Ainsi, les neutrinos ont dû garder l'empreinte des conditions de l'univers à ses tous premiers instants de même que le FDC le fera plus tard. C'est donc une nouvelle voie pour étudier directement l'univers à des âges très reculés. La difficulté provient évidemment de la très faible interaction neutrino-matière qui rend quasiment impossible une observation fiable à l'heure actuelle. Le découplage interdit aux neutrons de se transformer en protons. Étant instables dans le vide, les neutrons sont alors voués à disparaître. Leur nombre continue de décroître : 76% de protons contre 24% de neutrons.


L'ère radiative

13,82 s après la fin de l'ère hadronique, la température est descendue jusqu'à 3.10^{9} K. Les électrons et positrons se sont annihilés en photons et il reste seulement 1 électron sur 1 milliard, rejoignant le nombre de protons. Les photons sont maintenant majoritaires en densité d'énergie. L'ère leptonique est terminée et l'ère radiative a pris place. Les nucléons commencent à s'associer en deutérium, tritium et Hélium 3. Cependant, ces nouveaux noyaux atomiques ne sont pas assez stables à ces températures pour former un atome d'hélium qui, lui, aurait pu l'être. La proportion de neutrons continue de chuter : 17% de neutrons et 83% de protons.

Après trois minutes, la température est de 10^{9} K, le nombre de neutrons a encore chuté à 14 %. Si le tritium et l'hélium 3 sont stable, le deutérium est quant à lui encore trop instable pour former des atomes plus complexes.

Passé le cap de l'instabilité du deutérium, à 3 min 46s, à 900 millions de Kelvins, la nucléosynthèse primordiale peut se mettre en marche. Il se forme des noyaux d'hélium avec les neutrons disponibles qui représentent maintenant 13% du nombre total des atomes. La température est trop élevée pour la formation de noyaux plus lourds que l'hélium en grand nombre. Il en résulte des fractions de masse de 25% d'hélium et de 75% de protons. C'est la nucléosynthèse primordiale.

L'expansion de l'univers fait décroître la densité d'énergie de la matière en diluant la masse. La densité d'énergie de la matière évolue en a(t)^{-3}, où a est le facteur d'expansion de l'univers vu au chapitre sur la relativité générale. De même, les photons sont dilués et leur longueur d'onde est dilatée par l'effet Doppler cosmologique. Leur densité d'énergie décroît donc plus vite, en a(t)^{-4}. L'équilibre entre l'énergie radiative et l'énergie de la matière se situe 60 000 ans après le Big Bang à z = 3\,000 à une température de plus de 8 000 K. Suit alors l'ère stellaire où la matière domine le contenu énergétique.


L'ère stellaire

L'ère stellaire connaît vraiment ses débuts lorsque, vers 380 000 ans après le début du Big Bang, la température a chuté vers 3 000 K. A ce moment, les électrons peuvent se stabiliser autour des noyaux atomiques et la lumière se découple de la matière. La lumière de cette époque deviendra après 13,7 milliards d'années le Fond Diffus Cosmologique étudié au chapitre précédent.

Passée l'époque de la recombinaison, l'univers est composé de trois systèmes indépendants : le système neutrino-antineutrino, le système de photons du FDC et la masse composée d'hydrogène et d'hélium. Chacun de ces systèmes évolue de manière quasi-indépendante. Les deux premiers ne feront que se refroidir tandis que la matière connaîtra une évolution plus complexe. La distribution de la matière va devenir de plus en plus inhomogène. Cette structuration de l'univers est l'objet du prochain chapitre.


Résumé

Pour ce chapitre qui résume l'histoire de l'univers des premiers instants jusqu'à aujourd'hui, un schéma est présenté pour résumer les différentes étapes, et pour donner les ordres de grandeurs associés à ces dernières.

Les ères cosmologiques
cosmo_ere.jpg
Ligne du temps et histoire thermique de l'Univers. On remarquera les échelles de temps très différentes entre les ères : l'ère stellaire dure à elle seule plus de 10 milliards d'années tandis que les ères précédentes durent de quelques infinitésimales fractions de seconde à quelques milliers d'années.
Crédit : A. Füzfa

Structuration de l'univers

Auteurs: Sylvain Fouquet, François Hammer

Introduction

Après la période de recombinaison, 380 000 ans après le Big Bang, jusqu'à nos jours, l'univers a évolué d'un gaz neutre presque homogène à un état très inhomogène avec comme composantes du gaz neutre, du gaz ionisé et des étoiles regroupés gravitationnellement dans des galaxies qui sont elles-mêmes structurées suivant des filaments séparés par des zones de quasi-vide. Ce changement radical de structure a connu plusieurs phases, un âge sombre qui est la suite directe de l'époque de recombinaison, une époque de réionisation où se sont formées les premières structures (étoiles et galaxies), et où tout le gaz de l'univers s'est ionisé, et enfin une évolution hiérarchique qui dure depuis plus de treize milliards d'années et qui a vu principalement la formation des galaxies par des fusions successives.


Structuration de l'univers

Structuration de l'univers

vidéo MPEG4

Simulation cosmologique à haute résolution et petite échelle. Partant d'un univers quasi-homogène, des structures se forment et fusionnent entre elles ; c'est le modèle hiérarchique.
Crédit : Simulation tiré du projet Via Lactea

Les facteurs de la structuration de l'univers

Si l'univers était très homogène avant la recombinaison avec des inhomogénéités de l'ordre de 1 pour 100 000, l'univers aujourd'hui est très inhomogène mais aussi très structuré. Plusieurs facteurs ont rendu ce changement d'état possible. Le premier est évidemment le découplage lumière-matière qui a permis à la matière de s'effondrer sur elle-même sans en être empêchée par la pression du flux lumineux et ainsi d'augmenter les faibles inhomogénéités du FDC. Le second facteur est le temps. Depuis plus de 13 milliards d'années l'univers évolue et devient de plus en plus inhomogène et structuré. Le troisième facteur est la possible présence d'une grande quantité de matière noire qui aurait accéléré la formation des structures. En effet, la matière noire a pu se condenser sans entrave avant la recombinaison car elle n'était pas sujette à la pression lumineuse. Cela aurait permis la création de puits de potentiel gravitationnel qui auraient pu après la recombinaison être des catalyseurs pour condenser la matière baryonique.

L'expansion de l'univers ne crée pas d'inhomogénéité mais entrave plutôt la formation des structures de l'univers. Un univers connaissant une expansion trop rapide n'aurait pas permis l'effondrement de grandes quantités de gaz sur lui-même et la création de grandes structures cosmiques telles que les galaxies. A l'inverse, une expansion moins rapide permet une plus grande interaction entre la matière et donc la création de structures plus massives.

La masse de Jeans

Un concept utile pour résumer et quantifier ce qui vient d'être présenté est la masse de Jeans. Pour une distribution de masse quelconque connaissant une force de pression p (la pression cinétique due aux chocs des particules qui est donnée par la température), une température T et une densité \rho, la masse de Jeans se définit comme suit :

M_J = \frac{p^{3/2}}{G^{3/2}\rho^2}

La température n'apparaît pas car elle se déduit de la pression et de la densité par une équation d'état. Une sphère englobant une masse supérieure à la masse de Jeans peut s'effondrer sur elle-même sinon elle n'en est pas capable par manque d'énergie gravitationnelle comparée à l'énergie cinétique. Plus la pression entre les particules dans la sphère de matière est forte plus la masse totale contenue dans la sphère doit être grande, et à l'inverse plus la densité est élevée plus la masse peut être petite. Ce concept ne dépend pas de la nature de la masse, il s'applique aussi bien à l'univers tout entier qu'à un nuage de gaz qui s'effondre pour former des étoiles.


L'âge sombre

Effondrement gravitationnel
age_sombre.jpg
Simulation cosmologique de gaz et de matière noire montrant l'effondrement du gaz et de la matière noire du décalage spectral 100 à 25, durant l'âge sombre. A z = 100, on retrouve une très faible inhomogénéité de densité. Après z = 100, les inhomogénéités sont trop grandes pour utiliser un modèle linéaire pour décrire l'évolution, d'où les simulations. Les premières structures baryoniques, étoiles et galaxies, apparaissent après z = 25.
Crédit :

La première image de l'univers est donnée par l'observation du Fond Diffus Cosmologique 380 000 ans après le Big Bang (voir FDC). La grande homogénéité et isotropie de l'univers permet d'utiliser des lois analytiques et la physique linéaire pour prédire l'évolution de sa densité. Les fluctuations de densité, notées \delta(r, t), dépendant du temps et de la position, sont très petites (1 partie pour 100 000) devant la densité moyenne de l'univers, notée \rho(t) et ne dépendant que du temps. Tandis que cette densité moyenne chute avec l'expansion de l'univers d'après la loi \rho(t) = \rho_{rec} / a(t)^3, les fluctuations croissent linéairement avec la baisse de la température, \delta(r, z) = \delta_{rec}\, \frac{1+z_{rec}}{1 +z}. L'indice "rec" dénote les conditions au moment de la recombinaison. Les fluctuations deviennent non négligeables pour des décalages spectraux proches de 100. A cette époque, la physique linéaire doit être remplacée par une physique non linéaire. Pour ce faire les astronomes utilisent des simulations cosmologiques. Cette période de croissance linéaire a duré près de 16 millions d'années.

Du décalage spectral 100 à 25, c'est à dire de 16 à 132 millions d'années, les inhomogénéités de l'univers augmentent sans rencontrer de force pour les en empêcher, pas de pression lumineuse ni de force de pression mécanique, les collisions entre les atomes sont rares et peu énergétiques. L'univers reste sous la forme d'un gaz majoritairement composé en masse d'Hydrogène (75%) et d'Hélium (25%) avec un peu de Lithium et de Deutérium (voir cours sur la nucléosynthèse primordiale). Les galaxies, les étoiles, les planètes, tous les objets astronomiques connus dans l'univers proche n'existent pas encore. Cette époque qui dura presque 150 millions d'années, sans étoile et sans création de lumière, est appelée l'âge sombre.


La réionisation

La réionisation
reionisation.jpg
Résumé des grandes phases de l'univers. De droite à gauche, le Big Bang, l'époque de recombinaison vue dans le cours sur le FDC, l'âge sombre décrit précédemment, la réionisation qui rend non opaque l'univers aux rayonnements énergétiques.
Crédit : NAOJ
Réionisation autour d'une étoile
reionisation_etoile.jpg
Simulation du début de l'époque de réionisation. Une étoile massive est en train de chauffer le gaz neutre (bleu) et de le ioniser (rouge).
Crédit :

La phase suivant l'âge sombre est appelée l'époque de réionisation. Au cours de cette période qui se déroule grossièrement du décalage spectral 25 au décalage spectral 6 se déroulent deux évolutions majeures pour l'univers : l'ionisation de tout le gaz neutre, l'univers redeviendra ionisé comme il l'était avant la recombinaison, et la formation des premières étoiles et des premières structures contenant ces étoiles.

La réionisation de l'univers

Entre les décalages spectraux 25 et 6, de 132 millions d'années à 951 millions d'années après le Big Bang, les inhomogénéités de densité deviennent telles que les atomes du gaz commencent à s'entrechoquer fortement et à chauffer, le gaz émet alors de la lumière dans l'infrarouge. Pour continuer à s'effondrer sur eux-mêmes, les nuages de gaz doivent perdre de l'énergie sous forme de photons pour se refroidir. Cependant, l'hydrogène et l'hélium requièrent de grandes énergies pour exciter leurs électrons et ainsi émettre de la lumière. Cela conduit à un mécanisme de refroidissement lent qui permet une grande accumulation de matière. De ce fait, les premières étoiles devraient être des étoiles très massives évoluant en supernovae et des hypernovae. Ces étoiles très instables brûlent rapidement leurs carburants et émettent un rayonnement très fort dans l'ultra-violet (UV). Ce flux UV est d'abord absorbé par les atomes (ou le gaz neutre) l'entourant. Ce phénomène se répétant au niveau global de l'univers, un flux UV va bientôt baigner le cosmos et exciter de plus en plus d'atomes neutres formés à l'époque de la recombinaison. En plus des étoiles massives, les premiers trous noirs supermassifs se forment et accrètent le gaz neutre dans leur environnement devenant des noyaux actifs de galaxie et émettant une lumière très énergétique. L'effet combiné des étoiles massives et des noyaux actifs de galaxies ionisera complètement l'univers, si bien que le parcours moyen d'un photon énergétique ne sera plus stoppé par l'absorption d'un atome et pourra ainsi nous parvenir.


Structuration de l'univers de la réionisation à l'époque actuelle

A la fin de la réionisation, bien que l'univers ait formé les premières structures, l'évolution de l'univers est loin d'être terminée. Trois processus vont transformer l'univers distant en notre univers proche. Le premier est la formation stellaire qui convertira une partie du gaz présent à cette époque en étoiles. Le second processus est la fusion entre les galaxies qui est le mécanisme à la base du modèle de structuration des galaxies, le modèle hiérarchique. Partant d'une multitude de petites galaxies, de nouvelles galaxies plus massives se forment. Les galaxies géantes au centre des amas de galaxies en sont le symbole. Enfin le dernier changement structurel de l'univers est le renforcement d'une structure filamentaire de la distribution spatiale des galaxies. En effet, les galaxies ne sont pas distribuées de manière isotrope et homogène mais elles forment des filaments qui semblent entourés de sphères quasiment vides. La description de la structure de notre univers à différentes échelles, du Mpc au Gpc, est traité dans le premier cours sur la découverte de notre univers.


Les simulations cosmologiques

Résultat d'une simulation

vidéo MPEG4

Résultat de la distribution de matière noire d'après la simulation cosmologique Millennium I. On reconnaît la distribution filamentaire de l'univers.
Crédit : Vidéo tiré de la simulation cosmologique Millennium I

Afin de suivre l'évolution des structures de la matière depuis l'âge sombre jusqu'à nos jours, des simulations cosmologiques de plus en plus précises ont été entreprises. Leur but est de décrire l'univers à différentes époques et à différentes échelles.

Concept des simulations cosmologiques

Dans le premier chapitre de ce cours de cosmologie, les lois de l’évolution de l’univers ont été expliquées en mettant en avant la relativité générale. Le contenu énergétique a aussi été défini, baryons (atomes, gaz et photons), matière noire et énergie noire. Cela a fourni le modèle ΛCDM ; Λ représentant l’énergie noire et CDM correspondant à Cold Dark Matter pour notifier la présence importante de matière noire froide. Dans ce modèle, la matière baryonique est négligeable et n'influence donc pas la structure de l’univers aux grandes échelles ; elle suit la matière noire. En partant de ce postulat et avec l’aide d'ordinateurs multi-processeurs, les scientifiques des années 1990 ont commencé à modéliser l’évolution de cubes d’univers de plusieurs Mpc de côté depuis un décalage spectral z = 100 (il y a plus de 13 milliards d'années) lorsque la physique de l'univers devient non linéaire jusqu’à nos jours, z = 0. Ces simulations ne prennent en compte que la matière noire, la force de gravité entre ces particules et l’expansion de l’univers. Les conditions initiales correspondent à un univers de densité constante avec des inhomogénéités générées de manière aléatoire.

Les limites des simulations

L'univers est constitué de milliards de milliards de milliards, etc, de particules baryoniques et encore plus de matière noire ; il est impossible de suivre l'évolution de chacune d'elles, cela demanderait beaucoup trop d'heures de calcul. Les simulations cosmologiques les plus importantes simulent au maximum plusieurs milliards de particules. Dans le cas des simulations cosmologiques couvrant un grand volume spatial (cubes de plusieurs centaine de kpc), seule la matière noire est simulée par le biais d'éléments de masse appelés particules. Elles ont une masse allant du million au milliard de fois la masse du soleil. Cette taille crée une limite dans la résolution de la simulation. Elle ne rend pas fausse les simulations mais elle les rend incapables de simuler des objets de plus petite masse que la masse de base. Ces types de simulations ne sont donc pertinentes que pour reproduire les galaxies les plus massives et les grandes structures qu'elles forment. Il est à noter qu'il existe de plus en plus de simulations cosmologiques simulant de petits cubes d'univers (10-20 kpc) mais introduisant la matière baryonique. De plus, un autre type de simulation cosmologique se focalise sur les petites structures, telles les galaxies naines, en simulant de petit volume d'univers mais avec une grande résolution. Le domaine des simulations est donc très vaste et dépend de ce que l'on veut étudier : l'univers dans son ensemble, la formation des baryons dans les galaxies ou encore la formation des petites structures.

L'univers visible mesurable est celui des étoiles et gaz. Cependant, les simulations cosmologiques à grandes échelles nous montrent surtout l'univers invisible de la matière noire. Cela peut paraître de prime abord très profitable, nous aurions à notre portée les deux faces de l'univers. Cependant, cela empêche de vérifier directement si les simulations cosmologiques sont bonnes et décrivent bien l'univers. Il est donc primordial de faire le lien entre la matière baryonique et la matière noire, ce qui n'est pas chose aisée. Il paraît normal de supposer qu'un halo de matière noire abrite une galaxie. Mais une galaxie de quelle masse, de quelle type, et quelle est la nature de la matière dans cette galaxie, gazeuse ou stellaire ? Toutes ces questions ont donné lieu à des modèles semi-analytiques qui remplissent les halos de matière noire de matière baryonique et les font évoluer analytiquement. Ce procédé est rapide mais sujet à caution. Les lois analytiques sont-elles les bonnes, peut-on simplifier par quelques lois des phénomènes aussi complexes qu'une fusion de galaxies et connaît-on réellement ces lois à grands décalages spectraux ?

Bien que les simulations soient un outil irremplaçable, les limites dues à la résolution et les limites dues à la physique implémentée dans les simulations montrent que les simulations sont aussi un outil à utiliser avec précaution.


Résultats des simulations

Simulation Millennium
millenium.jpg
Trois étapes de la simulation Millennium, du début de la simulation (gauche) à sa fin (droite). La formation des structures qui est la condensation de la matière y est très clairement visible.
Crédit : Millennium

La simulation millennium

Un des exemples les plus connus de simulation cosmologique est la simulation Millennium. Lancée en 2005 au Max Planck Institut, elle simule plus de 10 milliards de particules couvrant un volume cubique de 500 Mpc de côté. Ses données de sortie sont 63 snapshots (données sur les positions et vitesses de chaque particule à un temps défini) répartis de z = 127 à z = 0 qui représentent plusieurs téraoctets de données. La masse de chaque particule est de 8,6 \times 10^{8} masses solaires. Une seconde version a été lancée, Millennium II, dans le but de mieux contraindre les moyennes échelles. La taille du cube est dans ce cas de 125 Mpc avec une masse par particule de 6,9 \times 10^6 masses solaires.

Résultats

Le principal résultat de telles simulations numériques est l'accord entre la distribution spatiale de la matière observée et de celle simulée. Dans ces simulations, la matière se distribue bien suivant des filaments remplis de galaxies isolées ou en petits groupes. Les intersections de ces filaments forment des amas. La ressemblance entre les résultats des simulations numériques et la distribution des galaxies et des amas de galaxies observée à grande échelle est frappante, et semble indiquer que les simulations numériques rendent bien compte de la manière dont les grandes structures ont pu se former dans l’univers.


Exercices

Auteur: Sylvain Fouquet

exerciceOrdre de grandeurs des simulations cosmologiques

Question 1)

La simulation Millennium simule un cube d'une taille de 500 Mpc de côté avec près de 10^{10} particules d'une masse de 10^{9} masses solaires environ chacune. Quelle est la masse totale simulée et la masse volumique moyenne à z = 0 en g/ cm3, à comparer à l'eau ?

Question 2)

Combien de halos de matière noire de 10^{12} masses solaires (la valeur généralement admise pour la Voie Lactée) peuvent être simulés ?

Question 3)

De combien de particules est constitué le halo de la Voie Lactée dans une telle simulation ?


Composition de l'univers à z = 0

La matière dans l'univers proche s'est répartie suivant une structure filamentaire mais elle a aussi changé de forme. Depuis la matière froide et neutre des âges sombres en passant par du gaz ionisé à la réionisation, la matière aujourd'hui prend plusieurs formes.

Les étoiles

Si vous levez les yeux au ciel le soir vous verrez sous quelle forme se présente une partie de la matière dans l'univers : les étoiles. Il est assez facile de déterminer la masse des étoiles. Il suffit de mesurer la quantité de lumière qui nous parvient de ces dernières et de la convertir en masse. Bien que simple en théorie, cela s'avère plus difficile en pratique et certains pièges sont à éviter. La valeur déterminante dans cette recherche est le rapport M/L, masse sur luminosité. Si ce rapport était constant l'exercice serait trivial. Il change en fait en fonction de l'étoile observée. Une étoile géante à 20 000 K émettant beaucoup dans le bleu a un M/L plus petit qu'une étoile rouge moins massive de 4 000 K. La masse stellaire représente près de 20 % de la masse baryonique totale.

Le gaz HI

L'autre forme de la matière est le gaz neutre d'hydrogène, HI. Il est généralement le résultat d'une absence d'évolution depuis l'époque de la recombinaison. Ce gaz se raréfie. Pour la Voie Lactée, il compte pour seulement 12 % de la masse baryonique totale, le reste étant principalement des étoiles. Pour la galaxie d'Andromède c'est encore moins, 6%. Les galaxies elliptiques sont quant à elles presque dépourvues de gaz HI. Ce sont les galaxies naines irrégulières qui sont encore les plus riches en gaz avec des proportions pouvant atteindre plus de 50%. C'est le cas du Petit Nuage de Magellan. Les grands nuages de gaz neutre intergalactiques isolés sont rares à z = 0.

Le gaz chaud

Les amas de galaxies sont connus pour deux caractéristiques : une forte concentration de galaxies, principalement elliptiques, et une grande masse de gaz chaud. Comment cela est-il possible quand on sait que les elliptiques sont quasiment dépourvues de gaz HI ? Il se trouve que le gaz dans les amas de galaxies n'est pas sous sa forme habituelle, neutre et attaché à une galaxie, mais il est très chaud, ionisé et en équilibre avec l'amas dans sa globalité. Ce gaz est facilement détectable car il émet très fortement dans le domaine des rayons X. De plus son interaction avec le FDC via l'effet Sunyaev-Zel'Dovitch permet de mesurer son décalage spectral. Ce gaz constitue plus de 90 % de la masse des amas de galaxies.

Le gaz chaud d'un amas est le résultat de l'agglomération successive de nombreuses galaxies dans l'amas. Lorsqu'un amas se forme, il commence par accréter des galaxies et par les faire interagir entre elles. Leur gaz est brûlé pour former des étoiles ou chauffé et éjecté dans leurs environnements. Au fur et à mesure que des galaxies peuplent un amas, le gaz environnant de l'amas devient chaud et surtout dense, si bien que les nouvelles galaxies riches en gaz qui tombent dans un amas sont dépouillées de leur gaz qui est chauffé et qui contribue au gaz chaud de l'amas. Cette formation ayant lieu dès le début de la formation des structures galactiques, pendant et après l'époque de réionisation, les galaxies accrétées étaient très riches en gaz, ce qui explique la fraction importante de gaz dans les amas.

Poussière

Une dernière composante de la matière visible est la poussière. Cette dernière dans son sens général inclut tout ce qui n'est pas du gaz, ou un plasma de gaz tel qu'une étoile. La poussière est en général constituée de petites particules d'une taille de 0.001 à 0.2 \mum. Cependant, l'accumulation de cette poussière peut former des objets plus massifs comme les astéroïdes ou les planètes avec nous y vivant. Cette composante est le résultat de la nucléosynthèse des étoiles massives et de l'éjection de cette matière par les étoiles. Nous sommes donc de la poussière d'étoiles comme il est fréquent d'entendre dire. Sa masse totale est assez faible, moins d'un pourcent de la masse baryonique.

Masse manquante - le gaz diffus et chaud

Lorsque toute la masse baryonique est comptabilisée à z = 0 et qu'elle est ensuite comparée à la masse baryonique mesurée à z = 2, il y a un déficit de près de 50% ; la moitié de la masse baryonique manque. Comme il n'existe pas de processus possible pour faire disparaître une aussi grande quantité de masse durant les 13 derniers milliards d'années, cela implique qu'elle est cachée, invisible. L'hypothèse la plus tangible est qu'elle soit sous la forme d'un gaz diffus froid ou d'un gaz tiède ou chaud. Le fait d'être diffus rend difficile sa détection car le gaz n'absorbe ou n'émet pas assez de lumière. Le fait que le gaz soit tiède ou chaud implique une émission de lumière dans des longueurs d'onde non observées intensivement par les astronomes, entre l'UV et les rayons X. Le gaz chaud des amas est facilement observable car il est concentré et émet beaucoup de rayons X.

La matière noire

Un autre type de matière semble aussi être présente bien qu'elle n'ait jamais été observée directement : la matière noire. Elle formerait des halos autour des galaxies et dans les amas. Sa particularité est de n'interagir que gravitationnellement, donc d'être totalement invisible. La propriété la plus surprenante de cette matière est que sa masse serait plus de six fois supérieure à la masse baryonique.


Réponses aux exercices

pages_univ-debut/exo-suba.html

Exercice 'Grandeurs caractéristiques'