Du Big Bang aux planètes


Introduction

prerequisPrérequis

Certaines notions de physique et d'astronomie utiles à la compréhension de ce cours sont données au fil du texte. En physique, il s'agit des propriétés de la lumière et du principe de la spectroscopie, de la notion de corps noir, de la structure de la matière (atomes, électrons, ions), de l'effet Doppler-Fizeau. En astronomie, les distances dans l'Univers seront abordées, ainsi que certaines définitions fondamentales (planète, étoile, galaxie).

introductionIntroduction

La question de ses origines est l'une des plus fondamentales que l'homme puisse se poser, et si l'on parvient assez bien à décrire et à comprendre l'Univers où nous nous trouvons, beaucoup reste encore à expliquer sur la manière dont la vie a pu apparaître sur Terre. Nous essaierons dans ce chapitre de donner un panorama de l'Univers et de son évolution, ainsi que de ses composants (galaxies, étoiles, milieu interstellaire, etc.), afin de rendre compte de la formation des atomes qui se sont ensuite regroupés en des chaînes carbonées constituant la matière vivante.


Le Big Bang

Auteurs: Florence Durret, Fabienne Casoli, André Füzfa

Introduction

introductionIntroduction

La compréhension de l'Univers où nous vivons a toujours été un souci pour l'homme, tant dans l'Antiquité que de nos jours. Evidemment, l'Univers a longtemps été limité aux étoiles visibles à l'oeil nu, qui font toutes partie de notre Galaxie (la Voie Lactée) et ce n'est qu'au début du XXème siècle que l'on a vraiment pu montrer que l'Univers était en fait beaucoup plus grand qu'on ne le pensait. En 1920, les astronomes Curtis et Shapley se disputaient encore pour savoir si les galaxies faisaient partie de la nôtre ou étaient beaucoup plus grosses et plus lointaines, mais peu après Edwin Hubble a pu établir de manière définitive que les galaxies, qui sont en fait des concentrations de millions, voire de milliards d'étoiles, étaient des objets très gros et massifs, situés à de très grandes distances de nous.

A titre d'exemple, deux des galaxies les plus proches de nous sont le Grand Nuage et le Petit Nuage de Magellan, deux galaxies irrégulières visibles seulement de l'hémisphère terrestre sud et situées à une distance de 162 000 et 195 000 années lumière respectivement. Elles sont facilement visibles à l'oeil nu. La galaxie la plus proche visible de l'hémisphère nord est Andromède, qui est à 2 millions et demi d'années lumière de la Voie Lactée. On peut la voir facilement avec une paire de jumelles. Edwin Hubble a également montré que les galaxies semblaient s'éloigner de nous, à une vitesse d'autant plus grande qu'elles étaient lointaines. Cette propriété fondamentale, qui comme nous le verrons ci-dessous implique que l'Univers est en expansion, est à la base de la cosmologie moderne. Elle constitue l'un des trois arguments extrêmement forts en faveur du modèle cosmologique standard, dit du Big Bang, les deux autres étant l'observation du fond diffus cosmologique et les abondances des éléments légers (hydrogène, hélium et lithium).

Nous présenterons dans ce cours le modèle du Big Bang "standard" tel qu'il est actuellement admis pour expliquer les origines de l'Univers.


Petite visite guidée de l'Univers

Auteurs: Florence Durret, Loïc Villain

Introduction

Résumé

Dans cette section, nous allons nous familiariser avec les distances astronomiques que l'on rencontre quand on veut parcourir l'Univers ; munis de l'unité de distance adaptée, l'année-lumière, nous irons de notre planète, la Terre, jusqu'aux galaxies les plus lointaines connues, dont la lumière a mis plusieurs milliards d'années pour nous parvenir.


Echelles de distances dans l'Univers

Les unités de distance ordinaires, mètre et kilomètre, ne sont pas très utiles quand on veut parler des distances dans l'Univers. Dire que la plus proche étoile (la plus faible des trois étoiles du système d'Alpha du Centaure) est à 40 000 milliards de km de nous ne parle guère à l'imagination. Et si on veut aller un peu plus loin dans l'Univers, il faudra apprendre à manipuler des chiffres vraiment très grands. Les astronomes s'accomodent de cette situation en utilisant des unités spécifiques comme l'année-lumière ou le parsec que nous verrons un peu plus loin. L'année-lumière, contrairement à ce que son nom peut laisser penser, n'est pas une unité de temps mais une unité de distance : c'est la distance parcourue par la lumière en une année, qui vaut 9,46 1015 m (voir exercice).

remarqueRemarque

Un petit rappel sur la notation scientifique : 3 104 signifie 3 suivi de 4 zéros, soit 30000. 3 109 signifie 3 suivi de 9 zéros, soit trois milliards.

Et quand l'exposant est négatif ? 5 10-1 veut dire 0,5 ; 7 10-2 veut dire 0,07 ; l'exposant négatif indique donc qu'on doit déplacer la virgule vers la gauche d'un nombre de positions égal à la valeur de l'exposant.

Quelques exemples de distances
Distance à partir de la Terre
Lune 1,3 seconde-lumière
Soleil 8 minutes-lumière
Pluton 5,5 heures-lumière
Proxima Centauri 4,2 années-lumière
Centre de la Voie Lactée 26 000 années-lumière
Galaxie d'Andromède (Messier 31) 2,6 millions d'années-lumière
Amas de galaxies de la constellation de Coma 330 millions d'années-lumière
Horizon cosmique (Diamètre de l'Univers observable) 44 milliards d'années-lumière*

remarqueRemarque

* L'horizon cosmique est la distance maximale qu'a pu parcourir à ce jour un photon émis au moment où l'Univers est devenu transparent. Sa détermination n'est pas immédiate car elle dépend de la façon dont se déroule l'expansion de l'Univers.


Exercice : distances

exerciceCalcul de la valeur d'une année lumière

Question 1)

Calculer la valeur d'une année-lumière en mètres sachant que la lumière parcourt 300 000 km en 1 seconde (valeur arrondie).

exerciceDistance Terre-Soleil

Question 1)

Si la distance moyenne Terre-Soleil est d'environ 150 millions de km, combien de temps la lumière du Soleil met-elle à nous parvenir ?


Echelles de distances dans l'Univers-2

La Terre vue de l'espace
terre_apollo.jpg
Photo de la Terre prise le 7 décembre 1972 par les astronautes de la mission Apollo 17. On est ici à une échelle caractéristique de 10 000 km soit 107 m.
Crédit : NASA/NSSDC/APOLLO

Munis de l'unité année-lumière, que nous abrégerons en a.l., et de ses multiples, notamment le million et le milliard d'années-lumière (respectivement Ma.l. pour méga années-lumière, Ga.l. pour giga années-lumière), nous pouvons nous lancer dans une petite visite de l'Univers. Commençons par notre planète la Terre, telle qu'on peut la voir depuis l'espace.

La Terre vue de la Lune
terre-lune.jpg
Clair de Terre sur la Lune vu par Apollo 11. Nous sommes à une échelle caractéristique de 400 000 km, soit 1,3 seconde-lumière.
Crédit : NASA/JSC/APOLLO

Faisons un petit bond en avant dans les échelles de longueur, juste un facteur 10 (autrement dit multiplions la distance par 10): c'est le système Terre-Lune.

Le système solaire
systeme-solaire.jpg
Schéma du Système solaire.
Crédit : Astrophysique sur Mesure / Gilles Bessou + images NASA

Un petit coup d'accélérateur et nous voilà au niveau du Système solaire tout entier avec ses huit planètes. Sachant qu'il faut 4,2 heures pour que la lumière du Soleil parvienne à la huitième planète, Neptune, on calcule aisément que la distance Soleil-Neptune est de 4,5 milliards de km : soit une demi-dizaine de milliards de km, l'échelle est donc de l'ordre de 1010 km ! Il est difficile de donner une taille précise du système solaire, puisqu'au-delà de l'orbite de Pluton (qui est maintenant une planète naine), on trouve encore, non seulement des milliards de noyaux de comètes, mais aussi des dizaines de petits corps glacés appelés objets trans-neptuniens (parce que leur orbite autour du Soleil est située au-delà de celle de Neptune).

L'amas d'étoiles des Pléiades
pleiades_m45kp09.jpg
L'amas des Pléiades est le plus connu des amas d'étoiles. La lumière qui le baigne est celle des étoiles de l'amas qui est diffusée par de fins nuages de gaz et de poussières.
Crédit : AURA/NOAO/NSF

Notre Galaxie (que nous écrivons avec un G majuscule pour la distinguer des autres galaxies) est un ensemble de plusieurs dizaines de milliards d'étoiles. Nous avons déjà vu que les étoiles sont très éloignées les unes des autres : Alpha Centauri, notre plus proche voisine, est à 4,2 années-lumière, alors que les dimensions du Système solaire se mesurent plutôt en heures-lumière. Les étoiles sont souvent groupées en amas dont les Pléiades sont un exemple caractéristique. Ici la distance typique entre étoiles est de l'ordre de 13 années-lumière. Nous sommes donc à une échelle caractéristique de 13 x 9,5 1015 m soit environ 1017 m. L'amas des Pléiades, qui peut être vu à l'oeil nu, contient plusieurs milliers d'étoiles et se trouve à environ 400 années-lumière du Soleil.

La galaxie Messier 83
m83.jpg
La galaxie Messier 83 est dite spirale à cause de ses bras en forme de spirale, composés d'étoiles bleues très massives et lumineuses, que l'on peut voir sur l'image. Elle contient aussi en son centre une barre rectiligne d'étoiles plus jaunes. Notre Galaxie, la Voie Lactée, est une spirale barrée comme M83. La taille d'une galaxie comme la nôtre, qui est tout à fait typique des galaxies spirales, se mesure en dizaines de milliers d'années-lumière.
Crédit : ESO

Les dimensions de notre Galaxie, la Voie Lactée, se mesurent en dizaines de milliers d'années-lumière. Si nous pouvions voir notre Galaxie de l'extérieur, elle ressemblerait sans doute à M83, une belle galaxie spirale barrée visible de l'hémisphère sud.

Un amas de galaxies
cluster.jpg
Cet amas de galaxies contient des centaines de galaxies et ses dimensions se mesurent en millions d'années-lumière. Sa distance est de 3 milliards d'années-lumière. Nous sommes donc arrivés à des échelles de 1025 m.
Crédit : ESO

À une échelle encore plus grande, les galaxies sont organisées en grandes structures comme des amas de galaxies, regroupements de milliers de galaxies, de grands "murs" ou des "filaments". Voici un amas de galaxies de l'hémisphère sud observé avec un des télescopes du VLT.

La galaxie la plus lointaine?
z10.jpg
Cette tache minuscule sur une image prise avec le télescope "ANTU" du VLT de l'ESO est la galaxie la plus lointaine qu'on connaisse, découverte en 2004. L'image totale et un agrandissement de la zone contenant la galaxie lointaine apparaissent dans les figures supérieures. Les figures inférieures montrent la région de la galaxie observée à travers quatre filtres différents. La galaxie n'est visible que dans l'une de ces quatre images, ce qui donne une indication sur son décalage spectral.
Crédit : ESO

Encore plus loin de nous, nous touchons aux limites de l'Univers observable. Découverte en 2004, voici la galaxie la plus lointaine observée à ce jour : elle n'est pas très spectaculaire, mais songeons que sa lumière a mis 13,2 milliards d'années à nous parvenir !


Exercices : la Terre et la Lune

exerciceLa longueur de l'équateur terrestre

Question 1)

Quelle est la longueur de l'équateur terrestre mesurée en secondes-lumière (on prendra la vitesse de la lumière égale à 299 792 km/s) ?

exerciceLa mesure de la distance Terre-Lune

Temps : 10 min

Question 1)

Depuis 1985, on mesure la distance entre la Terre et la Lune en déterminant la durée du trajet aller-retour d'un faisceau laser envoyé depuis un télescope, réfléchi par des rétro-réflecteurs qui ont été déposés sur la Lune par des missions automatisées soviétiques et à nouveau reçu par le télescope. Les objectifs scientifiques sont de mieux déterminer les mouvements de la Terre et de la Lune et de tester les théories de la gravitation. On effectue aussi le même genre de mesure sur des satellites artificiels pour déterminer très précisément leurs trajectoires.

La distance Terre-Lune valant en moyenne 384 000 km et la vitesse de la lumière dans le vide étant de 299 792 km/s, déterminer la durée du trajet du faisceau lumineux.

Question 2)

Si on veut déterminer la distance Terre-Lune avec une précision de l'ordre du mm, avec quelle précision faut-il déterminer le temps de trajet ? Commenter.


Exercices : l'étoile la plus proche

exerciceLe Soleil et Alpha du Centaure à l'échelle de la Terre

Question 1)

On veut représenter la distance de la Terre à la plus proche étoile, qui vaut 4,2 années-lumière, à l'échelle du globe terrestre. Si l'on place le Soleil à Paris et Proxima Centauri à Honololu (Hawaii), où doit-on placer la Terre ? On prendra une distance de 12 000 km pour Paris-Hawaii.


La lumière

L'immense majorité des informations que les astronomes ont sur l'Univers et son contenu passe par l'étude de la lumière qui nous vient des astres. C'est par l'étude spectroscopique de celle-ci que nous pouvons étudier la composition, la température, la densité, la vitesse de déplacement, le champ magnétique, etc., des objets observés. La spectroscopie consiste à séparer la lumière en ses diverses couleurs, définies de manière plus précise par leur longueur d'onde lambda (λ) ou de manière équivalente par leur fréquence nu : nu=c/lambda, où c est la vitesse de la lumière. Ces deux grandeurs nous renseignent par ailleurs sur l'énergie que porte chacune des particules qui constituent la lumière, les photons, puisque pour une fréquence nu l'énergie d'un photon est E = h nu, où h est la constante de Planck (= 6.626\;10^{-34} J.s).

Pour obtenir un spectre en astronomie, on collecte la lumière avec un télescope et on la disperse, grâce à un prisme ou à un réseau, tout comme les gouttes d'eau de l'atmosphère dispersent la lumière du Soleil et créent des arcs-en-ciel. On recueille la lumière ainsi "étalée" avec un détecteur (par exemple une caméra CCD) qui nous permet de voir quelles sont les différentes longueurs d'ondes ou fréquences, présentes dans la lumière que l'on reçoit.

L'œil est sensible aux longueurs d'onde comprises entre environ 400 nm (bleu) et 800 nm (rouge), avec 1 nm = 1 nanomètre = 10-9 m = 10-3 μm (donc entre 0.4 μm et 0.8 μm), mais la lumière couvre un spectre beaucoup plus vaste, avec, par longueur d'onde croissante (autrement dit par fréquence ou énergie décroissantes) les domaines gamma, X, ultraviolet, visible, infrarouge et radio. Pour les "couleurs invisibles" on parle généralement de "rayonnement électromagnétique", le physicien écossais James Clerk Maxwell ayant montré au XIXème siècle que la lumière, ainsi que les divers rayonnements mentionnés plus haut, sont différents types de vibrations de ce que l'on nomme le champ électromagnétique et dans lequel nous baignons.

remarqueRemarque

Pour désigner les longueurs d'onde associées aux rayonnement émis par les atomes, les astronomes utilisent encore souvent une unité adaptée aux distances en jeu, l'Angström, avec 1 Å = 0,1 nm.

Les longueurs d'onde de la lumière
lalumiere.jpg
Les différentes longueurs d'onde de la lumière, depuis les rayons gamma (courte longueur d'onde, grande énergie) jusqu'aux ondes radio (grande longueur d'onde, énergie faible). On notera que la lumière visible ne représente qu'une très faible portion de ce spectre.
Crédit : Astrophysique sur Mesure / Alain Hui-Bon-Hoa et Gilles Bessou

L'analyse de la composition de la lumière qui nous parvient a un grand intérêt astrophysique car chaque élément chimique a un spectre propre qui correspond aux longueurs d'onde qu'il peut émettre ou absorber. En effet, les lois de la physique quantique disent qu'un atome ne peut pas se trouver dans n'importe quel état et que son énergie ne peut avoir que certaines valeurs précises. En conséquence, lorsqu'un atome ou une molécule perd ou gagne de l'énergie, ce qui correspond à l'émission ou à l'absorption de lumière, cela ne peut se faire que si la lumière émise ou absorbée possède elle-même une énergie associée à une transition possible entre états autorisés pour l'atome. À chacune de ces énergies de la lumière correspond donc une fréquence bien précise et donc une raie dans le spectre observé.

Pour une étoile donnée, on observe deux types de raies spectrales, dites d'émission et d'absorption, car les gaz chauds qui forment le noyau de l'étoile se refroidissent en émettant de la lumière (et on a des raies d'émission), alors que les parties externes plus froides peuvent être chauffées, entre autres choses par l'énergie émise au centre, et donc absorbent de l'énergie (et on a ainsi des raies d'absorption). Si l'on connait chacune des raies associées aux fréquences que peuvent émettre ou absorber chacun des types d'atomes, on peut déduire la composition d'une étoile de son spectre lumineux. Par exemple, l'astronome français Jules Janssen a montré en 1868 en étudiant le spectre du Soleil que celui-ci comportait une sorte d'atome alors inconnu sur Terre, l'hélium.

Spectre
spectre_em_1d2d.jpg
Exemple de spectre en émission (au-dessus) avec quelques raies d'émission visibles à des longueurs d'onde bien précises, et une coupe horizontale montrant le flux lumineux en fonction de la longueur d'onde (en dessous). On distingue le rayonnement continu à toutes les longueurs d'onde, auquel se superposent les raies d'émission (pics) déjà visibles sur le spectre du haut.
Crédit : Université d'Oregon

Nous décrirons plus tard la façon par laquelle l'analyse spectrale de la lumière émise par les étoiles permet de déduire leur vitesse de déplacement par rapport à nous, voire d'estimer la distance des objets cosmologiques, mais auparavant nous allons brièvement présenter des méthodes plus anciennes d'estimation de distance, et qui reposent évidemment elles aussi sur l'étude de la lumière qui nous parvient.


Les distances en astronomie

La mesure des distances est une question centrale en astronomie : cet astre qui nous semble si faible, est-ce parce qu'il est peu lumineux et proche de nous, ou bien très lumineux mais très lointain ? Cette étoile qui brille dans le ciel nocturne, comment croire qu'elle est aussi lumineuse que le Soleil ? Comment calculer la luminosité absolue d'une étoile ou d'une galaxie quand on ne connaît que sa luminosité apparente (observée) ? Questions auxquelles il est impossible de répondre tant que l'on n'a pas déterminé la distance de l'objet observé.

Les astronomes ont donc au fil des âges inventé toutes sortes de méthodes pour déterminer les distances de leurs astres favoris. Pour les corps du Système solaire et les étoiles proches, la méthode classique, qui remonte à l'astronome allemand Bessel en 1838, est celle des parallaxes avec toutes sortes de variantes (voir la figure pour une explication).

Principe de la mesure de la parallaxe d'une étoile proche
images/parallaxe.gif
Cette animation montre comment la position apparente dans le ciel d'une étoile proche se déplace par rapport aux étoiles plus lointaines, qui semblent fixes. Ce mouvement apparent est en fait dû au mouvement de révolution de la Terre autour du Soleil. La mesure de la distance entre les deux positions extrêmes de l'étoile sur le ciel permet d'estimer un angle qui est la parallaxe de l'étoile. La tangente de cet angle est égale au rapport entre la distance Terre-Soleil (bien connue) et la distance de l'étoile, qui peut donc ainsi être estimée.
Crédit : Astrophysique sur Mesure / Florence Durret et Gilles Bessou

Le parsec

La méthode des parallaxes permet d'autre part de définir l'unité de distance la plus couramment utilisée par les astronomes, le parsec (pc). Le parsec est la distance à laquelle se trouve une étoile qui a une PARallaxe d'une SEConde d'arc. L'année-lumière est moins utilisée que le parsec dans la littérature astronomique "professionnelle", sans doute parce qu'elle fait un peu double emploi avec le parsec. En effet 1 pc = 3,26 al. La méthode de la parallaxe repose sur une détermination précise d'angles et n'est généralement utilisée que pour les étoiles assez proches du Soleil, typiquement des distances de quelques dizaines de pc au maximum. En raison de leurs très grandes précisions, le télescope spatial Hipparcos (HIgh Precision PARallax COllecting Satellite, satellite de mesure de parallaxe à haute précision) et le télescope spatial Hubble ont toutefois permis des mesures sur des distances plus importantes, Hipparcos ayant par exemple permis de déterminer précisément la distance de plus d'une centaine de milliers d'étoiles situées à moins de 150 pc.

Pour les astres plus lointains, il existe plusieurs techniques sophistiquées de mesure de distance, qui reposent toutes au moins en partie sur la modélisation des objets astrophysiques observés. Nous n'entrerons pas dans leurs détails et ne donnerons ici que quelques exemples. Ainsi, si l'on parvient à prouver que plusieurs étoiles visibles dans la même direction sont proches les unes des autres (ex. : si elles forment un amas), on en déduit que leurs distances par rapport à nous sont assez semblables. En conséquence, leurs éclats apparents doivent être reliés d'une façon similaire à leurs vrais éclats (les astronomes parlent de magnitude ou luminosité absolue(s) pour caractériser la quantité de lumière qu'émet une étoile et donc de manière équivalente sa brillance intrinsèque), et si l'on peut avoir une idée des rapports entre leurs luminosités absolues, on peut réussir à estimer la distance qui nous en sépare. Grâce aux modèles d'évolution stellaire, cette méthode permet de déterminer la distance de certaines étoiles, même si pour une étoile proche les incertitudes sont plus importantes que lorsque l'on utilise la parallaxe.

Une autre méthode courante est de s'appuyer sur des "chandelles standard" : on suppose qu'une certaine classe d'objets a toujours la même luminosité absolue, et connaissant la luminosité apparente de la chandelle standard, on en déduit sa distance. En effet, la luminosité apparente décroit avec le carré de la distance, et une chandelle qui est à 2 millions d'années-lumière de nous est ainsi quatre fois moins lumineuse que celle qui est à 1 million d'années-lumière. Les astronomes utilisent divers types de chandelles standard, les plus connues étant les étoiles variables Céphéides pour notre Galaxie et les galaxies proches, et un type particulier de supernovae appelées supernovae de type Ia pour les galaxies lointaines. Les Céphéides sont en effet des étoiles dont la luminosité varie au cours du temps avec une certaine périodicité, et l'astronome états-unienne Henrietta Leavitt découvrit au début du XXème siècle que plus une Céphéide a une luminosité absolue importante, plus la période de ces oscillations est grande. Rapidement, son compatriote Harlow Shapley utilisa cette découverte et des mesures de distances par parallaxe de Céphéides proches pour établir une échelle de distance profitant du fait que les Céphéides peuvent même être observées dans des galaxies distantes en raison de leur forte luminosité absolue.

De nos jours, la très grande sensibilité du télescope spatial Hubble a permis d'utiliser les Céphéides pour déterminer la distance de galaxies situées jusqu'à près de 100 millions d'années-lumière. Pour estimer la distance d'objets cosmologiques, on utilise cependant de manière plus fréquente un autre type de chandelle standard, les supernovae de type Ia. Celles-ci sont des explosions survenant lorsque la masse de naines blanches augmente (par exemple si elles sont dans un système binaire et reçoivent de la matière d'un compagnon) et approche de la valeur maximale au-delà de laquelle l'étoile est instable. Toutes les naines blanches ayant grossièrement la même masse maximale et ces explosions se produisant de façons assez identiques, on peut avoir une idée de leur luminosité absolue et donc déduire leur distance de leur luminosité apparente. En pratique, cette détermination repose toutefois également sur l'analyse de certaines propriétés du spectre de la lumière qui vont être le sujet de la prochaine page.


Le décalage vers le rouge et l'effet Doppler-Fizeau

Comme cela avait mentionné dans la partie concernant les spectres lumineux, leur analyse permet non seulement de nous informer sur la matière qui compose les sources lumineuses, mais également d'étudier diverses caractéristiques de celles-ci. En particulier, on a remarqué que les spectres des galaxies que l'on observe sont décalés vers le rouge par rapport à des spectres identiques qui seraient obtenus en laboratoire. Plus précisément, cela signifie que si une galaxie contient un certain type d'atomes qui émet de la lumière comportant des raies bien connues par des études en laboratoire, les raies composant le spectre observé ne seront pas situées aux mêmes longueurs d'onde que celles que l'on obtient en laboratoire, mais sembleront décalées vers des plus grandes longueurs d'onde. Le rouge étant associé aux plus grandes longueurs d'onde de la partie visible du spectre électromagnétique, on parle de décalage vers le rouge. Ce décalage provient en fait de deux phénomènes physiques distincts qui sont souvent confondus à tort.

L'effet Doppler sonore
Illustration sonore de l'effet Doppler.
Crédit : Astrophysique sur Mesure / Gilles Bessou

Le premier d'entre eux est l'effet Doppler-Fizeau, une propriété des ondes, lumineuses mais également sonores, que l'on peut observer au quotidien. Ainsi, nous avons tous constaté qu'un véhicule motorisé qui s'approche de nous émet un son qui semble plus aigu (fréquence plus haute) que si le même véhicule était à l'arrêt à côté de nous, alors que lorsqu'il s'éloigne, le son nous semble plus grave (fréquence plus basse). On peut donc dire que le signal sonore émis par une source qui s'éloigne de nous est décalé vers les basses fréquences, et puisque cette propriété est vérifiée également pour les signaux lumineux, on parle souvent de décalage vers le rouge ou, en anglais, de redshift. Sans entrer dans les calculs, on retiendra que l'existence de l'effet Doppler implique qu'il est possible de relier le décalage relatif, généralement noté z=(\nu_{emis}-\nu_{obs})/\nu_{obs}, à la vitesse de déplacement entre la source de l'onde et son observateur. Ce phénomène est bien connu de la police routière qui étudie la différence de fréquence entre un signal émis et un autre renvoyé en écho pour déterminer la vitesse de véhicules, mais il est également utilisé en médecine où l'échographie Doppler permet de mesurer la structure et le flux sanguin présent dans les artères.

remarqueRemarque

En raison de l'invariance de la vitesse de la lumière et du fait qu'une onde sonore nécessite un milieu matériel pour se propager, le décalage vers le rouge ne se fait pas exactement de la même façon pour une onde lumineuse ou sonore. En particulier, pour une onde sonore usuelle l'effet Doppler n'affecte pas la longueur d'onde (mais juste la fréquence, celle-ci étant changée différemment selon si c'est la source ou l'observateur qui bouge par rapport au milieu de propagation de l'onde, l'air pour le son), alors que pour une onde lumineuse les deux sont changées afin que la relation \lambda=c/\nu reste valable. Ainsi, le décalage relatif utilisé en astronomie est généralement défini à partir de la longueur d'onde et vaut z=(\lambda_{obs}-\lambda_{emis})/\lambda_{emis}, une relation qui est équivalente à la précédente pour les fréquences uniquement si la vitesse c de propagation de l'onde ne dépend pas de l'observateur, ce qui n'est donc vrai que pour la lumière.

En astronomie, l'effet Doppler-Fizeau permet de déterminer les vitesses d'objets divers, par exemple d'étoiles proches ou de galaxies pas trop éloignées de la nôtre, et l'on a donc des décalages vers le rouge, mais aussi d'autres vers le bleu qui correspondent à des objets s'approchant de nous. Par exemple, si l'on voit par la tranche une galaxie spirale, dont les étoiles ont un mouvement de rotation autour de son centre, les étoiles qui viennent vers nous ont un spectre décalé vers le bleu alors que celui des étoiles qui s'éloignent au moment de l'observation est décalé vers le rouge. Une découverte importante du XXème siècle est celle que fit l'astronome états-unien Edwin Hubble : pour les galaxies qui ne sont pas trop proches de nous, il existe un décalage vers le rouge systématique, semblable à ce que l'on observerait si toutes les galaxies étaient en train de nous fuir. Hubble observa par ailleurs que plus une galaxie est éloignée, plus ce décalage est important. Si l'on interprète ce phénomène à l'aide de l'effet Doppler, c'est comme si les galaxies plus lointaines s'enfuyaient plus vite, ce qui a donné naissance à l'idée selon laquelle l'Univers est en expansion et ainsi au modèle cosmologique standard dit du Big Bang. Grâce aux travaux des astronomes russe Alexander Friedmann et belge Georges Lemaître, on a toutefois compris que le décalage vers le rouge observé pour les galaxies lointaines ne correspond pas à une véritable vitesse. Dans le cadre de la relativité générale découverte peu auparavant par Albert Einstein, Friedmann et Lemaître ont en effet démontré que le décalage observé découle en quelques sortes d'une diminution du potentiel gravitationnel au cours du temps due à la baisse de la densité moyenne de l'Univers, cette baisse étant bien évidemment elle-même un résultat de la fameuse expansion. On est donc en face de deux phénomènes physiques distincts (l'un lié à un véritable déplacement, l'autre à une diminution du champ gravitationnel) même si le résultat observationnel est le même et même si l'expansion de l'Univers nous pousse naturellement à penser de façon newtonienne et à imaginer un véritable déplacement des galaxies. Pour différencier ce décalage observé en cosmologie pour les galaxies lointaines de celui associé à l'effet Doppler, on parle parfois de décalage vers le rouge cosmologique ou encore gravitationnel, ces deux effets pouvant se méler. Par exemple, si l'on regarde une étoile située dans une galaxie lointaine, on peut avoir à la fois un décalage dû à l'expansion de l'Univers (et qui affecte toutes les étoiles de la galaxie de la même façon), auquel se superpose un autre dû au mouvement propre de l'étoile par rapport au reste de la galaxie.

remarqueRemarque

Plus précisément, ce que dit la relativité générale est que le rapport entre l'écoulement du temps en deux points différents dépend du rapport des intensités du champ gravitationnel ressenti. La fréquence d'un signal étant l'inverse de sa période temporelle, il en résulte donc bien un décalage en fréquence dû à des champs gravitationnels différents. L'existence de ce phénomène est d'ailleurs cruciale à prendre en compte pour le bon fonctionnement d'un gadget technologique devenu usuel : le GPS. La calibration de ce dernier repose en effet sur plusieurs satellites en orbite autour de la Terre et situés à un endroit où le champ de gravitation est plus faible qu'à la surface de la Terre. Cette différence de champ gravitationnel affecte le fonctionnement des horloges embarquées qui cliquent moins vite que des horloges semblables restées sur Terre. La haute précision des mesures de durée étant vitale pour celles des distances, le GPS est une démonstration quotidienne du fait que la relativité générale est une bonne description des propriétés de l'espace-temps.


Conclusion

conclusionConclusion

Nous avons vu dans cette section quelques outils indispensables pour la mesure et l'étude de l'Univers :

Nous allons maintenant voir plus en détails comment l'idée d'un Univers en expansion s'est peu à peu imposée aux astronomes.


L'Univers en expansion

Auteurs: Florence Durret, Loïc Villain

Introduction

Résumé

Le fait que les galaxies semblent toutes s'éloigner de nous a été interprété dès les années 1930 comme dû à l'expansion de l'Univers. La découverte du fond diffus cosmologique est ensuite venue confirmer cette interprétation, en remettant au goût du jour la théorie du Big Bang selon laquelle l'Univers aurait commencé par ce que l'on nomme parfois une gigantesque "explosion" : le Big Bang. Attention cependant : quand on utilise le terme "explosion" dans ce contexte, il s'agit d'un abus de langage car il ne s'agit pas d'une explosion proprement dite. En effet, ce qui se produit c'est que plus on recule dans le temps, plus la matière était dense et chaude, ce qui, en raison de la théorie de la relativité générale, signifie que la courbure de l'espace-temps augmente en conséquence. Si l'on recule suffisamment, il arrive ainsi un moment où cette théorie prédit que toutes les grandeurs physiques précédentes deviennent infinies : on parle de singularité. Mais l'existence de celle-ci ne fait que traduire les limites de nos théories actuelles et implique vraisemblablement que les notions usuelles d'espace et de temps cessent d'avoir un sens quand l'Univers est trop dense et chaud. À l'heure actuelle, il n'existe pas de théorie complète pour décrire cette époque cosmologique primordiale, mais si l'on ne recule pas trop dans le temps, on dispose d'une description de l'expansion de l'Univers qui repose sur des théories testées et fiables à partir d'un état initial dans lequel la matière était extrêmement dense et chaude. Nous décrivons ici les différentes étapes ayant conduit à ce modèle maintenant admis de manière quasiment unanime.


Historique : le décalage vers le rouge des galaxies

En examinant des spectres de galaxies dans les années 1920, les astronomes américains Vesto Slipher et Edwin Hubble ont les premiers montré de façon irréfutable que presque tous les spectres présentaient des raies d'absorption ou d'émission décalées vers le rouge par rapport aux mêmes raies observées en laboratoire. Hubble a de plus montré en 1929 que le décalage vers le rouge des galaxies était d'autant plus élevé que leur distance (mesurée par une autre méthode) était grande. Il en a conclu qu'il observait là un effet de type Doppler-Fizeau, où la fréquence semble plus basse lorsque la source s'éloigne et plus élevée lorsqu'elle se rapproche de l'observateur. La longueur d'onde étant inversement proportionnelle à la fréquence, il en a conclu que si la lumière d'une galaxie était décalée vers le rouge, c'est à dire vers les grandes longueurs d'onde, cela indiquait que la galaxie s'éloignait de la Terre. Ce résultat peut être généralisé à l'ensemble des galaxies, qui semblent quasiment toutes s'éloigner de nous (à l'exception de quelques galaxies très proches). Le fait que les galaxies s'éloignent les unes des autres est interprété naturellement comme dû à l'expansion de l'Univers, comme expliqué ci-dessous.

Spectres de galaxies
spectres.jpg
Spectres en lumière visible d'une galaxie très proche (Messier 31), en noir, et d'une galaxie plus lointaine dont on cherche à mesurer le décalage spectral, en rouge. Un logiciel permet d'estimer avec précision de combien le spectre rouge doit être décalé pour être superposé au spectre noir, ce qui donne une mesure de son décalage spectral relativement à celui, bien connu, de Messier 31.
Crédit : Florence Durret

Le décalage vers le rouge des galaxies observées par Edwin Hubble ne dépassait pas z=0,007. Une radio source tout à fait particulière fut découverte avec le radio télescope de Parkes en Australie en 1963 : le quasar 3C 273.

Son spectre optique a révélé des raies d'émission décalées vers le rouge de z=0,158, ce qui, dans l'interprétation d'un décalage spectral de nature cosmologique, en faisait l'objet le plus lointain connu à cette époque. C'est seulement parce que ce quasar était intrinsèquement très brillant que l'on pouvait le voir alors qu'il était situé très loin. En effet, étant donné la magnitude apparente relativement brillante de 3C 273 (12,9 dans le visible), un tel décalage spectral impliquait une magnitude absolue inhabituellement brillante. On a pu montrer par la suite que les quasars, dont 3C 273 est le prototype, sont en fait des galaxies dont la partie centrale est tellement brillante qu'elle empêche de voir le reste de la galaxie : on ne voit donc qu'une source ponctuelle très brillante, d'où le nom de "Quasi stellar object", ou quasar en abrégé.

Depuis lors, des milliers de quasars ont été découverts, et pendant longtemps, du fait de leur très grande luminosité intrinsèque, les quasars ont été les astres les plus lointains détectés dans l'Univers. Maintenant, grâce aux très grands télescopes dont les miroirs atteignent 8 à 10 mètres de diamètre on a pu détecter des millions de galaxies beaucoup plus lointaines que 3C 273. Le record actuel atteint un décalage spectral de presque 10.


Comment calculer le décalage vers le rouge des galaxies

Nous avons vu ci-dessus que les spectres des galaxies présentaient des raies d'absorption. La spectroscopie permet de mesurer le décalage vers le rouge z de chaque galaxie :

z=(lambda-lambda_0)/lambda_0,

lambda = longueur d'onde d'une raie (d'émission ou d'absorption) mesurée dans le spectre de la galaxie étudiée,

lambda_0 = longueur d'onde de la même raie mesurée en laboratoire.

Le décalage spectral z permet d'estimer leur vitesse d'éloignement v :

v = c [ (1+ z)2 - 1 ] / [ (1+ z)2 + 1 ] quel que soit z, qui se réduit à

v = c z, si z est petit. D'où la distance D correspondante : D = v / H0, où H0 est la constante de Hubble (voir ci-dessous).

Les différents indicateurs de distance ont permis de calibrer la constante de Hubble H0. Hubble avait commencé par trouver une valeur de l'ordre de 500 km s-1 Mpc-1 (1 Mpc vaut 1 million de parsecs, et 1 pc = 3,26 al). La valeur actuellement admise est H0 = 68 ± 8 km s-1 Mpc-1. Cela signifie qu'une galaxie qui se trouve à 100 Mpc de nous (à la distance de l'amas de galaxies situé dans la constellation de Coma) s'éloigne de nous à une vitesse de l'ordre de 6800 km/s.

La loi de Hubble
images/hubble_1929_1931fr.gif
Dès 1929, Edwin Hubble a remarqué que la vitesse à laquelle semblaient s'éloigner les galaxies qu'il observait était proportionnelle à leur distance (mesurée par une autre méthode, par exemple grâce aux étoiles Céphéides qu'elle renferme). La constante de proportionnalité a ensuite été appelée "constante de Hubble". La figure de gauche montre les premiers résultats obtenus par Edwin Hubble en 1929, pour des galaxies très proches (distance inférieure à 2 Mpc), celle de droite ceux de Hubble et Humason en 1931, pour des galaxies nettement plus lointaines (distance atteignant 30 Mpc).
Crédit : Hubble (1929), Hubble & Humason (1931)
La loi de Hubble en 1996
hubblelawrecent.jpg
La loi de Hubble mesurée en 1996 (vitesse des galaxies en fonction de leur distance). Cette fois, la distance des galaxies atteint 500 Mpc.
Crédit : Riess, Press & Kirshner (1996), Astrophysical Journal 473, 88

Une fois la constante de Hubble déterminée, la mesure du décalage vers le rouge d'une galaxie permet donc de calculer de façon très simple sa distance.


Exercices : le décalage vers le rouge

exerciceDécalages vers le rouge

Question 1)

Le spectre d'une galaxie présente une raie d'absorption à lambda = 456,022 nm identifiée avec la bande G d'absorption de longueur d'onde au repos lambda_0 = 434,00 nm. Quel est son décalage spectral ?

Question 2)

Le quasar 3C 273 est à un décalage spectral de 0,158. A quelle longueur d'onde observera-t-on la raie d'émission dont la longueur d'onde au repos est 372,73 nm ?

Question 3)

L'une des galaxies les plus lointaines connues actuellement est à un décalage spectral d'environ 7. A quelle longueur d'onde s'attend-on à voir sa raie d'émission Lyman alpha dont la longueur d'onde au repos est lambda_0 = 121,612 nm ?


L'idée de Big Bang

Dans l'hypothèse de l'expansion de l'Univers, il est logique d'essayer par la pensée de remonter la flèche du temps, ou en quelque sorte de "rembobiner le film". On arrive dans ce cas à une époque où toute la matière visible aujourd'hui devait être concentrée dans un très petit volume dont la densité et la courbure étaient pratiquement infinies (on parle de "singularité"). Attention toutefois : cela ne signifie pas que l'Univers dans son ensemble était un point comme on peut le lire parfois. En effet, comme on l'a indiqué dans l'introduction, lorsque la densité et la courbure deviennent trop grandes, les théories physiques actuelles ne sont plus valables et le mieux que l'on puisse dire est que les notions usuelles d'espace et de temps cessent d'avoir un sens. D'autre part, si le volume actuel de l'Univers est infini, une question qui reste ouverte, il est possible que son volume initial, c'est-à-dire son volume à l'instant le plus lointain où ces notions ont un sens, ait été lui aussi infini, et ce même si le volume de ce qui est aujourd'hui l'Univers visible était fini voire nul. On est donc loin de l'image d'un point d'où tout serait sorti. Quoiqu'il en soit, il n'y a désormais plus aucun doute à avoir sur le fait que l'Univers était autrefois bien plus chaud et dense, et c'est cette idée d'une expansion de l'Univers observé à partir d'un volume primordial que les cosmologistes nomment "modèle du Big Bang".

L'expansion de l'Univers
Cette animation montre le principe de l'expansion de l'Univers à partir du Big Bang ; les galaxies s'éloignent les unes des autres.
Crédit : Astrophysique sur Mesure / Florence Durret et Gilles Bessou
L'idée de Big Bang
Cette animation montre comment en inversant par la pensée le sens du temps on peut remonter au Big Bang, ou plus précisément au moment le plus éloigné dans l'histoire de l'Univers où les notions usuelles de densité, de température de la courbure ont un sens et sont extrêmement élevées.
Crédit : Astrophysique sur Mesure / Florence Durret et Gilles Bessou

Grâce à sa théorie de la relativité générale, Albert Einstein avait construit dès 1917 un premier modèle cosmologique. Mais puisqu'il n'existait a cette époque aucune raison d'imaginer l'Univers en expansion, il ajouta dans ses équations une constante dite "constante cosmologique" qui avait pour effet d'empêcher que ses équations ne le conduisent à une inévitable expansion. Après la découverte observationnelle de l'expansion de l'Univers, Einstein parlera de la plus grande erreur de sa vie puisqu'il aurait pu prédire l'expansion de l'Univers dès cette époque. Cette idée apparut toutefois en 1925, dans les travaux du mathématicien russe Alexandre Friedmann qui démontra que les équations d'Einstein conduisaient nécessairement à un Univers en évolution (dilatation ou contraction). Cependant en raison de l'isolement de la Russie à cette époque et de la mort prématurée de Friedmann, ses travaux tombèrent quelque peu dans l'oubli.

Comme nous l'avons déjà décrit ci-dessus, Hubble montra en 1929 que le décalage vers le rouge des galaxies était proportionnel à leur distance (déterminée par une méthode de type "chandelle standard") : il s'agit de la loi de Hubble, la constante de proportionnalité étant maintenant appelée constante de Hubble.

remarqueRemarque

Contrairement à ce que son nom pourrait faire croire, la constante de Hubble n'est pas une véritable constante. Elle en serait une si l'Univers était une sorte de gaz de galaxies issu d'une explosion primordiale. Cette image newtonienne est cependant inexacte, et le calcul relativiste correct montre que la constante de Hubble varie au cours du temps, et donc de la distance nous séparant de la galaxie observée, ce qui a en effet été vérifié par des observations. Ce n'est que pour les galaxies proches que l'on a une véritable constante.

Ces observations ont été interprétées par Georges Lemaître, qui ignorait tout des travaux de Friedmann, comme dues à une dilatation relativiste de l'Univers, hypothèse qui ne fit pas l'unanimité parmi les astronomes.

La théorie moderne du Big Bang a été pour la première fois introduite par Gamow, en collaboration avec Ralph Alpher et Hans Bethe en 1948 (voir remarque plus loin). Gamow avait compris que la dilatation de l'Univers entraînait son refroidissement, et que par conséquent autrefois l'Univers devait avoir été très chaud et dense. Il expliquait ainsi la formation des premiers noyaux d'atomes (hydrogène, hélium, lithium) par fusion thermonucléaire (c'est ce que l'on appelle la nucléosynthèse primordiale, voir plus loin). En revanche, pour expliquer l'existence de carbone ou de noyaux plus complexes, la théorie de Gamow ne convenait pas. L'énigme a été résolue par Fred Hoyle, qui montra que les noyaux simples pouvaient fusionner dans les étoiles pour former des noyaux plus lourds.

remarqueRemarque

On notera pour l'anecdote que le travail de 1948 a véritablement été fait par Gamow et son étudiant Alpher. Gamow, physicien qui aimait donner des teintes humoristiques à ses nombreux et brillants travaux, décida cependant qu'un article portant sur la création des premiers noyaux se devait d'avoir pour auteurs Alpher, Bethe, Gamow, une référence aux trois premières lettres de l'alphabet Grec, alpha, beta et gamma. Il prit évidemment le soin d'avertir Bethe, et ce dernier travailla par la suite lui aussi sur la nucléosynthèse primordiale.


Conclusion

conclusionConclusion

La théorie du Big Bang et l'idée d'un Univers en expansion ont mis longtemps à être acceptées par l'ensemble de la communauté astronomique. Le terme même de Big Bang (Grand Boum) a d'abord été utilisé par les détracteurs de cette théorie. Mais dans les années 1965, de nouvelles observations sont venues étayer le modèle : il s'agit de la détection du fond diffus cosmologique.


En savoir plus : Des modèles d'Univers


En savoir plus : Le principe cosmologique (1)

Dans son article décrivant pour la première fois la relativité générale en 1916, Einstein applique sa toute nouvelle théorie de la gravitation à l'espace-temps dans son ensemble. L'objet d'étude est non plus le champ gravitationnel généré par une masse isolée mais bien le champ gravitationnel associé à toute la matière contenue dans l'Univers. Compte tenu de l'ambition de cet objectif - il s'agit d'obtenir une théorie scientifique de tout l'Univers, Einstein dut recourir à une hypothèse simplificatrice particulièrement forte, en vue de pouvoir caractériser simplement l'aspect global de l'Univers, ainsi que la distribution de la matière qui l'habite. Cette hypothèse porte le nom de principe cosmologique parfait.

En effet, les équations de la relativité générale sont tellement complexes qu'il est impossible d'en obtenir des solutions aisément manipulables sans faire usage d'importantes simplifications, notamment concernant la symétrie de l'espace-temps. Aussi, le principe cosmologique parfait procède-t-il de deux postulats fondamentaux :

Le Principe Cosmologique Restreint
cosmo_principle.jpg
La combinaison des principes d'isotropie et d'universalité entraîne l'homogénéité de l'Univers (voir texte).
Crédit : A. Füzfa, d'après S.Weinberg, "Les Trois Premières Minutes de l'Univers", Eds. du Seuil, 1978.

Par le principe d'universalité, on entend donc que l'Univers possède grosso-modo les mêmes propriétés partout à un moment donné de son existence : mêmes lois de la physique, mêmes résultats de mesure et d'observations, etc. La combinaison de ces deux préceptes d'isotropie et d'universalité résulte en la propriété d'homogénéité de l'Univers : la répartition de la matière dans le cosmos peut être considérée comme approximativement uniforme (voir figure ci-contre).

En effet, si l'Univers est isotrope vu par un observateur sur la galaxie 1, les propriétés de A et de B sont identiques. En vertu du principe d'universalité, l'Univers est également isotrope pour un observateur sur la galaxie 2. Celui-ci observe donc les mêmes propriétés pour l'Univers en B et en C. Les propriétés cosmologiques en A et en C sont donc identiques et le même raisonnement s'applique pour deux points quelconques de l'espace. Les propriétés de l'Univers ne dépendent donc pas de la position de l'observateur qui les étudie et il peut donc être considéré comme homogène.

remarqueRemarque

Le précepte d'universalité des lois constitue en fait un reliquat de l'idée reprise notamment par Copernic selon laquelle nous n'occuperions pas de position privilégiée au sein de l'Univers. Ainsi, il n'y a pas d'endroit préférable pour se livrer à l'étude de la cosmologie, les mêmes conclusions devraient s'imposer naturellement partout.


En savoir plus : Le principe cosmologique (2)

Cependant, l'usage de l'adjectif "parfait" lorsque l'on qualifie le principe cosmologique indique que ces propriétés de l'Univers sont les mêmes en tout temps : le cosmos est éternel, immuable, incorruptible, impérissable et insoumis aux lois du changement. A l'époque où Einstein écrivait ses lois de la relativité générale et essayait de les appliquer à l'ensemble du cosmos, les observations astronomiques donnaient pleinement raison au principe cosmologique parfait et à l'idée d'un univers éternel et immuable : la distribution des galaxies (dont on commençait à comprendre la nature "extra-galactique") semblait bien se répeter identiquement à elle-même dans toutes les directions.

Néanmoins, comme nous allons le voir dans la page suivante, le principe cosmologique parfait apportera son lot de conséquences désastreuses qui ne correspondront pas à l'Univers que nous connaissons. La seule échappatoire consistera donc à relaxer ce postulat par trop contraignant en admettant que l'Univers puisse évoluer, ceci constituera l'essence du véritable principe cosmologique (restreint) qui est à la base de la théorie du Big-Bang. Cette version restreinte du principe cosmologique présuppose que le principe d'universalité ne s'applique qu'à une époque donnée et non plus à toutes les époques simultanément. L'Univers sera donc homogène et isotrope mais ses propriétés physiques, comme la densité moyenne de matière, varieront au cours du temps, laissant ainsi au cosmologiste le soin de déterminer l'histoire passée de l'Univers et son futur.

Cependant, une ultime tentative de conservation du principe cosmologique parfait a été formulée par les astronomes Hoyle, Bondi et Gold dans le cadre de la cosmologie stationnaire, théorie concurrente de celle du Big Bang (dont Hoyle avait d'ailleurs inventé le nom par dérision) mais qui échouera à expliquer des propriétés essentielles comme celles du rayonnement de fond diffus cosmologique.

Grâce au principe cosmologique, nous disposons à présent d'hypothèses suffisamment contraignantes pour aborder l'étude de l'histoire de l'Univers. Il nous reste encore à caractériser la matière emplissant l'Univers. En vertu de ce principe, on peut considérer l'ensemble de la matière universelle comme un fluide, une espèce de soupe cosmique dont il nous faudra découvrir les ingrédients à partir des observations astronomiques. Par exemple, on peut considérer que l'ensemble des innombrables galaxies ressemble à un gaz à l'échelle de l'Univers tout entier. Une galaxie particulière peut donc être vue comme une particule constitutive de ce gaz. La soupe cosmique emplissant tout l'Univers et générant ainsi son champ de gravitation (son "poids") peut donc être caractérisé par plusieurs quantités comme sa densité (par exemple, le nombre de galaxies dans un volume donné) et sa pression. Dans le cas du principe cosmologique parfait, ces propriétés sont des constantes : la densité et la pression de la soupe cosmique ne dépendent ni de l'endroit ni de l'époque où elles ont été déterminées. Dans le cas du principe cosmologique restreint, ces mêmes propriétés vont varier au cours du temps. Par contre, cette soupe cosmique est en première approximation homogène et isotrope, ce qui est d'autant plus vrai que l'on considère l'Univers à grande échelle (voir figure suivante ).

Aux grandes échelles (plusieurs centaines de millions d'années-lumière), les galaxies se distribuent suivant une trame filamentaire entourant de grands vides. S'il est clair que la distribution des galaxies n'est pas homogène à l'échelle de quelques millions d'années-lumière, elle le devient lorsque l'on adopte un point de vue plus global, cosmologique. L'objectif de la cosmologie sera, dans un premier temps, de comprendre l'évolution de la soupe cosmique qui est grossièrement homogène et isotrope en moyenne. Les modèles d'univers de Friedmann-Lemaître permettront d'étudier ces propriétés moyennes. Il convient donc de garder à l'esprit que le principe cosmologique n'est qu'une approximation grossière (mais bien utile). C'est pourquoi, la cosmologie devra dans un second temps comprendre comment des filaments et les grumeaux tels que les galaxies et les amas apparaissent dans l'Univers. Mais chaque chose en son temps...

Répartition des galaxies aux grandes échelles
2MASS_Showcase.jpg
Distribution des sources extra-galactiques infrarouges.
Crédit : The 2MASS Showcase : the Two Micron All Sky Survey (California Institute of Technology).

Utilisons à présent ces outils pour construire quelques modèles d'univers...


En savoir plus : Les pathologies des univers immuables (1)

Supposons tout d'abord, à l'instar de ce que fit Einstein en 1916, que l'Univers puisse être décrit par le principe cosmologique parfait. Comme nous l'avons dit auparavant, on peut se représenter une portion de l'Univers à grande échelle comme une soupe cosmique sans grumeaux (une sorte de "gaz" ou de "fluide " dont les ingrédients sont toujours à déterminer, je vous le rappelle) soumise à son propre poids. Cette soupe s'étendra éventuellement à l'infini à condition que l'Univers le soit (infini). Le principe cosmologique parfait implique que cette soupe soit immuable au cours des âges, c'est-à-dire que sa constitution, sa température et sa densité moyenne ne dépendent pas du temps. La soupe cosmique doit donc être en équilibre sous l'effet de son propre poids... Il n'y a guère que trois possibilités pour que cette condition d'équilibre soit vérifiée. Enumérons-les successivement.

1. L'Univers d'Einstein

On comprendra aisément que si la soupe cosmique n'est soumise qu'à l'influence de son propre poids, on voit mal comment elle pourrait être en équilibre. En effet, il est impossible que la soupe cosmique soit rigoureusement homogène (pas la moindre once de grumeau) et la gravitation aurait dû se charger depuis longtemps de ramener toute la matière de la soupe en un point. Ceci est vrai uniquement si la gravitation est exclusivement attractive.

Afin de garantir le caractère éternel et inchangeant de l'Univers tel qu'il est imposé par le principe cosmologique parfait, Einstein dut donc recourir à une astuce mathématique: l'introduction de la fameuse constante cosmologique, dont le spectre revient aujourd'hui hanter les cosmologistes avec le problème de l'énergie noire. L'effet de cette constante cosmologique est de maintenir en échec l'attraction générée par le poids de la soupe cosmique car elle agit comme une nouvelle force répulsive. L'équilibre peut être atteint si l'anti-poids généré par la constante cosmologique s'oppose exactement au poids de la soupe et parvient ainsi à l'annuler.

L'univers d'Einstein est un espace-temps statique, de volume fini et pourtant sans bord, maintenu en équilibre par un mélange délicatement précis de constante cosmologique et de matière ordinaire. La forme spatiale (tri-dimensionnelle) de cet univers est analogue à celle d'une sphère (bi-dimensionnelle): des êtres à deux dimensions peuvent parcourir la surface d'aire finie de la sphère sans pour autant y rencontrer un bord, ils reviendront simplement au même point...

Toute l'histoire de la cosmologie aurait pu s'arrêter là si, malheureusement, la constante cosmologique n'avait pas été une constante... En effet, la solution d'Einstein correspond à un équilibre instable: la force de répulsion due à la constante cosmologique est justement constante. Ainsi, la moindre fluctuation de densité locale, le moindre grumeau ou la moindre bulle dans la soupe cosmique, suffit à donner localement l'avantage à l'une des deux composantes antagonistes, entraînant soit un effondrement ou une expansion de la soupe qui ne tarderait pas à se propager en rompant le délicat équilibre global préconisé par le principe cosmologique parfait. Or, comme il est clair que la soupe cosmique contient des grumeaux (nous habitons sur l'un d'eux nommé Voie Lactée), l'équilibre est impossible à maintenir.

Quant à envisager une adaptation (et donc une variation) de la constante cosmologique, c'est proprement impossible sans remettre en question un des postulats fondamentaux (et par ailleurs très bien testé) de la relativité générale : le principe d'équivalence. Et quand bien même, il resterait à régler la question du judicieux ajustement de la valeur de la répulsion due à une "constante" cosmologique à l'exact opposé du poids moyen de la soupe cosmique... Compte tenu de la texture complexe de la soupe cosmique en grumeaux et filaments, cela relèverait quasiment du réglage divin... Non, décidément, il semble bien qu'il faille abandonner le modèle d'univers d'Einstein...


En savoir plus : Les pathologies des univers immuables (2)

2. L'Univers de de Sitter

Une autre solution pour garantir l'équilibre de la soupe cosmique consisterait à supposer que son poids soit identiquement nul. Ceci serait possible si la soupe cosmique était constituée d'un ingrédient subtil dont la pression exercerait une répulsion exactement opposée au poids. Or ce type d'ingrédient miraculeux correspond exactement à la constante cosmologique introduite par Einstein pour stabiliser son univers et dont la pression négative s'oppose exactement à sa densité d'énergie. Cette solution fut avancée par l'astronome hollandais de Sitter en 1917. Un univers uniquement constitué de constante cosmologique serait donc en équilibre. En fait, cet équilibre n'est qu'une illusion due à l'absence de matière autre que de la constante cosmologique: si on introduit des particules test dans cet univers de de Sitter, des particules dont la masse est si ridicule qu'elle ne troublerait pas l'équilibre cosmique, on constate que ces particules s'éloignent l'une de l'autre! Drôle d'équilibre... De plus, la matière ordinaire dont l'Univers est visiblement constitué ne possède pas cette propriété reliée à la pression. Par exemple, les galaxies se déplacent à des vitesses si faibles vis-à-vis de celles de la lumière que leurs collisions n'engendrent quasiment pas de pression à l'échelle cosmique. Le gaz correspondant est donc de pression nulle. Et comme l'Univers doit contenir de la matière, la solution de de Sitter pour l'équilibre n'est pas viable...

3. L'espace-temps de Minkowski

Voici probablement la solution la plus simple et la plus radicale au problème de l'équilibre de l'Univers. Puisque le poids de la soupe cosmique nous gêne, supprimons toute la soupe ! Ceci correspond à un espace-temps complètement vide appelé espace-temps de Minkowski, celui de la relativité restreinte. C'est un bon exemple de ce que l'on appelle en physique théorique une solution triviale : il est heureux qu'elle existe pour des raisons de cohérence mais elle ne nous fait guère avancer...

Ainsi, la cosmologie, à peine sortie du berceau, se trouvait-elle déjà confrontée aux périls conséquents à l'hypothèse fondatrice du principe cosmologique parfait. En effet, les deux modèles d'univers non triviaux qui en découlent avaient le mauvais goût tantôt d'être en équilibre instable (univers d'Einstein) tantôt d'être en expansion mais vide de toute matière (univers de de Sitter). La solution s'imposa bientôt d'elle-même: il fallait abandonner le principe cosmologique parfait. L'Univers a dû évoluer ! C'est ce que firent des cosmologistes tels qu'Alexander Friedmann et Georges Lemaître.


En savoir plus : Exercice : l'équilibre de l'Univers

exerciceL'équilibre de l'Univers

Avec les hypothèses du principe cosmologique parfait, on peut établir l'équation régissant les conditions d'équilibre des univers statiques en relativité générale. Cette équation exprime en fait l'équilibre d'un univers soumis à son propre champ de gravité généré par la matière remplissant l'espace-temps. Cette matière est représentée, en cosmologie, comme un fluide, un gaz de galaxies caractérisé par sa densité (nombre de galaxies par unité de volume) et sa pression. L'équation des univers statiques en relativité générale peut dès lors s'écrire sous une forme analogue à l'équation d'équilibre pour une sphère de gaz soumise à la gravitation :

f=\frac{dV}{dr} (\rho + \frac{p}{c^2})

f est la force hydrostatique s'exerçant par unité de volume, dV/dr est l'accélération de pesanteur (le gradient du potentiel gravitationnel), rhoest la densité de matière (en kg/m3) et p est la pression du fluide. Si cette pression est source de gravitation en relativité, on voit qu'elle doit être très importante pour avoir un effet (à cause du terme en c^2), c'est pourquoi la gravitation de Newton, qui n'est pas relativiste (car elle considére que c-> infini), n'en fait aucun cas. La force dans le membre de gauche est due à la pression hydrostatique de la soupe cosmique. L'équilibre correspond à une force de pression nulle. Dans le membre de droite, la force de gravité apparaît comme le produit d'un potentiel de gravitation et d'un facteur de source (la somme de la densité et de la pression). On retrouve une situation analogue à la mécanique de Newton où le potentiel de gravitation multiplié par la masse d'inertie donne la force d'attraction gravitationnelle. Dans le cas relativiste, la force due à la gravité (membre de droite) a comme source non seulement la densité de matière (masse d'inertie) mais également la pression qui est aussi une densité d'énergie.

Question 1)

A quelles conditions d'équilibre correspondent les univers statiques décrits à la page précédente ?


En savoir plus : Modèles cosmologiques de Friedmann-Lemaître : forme de l'univers

Ces modèles d'univers constituent la base mathématique de la théorie du Big Bang. Il s'agit de solutions de la relativité générale sous les hypothèses du principe cosmologique restreint. Pour rappel, ce principe relaxe le principe d'universalité en lui retirant l'exigence de similitude temporelle : les propriétés de l'Univers peuvent varier au cours du temps! Le principe cosmologique restreint impose donc que l'Univers soit homogène et isotrope dans l'espace. En vue dès lors de caractériser l'Univers dans lequel nous vivons, il faut déterminer à la fois son aspect spatial et temporel (la cosmologie est une science de tout l'espace-temps). Il faudra donc tout d'abord déterminer la forme spatiale de l'Univers et ensuite son évolution ("forme temporelle").

La relativité générale est une théorie géométrique de l'espace-temps et à ce titre, le principe cosmologique nous permet d'en déduire la forme spatiale de l'Univers. Il n'y a guère que trois types de géométries pour la partie spatiale de l'espace-temps qui soit compatibles avec les hypothèses du principe cosmologique restreint :

Dans un espace-temps de géométrie euclidienne, nous pouvons appliquer les propriétés de la géométrie d'Euclide : par exemple la somme des angles intérieurs d'un triangle égale 180°. Par contre, dans les autres géométries, ce n'est plus le cas (pour la géométrie elliptique, cette somme est supérieure, alors qu'elle est inférieure dans la géométrie hyperbolique). Ces trois géométries correspondent en fait à une courbure globale de l'Univers : cette courbure est positive pour un univers elliptique, négative pour un hyperbolique et nulle pour un univers plat ou euclidien. Les figures suivantes vous donnent des analogies bi-dimensionnelles de ces géométries, elles représentent un instantané de la forme géométrique de l'Univers.

Univers euclidien (plat)
plat.png
Univers à la géométrie euclidienne
Crédit : A. Füzfa (image de fond : Hubble Ultra-Deep Field, télescope spatial Hubble, NASA/ESA).
Univers elliptique
elliptique.png
Univers à la géométrie elliptique
Crédit : A. Füzfa (image de fond : Hubble Ultra-Deep Field, télescope spatial Hubble, NASA/ESA).
Univers hyperbolique
hyperbolique.png
Univers à la géométrie hyperbolique
Crédit : A. Füzfa (image de fond : Hubble Ultra-Deep Field, télescope spatial Hubble, NASA/ESA).
Univers torique
torus.png
Univers avec une topologie non-triviale (un hyper-tore). Un univers comme celui-ci ressemblerait localement à un espace euclidien mais des voyageurs qui entreprendraient de l'arpenter découvriraient qu'il existe des chemins surprenants pour aller d'un point à un autre.
Crédit : A. Füzfa (image de fond : Hubble Ultra-Deep Field, télescope spatial Hubble, NASA/ESA).

Il est utile de noter que la relativité générale est une théorie locale de l'espace-temps et, qu'à ce titre elle ne prédit rien sur la forme globale de l'Univers, c'est-à-dire sur sa topologie. Ainsi, si la détermination de la forme locale de l'Univers (euclidien, elliptique ou hyperbolique) est une des questions cruciales de la cosmologie, l'examen de certaines propriétés, par exemple le fond diffus cosmologique peuvent nous en apprendre plus sur la topologie de l'Univers. La forme de l'Univers est également devenu l'objet d'un débat scientifique.


En savoir plus : Modèles cosmologiques de Friedmann-Lemaître : évolution cosmique

Une fois la forme de l'Univers fixée (elle se détermine notamment par la quantité de matière dans l'Univers à un moment donné), les équations d'Einstein de la relativité générale se chargent ensuite de décrire l'histoire de ces sections spatiales de l'espace-temps. Celle-ci ne dépend alors que du contenu en énergie-matière et de la constante cosmologique de l'Univers. L'histoire de l'Univers se décrit par la distance entre deux points quelconques de la soupe cosmique homogène et isotrope. Comme nous l'avons vu, il est incontournable que cette distance varie au cours du temps, car il est impossible de garantir l'équilibre de la matière universelle sous l'influence de sa propre gravité (voir les univers statiques). Deux points quelconques de la soupe cosmique peuvent donc se rapprocher (l'Univers sera alors en contraction), s'éloigner (l'Univers sera alors en expansion) ou rester stationnaires (l'Univers sera alors statique). Le mouvement qui apparaît ainsi est un mouvement d'ensemble de la soupe cosmique, car elle est homogène et isotrope : le même mouvement doit s'observer partout.

Afin de caractériser la distance entre deux points quelconques de la soupe cosmique, les cosmologistes utilisent le facteur d'échelle a(t) . Si deux points quelconques étaient séparés d'une distance D0 au temps t0, alors au temps t>t0, ils sont séparés de D(t)=D0*frac(a(t);a(t0)). Si frac(a(t);a(t0))>1, l'Univers est en expansion, si frac(a(t);a(t0))<1 il est en contraction et si frac(a(t);a(t0))=1 c'est un Univers en équilibre statique. Les modèles d'univers de Friedmann-Lemaître-Robertson-Walker permettent de retracer l'évolution cosmique par l'intermédiaire du facteur d'échelle a(t), une fois que la composition de la soupe cosmique et que son mouvement d'ensemble à un moment donné ont été fixés. La figure ci-contre illustre plusieurs évolutions cosmologiques du facteur d'échelle.

Evolution du facteur d'échelle
flrw_a.jpg
Evolution du facteur d'échelle en fonction du temps pour divers types de modèles cosmologiques.
Crédit : A. Füzfa

On remarquera que ce modèle conduit à quelques petites difficultés conceptuelles. Qu'advient-il lorsque le facteur d'échelle s'annule a(t)=0  ? Au sens de ce modèle, cela équivaudrait à dire que l'ensemble de la soupe cosmique, c'est-à-dire tout l'Univers, se retrouverait concentré en un infime point mathématique d'extension nulle. Ce point constitue ce que l'on appelle une singularité du modèle, c'est-à-dire un endroit où celui-ci cesse d'être correctement défini. Ces points singuliers existent dans de nombreux modèles d'univers, très loin dans le passé (il s'agit alors du Big Bang) mais aussi sous certaines conditions dans l'avenir (le Big Crunch). A vrai dire, la singularité initiale, c'est-à-dire l'instant du Big Bang, est même relativement difficile à éviter parce qu'il n'y a guère que la constante cosmologique qui puisse s'opposer à l'attraction gravitationnelle dans la théorie d'Einstein pour éviter cette catastrophe. Et quand bien même cette constante ne serait pas nulle, il faudrait encore qu'elle soit de valeur suffisamment importante pour éviter le Big Bang. Cependant, les cosmologistes s'attendent à ce que ce point ne corresponde pas à une réalité physique mais bien à une limite de la relativité générale. Une théorie quantique de la gravitation permettrait éventuellement de pouvoir faire de la physique dans des endroits pareils. Toutefois, cette question est encore loin d'être close...


En savoir plus : Dans quel univers vivons-nous?

Les ingrédients de la soupe cosmique

Voyons à présent comment caractériser précisément l'Univers dans lequel nous vivons dans le cadre des modèles de Friedmann-Lemaître-Robertson-Walker. Vous l'aurez compris : afin de répondre à cette question, il nous faut connaître les différents ingrédients de la soupe cosmique ainsi que leur effet gravitationnel. Ce dernier est engendré par la densité et la pression totale des divers ingrédients constitutifs de la soupe cosmique. On peut en identifier trois composantes essentielles :

Les paramètres cosmologiques

Le modèle cosmologique de Friedmann-Lemaître-Robertson-Walker nécessite la détermination de quelques paramètres libres pour prédire l'évolution de l'Univers grâce à des équations. Comme les propriétés de l'Univers varient au cours du temps, les valeurs des paramètres cosmologiques qui les caractérisent en dépendent également (par l'intermédiaire du facteur d'échelle a(t)). La détermination de ces paramètres à un seul instant donné de l'histoire cosmique (par exemple aujourd'hui) suffit donc pour connaître toute l'histoire de l'Univers, du Big Bang à sa fin éventuelle, dans les limites du modèle physique (validité des hypothèses, etc.). Mais quels sont ces paramètres cosmologiques qui permettent d'écrire toute l'histoire cosmique?

L'équation de Friedmann

L'équation qui permet de déterminer l'histoire cosmique à partir d'un jeu de paramètres cosmologiques déterminé à un moment donné s'appelle l'équation de Friedmann. Elle s'écrit très simplement en fonction du facteur d'échelle de la manière suivante :

H^2*((a))=H_0^2*(Omega_(m,0)*(a_0/a)^3+Omega_(r,0)*(a_0/a)^4+Omega_(Lambda)+Omega_(K,0)*(a_0/a)^2)

Omega_m, Omega_r, Omega_Lambda et Omega_K désignent respectivement les paramètres de densité pour la matière, les radiations, la constante cosmologique et la courbure de l'Univers, et où les quantités indicées par 0 représentent leur valeur évaluée à une époque de référence, par exemple aujourd'hui. On mesurera par exemple les distances de l'Univers au cours des âges en multiples de la distance mesurée aujourd'hui, auquel cas a_0=1. Comme nous venons de le voir, on peut définir un paramètre de densité Omega_K associé à la courbure de l'Univers qui peut se voir comme la somme des contributions des autres composantes de la soupe.

Le modèle cosmologique de concordance
concordance.jpg
Composition de la soupe cosmique dans le modèle de concordance avec constante cosmologique. La valeur de H_0 est mesurée aux alentours de 73 km/s/Mpc.
Crédit : A. Füzfa

En savoir plus : Fabriquez votre propre univers...

exerciceFabriquez votre propre univers

introductionIntroduction

Forts de ces définitions, vous êtes désormais capable de prédire l'évolution de tout l'Univers, depuis le Big Bang jusqu'à sa fin éventuelle, à condition de connaître le jeu de paramètres cosmologiques à un instant donné. Si vous avez toujours rêvé de bricoler votre modèle d'univers, alors l'applet Java suivante est faite pour vous. Elle calcule l'évolution du facteur d'échelle en fonction du temps (en milliards d'années) à partir des paramètres cosmologiques donnés à l'époque de référence. a_0=1.

application.png

remarqueRemarque

En ce qui concerne la géométrie de l'Univers, un total exact de 100% dans les trois domaines de matière ordinaire, de radiations et d’énergie sombre correspond à un univers plat. Lorsque ce total est supérieur (ou inférieur) à 100%, il s'agit d'un univers elliptique (hyperbolique).

Question 1)

La mesure de la constante de Hubble est cruciale en cosmologie, puisqu'elle permet notamment de calculer l'âge de l'Univers. Les premières estimations historiques de cette constante par l'astronome américain Hubble lui-même était de l'ordre de 500 km/s/Mpc pour un univers uniquement rempli de matière. Pourquoi un tel univers doit-il être exclu ? En quoi le modèle de concordance résout-il ces problèmes ?

Question 2)

Un autre exercice intéressant est de trouver la valeur de la constante de Hubble qui donne à l'Univers le même âge que dans le modèle de concordance (voir ci-avant), mais uniquement avec de la matière (pas d'énergie sombre).

Question 3)

Quel est l'impact de l'énergie sombre (constante cosmologique) sur l'âge de l'Univers ?

Question 4)

L'Univers peut-il avoir une fin ? (Quelles sont les conditions pour un Big Crunch ?) Trouvez des paramètres cosmologiques qui amènent une issue fatale...

Question 5)

La proportion de radiations aujourd’hui est de l’ordre d’une part pour dix mille (0,01%) pour une température du rayonnement fossile de l’ordre de 2,725 K (soit quelques -270°C). Cette température est mesurée avec une précision de l’ordre du millième de degré Kelvin. La proportion de radiations est extrêmement sensible à un écart de température par rapport à la valeur mesurée (elle varie comme la quatrième puissance du rapport d’une température donnée sur 2,725 K). Ainsi, une température à peine trois fois supérieure à celle observée donnerait une proportion de radiations de l’ordre du pourcent avec toutefois un faible impact sur l’âge de l’Univers (à vous de le vérifier…). Vérifiez que si la température du rayonnement fossile avait été dix fois supérieure, l'âge de l'Univers aurait été deux fois plus petit dans le modèle de concordance.

Question 6)

Reproduisez le modèle d’Univers de de Sitter, qui ne contient que la constante cosmologique.


En savoir plus : Les ères cosmologiques


Introduction

introductionIntroduction

L'histoire cosmique se subdivise en ères dont le nom caractérise la composante dominante de la soupe cosmique à l'époque. En effet, à cause du refroidissement dû à l'expansion de l'Univers, les ingrédients de la soupe cosmique pourront avoir une influence négligeable ou au contraire prépondérante sur la dynamique de l'Univers à une certaine époque. Nous allons brièvement reconstituer l'histoire de l'Univers en remontant le cours du temps, depuis l'époque présente jusqu'aux temps les plus reculés, en inversant le cours des phénomènes cosmologiques.

Ligne du temps de l'histoire cosmique
timeline.jpg
Ligne du temps et histoire thermique de l'Univers. On remarquera les échelles de temps très différentes entre les ères : l'ère stellaire dure à elle seule plus de 10 milliards d'années tandis que les ères précédentes durent de quelques infinitésimales fractions de seconde à quelques centaines de milliers d'années.
Crédit : A. Füzfa

En savoir plus : L'ère stellaire

L'ère actuelle est appelée ère stellaire puisque l'évolution contemporaine de l'Univers est dominée essentiellement par cette matière non relativiste, de pression négligeable que sont les étoiles et les galaxies. Cette ère a vu se former les grandes structures cosmiques que nous observons dans nos télescopes, bien que le détail de cette formation comporte encore de nombreux points obscurs.

En effet, le processus de formation des galaxies est complexe et fait appel à de nombreux phénomènes physiques dont la modélisation est délicate. De plus, la question essentielle qui permet d'obtenir un scénario plausible de formation des structures est celle de la matière noire au sens large, c'est-à-dire regroupant à la fois la matière ordinaire qui ne s'est pas encore agglutinée en corps visibles comme les étoiles et la matière noire invoquée pour rendre compte des vitesses des amas globulaires. L'ensemble de cette matière invisible (et principalement la matière noire non composée de protons et de neutrons car elle est en proportion plus importante) permet d'accélérer la formation de structures qui sont finalement observées dans nos télescopes.

En pratique, l'étude de la formation des galaxies se fait au moyen de simulations numériques très complexes (voir la page suivante pour un exemple). La matière invisible se regroupe en filaments et en trames avec de fortes concentrations de matière aux intersections de ceux-ci. Ce sont ces fortes concentrations de matière sombre qui seront autant de germes pour la formation de structures observables comme les étoiles. Ainsi, les galaxies et leurs amas se forment-ils à l'intersection de gigantesques filaments de matière peu (ou pas du tout) lumineuse et nous font donc apercevoir la partie visible d'un immense réseau de matière emplissant tout l'Univers.

En remontant le cours du temps dans l'ère stellaire, nous verrions la distribution actuelle extrêmement inhomogène des galaxies s'homogénéiser, et les étoiles se diluer, en même temps que la température du cosmos augmente.


En savoir plus : L'ère radiative

Si nous continuons notre voyage en remontant le temps jusqu'à ce que la température atteigne ainsi quelques 10^4 K, soit une énergie correspondante des radiations emplissant le cosmos de l'ordre de l'électron-volt, les atomes d'hydrogène et d'hélium formant l'essentiel de la matière s'ionisent complètement.

Il faut noter que la correspondance entre la température T du corps noir et l'énergie E qui lui est associée est donnée par la relation E=kT, avec k la constante de Boltzmann dont la valeur est de 8.617*10^(-5) eV/K. Cette ionisation s'accompagne d'une absorption dramatique de radiations puisque le libre parcours moyen des photons dans ce plasma chute brusquement. L'Univers devient opaque lorsque l'on remonte le cours du temps, c'est à dire que tout photon émis est aussi réabsorbé et aucun rayonnement ne peut donc s'échapper. La période de transition entre l'ère radiative et l'ère stellaire correspond au passage à la transparence du cosmos et à l'émission du rayonnement fossile (recombinaison ions-électrons), dont l'étude constitue l'un des tests les plus précis de nos scénarios cosmologiques.

Il convient de noter que ce rayonnement a des propriétés (corps noir, taille angulaire des fluctuations, etc.) remarquablement bien expliquées par la théorie du Big Bang. D'autres modèles, comme la théorie de l'univers stationnaire de Hoyle ont échoué à expliquer de manière satisfaisante ces caractéristiques.

L'ère précédant cet évènement s'appelle l'ère radiative, puisque la pression due aux radiations électromagnétiques l'emporte sur la densité d'énergie de masse de la matière ordinaire à ces températures. Plus loin encore dans le passé, lorsque la température atteint quelques 10^10K (pour une énergie correspondante de l'ordre du Méga-électron-Volt), ce sont les noyaux atomiques eux-mêmes qui se désagrègent en neutrons et protons et autres particules. L'évènement correspond, dans le modèle standard du Big Bang, à la nucléosynthèse primordiale, formation des noyaux atomiques légers. Ici encore, le modèle du Big Bang prédit avec grande précision l'abondance des isotopes comme l'hydrogène, le deutérium, l'hélium-3, l'hélium-4 ou le lithium-7 dans l'univers, contribuant ainsi à l'avènement de ce modèle comme paradigme de la cosmologie.


En savoir plus : L'ère leptonique

Au delà de telles températures (10^10K ), nous abordons véritablement le domaine de la physique des hautes énergies. Les ères correspondantes se nomment alors leptonique et hadronique. Les leptons sont des particules élémentaires regroupées par couples comme l'électron (électriquement chargé) et son neutrino associé (électriquement neutre) et qui interagissent par interaction faible et électromagnétique. Il y a deux autres couples de leptons, les muons et les taus, qui sont plus lourds que l'électron mais de même charge électrique, chacun étant associé à un neutrino différent.

En effet, lorsque l'énergie du rayonnement atteint l'énergie de masse au repos de la paire électron-positron (soit 1.022 MeV), un équilibre thermodynamique s'installe: la création de paires due à l'énergie ambiante est compensée par leur annihilation. L'avènement de cet équilibre s'accompagne d'une création massive d'anti-leptons (positrons). Le nombre important de ces particules, ainsi que les interactions qui les lient font alors des leptons (électrons, positrons, neutrinos et leurs cousins muoniques et tauiques) la composante dominante de la matière à l'époque en terme de nombre de particules et d'interactions. Lorsque la densité et la température sont même suffisantes, les neutrinos sont absorbés massivement par les leptons et leurs antiparticules et leur libre parcours moyen décroît drastiquement, de sorte que le cosmos devienne opaque à ces particules. Ce phénomène correspond alors à l'émission d'un rayonnement fossile de neutrinos, lorsque dans le cours normal du temps la température s'est tellement abaissée que les neutrinos furent libérés.


En savoir plus : L'ère hadronique

Les hadrons sont des particules composées de quarks (voir plus loin) qui interagissent principalement par interactions nucléaires fortes.

L'ère hadronique commence à une température de l'ordre de 10^12K, qui correspond à l'énergie de masse du plus léger des hadrons: le méson pi neutre (m_pi ~135MeV/c²). Les hadrons et leurs antiparticules forment alors un système en équilibre thermodynamique, et leurs masses plus importantes en font une composante dominante de la matière. L'origine de la prédominance de la matière sur l'antimatière dans l'Univers contemporain est à situer au coeur de ces ères, comme une conséquence de l'asymétrie de leurs propriétés dans les processus de création-annihilation qui régissaient l'équilibre thermodynamique.

Si nous remontons même un peu plus le cours du temps, la température devient telle que les hadrons eux-mêmes ont dû se décomposer en un plasma de quarks-gluons. Les quarks sont des particules élémentaires au nombre de 6, les quarks u (up), d (down), s (strange), c (charmed), t (top) et b (bottom), qui interagissent par l'intermédiaire des gluons, particules sans masse véhiculant l'interaction forte mais également par l'intermédiaire des photons (électromagnétisme) et des bosons intermédiaires W et Z (interaction faible).


En savoir plus : L'ère de grande unification

A de telles énergies, l'étude de l'évolution de l'intensité de trois interactions fondamentales (donnée par les constantes de couplage) - électromagnétisme, interactions nucléaires forte et faible - en fonction de la température montre que celles-ci tendent à se rapprocher, voire à converger si on ajoute des conditions spéciales (supersymétrie ou symétrie boson-fermion) au modèle standard des particules élémentaires. Certaines théories envisagent ainsi qu'à une température de l'ordre de 10^28K, toutes les interactions de jauge, électromagnétisme, interactions forte et faible, sous leur forme primordiale agiraient avec la même intensité et seraient dues à la même symétrie, achevant ainsi la grande unification des forces de la nature. A cette époque correspondrait alors l'ère de grande unification.

Dans le processus inconnu de brisure de cette interaction unifiée en plusieurs interactions séparées, on espère trouver les réponses à plusieurs grandes questions tant cosmologiques que relatives à la physique microscopique. Tout d'abord, ce phénomène pourrait expliquer les différences entre les leptons et les quarks ainsi qu'entre la matière et l'antimatière, de même que les diverses propriétés des forces fondamentales.

Ensuite, il pourrait également influencer l'expansion de l'Univers de manière à résoudre quelques énigmes cosmologiques. Ces dernières, au nombre de trois, sont : la platitude du cosmos, le problème de l'horizon et l'existence de fluctuations de matière primordiales. La première énigme consiste à comprendre pourquoi l'Univers présente une courbure aussi faible plutôt qu'une valeur franchement différente de zéro. Ensuite vient le problème de l'horizon : pourquoi, aussi loin que l'on remonte dans le passé de l'Univers, des régions extrêmement éloignées les unes des autres présentent des propriétés physiques et observables aussi semblables, alors qu'il est clair qu'elles n'ont pu interagir physiquement en vertu de la limitation à la vitesse de la lumière de la vitesse de propagation des forces de la nature. Enfin, concernant les fluctuations primordiales (les grumeaux dans la soupe cosmique), il faut comprendre pourquoi l'Univers primordial était aussi homogène et quel est le phénomène physique qui a pu engendrer des fluctuations de matière aussi ténues (de l'ordre d'une part pour 100 000 dans le fond diffus cosmologique).

Une solution séduisante, mais qui fait toujours l'objet de recherches intenses, est celle de l'inflation, une période d'expansion extrêmement puissante qui aurait permis à l'Univers pré-inflationnaire d'augmenter sa taille d'au moins un facteur 10^60 en une infime fraction de seconde. Ce faisant, des régions microscopiques de ce cosmos pré-inflationnaire auraient été dilatées à des échelles cosmologiques: l'Univers macroscopique post-inflationnaire aurait ainsi donc hérité de la courbure très faible de cette région minuscule et le problème de l'horizon serait résolu par le fait que les régions causalement disjointes aujourd'hui seraient celles infiniment proches de l'ère précédant l'inflation. La genèse des fluctuations de matière est obtenue dans ce modèle comme une conséquence naturelle du processus qui a engendré l'inflation mais dont le détail dépasse quelque peu l'objet de ces pages.


En savoir plus : L'ère quantique

Jusqu'à quelle énergie peut-on pousser l'extrapolation de nos connaissances en physique ? Jusqu'à quelle époque peut-on garder une confiance relative dans nos paradigmes de la relativité générale (théorie de l'infiniment grand) et de la mécanique quantique (théorie de l'infiniment petit)? La limite proposée pour cette nouvelle physique s'appelle l'échelle de Planck et correspond à une température de l'ordre de 10^32K. Au delà de cette température, nous rencontrons l'ère quantique pour laquelle la seule chose dont on soit relativement sûr c'est que la relativité générale et la mécanique quantique qui nous sont si chères n'y sont vraisemblablement plus valables.

Ce domaine d'énergie fantastique est l'antre secret d'une hydre dénommée gravitation quantique, obscure et extrême créature théorique dont les têtes portent des noms tels que supercordes, M-théorie, gravitation quantique des boucles ou encore géométrie non-commutative. Dans cet antre se terrerait le berceau même, dit-on, de l'espace, de la matière et du temps. C'est en tout cas le territoire de chasse gardée de théoriciens parmi les plus hardis, et nous n'empièterons pas ici sur leur domaine en laissant au lecteur le soin de se documenter sur ces territoires vierges de la physique encore en cours d'exploration. Ainsi, même si du fond de cet abîme mystérieux nous appellent tant de nouveaux horizons physiques passionnants, nous nous garderons ici de pénétrer davantage dans cette terra incognita du commencement des âges.


Le fond diffus cosmologique

Auteurs: Florence Durret, Loïc Villain

Historique

Jusqu'à la seconde guerre mondiale, les observations astronomiques étaient limitées aux longueurs d'onde visibles. Pendant la seconde guerre mondiale, la technologie des radars a évolué énormément, en premier lieu pour des applications militaires, puis, la paix revenue, pour des applications civiles. Dans les années 1959 - 1961 un cornet de 3 m a été construit aux Etats-Unis, à Bell Labs, pour recevoir le signal des satellites Echo puis Telstar.

Le radio télescope de Holmdel
holmdel.jpg
Radio télescope de Holmdel (laboratoires Bell Labs) ayant permis à Penzias et Wilson la découverte du fond diffus cosmologique.
Crédit : Bell Labs

En 1963, ce cornet a été transformé en radiotélescope par Penzias et Wilson pour observer le halo de notre Galaxie à la longueur d'onde lambda=7,3 cm. Durant leurs observations dans les années 1963 à 1965, Penzias et Wilson ont détecté un signal supérieur à celui prévu. Ils ont d'abord cherché à mieux estimer les contributions "parasites" qui pouvaient être dues au ciel, à l'antenne, au guide d'onde, aux détecteurs. Mais toutes ces contributions étaient trop faibles pour pouvoir rendre compte de l'excès observé. De plus, le signal observé était isotrope, donc ne pouvait pas provenir de sources discrètes. Il était aussi non polarisé et constant dans le temps.

Dans le but de tenter de comprendre le phénomène observé, Penzias et Wilson ont alors pris contact avec des théoriciens (Dicke, Peebles, Roll, Wilkinson) de l'Université de Princeton, l'une des meilleures des Etats-Unis.

Deux premiers articles ont paru en 1965 dans la revue américaine The Astrophysical Journal (volume 142, pages 414 et 419) présentant la découverte et l'interprétation de ce rayonnement comme étant un "fond diffus cosmologique", que nous noterons désormais FDC.

Leur interprétation était la suivante : le FDC était le résidu d'un rayonnement émis par l'Univers lorsqu'il était dans une phase très chaude et dense. Comme nous l'avons vu ci-dessus, un tel rayonnement avait été prédit par Lemaître dans les années 1920, puis par Gamow, Alpher et Herman dans les années 1950. Ce rayonnement aurait été émis par l'Univers tout entier environ 300 000 ans après le Big Bang et aurait un spectre de corps noir à la température actuelle de l'Univers, évidemment beaucoup plus basse qu'au début de l'Univers.

Des observations à une autre longueur d'onde (lambda= 3 cm) permirent ensuite une première estimation de la température du corps noir correspondant au FDC : 3,0 K (avec une barre d'erreur de 0,5 K). Attention : ici la température T est donnée en Kelvin (K) par rapport au "zéro absolu". On a T(K) = T(°C) + 273,15. Dès 1966, un spectre du FDC obtenu entre les longueurs d'onde lambda= 2,6 mm et 21 cm confirma qu'il s'agissait bien d'un corps noir.

L'observation de ce rayonnement est l'argument le plus fort en faveur du modèle du Big Bang.


Quelques radiotélescopes

Les radio télescopes sont utilisés pour observer l'Univers dans le domaine des ondes radio, c'est à dire dans un domaine de fréquences allant de quelques centaines de MHz à quelques centaines de GHz.

Un radio télescope
100m_bonn.jpg
Le radio télescope de 100 m de diamètre à Bonn (Allemagne).
Crédit : Max Planck Institut à Bonn (Allemagne).
Le radio télescope d'Arecibo
arecibo.jpg
Le radio télescope d'Arecibo, sur l'île de Puerto Rico, aux Caraïbes, profite d'une cuvette naturelle dans une montagne. Sa surface collectrice est donc supérieure à celle des autres radio télescopes, mais en revanche il ne peut pas être orienté et ne peut observer que les objets célestes passant au-dessus de lui.
Crédit : NRAO

Le corps noir

La branche de la physique qui étudie les propriétés liées à la température des corps et aux échanges d'énergie entre eux (échanges de chaleur, émission de rayonnement) s'appelle la thermodynamique. Un corps noir y est défini comme un corps en équilibre thermodynamique qui absorbe tout le rayonnement électromagnétique qu'il reçoit, contrairement à un miroir par exemple. En raison de sa température, un corps noir émet un rayonnement dit thermique qui est caractérisé par sa température. Ainsi le corps humain, qui est à une température d'environ 37°C (soit environ 37+273 = 310 K) émet un rayonnement principalement dans l'infrarouge (d'où les jumelles à infrarouge utilisées pour repérer des êtres humains la nuit, ennemis, contrebandiers, etc.). Plus un corps est chaud, plus son rayonnement a lieu vers les hautes énergies, c'est à dire vers les petites longueurs d'onde. Ainsi au fur et à mesure que l'on chauffe un morceau de fer il apparaîtra d'abord rouge, puis orange, jaune, et enfin presque blanc.

Quelques exemples de corps noirs en astrophysique :


Exercice: Rayonnement du corps noir et température

exerciceRayonnement du corps noir et température

Un corps noir à la température T émet un rayonnement qui dépend de sa température et dont l'intensité I en fonction de la longueur d'onde est visualisée par l'applet suivant :

Le rayonnement du corps noir application.png

Quelques questions :

Question 1)

De quel côté de l'échelle en longueur d'onde se trouve l'ultraviolet ? l'infrarouge ?

Question 2)

Dans quel domaine de longueur d'onde un corps à la température ambiante émet-il ?

Question 3)

A votre avis, qu'est-ce qui est le plus chaud, une étoile rouge ou une étoile bleue ?

Question 4)

Quand on augmente la température d'un corps, le maximum d'émission se déplace-t-il vers les plus grandes longueurs d 'onde ?

Question 5)

En décochant "normaliser", l'échelle des ordonnées est maintenant absolue, c'est-à-dire qu'elle va de zéro au maximum d'intensité pour une température de 30 000K. Un corps à 15 000 K est-il plus ou moins lumineux qu'un corps à 5000 K ?


En savoir plus: La forme du spectre du corps noir

ensavoirplusEn savoir plus

Le rayonnement de corps noir est décrit par la formule suivante :

u(nu)=8*pi*h*c*nu^3/(exp(h*nu/k_B*T) -1)

u(nu) est la densité de photons ayant la fréquence nu (nu), h est la constante de Planck, c est la vitesse de la lumière et k_B est la constante de Boltzman. Attention : ici la température T est donnée en Kelvin (K) par rapport au "zéro absolu". On a T(K) = T(°C) + 273,15.


Le spectre du fond diffus cosmologique et son interprétation

Le FDC est isotrope (le même dans toutes les directions du ciel) et son spectre (la répartition de l'énergie en fonction de la longueur d'onde) est celui d'un corps noir avec une excellente précision.

Spectre du fond diffus cosmologique
cmb_intensity.jpg
Spectre du fond diffus cosmologique obtenu avec divers instruments au sol et dans l'espace. Les points correspondent aux observations, la courbe en pointillés correspond à l'émission d'un corps noir à la température de 2,728 K. On remarque l'accord excellent avec les points d'observation sur trois ordres de grandeur en fréquence et quatre ordres de grandeur en intensité.
Crédit : NASA

Le fait que ce spectre soit celui d'un corps noir et qu'il soit isotrope indique qu'il concerne l'Univers tout entier. Il s'agit donc d'une confirmation de la prédiction du modèle dit du Big Bang selon lequel l'Univers dans son ensemble est passé par un état où la matière et le rayonnement électromagnétique étaient en équilibre thermodynamique (il s'agissait là d'une phase primordiale dense et chaude). Le rayonnement du fond diffus cosmologique a été émis lorsque l'Univers était très chaud et dense, puis s'est refroidi au point de devenir transparent. On l'appelle aussi "rayonnement cosmologique fossile".


L'origine du fond diffus cosmologique

Environ 300 000 ans après le Big Bang, l'Univers était constitué essentiellement de photons, d'atomes d'hydrogène et d'hélium.

Avant cette époque, les photons avaient une énergie importante (supérieure au potentiel d'ionisation de l'hydrogène), et interagissaient avec le plasma (principalement des protons H+ et des électrons e-).

Du fait que les photons se « cognaient » sans arrêt aux protons et aux électrons, la lumière ne pouvait pas se propager librement : l'Univers était donc complètement opaque. On ne peut donc pas observer ce qui a pu se passer durant cette période, car aucun photon n'a pu s'en échapper.

Avec l'expansion de l'Univers, la fréquence des collisions des particules a diminué (autrement dit l'agitation thermique des photons du fond diffus cosmologique, et donc la température a diminué). Après un temps estimé à 300 000 à 500 000 ans après le Big Bang, l'énergie des photons est devenue trop faible pour être capable de séparer les protons et les électrons.

Les protons et les électrons ont alors pu se recombiner pour donner des atomes d'hydrogène : c'est la phase dite de recombinaison après laquelle les photons se déplacent librement et l'Univers devient transparent. Les photons libres constituent le FDC (aussi appelé rayonnement « fossile »).

Avec l'expansion de l'Univers, les photons sont étirés et leur énergie décroît. Il en est donc de même de la température du corps noir correspondant ; actuellement (environ 14 milliards d'années après l'émission du FDC) cette température vaut 2,728 K.

Les quasars et galaxies les plus lointains observés sont à un décalage atteignant presque 10, ce qui équivaut à remonter dans le temps à l'époque où l'âge de l'Univers était de 500 millions d'années seulement.


En savoir plus: Facteur d'échelle

ensavoirplusEn savoir plus

La température du rayonnement varie en 1/a(t) où a(t) est le facteur d'échelle de l'Univers à l'instant t après le Big Bang. Le facteur d'échelle a(t) est défini de la façon suivante : si à un instant t0 deux galaxies sont séparées d'une distance D(t0), à l'instant t ultérieur elles seront séparées de D(t) tel que

D(t) = D(t0) a(t)/a(t0).

Si a(t) augmente avec le temps, la distance entre deux galaxies augmente de la même manière. Suivant le modèle d'Univers choisi, différentes formes mathématiques sont possibles pour a(t) ; c'est l'une des branches de la cosmologie, basée sur la relativité générale. La constante de Hubble, H, s'écrit sous la forme : H(t) = 1/a(t) da(t)/dt.

On peut introduire la notion de décalage spectral z vue précédemment pour les galaxies et on montre alors que a(t) est proportionnel à 1/(1+ z). Avec T0 = 2,728 K, et T (recombinaison) = 4000 K, on estime zrecombinaison = 1500.


Les cartes du fond diffus cosmologique et leur interprétation

Les premières détections du FDC ont montré qu'il s'agissait d'un signal isotrope (le même dans toutes les directions), ce qui aurait correspondu à un Univers parfaitement homogène. Cependant, si l'Univers avait été parfaitement homogène à l'époque de la recombinaison, il continuerait à l'être aujourd'hui. A très grande échelle, l'Univers peut effectivement être considéré comme homogène. Cependant, ce n'est pas vrai à petite échelle, puisque nous observons des condensations de matière (planètes, étoiles, galaxies, amas de galaxies, superamas de galaxies) exigeant qu'à l'époque de la recombinaison il y ait eu de minuscules fluctuations de densité.

La matière s'est ensuite condensée de préférence là où la densité était initialement la plus forte, et dans ces régions la gravité l'a emporté sur l'expansion Universelle, créant ainsi des sous-structures de plus en plus grosses dans l'Univers.

Les astronomes ont donc cherché à détecter des fluctuations dans le FDC traçant les fluctuations de densité qui seraient à l'origine de la formation des structures dans l'Univers.

Les mesures du FDC comprennent donc des mesures absolues (mesures du spectre global, moyenné spatialement sur une grande région du ciel) et des mesures d'anisotropies à petite échelle pour détecter des fluctuations spatiales du FDC, qui doivent permettre de remonter à la manière dont les structures de l'Univers se sont formées. En particulier, ces fluctuations doivent pouvoir donner des structures de la taille de celles observées aujourd'hui (galaxies, amas de galaxies).

L'observation du FDC a fait l'objet de nombreuses expériences durant cette dernière décennie. Les longueurs d'onde submillimétriques correspondant au maximum d'émission du FDC étant absorbées par l'atmosphère terrestre, elles ne sont pas détectables depuis le sol. On a dû par conséquent lancer des ballons ou des satellites pour cartographier l'émission du FDC.

exempleExemple

Exemple : les observations avec le ballon Archeops : la nacelle, le lancement, l'envol.

Archeops (nacelle)
archeops_lancement_3.jpg
La nacelle de l'expérience ballon Archeops (lancement à Kiruna, Suède)
Crédit : Archeops
Archeops (lancement)
archeops_nacelle.jpg
Lancement de l'expérience ballon Archeops à Kiruna, en Suède
Crédit : Archeops
Archeops (envol)
archeops_envol_3.jpg
Envol de la nacelle de l'expérience ballon Archeops (lancement à Kiruna, Suède)
Crédit : Archeops

Les cartes du fond diffus cosmologique et leur interprétation-2

Les résultats du satellite COBE ont été les premiers à mettre en évidence sur tout le ciel des fluctuations du FDC. Ils ont ensuite été affinés par des expériences ballon (Archeops et Boomerang), et surtout par les résultats spectaculaires de WMAP en 2003. Le satellite Planck, lancé en 2009, permettra encore un bond en avant dans l'étude du FDC et dans notre connaissance des paramètres cosmologiques qui régissent l'Univers.

Le ciel vu par le satellite COBE
cmb_flux.jpg
Le ciel vu par le satellite COBE. L'amplitude relative des fluctuations est de l'ordre de 10-5 et le lissage est tel que la résolution spatiale (c'est à dire la dimension des détails les plus fins que l'on peut voir sur l'image) est de l'ordre de 10°. Cette carte représente toute la sphère céleste dans un système de projection analogue à celui utilisé pour représenter le globe terrestre.
Crédit : NASA/COBE.
Une fraction du ciel vue par Boomerang
boomerang_map_sm.jpg
Une fraction du ciel observée par l'expérience ballon Boomerang. La résolution spatiale est meilleure que celle de COBE mais la portion du ciel couverte beaucoup plus petite.
Crédit : Boomerang
Le ciel vu par Cobe et par WMAP
cobe_wmap_sm.jpg
Cartes du ciel obtenues par les satellites COBE (en haut) et WMAP (en bas) ; on remarque la résolution spatiale bien meilleure de WMAP.
Crédit : COBE/WMAP

Conclusion

conclusionConclusion

Les cartes du FDC ont montré la présence d'anisotropies, l'amplitude relative des fluctuations étant de l'ordre de 10-5. Les amplitudes et les échelles de ces anisotropies sont en accord avec le modèle standard du Big Bang. Leur interprétation en termes de formation des grandes structures n'est pas achevée, l'échelle spatiale des anisotropies étant encore nettement plus grande que celle des structures observées dans l'Univers, par exemple les galaxies. Le satellite Planck, lancé en 2009, devrait améliorer notre connaissance du sujet et aussi permettre de mieux déterminer les paramètres entrant en jeu dans les modèles cosmologiques.


Matière, atomes, noyaux


Introduction

Résumé

Au cours des premières secondes après le Big Bang, sont nés les éléments chimiques les plus légers : hydrogène, hélium, lithium et des traces de béryllium. C'est la nucléosynthèse primordiale. Tous les atomes d'hydrogène de l'Univers ont été créés dans le Big Bang : pas loin de 75% de la masse de la matière ! Quant aux autres éléments chimiques, le carbone, l'oxygène, le fer, l'or, ils sont tous nés dans des étoiles, fabriqués à partir d'éléments plus simples comme l'hydrogène et l'hélium. Une simple molécule d'eau (H2O) contient donc de l'hydrogène, témoin des trois premières minutes après le Big Bang, et de l'oxygène, né dans un creuset stellaire.


Les atomes

Toute la matière qui nous entoure, la matière "ordinaire" est composée d'atomes. Mais d'où viennent ces atomes ? Prenons l'exemple de la molécule d'ADN, support de l'information génétique, qui est le fondement de toute la biologie. Cette molécule est constituée d'une série d'éléments appelés nucléotides, chaque nucléotide comprenant trois parties : un groupe phosphate avec un atome de phosphore relié à quatre atomes d'oxygène, un sucre à cinq atomes de carbone, et une base azotée contenant des atomes d'hydrogène, de carbone et d'azote. Pour fabriquer de l'ADN, il faut donc disposer des éléments chimiques suivants : l'hydrogène (H), le carbone (C), l'azote (N), l'oxygène (O) et du phosphore (P). D'où viennent donc tous ces éléments ? A cette question, ce n'est pas la biologie qui doit répondre, mais bien cette branche de l'astrophysique qui étudie la nucléosynthèse!

Le terme de nucléosynthèse désigne tous les processus de fabrication des noyaux atomiques. Donnons pour commencer une description schématique de la structure atomique. Les atomes sont constitués d'un noyau entouré d'un cortège d'électrons, particules chargées négativement. Le noyau contient des protons, chargés positivement et en nombre égal à celui des électrons (un atome n'a pas de charge électrique, au contraire d'un ion qui peut être chargé positivement ou négativement), et des neutrons, qui sont neutres électriquement comme leur nom l'indique. Protons et neutrons, qui ont à peu près la même masse, sont 1800 fois plus massifs que les électrons. Le nombre de protons s'appelle le numéro atomique Z et permet de différencier les éléments chimiques entre eux. Le numéro atomique de l'hydrogène est 1 : le noyau d'hydrogène contient un proton. Quant au noyau d'hélium (Z = 2), il contient deux protons et deux neutrons. Le lithium que nous verrons apparaître pendant le Big Bang, et qui entre dans la composition des batteries des ordinateurs portables (batteries "lithium-ion"), a trois protons (Z = 3).

Le numéro atomique permet de ranger les atomes par masse croissante dans une table, appelée table périodique des éléments, ou encore tableau de Mendeleiev, d'après le chimiste russe qui en a proposé la première version en 1868 :

application.png


Isotopes

La plupart des éléments existent en plusieurs "variétés" appelées isotopes, qui se différencient par leur nombre de neutrons. Ces isotopes ont les mêmes propriétés chimiques (celles-ci ne dépendent que du nombre d'électrons). L'isotope 14 du carbone, qui est radioactif et qu'on utilise pour les datations, contient ainsi 8 neutrons alors que le carbone normal, le carbone 12, en contient 6. Le chiffre 14 du carbone 14, qu'on écrit 14C, est le nombre de masse A, il est égal à la somme du nombre de protons et de neutrons.

Les éléments les plus légers ont eux aussi leurs isotopes : l'hydrogène en a trois, l'hydrogène normal, le deutérium, avec un proton et un neutron (noté D) et le tritium, dont le noyau contient un proton et deux neutrons. L'hélium existe sous forme d'3He et d'4He.

Les noyaux des éléments les plus légers
isotopes.gif
Les noyaux d'hydrogène, de deutérium, des deux isotopes de l'hélium et du lithium.
Crédit : Astrophysique sur Mesure / Florence Durret, Fabienne Casoli et Gilles Bessou

Constituants élémentaires de la matière

Protons, neutrons, et quarks

Dans l'état actuel des connaissances, les physiciens pensent que les électrons n'ont pas de structure interne : ce sont donc réellement des particules élémentaires. Par contre, les constituants du noyau atomique, les nucléons (les protons et les neutrons) contiennent chacun 3 des constituants élémentaires appelés quarks : des quarks up (notés u), de charge électrique +2/3 de la valeur absolue de la charge d'un électron, des quarks down (notés d), de charge électrique -1/3 de la valeur absolue de la charge d'un électron. Les protons sont constitués de deux quarks up et d'un quark down (uud). Les neutrons sont constitués d'un quark up et de deux quarks down (udd).


La fabrication des éléments chimiques

Alchimie cosmique

Pour fabriquer des éléments de plus en plus lourds, il semblerait qu'il suffise d'ajouter quelques protons et neutrons à un noyau déjà existant. En réalité, ces réactions de fusion ne sont pas si faciles. Si on veut approcher un proton ou un noyau, chargé positivement, d'un noyau qui est lui aussi chargé positivement, il va falloir se battre contre la répulsion électrostatique entre ces charges. Pour y arriver, il faut des températures très élevées, largement supérieures au million de degrés : l'agitation thermique des noyaux contrebalance alors la répulsion. On trouve des températures aussi élevées soit dans les premières minutes de l'Univers, soit au centre des étoiles.

La grande question sous-jacente à l'étude de la nucléosynthèse est donc, à partir des abondances observées pour les éléments, de reconstituer leur histoire, de déterminer où ils se sont formés, et bien sûr, de reproduire les abondances observées : la prédominance de l'hydrogène, le fait qu'environ 25% en masse est constitué d'hélium, etc. On remarque sur la figure que l'hydrogène et l'hélium sont de loin les éléments les plus abondants dans l'Univers. Les éléments situés entre l'hélium et le carbone sont sous-abondants. Les éléments les plus abondants après H et He sont le carbone, l'oxygène, le magnésium, le silicium, et le fer. Ce sont aussi les noyaux les plus stables de l'Univers. Le pic d'abondance au niveau du fer est dû à la stabilité exceptionnelle de ce noyau.

Abondances des éléments
Hydrogène H 1 000 000
Hélium He 85 000
Oxygène O 680
Carbone C 330
Azote N 83
Néon Ne 120
Silicium Si 35
Fer Fe 32
Magnésium Mg 38
Soufre S 21
Aluminium Al 3
Sodium Na 2
Nickel Ni 2
Calcium Ca 2
Argon Ar 1
total des autres éléments 2

abondances relatives (figure)

Nombre d'atomes de chaque élément chimique dans l'Univers (par million d'atomes d'hydrogène). Ces abondances ont pour la plupart été déterminées dans le Soleil ou dans certaines météorites très primitives, les "chondrites carbonées". L'Univers est pour l'essentiel constitué d'hydrogène et d'hélium. La composition de la Terre et des planètes telluriques est très différente de celle du reste de l'Univers!

abondance.jpg
Abondance des éléments chimiques dans l'Univers rapportée à celle du silicium (Si), prise arbitrairement à 106.
Crédit : CEA

Exercices : les atomes

exerciceIsotopes de l'hélium

Difficulté :    Temps : 5 min

Question 1)

Combien le noyau d'3He contient-il de neutrons et de protons ? Même question pour le noyau d'4He.

Question 2)

Comment noter le deutérium sous la forme xH ? Même question pour le tritium.

exerciceQuels sont ces éléments?

Difficulté :   

Question 1)

De quel élément chimique s'agit-il ?

Quels sont ces élements?
helium_au_carbone.gif
Crédit : Astrophysique sur Mesure / Florence Durret, Fabienne Casoli et Gilles Bessou


Le Big Bang et la naissance des atomes

Auteurs: Florence Durret, Fabienne Casoli

Introduction

Résumé

La synthèse des éléments légers se passe dans les trois premières minutes après le Big Bang, quand l'Univers passe d'une température inimaginable à une température de l'ordre d'un milliard de degrés. C'est de cette époque que date tout l'hydrogène présent dans l'Univers et une bonne partie de son hélium. Les abondances des éléments chimiques légers témoignent de la fournaise initiale et sont un des "piliers" de la théorie du Big Bang.


Conditions initiales de la nucléosynthèse primordiale

Energie et matière

La synthèse des éléments légers se passe dans les trois premières minutes après le Big Bang, quand l'Univers passe d'une température inimaginable à une température de l'ordre d'un milliard de degrés. La température diminue approximativement comme l'inverse de la racine carrée du temps : T(t) = 1,5 1010/ racine(t) où t est exprimé en s. Pour t = 1 s, la température est de 15 milliards de degrés. En trois minutes, on passe à 1,1 milliard de degrés. Cet Univers dense et chaud est rempli de photons mais aussi de particules d'autant plus exotiques que l'on est près du Big Bang. En effet, chacun de ces photons transporte une énergie d'autant plus grande que la température est élevée. Du coup, l'interaction entre deux photons d'énergie suffisante E peut donner naissance à une paire composée d'une particule de masse m et de son antiparticule (chaque particule a une antiparticule associée, de caractéristiques équivalentes mais de charge électrique opposée), dès que la condition E > mc2 est atteinte.

Antimatière

En même temps a lieu le processus inverse : l'annihilation d'une paire particule-antiparticule, avec production de deux photons. Quand la température diminue, cet équilibre entre photons et paires est brisé. Les particules peuvent alors s'annihiler avec leurs antiparticules. Pour des raisons qui ne sont pas encore tout à fait claires, il semble bien qu'au cours de ces processus de création de la matière, qu'on appelle la baryogénèse, il y a eu un excès léger de matière par rapport à l'antimatière : sinon, nous ne serions pas là pour en parler. Un très léger excès, puisque pour un milliard d'antiparticules, il devait y avoir un milliard plus une particule de matière et c'est de ce minuscule excès qu'a émergé toute la matière de l'Univers.

Matière et anti-matière
images/particules2.gif
10-35 seconde après le Big Bang, l'Univers contenait aussi bien des particules (représentées par des points jaunes) que des antiparticules (en bleu), mais avec un nombre très légèrement plus grand de particules. Après 10-5 seconde, la majorité des particules se sont annihilées, mais il subsiste un léger déséquilibre entre particules et antiparticules. Les annihilations successives ne laissent subsister qu'un petit nombre de particules.
Crédit : Astrophysique sur Mesure / Florence Durret, Fabienne Casoli et Gilles Bessou

Des quarks aux protons

Très peu de temps après le Big Bang, disons avant un dix-millionième de seconde, la température est si élevée et le rayonnement si intense qu'aucun noyau ni aucun baryon n'existe encore. L'Univers contient alors une soupe de quarks, d'électrons et de neutrinos, de toutes les antiparticules associées et bien sûr des photons très énergétiques.

Vers un dix-millionième de seconde, quand la température de l'Univers n'est "plus que" de 5000 milliards de degrés, la soupe de quarks se condense et apparaissent protons et neutrons. C'est le premier pas de la nucléosynthèse, puisqu'un proton n'est rien d'autre qu'un noyau d'atome d'hydrogène. Au départ, il y a à peu près autant de neutrons que de protons. Les protons se transforment en neutrons par collision avec un antineutrino ou un électron; les réactions inverses transforment le neutron en proton par collision avec un anti-électron (encore appelé positron) ou un neutrino.

Mais au fur et à mesure de l'expansion de l'Univers, les collisions entre particules ne se font plus si nombreuses, et les réactions ne sont plus en équilibre. C'est vers 1s que l'équilibre entre protons et neutrons est rompu et que l'on se retrouve avec environ un neutron pour 7 protons. Telles sont les conditions initiales de la nucléosynthèse.


Les étapes de la nucléosynthèse des éléments légers

Les étapes de la nucléosynthèse

La nucléosynthèse procède par addition de neutrons ou de protons sur les noyaux existants. En voici un bref résumé.

Le deutérium

Première étape : la synthèse du deutérium par fusion d'un neutron et d'un proton. La réaction s'écrit :

p + n D + γ (γ désigne ici un photon, D est le noyau de deutérium 2H).

Mais la réaction inverse est également possible:

D + γ p + n : il s'agit de la photodissociation du deutérium. Il suffit pour cela qu'il y ait dans le FDC des photons d'énergie suffisante. Or si on se rappelle la forme de la courbe de rayonnement du corps noir, on voit que même si l'énergie moyenne des photons est insuffisante, il existe quand même beaucoup de photons d'énergie supérieure à l'énergie moyenne !

Résultat net : même si la réaction de synthèse du deutérium est possible dès la première seconde passée, ce n'est que vers une centaine de secondes après le Big Bang que ces noyaux de deutérium survivent pour participer aux étapes suivantes. Or le deutérium est indispensable pour monter en nombre de masse !

Après le deutérium

Le deutérium enfin produit, on peut passer à l'hélium. Là plusieurs chemins sont possibles :

helium.gif
Réactions de synthèse de l'hélium dont les équations sont données en solution de l'exercice. En bleu les neutrons, en rouge les protons, en jaune les photons.
Crédit : Astrophysique sur Mesure / Florence Durret, Fabienne Casoli et Gilles Bessou

La réaction 1 est la synthèse de l'Hélium 4 à partir du deutérium en passant par l'Hélium 3.

La réaction 2 fait de même mais en passant par le Tritium.

Pour la réaction 3, deux noyaux de deutérium donnent de l'Hélium 3.

En 4, on obtient du Tritium, qui va à son tour être transformé en Hélium 4 comme dans les deux premières réactions.

Enfin, en 5, on va toujours du deutérium à l'Hélium 4, mais cette fois par réaction avec l'Hélium 3.

On voit que le deutérium est le point de départ de toutes les réactions qui conduisent à l'hélium. La production du deutérium est donc vraiment le goulot d'étranglement de la nucléosynthèse.


Exercice : l'hélium

exerciceSynthèse de l'hélium

Difficulté : ☆☆  

Question 1)

Donner sous la forme A + B C + D les équations représentant les réactions qui conduisent à la synthèse de l'hélium. On note le neutron n, le proton p, le photon γ. Le deutérium sera noté D ou 2H, le tritium sera noté 3H.


Les éléments plus lourds que l'hélium

Après l'hélium ?

Après l'hélium 4 (deux neutrons, deux protons), qui est un noyau particulièrement stable, le processus de construction de noyaux par addition d'un neutron ou d'un proton tourne court : en effet, il n'existe pas de noyau stable de masse 5. Pour sauter le pas, il faudrait fusionner de l'hélium avec du deutérium ou un autre noyau d'hélium, mais à cause de l'expansion de l'Univers, température et densité ne sont plus suffisantes pour vaincre la répulsion entre noyaux chargés positivement. C'est là le deuxième goulot d'étranglement de la nucléosynthèse.

Pendant le Big Bang, se forment donc extrêmement peu d'éléments plus lourds que l'hélium, un peu de lithium (7Li) et de béryllium (7Be). Le troisième goulot d'étranglement provient du fait qu'il n'y a pas de noyau stable de masse 8.

Tous les noyaux plus lourds se forment donc dans les étoiles.

La figure ci-contre représente l'évolution des éléments légers pendant la nucléosynthèse. L'axe des abscisses est la température en unités de milliards de degrés : à t = 1 s, la température est de 15 milliards de degrés. En trois minutes, on passe à 1,1 milliard de degrés. Au début de la nucléosynthèse, l'Univers ne contient que des protons et des neutrons. Trois minutes après, le paysage s'est considérablement enrichi, et presque tous les neutrons ont été consommés pour fabriquer des noyaux d'hélium 4. Les autres neutrons vont rapidement disparaître car les neutrons libres (en-dehors d'un noyau) sont instables avec une demi-vie de 15 minutes, ils se transforment alors en protons.

Les 3 minutes de la nucléosynthèse
3minutes.gif
L'abondance des éléments pendant les premières minutes de l'Univers, par rapport à celle des protons.
Crédit : E. Vangioni-Flam, IAP

remarqueRemarque

Certains éléments créés par la nucléosynthèse primordiale sont radioactifs et se transforment rapidement : le tritium en hélium 3 (en 12 ans) et le béryllium 7 en lithium 7 (en 53 jours). Les autres sont stables.


Exercice : l'abondance de l'hélium

exercicel'abondance de l'hélium

Question 1)

Au moment où le deutérium devient stable et où commencent les réactions de nucléosynthèse de l'hélium, il y a environ 1 neutron pour sept protons. Quelle est l'abondance finale de l'hélium par rapport à l'hydrogène, en nombre et en masse ?


Prédictions

Telles sont donc les prédictions de la nucléosynthèse primordiale :

Abondance des baryons

La théorie du Big Bang prévoit les abondances primordiales des éléments légers avec beaucoup de précision. Au contraire de ce qui se passe pendant la première microseconde, la physique de la nucléosynthèse est une physique bien connue au laboratoire, les taux des réactions sont précisément déterminés. Le seul paramètre libre est le rapport du nombre de baryons (c'est-à-dire les protons et les neutrons, constituants de la matière ordinaire) au nombre de photons. Pourquoi ? On se rappelle que la nucléosynthèse commence par la réaction de synthèse du deutérium :

p + n D + γ.

Mais la réaction inverse de dissociation du deutérium par un photon est possible tant qu'il existe assez de photons d'énergie suffisante. La nucléosynthèse du deutérium doit donc attendre que l'Univers se refroidisse un peu. Mais pendant ce temps, les neutrons, qui sont instables en dehors des noyaux atomiques, se désintègrent par radioactivité β. S'il y a beaucoup de photons, la nucléosynthèse du deutérium démarre plus tard, à un moment où il y a moins de neutrons. Or nous avons vu que presque tous les neutrons finissent dans un noyau d'4He. Dans ce cas, la fraction de la masse sous forme d'4He est donc plus faible. Au contraire, s'il y a plus de baryons, on démarre plus tôt la nucléosynthèse du deutérium, et la fraction d'4He sera donc plus élevée.

On a donc un seul paramètre : le rapport baryons sur photons, que nous appellerons le paramètre eta. Ce paramètre est lié à la densité baryonique Omega_b par la relation Omega_b h2 = eta 10-10/ 273 où h est la constante de Hubble en unités de 70 km/s/Mpc. Il y a quatre quantités observables : les abondances de D, d'3He, d'4He et d'7Li. Les abondances des éléments légers sont donc un test très fort de la théorie du Big Bang. Or, les abondances observées sont en bon accord avec une valeur unique de la densité de matière ordinaire, ce qui nous prouve que notre description de la nucléosynthèse primordiale est correcte.

Abondances observées des éléments légers
elements_legers.png
Abondances d'4He (en fraction de masse), D, d'3He et d'7Li (en nombre relativement à l'hydrogène) en fonction du rapport eta du nombre de baryons au nombre de photons (échelle du bas) et de la quantité Omega_b h2 (échelle du haut). L'épaisseur du trait correspond aux incertitudes du calcul effectué à partir de simulations de type Monte-Carlo. Les régions horizontales hachurées représentent les abondances primordiales de D, d'3He et d'7Li déduites des observations spectroscopiques. Une limite supérieure pour le d'7Li est également donnée (en tiretés). La bande verticale jaune représente les contraintes imposées par les observations du satellite WMAP. observées des éléments légers. Les rectangles indiquent les boîtes d'erreur.
Crédit : Coc et al. 2004, ApJ 600, 544

En savoir plus: L'abondance du deutérium

Détecter le deutérium à grand z
images/deuteriumquasar.jpg
Détermination du rapport d'abondance D/H dans un spectre de quasar observé avec le télescope Keck.
Crédit : Kirkman et al, 2003, ApJ Supp 149, 1

ensavoirplusEn savoir plus

Il n'est pas très facile de déterminer par les observations les abondances primordiales des éléments légers car les abondances que nous observons ont subi peu ou prou d'évolution cosmique. Par exemple, les étoiles fabriquent de l'hélium et détruisent du deutérium et du lithium. Pour le deutérium, c'est relativement simple : en raison de sa fragilité, il ne peut qu'être détruit par les étoiles, son abondance primordiale est forcément supérieure à tout ce qu'on peut observer dans l'Univers actuel. Pour essayer de s'approcher de l'abondance primordiale du deutérium, les astronomes essaient de le détecter dans le spectre de galaxies très lointaines, que nous observons donc quand elles étaient très jeunes, à une époque où peu de deutérium avait été détruit.

Déterminer l'abondance du deutérium dans ces objets lointains est compliqué par le fait que les raies du deutérium sont toujours très proches de celles de l'hydrogène ordinaire (elles sont décalées de l'équivalent de 82 km/s). Or celui-ci est beaucoup plus abondant, ses raies sont très intenses et masquent celles du deutérium. Et si par chance la raie de l'hydrogène n'est pas très intense, c'est qu'il y a peu d'hydrogène et encore moins de deutérium ! Il faut donc utiliser de très grands télescopes pour essayer de collecter le maximum de lumière et détecter le fameux deutérium. La figure illustre la détermination du rapport d'abondance D/H dans un spectre de quasar observé avec le télescope Keck. Les raies sont en absorption devant la lumière du quasar (qui est à un décalage z de 2,53). Chacun des 6 panneaux illustre la détection d'un couple de raies de D et de H, la raie du deutérium étant beaucoup plus faible et située à gauche de celle de l'hydrogène. Sur chaque graphe sont représentés les données et les ajustements de modèles.


Conclusion

conclusionConclusion

La nucléosynthèse primordiale, qui a eu lieu dans les 3 premières minutes après le Big Bang a donné naissance aux éléments les plus légers, hydrogène, hélium et lithium. Avec cela, on ne va pas très loin dans la table de Mendeleiev ! Il va falloir attendre plusieurs centaines de millions d'années l'allumage des premières étoiles pour que la nucléosynthèse reprenne, pour donner les éléments chimiques que nous connaissons. Cette période de l'allumage des premières étoiles est une des plus mal connues de l'histoire de l'Univers. Les premières étoiles étaient en effet probablement fort différentes de notre Soleil.


Les étoiles et la naissance des atomes

Auteurs: Florence Durret, Fabienne Casoli

Introduction

Résumé

Le Big Bang a donc produit tout l'hydrogène de l'Univers, dont celui de toutes les molécules d'ADN et de toutes les gouttes d'eau présentes sur Terre, ainsi que de l'hélium et du lithium. Les autres éléments chimiques, nous les devons aux étoiles, qui fabriquent également de l'hélium. Sans étoiles, l'Univers serait fort simple : un gaz d'éléments légers. Avec les étoiles, commencent la chimie et la biologie.


De l'hélium à l'uranium : tous enfants des étoiles

Comment les étoiles s'y prennent-elles pour fabriquer les éléments chimiques ? La nucléosynthèse stellaire se passe en plusieurs épisodes au cours de la vie d'une étoile et dépend fortement de la masse de cette étoile. Nous verrons dans un autre chapitre les différentes étapes de l'évolution stellaire, mais décrivons-en dès maintenant les grandes lignes. Par évolution stellaire, on entend les transformations progressives d'une étoile au fur et à mesure de la "combustion" de son carburant nucléaire, jusqu'aux phases finales qui peuvent aller du refroidissement très lent d'un résidu d'étoile à l'explosion en supernova. Toutes les étoiles ne suivent pas le même chemin et n'évoluent pas à la même vitesse ; le paramètre principal est la masse de l'étoile, qui se mesure en masses solaires (M_soleil) et varie de 0,08 M_soleil à quelques dizaines de M_soleil pour les étoiles les plus massives. Plus l'étoile est massive, plus elle est lumineuse, plus elle évolue vite et plus elle fabrique d'éléments lourds.

Toutes les étoiles que nous observons sont constituées d'hydrogène et d'hélium, plus une pincée d'éléments plus lourds. La première phase de la vie d'une étoile va consister à "brûler" de l'hydrogène pour en faire de l'hélium, ce qui nécessite d'atteindre une température de 10 millions de degrés au moins. L'énergie produite par les réactions de fusion nucléaire permet à l'étoile de briller, mais aussi de ne pas s'effondrer sous son propre poids. Car toute la vie d'une étoile se passe à combattre la gravité : sans production d'énergie, cette sphère de gaz s'effondrerait immanquablement sous son propre poids.

Pourquoi la fusion de deux noyaux peut-elle produire de l'énergie ? C'est encore à cause de E = mc2. Une réaction A + B   C va dégager de l'énergie si (masse de A + masse de B) > masse de C : la différence des masses est récupérée sous forme d'énergie (photons gamma).

remarqueRemarque

Par abus de langage, le mot "combustion" est utilisé pour désigner les réactions de fusion thermonucléaire. De même on parlera de "combustible", "cendres" et de "brûler" ...


La nucléosynthèse dans le Soleil

Les éléments produits par le Soleil

La suite dépend totalement de la masse de l'étoile. Prenons l'exemple du Soleil, qui pour l'heure est en train de "brûler" son hydrogène et continuera ainsi pendant 4 milliards d'années. Les noyaux d'hélium s'accumulent en son centre. Quand il n'y aura plus que ces résidus au centre du Soleil, la production d'énergie s'arrêtera momentanément. La gravité reprend le dessus ; les régions centrales s'effondrent et s'échauffent. Elles s'échauffent tellement que la température atteint les cent millions de degrés, et que les noyaux d'hélium se mettent à brûler pour donner du carbone et de l'azote.

C'est la phase géante rouge, une période difficile pour l'étoile, qui se met à montrer des signes d'instabilité comme des pulsations ou des variations périodiques, en perdant progressivement de la matière sous forme de vent stellaire. Bonne affaire pour la nucléosynthèse, car les éléments lourds ainsi formés peuvent quitter l'étoile et rejoindre l'espace interstellaire.

Le jeu s'arrête là pour une étoile de type solaire. Les réactions nucléaires s'arrêtent à nouveau quand l'hélium se fait rare dans le cœur, lequel se contracte à nouveau. Mais la température atteinte sera insuffisante pour démarrer les réactions de fusion du carbone. Dans une dernière apothéose, les régions externes de l'étoile enflent à nouveau sous forme de nébuleuse planétaire, qui se répand lentement dans le milieu interstellaire environnant, l'ensemençant des produits de la nucléosynthèse. Mais il faut pour cela être patient : il faut au total une bonne dizaine de milliards d'années à une étoile de masse solaire (2 1030 kg) pour en arriver là.

Nébuleuse planétaire
pn.jpg
La nébuleuse planétaire de l'haltère (Dumbbell Nebula), aussi connue sous le nom de Messier 27, est constituée de gaz éjecté par l'étoile centrale très chaude, et excité par le rayonnement ultraviolet de cette étoile. L'éjection de matière est un phénomène courant dans les dernières phases de la vie des étoiles. Durant cette phase une partie des atomes synthétisés par l'étoile retourne au milieu interstellaire qui s'enrichit donc en éléments lourds.
Crédit : ESO

Exercice : Soleil

exerciceFission et fusion

Difficulté :   

Question 1)

Le Soleil fonctionne par réactions de fusion en transformant de l'hydrogène en hélium. On peut résumer la réaction principale par : 4 p 4He + 2e+ + γ. A votre avis, la masse d'un noyau d'4He est supérieure ou inférieure à celle de 4 protons ?

Les centrales nucléaires fonctionnent par réaction de fission de l'uranium : sous l'impact d'un neutron, l'uranium se casse en deux morceaux plus petits et libère 3 neutrons. On note m1 la masse des constituants de départ (neutron + noyau d'uranium) et m2 la masse des produits finaux. A votre avis, laquelle de ces deux masses est la plus grande ?


La nucléosynthèse dans les étoiles massives

Les éléments produits par une étoile massive

Alors que la production d'une étoile peu massive s'arrête au carbone, une étoile massive est capable d'engendrer en son cœur des températures et des pressions assez élevées pour amorcer toute une série de réactions de "combustion" de plus en plus complexes, en commençant par la combustion du carbone en néon, sodium et magnésium, puis la combustion du néon en oxygène et enfin celle de l'oxygène en silicium. Les "cendres" de chaque réaction s'accumulent au centre de l'étoile pour servir ensuite de carburant à la combustion suivante. L'étoile finit donc par avoir une structure en pelure d'oignon, avec au centre un cœur de fer, puis une couche de silicium, une couche d'oxygène, une couche de carbone, un couche d'hélium pour finir par l'enveloppe d'hydrogène. Mais après le fer, c'est fini : la fusion du fer n'étant pas énergétiquement favorable, les réactions de combustion doivent s'arrêter là, et la production d'énergie aussi. S'ensuit un effondrement rapide de l'étoile qui finit en explosion de supernova. Dans le cataclysme, la majeure partie de l'étoile et de sa production de noyaux sera dispersée dans l'espace.

coupeduneetoile.gif
La structure en pelure d'oignon d'une étoile massive
Crédit : Astrophysique sur Mesure / Florence Durret, Fabienne Casoli et Gilles Bessou
images/casa_2panel.jpg
Image en rayons X du reste de supernova Cas A dans la constellation de Cassiopée, prise par le satellite américain Chandra. Sur l'image de gauche, chacune des couleurs correspond à une gamme différente d'énergie des rayons X, qu'on peut relier à l'émission de certains noyaux atomiques. Les filaments verts les plus externes correspondent à l'onde de choc de la supernova, qui a un diamètre de 20 années-lumière. A droite, la répartition des noyaux de silicium éjectés dans l'explosion.
Crédit : NASA

Vers les éléments les plus lourds

Comment construit-on des éléments lourds ?

Pour construire des éléments de plus en plus lourds, les étoiles procèdent en fusionnant des noyaux, on a par exemple :

12C + 12C 16O + 4He + 4He. Ces fusions peuvent se produire au cours de la vie "calme" de l'étoile, au cours d'une des phases de fusion de l'hydrogène ou d'autres éléments qui viennent d'être évoquées, ou bien de façon explosive, pendant une explosion de nova ou de supernova.

Mais on ne peut pas faire tous les éléments de cette manière, car les noyaux atomiques, chargés positivement, sont de plus en plus difficiles à fusionner au fur et à mesure qu'ils sont plus lourds, ceci en raison de la répulsion coulombienne entre charges de même signe. De plus, on ne peut former aucun élément plus lourd que le fer par fusion de noyaux, à cause de la stabilité particulière de cet élément. L'autre solution est d'ajouter des neutrons à un noyau atomique jusqu'à arriver à un tel excès de neutrons que certains vont se transformer en protons. Le tour est alors joué : le nombre de masse n'a pas changé mais le nombre atomique si : on a donc créé un nouvel élément. C'est ainsi qu'on peut passer par exemple du cuivre (numéro atomique 29) au zinc (numéro atomique 30).

Sans ce processus de capture des neutrons, aucun élément plus lourd que le fer n'existerait dans la nature : ni or, ni plomb. La capture de neutrons serait-elle la version moderne de la transmutation alchimique ? Différents modes d'addition de neutrons sont connus, qui jouent un rôle soit lors des explosions de supernovae, soit quand certaines régions d'une étoile de masse intermédiaire sont portées brutalement à des températures élevées. Enfin, il existe un autre processus pour passer à des éléments plus lourds, l'addition directe de protons dans un noyau.

Mentionnons un dernier mécanisme de nucléosynthèse qui, lui, crée des éléments plus légers que les éléments de départ : c'est la "spallation" qui consiste à casser un noyau atomique en éléments plus légers. Les éléments lithium, béryllium, bore (Li, Be, B) sont synthétisés par ce processus non thermique. Ils sont en effet fragiles et détruits dans les creusets stellaires. Notons que c'est le processus de spallation de noyaux de l'atmosphère terrestre par des particules chargées venant de l'espace interplanétaire qui fabrique le carbone 14, élément qui est bien connu pour servir à la datation par exemple des découvertes archéologiques.


ADN et euros, enfants des étoiles

Les élements d'une molécule d'ADN

Reprenons donc les éléments chimiques à la base d'une molécule d'ADN : H, C, N, O et P. Pour l'hydrogène, les choses sont claires : c'est un pur produit du Big Bang. Carbone et oxygène sont produits dans des étoiles massives (ce sont les étoiles de plus de 8 masses solaires qui en fournissent la majorité), pour l'oxygène quand elles explosent en supernova, et pour le carbone un peu plus tôt dans leur vie, quand elles perdent une grande partie de leur masse sous forme de "vent" stellaire. Par contre, l'azote provient essentiellement des étoiles de 2 à 6 masses solaires. Pour finir, le phosphore : encore une production des étoiles massives, de deux manières différentes : c'est à la fois un produit de la combustion du néon dans le coeur de l'étoile, mais aussi un des produits de la nucléosynthèse explosive.

Pour faire de l'ADN, il faut donc un Big Bang, de petites étoiles, de grosses étoiles et des explosions de supernovae. La molécule qui porte l'information génétique nécessaire à la vie sur Terre n'existe que grâce aux générations successives d'étoiles de toutes masses qui ont enrichi en éléments chimiques le nuage interstellaire galactique où s'est formé le système solaire. Nous sommes donc bien, littéralement, des "poussières d'étoiles".

Comment faire une pièce d'un euro ?

Même une pièce de monnaie porte témoignage de la nucléosynthèse stellaire. Une pièce d'un euro est composée de nickel, de cuivre et de zinc, éléments chimiques dont les nombres atomiques sont respectivement 28, 29 et 30, soit donc au-delà du fer, dont le numéro atomique est 26. Il s'agit donc d'éléments qu'on ne forme pas dans des réactions de fusion nucléaire, mais par addition de neutrons sur des noyaux plus petits. Parmi les 5 isotopes stables du nickel, tous sont produits par les étoiles massives, soit dans leur évolution "calme", soit par nucléosynthèse explosive. Il en est de même du zinc, mais dont un des isotopes peut également se former dans les étoiles de masse intermédiaire. Le cuivre est typique des supernovae. Combien de supernovae différentes ont contribué aux pièces que nous manipulons tous les jours ? Et le passage à l'euro n'a pas changé grand-chose : qu'on manipule des pièces de un franc en acier ou des napoléons en or, il s'agit toujours de débris d'étoiles massives.

Il faut des étoiles massives pour battre monnaie...
1euro.jpg
La couronne jaune, extérieure, d'une pièce d'un euro contient du nickel, du cuivre et du zinc. La partie centrale ne contient que du cuivre et du nickel.

Exercice : fer

exerciceAlchimie du fer

Difficulté :    Temps : 10 min

Question 1)

Dans les étoiles, un des processus d'addition de neutrons ajoute 2 neutrons à un noyau de fer. Quel élément obtient-on alors ?

Question 2)

Quels éléments obtient-on quand :

a) un de ces neutrons se tranforme en proton par désintégration β  ?

b) les deux neutrons se tranforment en protons ?

Si l'on part maintenant du nickel et qu'on lui ajoute trois neutrons, quels éléments obtient-on quand :

c) un de ces neutrons se désintègre en proton ?

d) deux de ces neutrons deviennent des protons ?


En savoir plus : Le mystère de l'énergie noire

Auteurs: André Füzfa, Loïc Villain

En savoir plus: Introduction

introductionIntroduction

Au début des années 90, la cosmologie est entrée dans une ère de grande précision et constitue désormais un champ d'expérimentation précieux et unique pour tester les théories de la physique fondamentale, depuis la théorie de la gravitation jusqu'aux lois de la physique microscopique. Des expériences comme l'étude du fond diffus cosmologique, les grands relevés de galaxies et la mesure précise de l'histoire récente de l'expansion cosmique ont largement contribué à faire de la cosmologie une science expérimentale. Parmi les questions auxquelles cette science est confrontée, une des plus importantes est celle du contenu énergétique de l'Univers. Savoir de quoi est exactement composé l'Univers, et en quelles proportions, permet non seulement de lui donner un âge, mais également de trancher la question de sa finitude ou celle de sa fin. De manière fort surprenante, c'est cette question du contenu énergétique de l'Univers qui a conduit les astronomes à deux découvertes parmi les plus mystérieuses et les plus prometteuses de l'histoire de la physique moderne : la matière noire et l'énergie sombre. Cette dernière composante, encore plus énigmatique que la matière noire, fait l'objet de cette section.

La découverte de l'énergie sombre remonte à la fin du dernier siècle (1990) lorsque les astronomes réussirent à utiliser la technique des supernovae de type Ia pour déterminer les échelles de distances extra-galactiques. Depuis, plusieurs observations cosmologiques indépendantes sont venues conforter cette découverte véritablement sensationnelle, de sorte que l'existence de l'énergie noire semble aujourd'hui très probable. Commençons par voir ensemble les trois principales observations à la base de cette hypothèse.


En savoir plus: Fluctuations angulaires du rayonnement fossile

Le fond diffus cosmologique, ce rayonnement électromagnétique extrêmement homogène et isotrope, à l'image de ce qu'était la soupe cosmique au moment de son émission quelques 300 000 ans après le Big Bang, exhibe des fluctuations de température ténues de l'ordre d'une part pour cent-mille. Ces fluctuations sont une mine d'or pour les cosmologistes car elles permettent d'en apprendre plus sur les phases primordiales de l'Univers (notamment sur une éventuelle période d'inflation) ainsi que sur son époque récente et sur la composition énergétique de l'Univers. La carte de ce rayonnement est illustrée à la figure ci-contre.

Carte du fond diffus cosmologique par le satellite WMAP
images/wmap.jpg
Carte du fond diffus cosmologique sur tout le ciel obtenue par le satellite WMAP en 2003. Les différentes couleurs illustrent des différences de température ténues de l'ordre d'une part pour cent-mille.
Crédit : WMAP Science Team 2003.

Lorsque l'on analyse finement la taille angulaire de ces fluctuations en fonction de leur contraste de température par rapport à la valeur moyenne de 2.75 K, on peut obtenir plusieurs informations sur les paramètres cosmologiques (voir figure ci-contre). La taille angulaire (abscisse du grand pic) est une mesure du rayon de l'horizon à l'époque du rayonnement fossile, et donc de la géométrie totale de l'Univers. Son amplitude en terme de fluctuation de température (ordonnée du premier pic) est une mesure de la quantité de matière non-relativiste (matière sombre plus matière ordinaire), alors que la hauteur relative des deux premiers pics est une mesure de la quantité de matière ordinaire (dite "baryonique" car constituée essentiellement de protons et de neutrons, c'est-à-dire de baryons). La combinaison de ces mesures indique que la soupe cosmique est composée de quelque 4% de baryons et de 20 % de matière noire (par rapport à la densité totale critique Omega_T=1 c'est-à-dire 100%).

Les fluctuations angulaires du rayonnement fossile
images/fluct_cmb.png
Fluctuations de température du rayonnement fossile en fonction de leur taille angulaire.
Crédit : A. Füzfa, d'après les données de WMAP.

Le résultat de cette analyse est que la géométrie de l'Univers est très proche de celle d'un univers plat (euclidien), quoique que légèrement elliptique, tout en exhibant un paramètre de densité pour la matière Omega_m (matière noire et matière ordinaire) de l'ordre de 0.3 en unités de la densité critique aujourd'hui. Or une telle géométrie implique par définition que la densité totale soit de l'ordre de la densité critique, soit une densité totale proche de celle d'un univers plat. Puisque la matière ordinaire, la matière noire et les radiations ne représentent que 30 % du total, de quoi diable sont donc constitués ces quelques 70% d'énergie manquante  ? Ceci constitue notre première évidence en faveur de l'existence d'une mystérieuse énergie sombre constituant les 70% de la soupe cosmique aujourd'hui !


En savoir plus: Propriétés des grandes structures cosmiques

Les propriétés des grandes structures cosmiques, comme les galaxies et les amas et superamas de galaxies, sont également de première importance pour la cosmologie. Par exemple, en raison de l'homogénéité et de l'isotropie de l'Univers, le dénombrement des galaxies comprises dans un volume suffisamment grand de l'espace, ce qui revient à compter toutes les galaxies jusqu'à un redshift donné, est une mesure indirecte à la fois de ce volume et de la densité de matière dans l'Univers. Les grands projets observationnels comme SDSS, 2dF, 2MASS, CFHTLS, WDS dressent de tels catalogues de galaxies. En étudiant d'autres propriétés, telle que la mesure de la vitesse particulière de ces galaxies, c'est ainsi que l'on nomme la différence entre la vitesse observée et la vitesse apparente associée à l'expansion cosmique, permet de déterminer également le rapport entre la densité de la matière et la densité critique, ce que l'on nomme le paramètre de densité de la matière Omega_m. D'autres propriétés, comme la fraction de gaz des amas de galaxies émettant dans les rayons X, permettent aussi de telles mesures avec une précision remarquable. La conclusion de ces mesures rejoint celle sur les fluctuations du rayonnement fossile en prédisant une quantité totale de matière non-relativiste de l'ordre de 30%.


En savoir plus: Diagramme de Hubble des supernovae lointaines

Un autre indice incontournable de l'existence de l'énergie noire est la mesure de l'expansion cosmique à partir d'astres très lointains. Comme on l'a déjà mentionné, les méthodes de mesure de distances extra-galactiques se basent sur l'utilisation d'astres aux propriétés particulières qui permettent de déduire leur puissance rayonnée et que l'on qualifie souvent de chandelles standards. La chandelle standard à l'origine de la révolution cosmologique de l'énergie noire est la supenova de type Ia, cataclysme qui apparaît dans un système binaire comprenant une étoile et une naine blanche en train de vampiriser sa compagne d'infortune. Lorsque la naine blanche approche d'une certaine masse (dite de Chandrasekhar), l'équilibre qu'elle avait réussi à maintenir jusqu'alors est rompu et il s'ensuit une série d'évènements complexes aboutissant à l'éradication explosive du système. La figure suivante illustre la supernova 1994D dans la galaxie proche NGC4526 dans l'amas de la Vierge.

Supernova 1994D
sn94d.gif
La supernova de type Ia se trouve en bas à gauche de l'image. Pendant quelques jours, elle apparaîtra presque aussi brillante que le coeur de la galaxie hôte qui contient pourtant plusieurs millions d'étoiles. La brillance et la stabilité de ces objets en font des outils remarquables pour la cosmologie observationnelle.
Crédit : Hubble Space Telescope Institute et High-z supernovae research team.

Cette explosion présente un déroulement temporel remarquablement similaire d'un objet à l'autre, ce qui a encouragé les astrophysiciens à utiliser ce type d'astre comme une chandelle standard pour mesurer l'expansion de l'Univers. En déterminant d'une part la puissance lumineuse émise par la supernova par le biais de la décroissance lumineuse du phénomène au cours du temps, et la vitesse de récession de sa galaxie hôte par des méthodes spectrocospiques (décalage vers le rouge gravitationnel associé à l'expansion), il est possible de dresser un diagramme de Hubble associé à ces supernovae et de mesurer l'histoire de l'expansion cosmique sur une échelle temporelle de plusieurs milliards d'années. L'examen de ce diagramme conduit à une conclusion similaire aux deux autres méthodes présentées précédemment, à savoir que l'univers est fort vraisemblablement constitué de quelque 30% de matière et de 70% d'énergie sombre. Toutefois, comme nous le verrons à la page suivante, les supernovae nous enseignent que l'effet de cette énergie noire est loin d'être anodin car il permet d'accélérer le cours de l'expansion cosmique.


En savoir plus: La concordance cosmique

Etant données la variété, la précision et l'interdépendance des méthodes expérimentales de la cosmologie moderne, on ne parle plus à présent de modèle standard de la cosmologie mais plutôt de modèle de concordance, au sens où le paradigme cosmologique retenu est celui qui "concorde" le mieux avec cette pléiade d'observations précises et interdépendantes. La figure ci-contre illustre l'état de l'art de la concordance en cosmologie à l'époque de la rédaction de ces lignes (2006).

Les modèles d'Univers les plus... probables!
images/confidence.png
Les univers les plus probables au sens des trois méthodes cosmologiques sont en couleur, dans le plan des paramètres de densité Omega_m et Omega_Lambda.
Crédit : The Supernovae Cosmology Project: http://supernova.lbl.gov/ (d'après Knop et al, ApJ 598:102-137, 2003).

Ce diagramme illustre dans un plan (Omega_Lambda,Omega_m) (paramètres de densité associés à l'énergie noire et la matière non-relativiste, respectivement) les modèles cosmologiques les plus probables au sens de trois méthodes observationnelles différentes. Ces trois méthodes sont la détermination du diagramme de Hubble de supernovae de type Ia (en bleu), la taille angulaire des fluctuations de température du fond diffus cosmologique (en vert) et les propriétés des amas de galaxies dans les rayonnements X (en orange). Les zones coloriées couvrent les modèles cosmologiques probables à plus de 95%. Par exemple, un modèle d'univers plat purement matériel Omega_m=1; Omega_Lambda=0 est exclu à plus de 95% par les supernovae et les amas mais est admissible par le rayonnement fossile. Bien que chacune de ces méthodes séparément ne permette pas de déterminer avec très grande précision l'Univers dans lequel nous vivons (tous les modèles sous l'aire coloriée sont fortement plausibles), la combinaison de plusieurs méthodes différentes permet de trancher efficacement en faveur du modèle de concordance Omega_m=0.3; Omega_Lambda=0.7, qui se trouve à l'intersection des trois régions.


En savoir plus: Les effets de l'énergie noire

Maintenant que nous avons étayé l'existence de l'énergie sombre d'une bonne base expérimentale, nous pouvons nous demander qu'elle pourrait bien en être sa nature. Pour ce faire, il suffit de commencer par examiner un peu plus finement les arguments apportés par les supernovae.

La figure ci-contre représente le diagramme de Hubble des supernovae de type Ia, collectées par la collaboration SNLS (SuperNovae Legacy Survey) lors de sa première année d'observations. Ce diagramme de Hubble répartit les supernovae (en ordonnée, la distance est reliée à la brillance apparente de l'astre) en fonction de la vitesse de récession observée (reliée au décalage vers le rouge dû à l'expansion cosmique ou redshift cosmologique). Les données de la collaboration SNLS sont dessinées en noir alors que les prédictions de deux modèles cosmologiques ont été ajoutées. Le modèle en rouge Omega_m=0.3; Omega_Lambda=0.7est celui de concordance et rend remarquablement bien compte des données. Comme indiqué précédemment, les valeurs des paramètres signifient que dans ce modèle l'Univers comporte 30 % de matière et 70 % d'énergie sombre. L'ancien modèle standard de la cosmologie, celui qui ne comporte que de la matière, Omega_m=1; Omega_Lambda=0 , en bleu, ne rend pas du tout compte des données à des redshifts supérieurs à 0,1.

En examinant cette figure, on constate que les supernovae apparaîtraient plus lumineuses si l'on choisissait un modèle dominé par la matière puisque les points de mesure associés sont situés au-dessus de la courbe en bleu. L'adjonction en suffisance d'un ingrédient supplémentaire à la soupe cosmique rétablit l'accord aux données : les 70% d'énergie noire, ici sous la forme d'une constante cosmologique, sur laquelle nous reviendrons un peu plus tard. L'effet de cette constante cosmologique va être d'accélérer l'expansion cosmique dans un passé récent de l'histoire de l'Univers. Si accélération cosmique il y eut, l'Univers a gonflé plus rapidement dans les époques récentes, emmenant les supernovae à des distances plus grandes que si l'expansion universelle avait été décélérée par la matière ordinaire. Le résultat final est de les faire apparaître moins lumineuses qu'elles ne l'auraient été dans un Univers dominé par la matière. L'autre figure ci-contre illustre cette accélération de l'expansion cosmique.

Diagramme de Hubble des données SNLS
images/Hubble_snls.png
Diagramme de Hubble des supernovae lointaines : il donne la différence en luminosité (magnitude apparente retranchée de la magnitude absolue) des astres, qui est une mesure de leur distance, en fonction de leur décalage vers le rouge (redshift) qui est une mesure de leur vitesse de récession.
Crédit : A. Füzfa, d'après les données de SNLS : P. Astier et al., Astronomy & Astrophysics 447 (2006).
L'accélération de l'expansion cosmique
images/scdm_vs_lcdm.png
Evolution cosmologique du facteur d'échelle dans le modèle de concordance (en rouge) et l'ancien modèle standard purement matériel (en bleu).
Crédit : A. Füzfa.

La figure ci-contre représente l'évolution du facteur d'échelle, qui mesure l'expansion cosmique, en fonction du temps (en milliards d'années) pour deux modèles cosmologiques. Le premier, en pointillés, correspond à un univers plat purement matériel Omega_m=1; Omega_Lambda=0 et prédit un âge de l'univers de l'ordre de 9 milliards d'années (a=1 pour aujourd'hui par définition). La seconde en trait plein, est la prédiction du modèle de concordance avec constante cosmologique Omega_m=0.3; Omega_Lambda=0.7. En vertu de l'accélération produite par la constante cosmologique (aux époques récentes, après t~8 milliards d'années, la concavité de la courbe est tournée vers le haut), l'âge de l'univers a été porté aux alentours de 14 milliards d'années. La constante de Hubble H_0 utilisée pour tracer ces courbes est de 70 km/s/Mpc.

Ainsi donc, on conclut de ces figures que l'énergie noire ne se réduit pas à une simple quantité utile pour combler le déficit entre la densité de matière et une densité totale supposée être critique. Puisqu'elle affecte l'estimation de l'âge de l'Univers, elle est aussi une grandeur physique qui oblige les astrophysiciens à reconsidérer l'entièreté de leur édifice cosmologique, depuis la physique de l'univers primordial jusqu'aux époques récentes. Il s'agit donc à proprement parler d'une révolution cosmologique !


En savoir plus: Les pistes pour expliquer l'énergie sombre

On peut dégager trois pistes principales d'explication des observations liées aux supernovae Ia dans la recherche scientifique internationale :

Nous allons dans un premier temps adopter l'hypothèse selon laquelle les supernovae Ia sont de bonnes chandelles standard et que le principe cosmologique est justifié. Dans ce cadre de réflexion, nous allons introduire quelques candidats, parmi les plus fameux, avancés pour la nature de la mystérieuse énergie sombre. Nous les avons regroupés en trois catégories : la constante cosmologique, la quintessence et la modification de la relativité générale, cette troisième approche étant légèrement différente puisqu'elle n'introduit pas réellement un nouveau contenu matériel.


En savoir plus: Diagrammes de Hubble de supernovae lointaines

exerciceMise en pratique

introductionIntroduction

L'applet suivante vous permet de vous faire la main sur la détermination expérimentale des paramètres cosmologiques en reproduisant les diagrammes de Hubble issus de plusieurs jeux de données sur les supernovae. Les paramètres d'entrée sont respectivement H_0la constante de Hubble, Omega_mle paramètre de densité associé à la matière aujourd'hui, la température du rayonnement fossile, Omega_Lambdale paramètre de densité associé à la constante cosmologique aujourd'hui et le jeu de données de supernovae que vous désirez utiliser.

Diagramme de Hubble de supernovae application.png

exempleExemple

Lancez l'applet pour voir apparaître le diagramme de Hubble des données (en bleu) et l'estimation théorique à partir du modèle cosmologique correspondant à votre choix de paramètres (en rouge). Ce diagramme représente le module de distance, différence des magnitudes (luminosité) relative et absolue des astres, en fonction du décalage vers le rouge (redshift), qui est une indication de la vitesse de récession.

definitionDéfinition

L'estimateur statistique "chi^2" qui est affiché en bas de l'écran donne une indication de l'adéquation du modèle choisi aux données. Dans sa version la plus simple, il se définit par chi^2=somme(((subsup(mu;i;obs)-subsup(mu;i;th))/sigma_i)^2;i=1;N) où N est le nombre de données, mu le module de distance (théorique ou observé selon ce qui est indiqué) et sigma l'incertitude sur la mesure considérée. Ici, nous avons utilisé une version particulière de cet estimateur qui permet de s'affranchir du paramètre H_0 pour son calcul. Par contre, la valeur de cette constante est nécessaire pour dessiner le diagramme de Hubble. Obtenir la meilleure estimation statistique revient à rechercher les paramètres cosmologiques qui minimisent la valeur du chi^2 pour un jeu de données.

Meilleures estimations
subsup(chi;min;2) (Omega_m,Omega_Lambda)
SNLS06.dat 116 (0.26,0.74)
Riess04.dat 179 (0.32,0.68)
Daly03.dat 117 (0.3,0.7)

Meilleures valeurs de l'estimateur chi^2 correspondant aux paramètres cosmologiques les plus en adéquation aux données.

A partir de la valeur minimale de cet estimateur, vous pouvez tester la probabilité associée à un certain jeu de paramètres. Si l'écart entre le chi^2 obtenu et le subsup(chi;min;2) est supérieur à une valeur donnée dans le tableau ci-dessous alors le modèle cosmologique considéré est exclu avec une certaine probabilité.

Niveau de confiance des modèles
Delta*chi^2=abs(chi^2-subsup(chi;min;2)) Niveau de confiance
2.3 68%
4.61 90%
6.17 95%
9.21 99%
18.4 99.99%

exempleExemple

Un modèle ayant un écart Delta*chi^2 de plus de 4.61 est exclu à 90%. Ce serait le cas d'un modèle avec un chi^2=122 pour le jeu de données "SNLS06.dat".

remarqueRemarque

Les paramètres par défaut correspondent à la meilleure estimation pour le jeu de données "SNLS06.dat". Les barres d'erreur n'ont pas été représentées sur ce graphe. Pour le jeu de données "Daly03.dat", ce n'est pas le module de distance qui apparaît en ordonnée pour la mesure de distance mais une autre quantité appelée la distance lumineuse. Prenez garde au changement d'échelle en utilisant ce jeu.

bibliographieBibliographie

P. Astier et al., "The Supernova Legacy Survey: measurement of Omega_m, Omega_Lambda and w from the first year data set", Astronomy & Astrophysics, 447 (2006) pp.31-48. A.G. Riess et al., "Type Ia Supernova Discoveries at z > 1 from the Hubble Space Telescope: Evidence for Past Deceleration and Constraints on Dark Energy Evolution", The Astrophysical Journal, 607 (2004) pp. 665-687. R. A. Daly et S.G. Djorgovski, "A Model-Independent Determination of the Expansion and Acceleration Rates of the Universe as a Function of Redshift and Constraints on Dark Energy", The Astrophysical Journal 597 (2003) pp. 9-20.

Question 1)

Estimer la probabilité d'exclusion des modèles suivants : Einstein-de Sitter, de Sitter, univers ouvert (Omega_m=0) pour un ou plusieurs jeux de données. Vous pouvez également tester la robustesse de l'estimation des paramètres cosmologiques en augmentant par exemple Omega_Lambda et en examinant l'augmentation de l'écart. N'hésitez pas à examiner vos modèles avec l'applet de la page suivante pour connaître l'évolution cosmologique (âge, etc.).


En savoir plus: La constante cosmologique

Il s'agit là de l'explication la plus commune, qui fonde d'ailleurs le modèle cosmologique de concordance. Recourir à une constante cosmologique est peut-être l'explication la plus prudente et certainement la plus commode puisqu'elle ne requiert ni d'abandonner la relativité générale (la constante cosmologique ayant été introduite par Einstein lui-même) ni le paradigme du principe cosmologique, ni la physique que nous connaissons aujourd'hui. De plus, un seul paramètre cosmologique supplémentaire Omega_Lambdaest nécessaire pour rendre compte d'observations aussi diverses que celles présentées aux pages précédentes. Malheureusement, cette économie pourrait être le seul avantage de cette explication, si la physique qui se trouve derrière la constante cosmologique est bien celle que nous pensons. En effet, si la situation actuelle concernant l'énergie noire apparaît satisfaisante d'un point de vue observationnel, elle est encore loin de l'être d'un point de vue théorique. Voyons pourquoi...

Quelle interprétation doit-on adopter de la constante cosmologique? Son statut en relativité générale relève quasiment de l'astuce mathématique géniale qu'Einstein avait introduite pour maintenir l'équilibre de l'Univers. Elle apparaît comme une sorte de constante d'intégration que l'on peut interpréter comme une propriété intrinsèque (la courbure) de l'espace vide. Ceci peut se voir par une réflexion simplifiée sur l'accélération de l'expansion cosmique.

Considérons l'expansion cosmique comme un processus physique d'origine gravitationnel "fabriquant" de l'espace. Envisageons tout d'abord le cas où un peu d'espace (un volume donné) est rempli de matière ordinaire (protons, neutrons, étoiles, lumière, etc.). Si on dilate cette portion d'espace comme au cours de l'expansion cosmique, l'énergie gravitationnelle qui y est contenue décroîtra car cette énergie est proportionnelle à la densité de matière dans un volume donné. En effet, la quantité de matière (par exemple le nombre de protons) est constante dans l'Univers (la matière ne peut ni fuir ni affluer dans l'Univers puisque l'Univers contient tout ce qui existe par définition). Si le volume d'une portion d'espace augmente, la densité de matière qui y est contenue diminue, et par conséquent son énergie gravitationnelle diminue également. Or, comme c'est cette énergie gravitationnelle qui cause précisément l'expansion cosmique, produire de l'espace diminue l'énergie gravitationnelle qui à son tour diminue le taux de production d'espace, et ainsi de suite. L'expansion cosmique dans un univers rempli uniquement de matière est donc décélérée.

Que faudrait-il pour que, au contraire, l'expansion cosmique soit accélérée et non plus décélérée? Il suffirait que la production d'espace soit énergétiquement intéressante pour la gravitation: par exemple, que l'espace vide de toute matière soit doté d'une énergie non nulle. En fait, comme la source de la gravitation en relativité générale est l'énergie sous toutes ses formes, il faut une condition précise sur la densité et la pression de cette source pour qu'il y ait accélération de l'expansion. Cette condition s'écrit : p<-rho*c^2/3 où p est la pression et rho la densité. Pour la constante cosmologique qui représente en relativité générale la contribution gravitationnelle du vide, la densité d'énergie rho*c² est exactement opposée à la pression. Mais comment le vide, qui par définition est l'absence de toute matière, pourrait-il être doté d'une énergie non-nulle et d'une pression négative  ?


En savoir plus: L'énergie du vide

C'est ici que les choses deviennent particulièrement intéressantes. Comment savoir si une portion d'espace est réellement vide? Cette question relève de la physique microscopique, c'est-à-dire de la mécanique quantique et plus particulièrement de la théorie quantique des champs. En effet, si vous voulez vraiment savoir si un espace est vide, vous devez mesurer le nombre de particules dans une boîte, ou de manière équivalente l'énergie contenue dans cette boîte. Cette énergie est quantifiée : elle ne varie pas de manière continue et augmente d'une certaine quantité pour chaque particule ajoutée dans la boîte. Or, la physique moderne nous a enseigné que les particules ne sont pas des petites boules, mais plutôt des sortes de vaguelettes formées dans ce que l'on nomme des champs quantiques. Par exemple, les photons, les particules de lumière, sont les vaguelettes du champ électromagnétique et même si vous n'avez pas de photons, le champ est toujours là et il en est de même de tous les champs qui existent dans la nature. Pour mesurer l'énergie de votre boîte, que vous supposez vide, vous devez interagir avec elle, c'est-à-dire avec les champs qu'elle contient : il faut donc essayer de faire réagir les éventuelles particules présentes, par exemple en les éclairant avec de la lumière. Ce faisant, vous perturbez le système, les champs donc, en y introduisant de l'énergie, ce qui induit une incertitude inévitable sur le résultat de votre mesure en raison des principes de la physique quantique ! En pratique, la situation est même pire: plus vous voudrez connaître l'énergie d'un système quelconque (y compris le vide) sur une période courte, plus vous devrez perturber ce système et donc moins vous pourrez être sûr qu'il a gardé l'énergie qu'il possédait avant la mesure! On reconnaîtra ici le fameux principe d'indétermination d'Heisenberg qui s'applique à tous les systèmes quantiques, y compris le vide. La conséquence de ce principe est que l'énergie d'un système donné n'est jamais connue avec certitude et est sujette à des fluctuations dites quantiques.

Dans le vide, c'est-à-dire l'état quantique dénué de particules, un champ peut ainsi tricher avec cette définition et être animé d'un bouillonnement d'apparition et de disparitions de particules (et d'anti-particules), tant qu'elles ont lieu sur des durées suffisamment courtes pour être indétectables. D'une certaine façon, on peut dire que le champ, et donc le vide, peut violer la conservation de l'énergie, mais uniquement s'il le fait de manière assez rapide pour ne pas être pris en flagrant délit par un observateur ! C'est pour cela que les particules qui apparaissent et disparaissent sans que l'on puisse les observer sont nommées particules virtuelles. Cependant, il est bien connu que le crime parfait n'existe pas, et même si le vide est un état dénué de particules réelles, observables, l'agitation associée aux matérialisations et annihilations des particules virtuelles a un effet visible sous la forme d'une énergie moyenne non-nulle qui est un reliquat de ce bouillonnement quantique. En physique moderne, le vide quantique est donc défini non seulement comme l'absence de particules mais aussi bien comme le minimum d'énergie (le minimum de quantas possible), ce minimum n'étant pas zéro contrairement à ce que l'intuition classique laisserait croire. Il est important de noter que l'existence de ces fluctuations quantiques du vide a été mise en évidence expérimentalement, notamment par la mesure de l'effet Casimir qui correspond en quelques sortes à l'existence d'une pression négative exercée par la vide ! Il s'agit donc à la fois d'un phénomène physique irréfutable et d'un phénomène allant dans le sens de ce que l'on observe en cosmologie, même si la mesure en laboratoire de l'énergie du vide est beaucoup plus ardue et n'a pas encore pu être effectuée à ce jour. L'univers à grande échelle est ainsi en quelques sortes un laboratoire exceptionnel de physique fondamentale et la cosmologie permet d'étudier en première ligne des concepts aussi avancés que l'énergie du vide !

Un dernier point intéressant à mentionner est qu'il est possible de démontrer que les fluctuations du vide non seulement correspondent à une pression négative exercée par le vide mais qu'en plus cette pression est directement proportionnelle à la densité d'énergie du vide. La constante cosmologique d'Einstein joue par conséquent pour la relativité générale exactement le rôle d'une énergie associée à l'espace vide, d'où la tentation naturelle d'estimer la valeur de cette constante à partir de considérations quantiques. Et c'est ici que le bât blesse comme nous allons le voir à la page suivante...


En savoir plus: L'insoutenable légèreté du vide

Forts de nos considérations précédentes, nous pouvons tenter d'estimer la valeur de la constante cosmologique à partir de la physique quantique. Le lecteur attentif aura tôt fait de remarquer que puisque nous avons dit qu'en l'absence de particules les champs dont elles sont des excitations élémentaires sont toujours là, le vide est en fait composé d'un grand nombre de champs dans leurs états fondamentaux. Pour calculer l'énergie du vide, il faut donc utiliser la théorie quantique des champs pour déterminer l'état fondamental du champ électromagnétique, mais également du champ des électrons, de celui des neutrinos, de ceux des quarks, de ceux des bosons intermédiaires qui véhiculent les interactions nucléaires, etc.

Plutôt que d'essayer de déterminer la densité de l'énergie du vide comme étant la somme des densités associées aux états fondamentaux de chacun de ces champs, nous allons nous contenter d'en calculer une valeur minimale obtenue en prenant en compte l'existence de la gravitation. En effet, puisque la relativité nous dit que la gravitation est une expression de la courbure de l'espace-temps et puisque celle-ci est décrite par un champ, il est naturel d'attendre de ce champ qu'il soit quantifié et donc victime de fluctuations quantiques qui sont associées à une densité d'énergie du vide. En première approximation, on peut considérer que cela revient à dire qu'en dessous d'une certaine échelle, la notion d'espace-temps continu perd de son sens, un principe à rapprocher de celui qui nous interdisait de nous revenir dans le temps trop près de la singularité du Big Bang. Nous allons voir que pour déterminer cette échelle, il suffit d'estimer l'énergie à laquelle se trouve la limite de validité de la relativité générale à partir de laquelle devraient s'appliquer des considérations quantiques. Ainsi, il n'y aurait plus guère de sens à tenir compte des contributions de l'énergie du vide en-dessous de cette longueur fondamentale et le cube que nous considérions peut être décomposé en cubes élémentaires de longueur d'arète égale à cette longueur fondamentale et d'énergie du vide fixée. Cette décomposition revient à tenir compte dans le calcul de l'énergie du vide des contributions de toutes les particules virtuelles du vide jusqu'à une masse donnée : la longueur d'onde associée à la particule de masse limite égale à la longueur fondamentale que nous recherchons.

Quelle pourrait être cette longueur fondamentale en-dessous de laquelle la gravitation d'Einstein ne serait plus valable? En combinant les trois constantes fondamentales planck (constante de Planck), G (constante de Newton) et c (vitesse de la lumière), il est possible de construire une longueur fondamentale appelée longueur de Planck L_P =sqrt(G*planck/c^ 3) de l'ordre de 10^ (-35)m, ainsi qu'une énergie limite appelée énergie de Planck E_P=planck*c/L_P de l'ordre du milliard de joules. Fort curieusement, il apparaît après coup que la longueur de Planck correspond à la taille du plus petit trou noir localisable avec certitude (sa longueur d'onde de Compton égale son rayon de Schwarzschild), ce qui illustre bien la limite entre gravitation classique et mécanique quantique que nous recherchions. Pour obtenir la densité d'énergie associée à cette échelle de Planck (voir la figure ci-contre) et donc la valeur estimée de la densité d'énergie du vide, il suffit de diviser l'énergie de Planck par le cube de la longueur de Planck :rho_P=E_P/L_P^3 qui est de l'ordre de 10^112 J/m3 !! Cette estimation titanesque nous amène à poser les deux problèmes reliés à la constante cosmologique et l'énergie du vide : celui de l'ajustement fin et celui de la coïncidence.

Estimer l'énergie du vide...
images/vacuum_cube.png
On peut estimer cette énergie en découpant un volume en cubes de longueur élémentaire correspondant à la limite entre relativité générale et mécanique quantique. Si cette limite est à trop haute énergie, l'énergie du vide est grandement surestimée.
Crédit : A. Füzfa/Observatoire de Paris/ASM

L'estimation de l'énergie du vide par l'échelle de Planck conduit à une catastrophe à peine meilleure que l'infini! Le plus élémentaire bon sens, sans même recourir à des arguments astrophysiques, nous dit que cet ordre de grandeur est vraisemblablement complètement infondé : un mètre cube de vide, c'est-à-dire de fluctuations quantiques et de particules virtuelles, devrait peser autant que 10^(54)galaxies !!!).


En savoir plus: Les problèmes de la constante cosmologique

Le problème de l'ajustement fin

S'il est clair que l'énergie du vide ne peut avoir une telle valeur, la physique des hautes énergies propose d'autres ordres de grandeur bien plus raisonnables pour l'énergie du vide et qui renvoient à une physique beaucoup mieux maîtrisée que la théorie quantique de la gravitation. Toutefois, toutes ces valeurs conduisent à la même surestimation colossale. Par exemple, l'échelle de la force électrofaible de quelques centaines de giga-électron-volt, que l'on atteint aisément dans les accélérateurs de particules modernes est de l'ordre d'une planète comme la Terre par mètre cube...

Il est donc clair qu'il doit exister un processus physique encore inconnu qui réduise de plusieurs dizaines d'ordres de grandeur la valeur de l'énergie du vide pour en faire quelque chose de physiquement décent. Ce mécanisme inconnu réalise ainsi un extraordinaire ajustement fin de la constante cosmologique...

Bien sûr, on pourrait choisir la constante cosmologique de sorte à compenser exactement ces valeurs gigantesques. Ainsi, le niveau d'énergie fondamental de la gravitation commencerait à la valeur prédite par la densité d'énergie du vide rho_(quantique)+rho_Lambda=subsup(rho;vide;total) et constituerait le niveau d'énergie zéro. Mais alors la valeur observée de la constante cosmologique devrait être rigoureusement nulle! Ce qui n'est apparemment pas le cas... Utiliser une constante cosmologique non nulle pour décrire l'énergie noire revient à dire que la gravitation ressent de manière absolue les énergies ! Cette caractéristique semble vraiment propre à la gravitation telle qu'elle nous est décrite par la relativité générale d'Einstein, car toutes les autres interactions (interactions nucléaires forte et faible et électromagnétisme) ne sont sensibles, elles, qu'à des variations d'énergie. A moins que la vraie nature de l'énergie noire se trouve ailleurs, comme le laisse peut-être supposer la coïncidence cosmique...

Le problème de la coïncidence cosmique

Jusqu'à présent, les problèmes que nous évoquions ne concernaient guère que les physiciens théoriciens qui y étaient confrontés depuis quelques décennies et non pas les astro-physiciens. Avec la mise en évidence de l'énergie sombre et la remarquable mesure cosmologique de sa valeur, ce problème a débouché dans toute la communauté scientifique comme un diable hors de sa boîte.

En effet, la mesure de la densité d'énergie noire que l'on interpréterait ensuite comme de l'énergie du vide est de l'ordre de la densité critique aujourd'hui, soit quelque 10^ (-29)*slash(g;cm^3), ce qui est loin d'être nul. Il existe donc un désaccord historique entre la théorie et l'expérience de plusieurs dizaines d'ordres de grandeur!! De plus, cette valeur est pour le moins intriguante.

Si l'énergie du vide est supposée constante partout et toujours, comme le modélise d'ailleurs la constante cosmologique, comment se fait-il qu'elle prenne une valeur aussi particulière que la densité critique aujourd'hui? Cette densité critique est une propriété cosmologique (associée à l'Univers), et qui n'a a priori rien à voir avec l'interprétation quantique de l'énergie du vide! De plus, cette valeur est reliée à des propriétés de l'Univers d'aujourd'hui, ce qui laisserait croire que nous vivons à une époque fort particulière, voire privilégiée, de l'histoire cosmique...

Si l'énergie noire est bien une constante cosmologique, des observateurs-cosmologistes qui en auraient entrepris la mesure il y a plus de cinq milliards auraient eu bien du mal à la mettre en évidence et des observateurs futurs risquent fort de ne plus rien voir d'autre que de la constante cosmologique! Cette coïncidence cosmique est extrêmement intrigante et nous enseigne peut-être que la cosmologie et la gravitation ont autant à nous apprendre sur la nature de l'énergie noire que la mécanique quantique... Les éléments en faveur de l'énergie noire nous laissent supposer en tout cas que le coeur du problème pourrait se trouver soit dans une théorie quantique de la gravitation soit dans une nouvelle et surprenante physique gravitationnelle...


En savoir plus: La Quintessence

Si on considère que la clef du problème est dans l'accélération de l'expansion cosmique produite par une propriété analogue à celle de l'énergie du vide, alors il est fort probable que ce vide mystérieux ne se réduise pas exactement à une simple constante cosmologique. En effet, nous avons vu que l'interprétation de l'énergie du vide par la constante cosmologique amène des problèmes épineux d'ajustement fin et de coïncidence. Les propriétés du vide que nous observons par les effets cosmologiques de l'énergie noire doivent être dus à quelque chose qui ressemble presque à s'y méprendre à une constante cosmologique, au moins dans les époques récentes de l'histoire cosmique. On pourrait envisager par exemple que les propriétés de l'énergie noire ne soient pas fixées une fois pour toutes mais varient au cours de l'histoire cosmique et que cette évolution se fasse en relation avec cette dernière. Il s'agit là de l'idée principale sous-tendant l'hypothèse de la quintessence que l'on peut qualifier de "constante cosmologique variable".

L'idée est d'ailleurs fréquemment utilisée en physique des hautes énergies: par exemple, pour décrire les effets quantiques qui fixent la masse des particules élémentaires comme l'électron (polarisation du vide) ou des particules véhiculant l'interaction faible (brisure spontanée de symétrie), on fait varier les propriétés quantiques (et celle du vide notamment) avec l'échelle d'énergie considérée. Or, l'expansion de l'Univers est avant tout une histoire de refroidissement: la température de la soupe cosmique diminue au cours du temps. En remontant le cours du temps, on doit donc s'attendre à découvrir des effets semblables de variation temporelle des lois de la physique.

L'hypothèse de quintessence propose de considérer des variations de ce qui ressemble à l'énergie du vide et qui produit les phénomènes d'énergie noire comme l'accélération. Pour modéliser ces processus inconnus de la quintessence, les cosmologistes introduisent le plus souvent un outil mathématique que l'on appelle "un champ scalaire". Ce champ, qui agit comme une espèce de "constante" cosmologique variable dans le temps et l'espace, peut avoir plusieurs interprétations différentes suivant la physique à laquelle il est relié. Par exemple, il peut être vu comme une nouvelle particule scalaire (de spin 0) très légère telle qu'on en rencontre un bon nombre dans la physique des hautes énergies ou encore comme une nouvelle force à grande distance accompagnant la gravitation. Cette quintessence doit interagir très peu avec la matière ordinaire: elle agit en arrière-plan, modifiant essentiellement l'expansion de l'Univers à grande échelle, et la matière ordinaire ne la ressent que par l'intermédiaire du champ gravitationnel qu'elle génère, c'est-à-dire qu'à travers son effet sur l'expansion cosmique. La raison en est simple: la quintessence doit être une énergie noire et donc être le plus invisible et discret possible. Toutefois, pour produire de l'accélération cosmique, la quintessence doit interagir avec elle-même: elle doit générer quelque chose qui ressemble à de l'énergie du vide.


En savoir plus: Illustration du mécanisme de quintessence

Bien que le candidat de la quintessence ne soit pas encore identifié, nous pouvons illustrer simplement comment ce mécanisme fonctionne. L'évolution du "champ scalaire de quintessence" peut se voir par analogie comme une petite bille (voir figure ci-contre) qui roulerait sur une cuvette courbe dans le champ de pesanteur. La forme de cette cuvette illustre le potentiel d'interaction de la quintessence qui résulte en une énergie du vide non nulle. En roulant sur son potentiel, c'est-à-dire en évoluant au cours du temps, le champ possède de l'énergie cinétique (due à son mouvement) et de l'énergie potentielle (liée à la hauteur de la bille sur la cuvette, et donc à la forme du potentiel). L'énergie totale du champ de quintessence, soit la somme des contributions cinétique et potentielle, est source de gravitation et produit de l'expansion cosmique au même titre que tout autre ingrédient de la soupe cosmique. Il existe ainsi un transfert d'énergie du champ de quintessence vers la gravitation qui y puise l'énergie nécessaire à l'expansion de l'Univers. Ceci a pour effet de freiner la bille lors de sa course sur la cuvette. Ce faisant, il arrive que la bille soit "gelée " quelque part dans sa course et que son énergie cinétique devienne négligeable devant son énergie potentielle. A ce moment, l'énergie associée à la quintessence apparaît constante, exactement comme le serait une constante cosmologique. Dans cette situation précise, la quintessence produit de l'accélération de l'expansion cosmique.

Illustration du mécanisme de quintessence
images/quintessence.png
Le mécanisme de quintessence peut se voir par analogie comme celui d'une bille roulant sur une cuvette dans le champ de pesanteur et dont l'énergie sert à produire de l'expansion. A gauche, la cuvette représente une transition entre un vide instable ("faux vide") qu'est le maximum de gauche et un vrai vide (équilibre stable) à droite (potentiel inspiré d'un mécanisme de brisure spontanée de symétrie).
Crédit : Astrophysique sur Mesure / A.Füzfa

Ainsi, suivant le type de potentiel considéré, on obtient que l'expansion cosmique peut geler la quintessence en une espèce de constante cosmologique ce qui résulte en une accélération. Dans certains cas, ce mécanisme permet de résoudre le problème de la coïncidence : la forme du potentiel garantit que l'énergie sombre domine et produise de l'accélération à un moment donné de l'histoire cosmique. Toutefois, le problème de la coïncidence est ramené au choix heureux d'un potentiel de quintessence...

Quintessence et champ scalaire
images/sugra.gif
La valeur du champ de quintessence est représenté par la position de la balle dans le potentiel à droite. Lors de sa course, son énergie potentielle et cinétique alimente l'expansion de l'univers (à gauche), ce qui en retour le ralentit par frottement. Lorsque celui-ci a ralenti la balle au point que son énergie cinétique devient négligeable devant son énergie potentielle (la bille se gèle), la quintessence devient analogue à une constante cosmologique non-nulle et de l'accélération cosmique est produite.
Crédit : Astrophysique sur Mesure / A. Füzfa

En savoir plus: Constante cosmologique ou quintessence ?

Les caractéristiques essentielles de la quintessence par rapport à la constante cosmologique peuvent être résumées comme suit :

En conclusion, les problèmes de la constante cosmologique nous amènent à envisager une nouvelle physique gravitationnelle avec des effets analogues à l'énergie du vide, mais où celle-ci varie et pourrait même produire des changements dans la physique de la matière ordinaire. Ceci est lourd de conséquences comme nous allons le voir à la page suivante.


En savoir plus: Vers une nouvelle physique ? (1)

Que se passerait-il si la matière interagissait aussi directement avec l'énergie sombre au lieu de la ressentir uniquement par l'intermédiaire de la gravitation (c'est-à-dire grâce à son "poids") ? Dans le cas d'une constante cosmologique, la question ne se pose pas : un tel type d'interaction n'est pas possible car elle entraînerait à coup sûr des variations. Dans le cas de la quintessence par contre, une telle influence directe se traduirait par une modification de la physique par l'intermédiaire de la variation des constantes fondamentales comme la constante de gravitation ou l'intensité des interactions fondamentales (électromagnétisme et interactions nucléaires). En effet, l'énergie noire étant précisément noire, la seule interaction directe possible consiste en une variation des constantes fondamentales. Cependant, une interaction directe entre la matière et l'énergie noire violerait le principe d'équivalence sur lequel la relativité générale est construite.

Ce principe d'équivalence exprime que toutes les formes d'énergie, électromagnétique, nucléaire et même gravitationnelle produisent toutes de la même manière de la gravitation. Autrement dit, elles "tombent" toutes de la même manière. Par exemple, ce principe établit que du plomb, de l'or, de l'uranium, des êtres vivants (ou l'électromagnétisme et les forces nucléaires assurent la cohésion) et des corps gravitationnellement liés comme les planètes ou les systèmes planétaires tombent identiquement de la même manière dans un champ de gravitation extérieur. Cette généralisation à toute la physique, due à Einstein, de l'expérience apocryphe de Galilée où celui-ci aurait laissé tomber du haut de la tour de Pise deux objets en plomb et en liège et serait arrivé à la constatation qu'ils tombent de la même manière. (Si Galilée n'a pas historiquement effectué cette expérience du haut de la tour de Pise, il mit l'effet en évidence par ses expériences de roulement sur plan incliné.)

Si à présent, en vertu de l'interaction quintessence-matière, l'intensité de la gravitation varie, ce principe n'est plus vrai: deux corps liés gravitationnellement n'auront plus la même énergie de liaison gravitationnelle ni dans l'espace ni au cours du temps et ne tomberont donc pas de la même manière! Ceci constituerait une violation du principe d'équivalence dit "fort". Si au contraire, la quintessence n'interagit qu'avec un certain type de matière, par exemple la matière électriquement chargée en faisant varier l'intensité de l'électromagnétisme, alors ce sont les corps liés par cette force qui ne tomberont plus de la même manière! Le kilo de plomb et le kilo d'or n'arriveraient pas au sol en même temps. Ceci constituerait une violation du principe d'équivalence dit "faible". Une physique qui ne connaîtrait pas le principe d'équivalence, comme c'est ce que semble suggérer la quintessence, est une physique radicalement nouvelle.


En savoir plus: Vers une nouvelle physique ? (2)

De telles théories physiques, qui dépassent le cadre de la relativité générale, existent bel et bien. Cependant, il est important de noter qu'il existe des contraintes expérimentales particulièrement fortes sur la variation des constantes fondamentales. Par exemple, la variation de la constante de gravitation universelle G ne peut excéder plus d'une part sur un millième de millardième (10^(-12)) par an! La variation de la constante de structure fine (intensité de l'électromagnétisme) ne dépasse guère quant à elle un cent-millionième de millardième par an (10^(-17)) ! Même si ces mesures n'ont été effectuées que sur un laps de temps relativement court de l'histoire cosmique (deux milliards d'années pour la constante de structure fine), elles impliquent que les interactions non-gravitationnelles entre la matière et la quintessence sont extrêmement faibles ! L'énergie noire est quelque chose de vraiment très discret qui ne va pas facilement se laisser mettre en évidence en laboratoire. C'est pourquoi les observations astrophysiques sont les seules expériences connues à ce jour capables d'étudier ce phénomène fantôme !

Toutefois, l'idée que l'énergie noire induirait des écarts à la physique conventionnelle peut nous renseigner sur sa nature profonde. En effet, le principe d'équivalence postule que la gravitation est véritablement universelle au sens où elle ne fait aucune différence entre les différents types d'énergie dans la nature : lumière, matière, éléments chimiques différents ou particules et anti-particules doivent tomber de la même manière même s'ils sont régis par des interactions fondamentales très différentes. Si ce principe est remarquablement bien vérifié dans la pratique et conduit à l'excellente validité de la relativité générale localement, il n'en demeure pas moins fort particulier. Comment des phénomènes physiques aussi différents peuvent-ils être aussi "indifférents" à la gravitation ? Si cette interaction est comprise comme une propriété globale de l'espace-temps comme en relativité générale, alors le principe d'équivalence découle de ce que tous les phénomènes physiques sont plongés dans celui-ci.

De même, on peut se demander ce qu'il en advient à une échelle microscopique. La gravitation observée macroscopiquement est-elle due à une seule ou à plusieurs particules qui s'échangent avec la matière ? Dans ce cas, on peut se demander si des particules élémentaires aussi différentes que l'électron, le photon, les quarks, etc. émettent toutes les particules gravitationnelles de la même manière. Par exemple, des théories tenseur-scalaire de la gravitation ont été avancées dès la fin des années 50 afin d'éprouver les conséquences d'une violation du principe d'équivalence. Dans ces théories, la gravitation observée est un "mélange" de particules "tensorielles" (analogues à celles du champ gravitationnel de la relativité générale) et de particules "scalaires" (comme celles supposées pour la quintessence).

Forts de ces arguments, il est possible de construire des modèles d'énergie noire faisant appel à une nouvelle physique gravitationnelle tout en étant en accord avec les tests connus de la relativité générale à l'échelle du système solaire et de la Voie Lactée. La figure ci-contre illustre comment on peut reproduire le diagramme de Hubble des supernovae lointaines en supposant que l'énergie noire viole le principe d'équivalence faible aux grandes échelles.

L'énergie noire pèse-t-elle anormalement ?
images/awe.png
A gauche, le diagramme de Hubble des supernovae avec le modèle de concordance (en trait plein) et un modèle où l'énergie noire viole le principe d'équivalence faible à des échelles cosmologiques (traits pointillés). A droite, la variation de G (en multiple de la constante de Newton) qui résulte de cette violation.
Crédit : A. Füzfa, J.-M. Alimi, Phys. Rev. Lett. 97 061301 (2006).

En savoir plus: Vers une nouvelle physique ? (3)

Comment pouvons-nous être assurés que l'espace-temps possède bien trois dimensions spatiales (et une de temps) et que la gravitation qui s'y manifeste ne provient que de sa courbure et pas d'une autre propriété (torsion par exemple) ? Pour dépasser ce cadre, des théories allant au-delà de la relativité générale sont nécessaires, et qui pourraient donner une justification à l'énergie noire. Toutefois, nous savons que les écarts à celle-ci doivent être faibles. Par exemple, les trois dimensions d'espace peuvent être déduite du fait que la gravitation semble être une interaction à portée infinie dont l'intensité décroît en l'inverse du carré de la distance entre deux points. Si la gravitation devait s'étendre dans plus de trois dimensions spatiales, ce ne serait pas un carré qui apparaîtrait dans cette loi.

La théorie des cordes amène précisément ce genre d'arguments par la prédiction de l'existence de dimensions supplémentaires à l'espace-temps. Celles-ci sont rendues très discrètes, voire même indétectables, par deux types d'astuces. La première consiste à supposer qu'elles sont recroquevillées à l'extrême à l'image d'un fil infiniment fin. La seconde consiste à supposer, au contraire, que c'est l'Univers que nous connaissons qui est emprisonné, confiné, dans les quatre dimensions habituelles.

Dans cette théorie, les objets les plus élémentaires sont des cordes ou des membranes (de taille typique égale à celle de Planck) s'enroulant dans un espace-temps à plusieurs dimensions qui est lui-même composé de cordes ou membranes. En vibrant, ces cordes produisent non seulement les particules que nous connaissons mais également beaucoup d'autres. Par exemple, les particules véhiculant la gravitation d'Einstein peuvent être obtenues mais elles n'apparaissent pas seules (elles ont notamment un partenaire scalaire), entraînant que la gravitation observée est une résultante de l'émission de toutes ces particules. Ceci ouvre la possibilité à une violation du principe d'équivalence comme nous l'avons vu précédemment.

Dans l'hypothèse de confinement de l'Univers, on peut aussi envisager que la gravitation puisse légèrement s'échapper de notre Univers en ayant une portée extrêmement réduite dans les dimensions supplémentaires non compactées. Dans ce cas, la physique observée dans notre espace-temps à quatre dimensions serait une sorte d'hologramme (un hologramme est une compression bi-dimensionnelle d'information à trois dimensions) de la super-physique de "l'hyperespace" nous contenant. Dans ce cas, la gravitation induite dans l'espace-temps ordinaire peut avoir des propriétés très différentes et amener des phénomènes d'énergie noire, voire même de matière noire.


En savoir plus: Conclusion

conclusionConclusion

Que se cache-t-il derrière l'énergie noire ?
images/dark_iceberg.jpg
Seule la surface émergée de l'iceberg nous est visible à ce jour, l'existence de quelque chose s'apparentant à une constante cosmologique. Mais derrière cet inoffensif glaçon pourrait bien se cacher une toute nouvelle physique...
Crédit : Astrophysique sur Mesure / A. Füzfa

D'un point de vue observationnel, l'existence d'une énergie sombre dominant toutes les autres formes d'énergie du cosmos semble bien établie, et par plusieurs méthodes indépendantes (rayonnement fossile, diagrammes de Hubble, propriétés des grandes structures cosmiques). Il apparaît à ce jour (2006) fort peu vraisemblable que l'énergie noire soit une question d'erreur expérimentale, au vu des évidences croissantes en sa faveur. Ainsi, la communauté des astrophysiciens s'accorde pour y voir la résurgence d'une fort vieille et intrigante énigme... celle reliée à la constante cosmologique. Cette même constante dont on avait cru maintes fois être définitivement débarrassés par le passé.

Car derrière le spectre de cette constante, c'est tout le côté obscur de l'Univers qui présente son mystère insondable. Comme l'illustre la figure ci-contre, la constante cosmologique n'est que la partie émergée d'un iceberg potentiellement révolutionnaire. Les problèmes d'ajustement fin et particulièrement de coïncidence reliés à cette constante laissent présager que la réponse à la question de la nature de l'énergie sombre soit dans un mécanisme cosmologique. La quintessence est une des propositions de réponse. Si les observations finissent par établir que cette constante cosmologique varie au cours du temps et de l'espace, alors c'est l'origine de la quintessence qu'il nous faudra rechercher. De plus, si l'énergie noire interagit directement sur la matière et ne se contente pas de se faire sentir uniquement par l'intermédiaire de sa gravitation (son poids), alors la physique devra être en partie réécrite pour établir pourquoi les constantes fondamentales varient et dans quelle mesure au cours de l'histoire cosmique.

Les interprétations de l'énergie noire en terme de propriétés gravitationnelles du vide, associée aux fluctuations du vide quantique ou à l'existence de nouvelles particules, ou en terme d'une nouvelle physique gravitationnelle, ouvrent la voie à des territoires encore vierges de la physique. Ou alors c'est toute notre façon de concevoir la cosmologie par le truchement du principe cosmologique qu'il faut reconsidérer. Et quand bien même cette dernière solution serait la bonne, il faudrait malgré tout résoudre les problèmes reliés au vide en gravitation. Les problèmes soulevés par l'énergie sombre ne semblent être que les échos de notre mauvaise compréhension des liens entre l'infiniment petit, le domaine de la physique quantique, et l'infiniment grand, celui de la relativité générale.

Pour conclure, l'énergie noire se trouve donc au coeur d'un débat scientifique sans précédent qui accompagne l'avènement de l'ère de haute précision en cosmologie. L'enjeu semble historique, car cette question pourrait fort bien occasionner un profond remaniement de nos conceptions physiques et cosmologiques. Qui aurait pu croire qu'une révolution scientifique latente attendait patiemment son heure dans les confins obscurs de l'histoire cosmique...


Histoire de l'Univers

Auteurs: Florence Durret, Loïc Villain

Du Big Bang aux grandes structures

Les phases de l'univers
images/univers_opaque.gif
Univers opaque (les photons sont arrêtés par la matière).
Crédit : Astrophysique sur Mesure / Florence Durret et Gilles Bessou
Les phases de l'univers
images/univers_transparent.gif
Univers transparent.
Crédit : Astrophysique sur Mesure / Florence Durret et Gilles Bessou

Les 300 000 premières années après le Big Bang

Les deux "phases" de l'Univers sont présentées dans la figure ci-dessus. L'hydrogène totalement ionisé est le constituant majeur de l'Univers à cette époque (à part l'hélium, les autres éléments n'ont pas encore eu le temps de se former). Un atome d'hydrogène comporte un proton (le noyau), dont la charge électrique est positive, et un électron, de charge électrique négative. La lumière consiste quant à elle de particules sans masse, les photons. La première figure montre le parcours des photons avant le découplage matière-rayonnement : les photons interagissent sans cesse avec les électrons libres du milieu, par le processus dit de diffusion Thomson. Comme les photons sont diffusés sans arrêt, ils ne peuvent pas parcourir de grandes distances. L'Univers est donc opaque, c'est-à-dire que les photons ne permettent pas de percevoir au loin. Il ne nous est par conséquent pas possible aujourd'hui d'analyser de la lumière émise durant cette période et nous ne pouvons pas observer directement l'Univers à ce stade d'évolution. Les contraintes sur cette époque découlent ainsi de modélisation en rapport avec l'abondance des éléments primordiaux (hydrogène, hélium, etc.). Dans l'avenir, l'observation d'ondes gravitationnelles cosmologiques pourrait cependant peut-être changer cet état de fait puisque l'Univers leur était déjà transparent dès cette époque.

Avec le temps et l'expansion de l'Univers, les densités de protons et d'électrons vont diminuer, ainsi que la température. Après une période estimée à environ 300 000 ans, la densité et la température sont suffisamment basses pour que la recombinaison entre protons et électrons se produise et qu'ils donnent naissance aux atomes d'hydrogène. À partir de ce moment, les atomes d'hydrogène peuvent donc survivre et les photons peuvent se propager librement.

On dit qu'il y a découplage entre la matière et le rayonnement, c'est-à-dire que les atomes d'hydrogène formant la matière deviennent indépendants du rayonnement, qui est constitué par les photons. L'Univers devient alors transparent, les photons peuvent circuler librement. Les photons du fond diffus cosmologique, dont il a été question plus haut, ont été émis à cette période. Ils nous permettent donc de "voir" l'Univers tel qu'il était environ 300 000 ans après le Big Bang.


Les 300 000 premières années

Evolution de l'univers jusqu'à la formation des premières structures
images/evolution_precoce.gif
Evolution de l'Univers du Big Bang à maintenant.
Crédit : COBE

Evolution de l'univers : schéma

La figure ci-contre schématise l'évolution de l'Univers du Big Bang à maintenant. Les infimes fluctuations de densité présentes très tôt dans l'histoire de l'Univers ont donné naissance aux galaxies, aux amas de galaxies et aux étoiles. Sans elles, l'Univers ne serait qu'un désert uniforme. La carte du ciel tracée par le fond diffus cosmologique montre la présence de régions plus ou moins brillantes, ce qui correspond à des variations de densité.

Ces régions surdenses sont en quelque sorte les "germes" des structures denses actuellement observées : étoiles, galaxies, amas de galaxies.


La matière invisible de l'Univers

La matière noire

Plusieurs observations ont conduit les astronomes depuis les années 1930 à faire l'hypothèse de l'existence d'une substance matérielle massive, ayant des effets gravitationnels, mais invisible : la matière noire (encore appelée matière sombre ou masse cachée). Parmi ces observations on peut en citer deux principales.

Premièrement, les galaxies constituant les amas de galaxies ont les unes par rapport aux autres des vitesses très élevées, qui peuvent atteindre plusieurs milliers de kilomètres par seconde ; la cohésion des galaxies dans les amas exige la présence de matière invisible supplémentaire dont l'attraction gravitationnelle retient les galaxies dans l'amas. La masse de cette matière noire peut atteindre 80% de la masse de l'amas, mais on ne la voit pas directement, et cela à aucune longueur d'onde. C'est parce qu'elle n'émet pas de lumière qu'on l'appelle matière noire ou matière sombre.

Deuxièmement, si l'on mesure la vitesse de rotation des galaxies spirales en plusieurs points à des distances différentes du centre de la galaxie, on s'aperçoit que la vitesse de rotation reste constante dans les régions périphériques au lieu de décroître. Cette propriété est généralement interprétée là aussi comme une conséquence de l'existence d'un halo de matière noire entourant chaque galaxie et confinant les étoiles qui, malgré leur rotation rapide (parfois plusieurs centaines de kilomètres par seconde), continuent à être liées à la galaxie (voir les figures courbes de rotation et disque-halo). Sur ces figures, on a tracé pour six galaxies la vitesse des étoiles (relativement à la vitesse moyenne d'éloignement de la galaxie ou décalage vers le rouge) en fonction de la distance au centre de la galaxie : on les appelle des courbes de rotation. Les pointillés montrent la contribution du disque lumineux (c'est-à-dire des étoiles) à la courbe de rotation dans l'hypothèse d'une rotation képlerienne des étoiles dans le disque de la galaxie ; les tiretés indiquent la contribution du halo nécessaire pour reproduire les données. Les figures montrent successivement de haut en bas et de gauche à droite des courbes de rotation pour des galaxies de moins en moins brillantes. Il apparaît clairement que le disque lumineux est presque suffisant à expliquer les parties centrales des courbes de rotation mais pas du tout les parties externes, et ce d'autant moins que les galaxies sont moins brillantes.

Courbe de rotation de la galaxie NGC 2712
images/n2712_cbrot.jpg
Un exemple de courbe de rotation : celle de la galaxie NGC 2712. Les points de mesure sont indiqués en noir avec leur barre d'erreur. La courbe en rouge est le modèle permettant d'ajuster le mieux les données.
Crédit : Isabel Marquez

Dans une courbe de rotation comme celle présentée dans la figure, il est surprenant de constater que le niveau du "plateau" correspondant au halo de matière noire (ici en bleu) a à peu près la même hauteur que le pic dû au disque d'étoiles en rotation képlerienne. On parle de "conspiration" disque-halo, car il n'y a a priori aucune raison pour que ces deux valeurs soient égales. Ce problème est encore mal compris.

La "conspiration" disque-halo
conspir_disque_halo.jpg
La "conspiration" disque-halo.
Crédit : Alain Bouquet, IN2P3

La matière invisible de l'Univers (suite)

Comprendre la nature de la matière noire est l'un des grands problèmes de l'astrophysique du XXIème siècle. Pour le moment, ce que nous savons de la matière noire se résume à :

Le camembert de la matière
images/camembert.jpg
Nous ne connaissons directement, par la lumière qu'elle émet, que quelques pourcents de la matière de l'Univers. Nous savons que le reste de cette matière existe par les effets gravitationnels qu'elle exerce sur la matière lumineuse, mais nous ne pouvons que spéculer sur sa nature. A moins que, comme le pensent certains chercheurs, les lois de la gravité ne soient plus les mêmes dans certaines circonstances, par exemple à faible accélération. Mais rien dans les lois connues de la physique ne permet d'étayer cette hypothèse.
Crédit : Astrophysique sur Mesure / Florence Durret

L'observation des grandes structures de l'univers

Depuis la fin des années 1980, l'observation des grandes structures de l'Univers a fait des progrès énormes. On utilise pour cela la mesure de très nombreux décalages spectraux de galaxies et on analyse la manière dont les galaxies sont distribuées dans l'espace. L'avènement depuis une dizaine d'années de spectrographes permettant de prendre plusieurs dizaines, et maintenant plusieurs centaines de spectres à la fois a fortement contribué à ce développement. Plusieurs exemples de grands relevés de galaxies obtenus ces quinze dernières années sont présentés ci-dessous.

Les premières cartes réalisées dans les années 1980 ne donnaient que la position dans le ciel des galaxies : c'étaient des cartes "à deux dimensions". En voici un exemple :

Les premières cartes des positions des galaxies
geller_huchra_1989.jpg
Distribution des galaxies et découverte de la "Grande Muraille". Les ascensions droites des galaxies sont en abscisses et les déclinaisons en ordonnées.
Crédit : Geller & Huchra (1989) Science 246, 897

Relevés à trois dimensions des galaxies

La cartographie des galaxies "à trois dimensions" (la position dans le ciel, repérée par deux coordonnées, plus le décalage spectral, qui donne la distance de la galaxie) a permis de constater que les galaxies n'étaient pas distribuées de manière homogène dans l'Univers, mais semblaient plutôt s'agglomérer sur des filaments, des surfaces dites feuillets, ou dans des structures de type éponge, avec de vastes régions quasiment vides de toute galaxie.

Les premières cartes des positions des galaxies à trois dimensions

Le grand relevé australien 2dF

Le relevé profond des galaxies du Sculpteur

Les premières cartes des positions des galaxies "à trois dimensions"
geller_huchra_1989b.jpg
Positions des galaxies dans quatre tranches de déclinaison, en fonction de leur ascension droite (qui varie angulairement) et de la vitesse à laquelle elles s'éloignent de nous (qui varie radialement).
Crédit : Geller & Huchra (1989) Science 246, 897
Le grand relevé australien 2dF
2df_map.jpg
Distribution de 63 361 galaxies dans une tranche de 4 degrés en déclinaison obtenue par l'équipe australienne. Les décalages spectraux sont compris entre 0 et 0,25.
Crédit : Equipe 2dF (Australie)

Les grandes structures semblent exister jusqu'à des décalages spectraux assez élevés. La carte ci-contre montre un sondage "en pinceau" (champ très petit mais très profond, c'est-à-dire atteignant des galaxies très faibles) jusqu'à un décalage de 0,6. Huit milliards d'années après le Big Bang, les vides existaient déjà.

Le relevé profond des galaxies du Sculpteur
sculptor_map.jpg
Distribution des galaxies dans un pinceau cette fois très étroit mais très profond (jusqu'à un décalage spectral de 0,6) dans la constellation du Sculpteur. L'ensemble des galaxies est présenté dans le cône de droite. Les trois morceaux de cône plus à gauche sur la figure correspondent à des "zooms" selon trois tranches de décalage spectral pour mieux voir la distribution des galaxies.
Crédit : Valérie de Lapparent (communication privée) et collaboration du grand relevé ESO-Sculptor.

Les grands vides de l'Univers

On peut mieux faire apparaître ces vides en lissant les images à l'aide de plusieurs techniques. Un exemple d'un tel lissage est donné ci-dessous.

Distribution des galaxies dans le relevé 2dF avec lissage
2df_smoo2.jpg
Crédit : Croton et al. (2004), MNRAS 352, 828

Même si l'on ne peut pas encore observer des filaments de matière comme ceux prédits par les simulations numériques, en raison de leur faible densité et donc de leur faible luminosité, on peut quand même constater une forte ressemblance entre les cartes des positions des galaxies et les simulations numériques (voir ci-dessous).


La distribution des amas de galaxies

D'autre part, même les amas de galaxies, qui sont des structures encore bien plus grandes et plus massives que les galaxies, semblent distribués de manière inhomogène, comme le montrent les deux figures ci-dessous.

Grand relevé de Las Campanas
borgani_guzzo_top.jpg
Distribution des 26 000 galaxies du grand relevé de Las Campanas (en bleu). Les cercles verts indiquent les positions des amas de galaxies du relevé REFLEX en rayons X coïncidant avec ce relevé.
Crédit : Borgani & Guzzo (2001), Nature 409, 39
Grand relevé REFLEX
borgani_guzzo1_bottom.jpg
Positions de tous les amas de galaxies du relevé REFLEX en rayons X
Crédit : Borgani et Guzzo (2001), Nature 409, 39

Exercice : distribution des galaxies

exerciceLe bonhomme

Difficulté : ☆☆☆  

Les premières cartes des positions des galaxies à trois dimensions
images/geller_huchra_1989d.jpg
Positions de 957 galaxies dans une tranche de déclinaison en fonction de leur ascension droite et de leur vitesse.
Crédit : de Lapparent, Geller & Huchra (1991) ApJ 369, 273
Question 1)

Expliquer à quoi correspond le "bonhomme" visible sur la figure ci-dessus (dans l'ellipse rouge).


Les simulations numériques de formation des structures

Comme il n'est pas possible de voir les structures de l'Univers se former, on a recours à des simulations numériques. Il s'agit là d'une branche de l'astronomie dont l'essor a vraiment commencé avec l'avènement des ordinateurs, et qui est actuellement en pleine expansion.

Simulation numérique de formation des grandes structures de l'univers
simul_form_struct.jpg
Résultat d'une simulation numérique de formation des grandes structures de l'Univers.
Crédit : Stéphane Colombi et équipe "Simulations numériques" à l'Institut d'Astrophysique de Paris.

Le résultat d'une simulation numérique de formation des grandes structures de l'Univers est présenté dans la figure ci-dessus. Il s'agit d'introduire dans une "boîte" virtuelle un certain nombre de particules représentant des "grains" de matière noire et d'analyser comment la distribution de matière se modifie en fonction du temps sous l'effet de la gravité.

Le principal résultat de telles simulations numériques est que la matière se distribue non pas de manière homogène mais suivant des filaments plus ou moins fins. Des structures plus massives et plus denses existent à l'intersection de ces filaments : les amas de galaxies. La ressemblance entre les résultats des simulations numériques et la distribution des galaxies et amas de galaxies observée à grande échelle est frappante, et semble indiquer que les simulations numériques rendent bien compte de la manière dont les grandes structures ont pu se former dans l'Univers.


Exercice : L'âge de l'Univers

exerciceL'âge de l'Univers… de 1931 à nos jours

L'évolution de l'Univers peut être décrite par des modèles basés sur la relativité générale et qui comportent un certain nombre de paramètres dont le premier est la constante de Hubble. Munis de ces modèles, on peut calculer par exemple l'âge de l'Univers, c'est-à-dire le temps écoulé entre la singularité primordiale (décalage z infini) et maintenant (z=0). Cette constante se mesure en km/s/Mpc, où le Mpc est le mégaparsec = 3,08 1022m (le parsec, ou pc, est l'unité de distance couramment utilisée par les astronomes).

La figure ci-dessous est extraite de l'article de Hubble et Humason de 1931 : "The velocity-distance relation among extragalactic nebulae". Elle représente la relation entre la distance des galaxies, en Mpc, et la vitesse de ces galaxies.

La relation vitesse-distance en 1931
images/hubble.gif
Crédit : Hubble et Humason, ApJ, 74, 43 (1931)
Question 1)

Se servir de la figure ci-dessus pour calculer une valeur approchée de la constante de Hubble d'après l'article de 1931.

Question 2)

Dans tous les modèles de cosmologie, l'âge de l'Univers vaut 1/H0 à un facteur multiplicatif près. Calculer l'âge de l'Univers (en milliards d'années) d'après Hubble et Humason en 1931.

Question 3)

L'application ci-dessous permet de calculer le temps écoulé entre la singularité primordiale et le temps associé au décalage z dans un modèle "standard" dont les paramètres ont été fixés aux déterminations les plus récentes, sauf la constante de Hubble que l'on peut faire varier. Utiliser l'application pour calculer l'âge de l'Univers avec la valeur précédente de la constante de Hubble. Des commentaires ?

application.png

Question 4)
La relation vitesse-distance en 1996
hubblelawrecent.jpg
La relation vitesse-distance, ou loi de Hubble, en 1996.
Crédit : F. Casoli

En fait, Hubble utilisait une relation inexacte pour les distances des galaxies, qui étaient toutes beaucoup trop faibles (par un facteur atteignant presque 10). L'estimation actuelle de H0 est de 68 km/s/Mpc. Calculer alors l'âge de l'Univers dans l'approximation t = 1/H0, puis à l'aide de l'applet.


En savoir plus : Combien de temps depuis le Big Bang ?

ensavoirplusEn savoir plus

Voici la formule utilisée pour calculer tau, le temps écoulé entre le Big Bang et le décalage z dans un modèle standard d'Univers "plat". Il faut noter que dans la plupart des modèles d'Univers, il n'y a pas de formule analytique pour calculer tau.

tau=fraction(2;3*H_0*sqrt(1-Omega_m))*argsh(sqrt((Omega_m^(-1)-1)/(1+z)^3)) H0 est la constante de Hubble en km/s/Mpc, Omega_m est la quantité de matière (noire ou pas) dans l'Univers dans des unités commodes pour les cosmologistes. Une valeur raisonnable pour Omega_m est de 0,3.


Conclusion

conclusionConclusion

La cosmologie, qui étudie l'Univers dans son ensemble, n'a vraiment acquis le statut de science que depuis moins de cent ans ; elle est depuis lors en constante évolution.

Jusqu'au début du vingtième siècle en effet, la cosmologie pouvait difficilement être considérée comme une science, en particulier parce que les différentes théories de formation et d'évolution de l'Univers ne reposaient que sur des observations rudimentaires. Certes, le système solaire était compris depuis Copernic, les lois de Newton et de Képler étaient établies et appliquées en particulier aux mouvements des planètes autour du Soleil, permettant par exemple à Le Verrier de découvrir la planète Neptune. Mais l'on se contentait de soupçonner l'existence d'objets très lointains (les célèbres "Univers-îles" de Kant), sans connaître leur distance, leur dimension, leur masse. Ce n'est qu'au début du XXème siècle, dans les années 1920, que Hubble mit en évidence le décalage spectral vers le rouge des galaxies, prouvant ainsi que les galaxies étaient des objets très lointains, et donc très massifs, constitués de millions ou de milliards d'étoiles, et impliquant aussi que l'Univers était en expansion.

Outre les progrès dans le domaine des observations à toutes les longueurs d'onde, l'astronomie du XXème siècle a de plus en plus fait appel à la physique, ce qui permet maintenant de comprendre beaucoup mieux la structure, la formation et l'évolution de l'Univers. Trois grands arguments en faveur du modèle du Big Bang ont été présentés ici : le décalage vers le rouge des galaxies, qui implique une expansion générale de l'Univers, l'existence du fond diffus cosmologique et de ses petites fluctuations, origines des grandes structures observées actuellement, et les résultats de la nucléosynthèse.

Il reste cependant des zones d'ombre, comme par exemple la nature de la matière noire, qui est l'une des grandes questions ouvertes de l'astrophysique du XXIème siècle.


Pour conclure sur la cosmologie


La Foire Aux Questions de la cosmologie

Nous donnons ici quelques réponses à des questions fréquemment posées concernant la cosmologie. Le lecteur trouvera peut-être que certaines n'ont pas vraiment de réponse satisfaisante : c'est vrai, car nous touchons aux limites de nos connaissances et de notre compréhension du monde ...


QCM de cosmologie

qcmQCM

Difficulté :   

1)  Une année-lumière est-elle une unité de temps ?


2)  La vitesse de la lumière dans le vide est de :



3)  L'âge de l'Univers (c'est-à-dire le temps écoulé depuis le Big Bang) est approximativement de :



4)  Dans une molécule d'eau (H2O) :



5)  Une étoile bleue est plus froide qu'une étoile chaude ?


6)  La loi de Hubble énonce que toutes les galaxies s'éloignent de notre galaxie, la Voie Lactée, avec une vitesse proportionnelle à leur distance. Cela signifie que :


7)  On observe dans toutes les directions du ciel un rayonnement micronde qui est celui d'un corps noir à la température de 2,73 degrés au dessus du zéro absolu.



Petit questionnaire test de cosmologie

exercicePetit questionnaire test

Difficulté : ☆☆  

Question 1)

Quelle est la différence entre une planète et une étoile ?

Question 2)

Pourquoi une étoile brille-t-elle ?

Question 3)

Qu'est-ce qu'une galaxie ?

Question 4)

Comment calcule-t-on les distances des galaxies ?

Question 5)

Quels sont les trois arguments les plus forts en faveur du modèle du Big Bang ?

Question 6)

Quels sont les indices indiquant qu'il existe de la matière noire ?

Question 7)

Comment sont formés les éléments chimiques H (hydrogène) et O (oxygène) entrant dans la composition de la molécule d'eau ?


Bibliographie


Les étoiles

Auteur: Noël Robichon, Yves-Paul Viala

Introduction

introductionIntroduction

Ce chapitre a pour but de vous expliquer ce qu'est une étoile : pourquoi elle brille, comment elle se forme et évolue. Nous commencerons par examiner quelles caractéristiques des étoiles peuvent être déduites de l'observation (taille, masse, luminosité...) avant de déduire ce que cela nous apprend de leur évolution par l'intermédiaire d'un diagramme fondamental : le diagramme de Hertzsprung-Russell.


Constellations et noms d'étoiles


Introduction

introductionIntroduction

La voûte céleste est constellée de myriades d'étoiles.


Le ciel à l'œil nu

vl1.jpg
Une partie de la Voie Lactée autour des constellations de Persée and Cassiopée.
Crédit : J.P. Stanley. http://flickr.com/photo_zoom.gne?id=268504345&size=l
images/constellationciel.png
Carte du ciel (ascension droite en abscisse, déclinaison en ordonnée), avec toutes les étoiles de magnitude plus brillante que 6. La taille du symbole est proportionnelle à la magnitude, et la couleur représente le type spectral. La région la plus riche en étoiles est notre Galaxie, vue par la tranche.
Crédit : BSC/ASM

Une multitude d'objets sont visibles de nuit. Sous un ciel sans nuage, sans Lune et sans pollution lumineuse, plusieurs dizaines de milliers d'étoiles sont visibles à l'œil nu. Malheureusement, ce nombre est de plus en plus restreint par l'activité humaine (éclairage urbain...) et, dans le centre des grandes villes, au mieux quelques dizaines d'étoiles sont visibles.

En plus de ces étoiles, outre la Lune et les cinq planètes visibles à l'œil nu (Mercure, Vénus, Mars, Jupiter et Saturne), le ciel est barré par la Voie Lactée, grande bande laiteuse (d'où son nom), faiblement lumineuse, aux contours flous. En la parcourant à l'œil ou aux jumelles, on se rend compte qu'elle est composée de zones brillantes et de zones sombres, de nébuleuses, d'étoiles en amas... Au télescope, elle se décompose en une nuée d'étoiles. La Voie Lactée n'est, en effet, que le disque de notre Galaxie vue par la tranche. Par extension, notre Galaxie porte ainsi le nom de Voie Lactée.

D'autres objets sont également visibles : des nébuleuses qui peuvent être extérieures à notre Galaxie - comme les Nuages de Magellan ou la nébuleuse d'Andromède, qui sont des galaxies proches de la nôtre - ou, au contraire, des éléments de notre Galaxie - comme la nébuleuse d'Orion, un nuage interstellaire, ou des groupes de millions d'étoiles liées par la gravitation appelés « amas globulaires » qui, comme la Voie Lactée, ne sont pas résolus en étoiles par l'œil.


Constellations

orion.jpg
Constellation d'Orion tirée de l'Uranométrie de Bayer, 1603.
Crédit : Linda Hall Library of Science, Engineering and Technology, Kansas City

Parmi les étoiles de notre Galaxie, la Voie Lactée, seules 6000 à 7500 sont visibles à l'oeil nu (sur l'ensemble du ciel). Pour se repérer dans le ciel, les astronomes des siècles passés ont dessiné arbitrairement sur la sphère céleste des figures reliant les étoiles les plus brillantes qu'ils ont nommées constellations. Les noms des constellations boréales (situées dans l'hémisphère nord) nous viennent principalement de l'antiquité, et sont des personnages (Andromède, Cassiopée...), des animaux (le Cygne, la Grande Ourse...), ou des objets (la Lyre, la Balance...) liés à la mythologie (principalement grecque et romaine). Mais les astronomes de l'antiquité n'ont pas observé la partie la plus australe du ciel (visible dans l'hémisphère sud) et ne l'ont donc pas organisée en constellations.

Ce travail fut effectué par des astronomes comme Bayer au 17ème siècle qui choisit des noms d'animaux (le Phénix, le Poisson Volant...) et La Caille au 18ème siècle qui préféra des noms d'instruments scientifiques (le microscope, la machine pneumatique...). Cependant, les limites des constellations restaient floues, et certaines nouvelles constellations mordaient sur les anciennes. La situation fut réglée en 1922 par l'Union Astronomique Internationale qui découpa une bonne fois pour toute le ciel en 88 constellations. En 1930, l'astronome belge Eugène Delporte en fixa précisément les limites selon des arcs de méridien ou de fuseaux horaires.

images/evol_grandeourse.gif
Modification de la forme du grand chariot dans la Grande Ourse vu depuis la Terre.
Crédit : Astrophysique sur Mesure / Noël Robichon et Gilles Bessou

Les étoiles des constellations n'ont pas de liens physiques entre elles. Seule leur position apparente dans une même zone du ciel, lorsqu'elles sont vues depuis la Terre, les relie. En particulier, leurs distances peuvent être très différentes. Comme les étoiles ont des vitesses différentes les unes des autres, la forme des constellations évolue au cours du temps. Au bout de quelques dizaines de milliers d'années seulement, la forme d'une constellation n'est plus reconnaissable.


Le nom des étoiles

Durant l'antiquité, les astronomes nommaient les étoiles d'après leur position dans la constellation à laquelle elles appartenaient. Au moyen-âge, les astronomes arabes fixèrent le nom des étoiles les plus brillantes sur le même principe (Rigel dans la constellation d'Orion, qui était pour l'astronome grec Ptolémée « l'étoile la plus brillante du pied gauche en contact avec l'eau », signifie simplement « le pied » en arabe) et ces noms sont restés d'usage courant.

Au début du 17ème siècle, l'astronome allemand Bayer classa les étoiles des constellations par luminosité décroissante en suivant l'alphabet grec puis l'alphabet latin suivi du génitif du nom latin de la constellation. Ainsi, Arcturus, l'étoile la plus brillante du Bouvier (Bootes en latin) se nomme-t-elle aussi α Bootis (ou α Boo). De même, Castor et Pollux, les deux étoiles les plus brillantes des Gémeaux (Gemini) sont respectivement et α et β Geminorum ( α et β Gem). Parallèlement, l'astronome anglais Flamsteed désigna les étoiles visibles de chaque constellation en les comptant par ascension droite croissante. La manière de nommer une étoile par un numéro et d'une lettre grecque ou latine suivis du génitif du nom latin de la constellation à laquelle elle appartient s'appelle ainsi dénomination de Bayer-Flamsteed.

De nos jours, où le catalogage des étoiles n'est plus une fin en soi, et où le nombre d'étoiles connues est considérable, les étoiles sont nommées d'après leur numéros dans des catalogues spécifiques (catalogues d'étoiles brillantes, de binaires, de variables, d'étoiles observées avec tel ou tel instrument...). Une étoile appartenant à plusieurs catalogues a donc plusieurs noms. L'étoile Véga de la Lyre, par exemple, apparaît ainsi sous plus de cinquante noms comme α Lyr, GJ 721 (étoile numéro 721 du catalogue d'étoiles proches de Gliese et Jarheiss), HIP 91262 (catalogue Hipparcos), HD 172167 (catalogue Henry Drapper), CCDM J18369+3847A (catalogue CCDM d'étoiles doubles), etc.


L'observation des étoiles


Introduction

introductionIntroduction

L'essentiel de l'information en provenance des astres est sous forme de lumière (à différentes longueurs d'onde). Cette lumière peut être analysée de différentes manières :

Ces méthodes d'analyse peuvent éventuellement être couplées (spectrophotométrie, spectro-imagerie…) ou associées à d'autres techniques d'analyse de la lumière (interférométrie…).

Nous allons voir comment ces différentes techniques permettent de connaître des propriétés physiques des étoiles.


La distance des étoiles

La parallaxe trigonométrique d'une étoile (ou parallaxe annuelle) est l'angle sous lequel est vu le demi-grand axe de l'ellipse apparente que semble effectuer une étoile à cause de son mouvement réflexe dû à la rotation de la Terre autour du Soleil. Il est noté π ou piv lorsqu'il y a ambiguité avec le nombre pi.

La distance D d'une étoile est alors donnée par la formule :

D=R/tan(piv)~=R/piv

où R est le demi grand-axe de l'orbite terrestre c'est-à-dire une unité astronomique.

Par définition, la distance est de 1 parsec si la parallaxe piv est de 1 seconde de degré.

Comme R = 1 unité astronomique (u.a.), on a unité(1;pc)=unité(1/tan(1'');ua)~=unité(206265;ua)

L'étoile la plus proche a une parallaxe : piv=0,76*".

Sa distance est donc : D=1/piv=unité(1,3;pc).

La précision actuelle des meilleures parallaxes est d'environ 1 millième de seconde de degré. C'est en particulier la précision médiane du catalogue Hipparcos qui a mesuré les positions, parallaxes et mouvements propres d'environ 120 000 étoiles. Ainsi, seule la distance des étoiles proches est connue grâce à la mesure de leurs parallaxes trigonométriques. En effet, avec une telle précision, à 100 parsecs par exemple, l'erreur relative sur la parallaxe est de 10 % ce qui donne une erreur sur la distance du même ordre. Or, la Galaxie fait quelque 30 000 parsecs de diamètre ! Les parallaxes trigonométrique ne permettent donc pour l'instant - et en attendant des instruments comme le satellite GAIA qui aura une précision de quelques millionièmes de seconde de degré - que d'obtenir la distance d'étoiles du voisinage solaire.

La distance d'étoiles plus lointaines, qui ont une parallaxe trigonométrique trop petite pour les instruments actuels, est mesurée par des méthodes indirectes. Par exemple en comparant leur luminosité intrinsèque et leur luminosité apparente observée depuis la Terre comme nous le verrons plus loin. On parlera alors de parallaxe spectroscopique ou photométrique selon que sa luminosité intrinsèque (on dit plutôt absolue) a été calibrée par spectroscopie ou photométrie.


Exercice sur la distance des étoiles

exerciceDistance des étoiles

Difficulté :    Temps : 5 minutes

Question 1)

On représente le Soleil par une bille de 1 cm de diamètre. Quelle est la distance, à l'échelle, de l'étoile la plus proche ?

Données : la distance de l'étoile la plus proche, proxima du Centaure, est 1,3 parsec.


Quelques unités utiles

Relations entre les différentes unités :

unité(1;pc)=unité(3,26;al)~=unité(206265;ua)~=unité(3,1*10^13;km)


La vitesse des étoiles

Les étoiles se déplacent les unes par rapport aux autres dans notre Galaxie. Ces mouvements sont régis par la loi de la gravitation. La vitesse d'une étoile par rapport au Soleil se décompose en une vitesse sur la voûte céleste, appelée vitesse tangentielle, et une vitesse sur la ligne de visée de l'étoile appelée vitesse radiale. Ces deux composantes de la vitesse se mesurent par des méthodes très différentes.

vitesse_et.jpg
Décomposition de la vitesse relative d'une étoile en vitesses radiale et tangentielle.
Crédit : Astrophysique sur Mesure / Noël Robichon, Gilles Bessou et Djamila Taharbouche

La vitesse tangentielle

À cause de sa vitesse tangentielle, la position d'une étoile va varier au cours du temps. La différence de positions sur la voute céleste à différentes époques est un angle. On appelle mouvement propre μ d 'une étoile la variation de position divisée par la variation de temps. Il est donc homogène à un angle divisé par un temps. Il est le plus couramment exprimé en seconde de degré par an.

La vitesse tangentielle VT de l'étoile est égale au produit de son mouvement propre par sa distance. Si l'on exprime la distance d en parsec et le mouvement propre μ en seconde par an, la vitesse tangentielle V_T, exprimée en km/s est donnée par la formule numérique suivante :

V_T=4,74*mu*d

La vitesse radiale

La vitesse radiale ne modifie pas, par définition, la position sur le ciel d'une étoile. Elle est mesurée par une autre technique - la spectroscopie - grâce à l 'effet Doppler (voir dans les pages suivantes).

images/traj_et.gif
Évolution en tire-bouchon de la position d'une étoile comme combinaison du mouvement propre et du mouvement parallactique.
Crédit : Astrophysique sur Mesure / Noël Robichon et Gilles Bessou

La position d'une étoile dépend de sa position à une certaine époque, de sa parallaxe et de son mouvement propre selon les relations :

alpha=alpha_0+mu_alpha*t+P_alpha(alpha;delta;t)*piv

delta=delta_0+mu_delta*t+P_delta(alpha;delta;t)*piv

alphaet delta sont les coordonnées équatoriales à un instant t, alpha_0et delta_0à l'instant t0 de référence, mu_alphaet mu_delta les composantes du mouvement propre de l'étoile, pivsa parallaxe et P_alpha(alpha;delta;t)et P_delta(alpha;delta;t)les composantes du facteur parallactique de l'étoile à l'instant t. Le facteur parallactique est simplement la projection de l'orbite de la Terre dans la direction de l'étoile.


Étoiles doubles

Une étoile double est une système de deux étoiles proches sur la sphère céleste. Une étoile double visuelle peut être une binaire visuelle (deux étoiles gravitant l'une autour de l'autre et donc liées physiquement) ou une étoile double optique (étoiles fortuitement proches sur le ciel mais qui sont en fait à des distances différentes).

Une étoile binaire (ou simplement binaire ou étoile double physique) est un système de deux étoiles orbitant l'une autour de l'autre sous l'effet de la gravité (comme la Terre tourne autour du Soleil). Une binaire est dite :

Le concept de binarité est donc subjectif : une binaire visuelle peut être résolue par un gros instrument et pas par un plus petit. De même la binarité spectroscopique ou photométrique dépend de la précision des détecteurs.

La plupart des étoiles se trouvent dans des systèmes binaires ou multiples (il existe également des étoiles triples, quadruples...).

Les binaires jouent un rôle primordial dans notre connaissance des étoiles. En particulier, le calcul des éléments orbitaux (période, demi-grands axes, inclinaison...) des composantes d'une binaire est le seul moyen direct de mesurer des masses d'étoiles grâce aux lois de Kepler comme nous allons le voir dans les pages qui suivent.


Masse des étoiles

Si l'on arrive à observer l'orbite des deux composantes d'un système binaire visuel, on peut déterminer leurs masses.

En effet, en posant P la période, m1 et m2 les masses des deux composantes, a1 et a2 les demi-grands axes des orbites des deux composantes autour du centre de gravité du système on a :

La résolution de ce système donne alors les masses individuelles m1 et m2 des deux étoiles.

En fait, les choses ne sont pas si simples. L'observation de l'étoile pendant une durée de temps supérieure à la période permet d'obtenir l'orbite apparente de l'étoile la plus faible autour de la plus brillante. La période est directement déduite de ces observations. En revanche, l'orbite observée n'est que la projection sur le ciel de l'orbite réelle. Il s'agit d'une ellipse, mais son demi-grand axe n'est pas celui de l'orbite réelle. Il existe néanmoins des moyens géométriques ou analytiques qui permettent de retrouver l'inclinaison de l'orbite mais dont le développement dépasse le cadre de ce cours.


Taille des étoiles

Le rayon des étoiles peut facilement être déterminé dans le cas de binaires à éclipses. Une binaire à éclipses est une étoile binaire dont le plan de révolution est dans la ligne de visée de l'observateur (la Terre). Les deux composantes de la binaire ne sont pas résolues et la luminosité mesurée par l'observateur est la somme des luminosités des deux composantes de la binaire. Lorsqu'une des composantes passe entre l'observateur et l'autre étoile - on parle alors d'éclipse - une partie de la lunière de celle-ci est masquée à l'observateur. Il y a alors diminution de la luminosité totale de l'étoile binaire (somme des luminosités des deux composantes).

Si l'on connaît la masse des deux étoiles, la période du système nous permet, par la troisième loi de Kepler, de connaître la distance qui les sépare. On a alors la vitesse de ces étoiles. La durée des deux éclipses donne alors le rayon des deux composantes.

images/bin_ecl.gif
Variation de la luminosité d'une étoile double binaire à éclipses.
Crédit : Astrophysique sur Mesure / Noël Robichon et Gilles Bessou

D'autres techniques presque* directes permettent d'obtenir le rayon de certaines étoiles. On peut citer les occultations par la Lune où l'on mesure le temps que met une étoile à disparaître derrière le limbe lunaire ou l'interférométrie qui permet, pour des étoiles suffisamment proches ou grosses, de mesurer directement le diamètre .

*moyennant tout de même un modèle d'assombrissement centre-bord du disque stellaire c'est-à-dire la manière dont la lumière se distribue sur le disque stellaire (le bord étant plus sombre que le centre).


Une étoile brille

Le gaz à la surface de l'étoile peut être considéré, en première approximation, comme un corps noir. Un corps noir est un corps idéal qui réémet tout le rayonnement qu'il reçoit sous forme d'un spectre continu (qui suit la loi de Planck) avec un maximum à une longueur d'onde λ m qui ne dépend que de sa température T (selon la relation de Wien :  λ m T = cte = 3.10-3 m.K). La longueur d'onde λ m détermine la couleur de l'étoile.

La température de la surface d'une étoile variant d'environ 3000 Kelvins à quelques dizaines de milliers de Kelvins, λ m varie environ entre 150 et 3000 nm. Ceci correspond à un maximum situé entre le proche ultraviolet et le proche infrarouge en passant par toutes les couleurs de l'arc-en-ciel. Les étoiles les plus chaudes apparaissent ainsi très bleues et les plus froides sont rouge sombre.

Le flux F d'énergie émis par un corps noir à sa surface ne dépend lui aussi que de la température selon la relation de Stefan-Boltzmann F=σT4 avec σ = 5,67.10-8 W/m2/K. La luminosité totale L émise par un corps noir est le produit de sa surface par le flux F. La luminosité L d'une étoile représentée par un corps noir sphérique de rayon R, donc de surface égale à 4πR2, est par conséquent égale à L=4πR2 σT4 .

À rayon égal, une étoile chaude, donc bleue d'après la relation de Wien, émettra donc plus d'énergie qu'une étoile froide et plus rouge. De même, une étoile de grand rayon, comme géante rouge par exemple, émettra plus d'énergie qu'une naine rouge de même température mais de rayon inférieur.


La luminosité des étoiles

La luminosité apparente d'une étoile est la puissance du rayonnement électromagnétique émis par cette étoile qui arrive à l'observateur. La luminosité bolométrique est la luminosité sur l'ensemble du spectre électromagnétique. Sinon, il faut préciser dans quelle bande de longueur d'onde on intègre le flux.

La luminosité apparente d'un objet dépend de sa luminosité absolue et de sa distance. On conçoit bien en effet que plus un objet est intrinsèquement brillant, plus il va être brillant sur le ciel de même que plus il va être loin, moins il va être brillant.

On définit également la notion de magnitude. Initialement, c'est l'intensité de la sensation visuelle produite par une étoile. Les étoiles visibles ont ainsi été classées en 6 ordres de grandeur par les astronomes anciens, de la première magnitude pour les plus brillantes à la sixième pour les étoiles tout juste visibles à l'oeil nu. À cette hiérarchie s'est substitué un classement plus quantitatif coïncidant avec la première définition : Si F est le flux d'une étoile dans une bande de longueur d'onde donnée, la magnitude est définie par m = - 2,5*log(F)+m_0, où m_0 est une constante.

La magnitude absolue d'une étoile est la magnitude qu'aurait l'étoile si elle était située à 10 parsecs de la Terre. La magnitude absolue permet ainsi de comparer des étoiles ayant des distances différentes. La magnitude absolue est égale à M = m - 5*log(D)+5+A, où D est la distance de l'étoile en parsecs et A est l'absorption interstellaire.

Connaissant la magnitude absolue d'un objet, sa magnitude apparente permet de déterminer sa distance même si il est trop loin pour avoir une parallaxe mesurable. Vice versa, connaissant la magnitude apparente d'une étoile et sa distance, on peut déterminer sa magnitude absolue.


Couleur et température

L'indice de couleur d'une étoile est la différence de sa magnitude dans deux bandes différentes. Selon le système photométrique utilisé, un indice de couleur permet d'avoir des informations quantitatives sur les paramètres physiques d'une étoile (température, métallicité, magnitude absolue...).

Lorsque l'on fait varier la température d'un corps noir, la répartition de l'énergie avec la longueur d'onde varie. Ainsi pour un corps noir à 6000 K, le maximum d'émission est dans le jaune. La quantité d'énergie émise dans une bande spectrale autour du jaune (à travers un filtre de couleur jaune) est plus grande que la quantité d'énergie émise dans une bande spectrale centrée sur le bleu. Inversement, un corps noir à 12000 K émet plus dans le bleu que dans le jaune. La mesure de la quantité de lumière émise dans ces deux bandes renseigne ainsi sur la température de l'objet observé.


Spectroscopie

Comme la lumière du Soleil, la lumière d'une étoile peut être décomposée par un prisme ou un réseau selon toutes les couleurs de l'arc en ciel. La décomposition de la lumière selon la longueur d'onde s'appelle un spectre. Celui-ci peut-être de trois natures fondamentales : continu, avec des raies d'émission ou avec des raies d'absorption.

La lumière, ou onde électromagnétique, est composée de photons. Autrement dit, le photon est la particule qui transmet l'interaction électromagnétique. L'énergie E d'un photon dépend de sa fréquence ν selon la formule simple E=hν où h est la constante de Planck (h6,626.10-34 m2kg/s).

On appelle spectre continu un spectre dans lequel la lumière est émise à toutes les longueurs d'onde. C'est la cas par exemple dans un gaz à haute température. Les particules qui constituent le gaz (atomes et ions, électrons si le gaz est ionisé) ont une distribution continue de vitesses. Les collisions aléatoires entre les particules émettent des quantités aléatoires d'énergie et donc des photons à toutes les fréquences (ou à toutes les longueurs d'onde). Le corp noir donne un exemple typique et idéal de spectre continu.

L'énergie de liaison d'un électron dans un atome ou dans une molécule (de même que l'énergie vibrationnelle ou rotationnelle d'une molécule ou encore l'énergie des nucléons dans un noyau atomiques) ne peut pas prendre n'importe quelle valeur : on dit qu'elle est quantifiée. Les lois physiques qui régissent ce phénomène sont regroupées dans la branche de la physique appelée physique quantique. Lors du passage d'un système quantique d'un niveau d'énergie E1 à un autre E2 plus petit, par exemple dans le cas d'un électron qui passe d'un niveau d'énergie à un autre moins exité dans un atome, un photon est émis à la fréquence ν qui correspond à la différence entre les deux niveaux d'énergie : ν=(E1-E2)/h. L'accumulation de photons émis à cette fréquence donne ce que l'on appelle une raie d'émission et le spectre résultant est un spectre d'émission. Inversement, si un photon de cette fréquence atteint un atome dont un électron est au niveau E2, il fait passer cet électron au niveau E1. Le photon est alors absorbé et l'on parle de raie d'absorption et de spectre d'absorption.

L'analyse du spectre des étoiles permet de connaître un certain nombre de leurs propriétés :

Nous allons voir comment.

Une raie d 'absorption correspond au saut d'un électron dans un atome d 'un niveau à un niveau plus énergétique par absorption d 'un photon. Mais les atomes sont dans des états plus ou moins ionisés suivant la température (et la pression). De même, les niveaux d 'énergie occupés par les électrons ne sont pas les mêmes selon la température. Les raies ne se forment donc pas toutes à la même température. La distribution des raies renseigne donc sur la température (ou plutôt la distribution de températures) dans la photosphère de l'étoile.


Le type spectral

Le type spectral d'une étoile est une lettre donnée selon l'allure de son spectre et l'intensité de ses raies. Il permet de classer les étoiles en température. Des types les plus chauds aux plus froids on a : OBAFGKM.

Un moyen mnémotechnique a été inventé par les anglo-saxons avec la phrase : "Oh Be A Fine Girl Kiss Me!" qui peut aisément se transformer en "oh Be A Fine Guy Kiss Me!" pour ne pas choquer les féministes les plus virulentes ou même en "oh Be A Fine Gay Kiss Me!" pour être politiquement correct en toutes circonstances.

Chaque type spectral peut être affiné en rajoutant un nombre compris entre 0 et 10 (ainsi une étoile F3 est un peu plus chaude qu'une F4 et une A9 plus qu'une F0). on adjoint souvent la classe de luminosité au type spectral de manière à bien définir une étoile. Le Soleil est ainsi une G2V c'est-à-dire une étoile G2 de la séquence principale.

La première naine brune GL 229 B (dans une binaire) a été observée en 1995 ; la première naine brune de champ en 1997. Depuis, plusieurs dizaines d 'objets plus froid que 3000 K ont été découverts. L'observation récente de ces objets stellaires plus froid que le type M a amené les astronomes à définir deux nouveaux types spectraux encore plus froids : les types L et T (Comme les autres lettres utilisées pour définir les types spectraux, les lettres L puis T n'ont pas de signification particulière ; elles ont été choisies car elles étaient disponibles).

La séquence complète est donc maintenant OBAFGKMLT qui peut se retenir par la phrase : « Oh Be A Fine Girl (Guy, Gay...) Kiss My Lips Tenderly ».

L'observation du spectre d'une étoile et son analyse permet donc, entre autres, de connaître sa température effective.


Binaires spectroscopiques

Variation de la position des raies de la primaire d'une binaire spectroscopique en fonction de la position relative des composantes.
Crédit : Astrophysique sur Mesure / Noël Robichon et Gilles Bessou

Chaque composante du système binaire tourne autour du barycentre du système. La vitesse de chaque composante varie donc périodiquement. L 'observation du décalage spectral des raies des deux composantes donne les variations de la vitesse radiale de chaque objet. Les masses individuelles des deux étoiles ne sont alors connues qu 'à l'inclinaison du système prés. Si l 'inclinaison est connue par d 'autres moyens (binaire à éclipses, observations interférométriques…) les masses sont alors connues.


Autres paramètres déterminés par la spectroscopie

Outre la température et la pression, la forme des raies spectrales nous renseigne sur d'autres paramètres stellaires :


Diagramme de Hertzsprung-Russell

Diagramme HR Hipparcos
diag_HR_Hipp.gif
Diagramme de Hertzsprung-Russell des étoiles du catalogue Hipparcos avec une distance plus précise que 10 %.
Crédit : Astrophysique sur Mesure / Noël Robichon et Gilles Bessou

Un diagramme de Hertzsprung-Russell (ou diagramme HR en abrégé) a une ordonnée dans une échelle de magnitude absolue et une abscisse dans une échelle de température. On parle de diagramme théorique lorsque l'abscisse est la température effective et l'ordonnée la magnitude absolue bolométrique toutes deux calculées à partir de modèles théoriques de structure interne et de modèles d'atmosphères stellaires. On parle de diagramme observé lorsque abscisse et ordonnée sont des paramètres observés (par exemple une magnitude absolue MV en fonction de l'indice de couleur B-V).

Connaissant la distance d 'une étoile, sa magnitude apparente et sa température, il est possible de la placer sur un diagramme HR observationnel. Les étoiles se répartissent selon des séquences dans le diagramme :

L'explication de la structure de ce diagramme est donnée par les mécanismes de l'évolution stellaire et détaillée plus loin.

Diagramme HR théorique
images/diag_HR_theo.gif
Diagramme de Hertzsprung-Russell théorique. L'axe des abscisse donne les correspondances température-couleur-type spectral. L'axe des ordonnées est gradué en luminosité solaire et en magnitude absolue bolométrique.
Crédit : Astrophysique sur Mesure / Noël Robichon et Gilles Bessou

En supposant qu'une étoile rayonne comme un corps noir, sa luminosité est : L = 4*pi*R^2*sigma*T^4avec L la luminosité de l'étoile, R son rayon et T sa température.

En prenant le logarithme, on obtient : log(L)=log(pi)+2*log(R)+4*log(T)+cte

On reconnaît l'équation d'une droite dans un diagramme (log T, log L). Les lignes d'égal rayon sont donc des droites sur le diagramme HR.

Les étoiles ont donc une grande variété de propriétés physiques :


Pourquoi les étoiles brillent


Introduction

introductionIntroduction

Pourquoi les étoiles brillent-elles ? Parce qu'elles sont chaudes ! Mais pourquoi sont-elles chaudes ? Parce que quelque chose les chauffe !


Pourquoi les étoiles brillent-elles?

Les étoiles brillent car leur surface, ou photosphère, est composée de gaz ionisé très chaud - entre 3000 et 50000 K - qui émet de la lumière.  Mais pourquoi la surface est-elle si chaude et pourquoi émet-elle ? C'est-à-dire où l'étoile puise-t-elle son énergie ?

On connaît la masse du Soleil, environ 2.1030  kg.

On connaît la quantité de lumière émise par le Soleil, environ 4.1026  Watts.

On connaît enfin l'âge du Soleil : 4,6 milliards d'années. On suppose que la formation du système solaire a été brève devant son âge et on mesure l'âge de météorite par la mesure de la composition en isotopes radioactifs de longue période comme l'uranium 238 ou 235 et les produits de leurs désintégrations, plomb 206 et 207.

On peut maintenant tester différentes hypothèses quant à la nature de l'énergie interne du Soleil, et donc, des étoiles :


La lumière des étoiles

La température, la pression et la densité au coeur des étoiles atteignent des valeurs gigantesques. À titre d'exemple, la température au centre du Soleil est d'environ 15 millions de kelvins, la pression est de plusieurs centaines de milliards d'atmosphères et la densité est de plusieurs centaines. Dans ces conditions, les atomes d'hydrogène (protons) ont une vitesse suffisante pour vaincre la force de répulsion électrostatique et peuvent entrer en collision et fusionner pour former de l'hélium, en perdant de la masse et en libérant de l'énergie sous forme de neutrinos et de photons à haute énergie. C'est ce que l'on appelle la fusion nucléaire. Elle est d'autant plus importante que la température et la densité est grande.

Les neutrinos interagissent très peu avec la matière et sont tout de suite éjectés de l'étoiles.

Les photons, au contraire, mettent plusieurs siècles à quitter l'étoile en ce sens qu'un photon issu d'une réaction de la fusion de deux atomes est presque immédiatement réabsorbé par un autre atome qui réémet à son tour un autre photon et ainsi de suite jusqu'à atteindre la surface de l'étoile où il part vers le milieu interstellaire.

La surface de l'étoile est donc chauffée par les réactions nucléaires qui ont lieu au cœur de l'étoile.

Deux forces agissent globalement sur l'étoile :

Ces deux forces sont en équilibre tant que la fusion peut se produire dans l'étoile. En effet, imaginons que l'étoile se dilate sous l'effet de la pression. Sa densité va diminuer (puisque l'on a la même quantité de matière dans un volume plus grand). Le taux de réactions nucléaires va également diminuer (il est facile de comprendre que les réactions sont plus faciles si la densité est plus grande puisque les particules sont plus proches de leurs voisines). Moins d'énergie étant produite, la température va baisser. Une dilatation (hypothétique) de l'étoile entraîne donc une diminution de la densité et de la température. Or, la pression est directement proportionnelle à ces deux paramètres. Elle va donc également baisser et la gravité fera se contracter l'étoile.

À l'inverse, si l'étoile se contracte, la densité va augmenter, va faire croître la production d'énergie par fusion donc la température et la pression qui va faire se dilater l'étoile.

definitionQu'est-ce qu'une étoile ?

On peut maintenant esquisser une définition de ce qu'est une étoile : une étoile est donc une boule de gaz, en équilibre, et qui émet de la lumière grâce aux réactions nucléaires qui ont lieu en son sein.


Le milieu interstellaire


Introduction

introductionIntroduction

L'espace compris entre les étoiles de notre Galaxie n'est pas vide ; il est constitué d'un mélange extrêmement dilué de gaz et de poussières : le milieu interstellaire, que nous désignerons par l'abréviation MIS dans la suite de chapitre.

Dans ce milieu, le gaz et les grains de poussière sont intimement mêlés. Un milieu interstellaire est présent dans toutes les galaxies spirales, spirales-barrées et irrégulières. Il est quasiment inexistant dans les galaxies elliptiques et lenticulaires.

Le milieu interstellaire est bien visible sur la photo de la galaxie du Sombrero ci-contre. Les zones sombres signalent la présence des poussières qui absorbent la lumière des étoiles. Les poussières, et le gaz associé, sont concentrés dans un disque étroit autour du plan moyen de la galaxie. La photo donne une idée de ce que verrait un observateur extérieur à notre galaxie en l'observant par la tranche.

sombrero.jpg
La galaxie du Sombrero (M 104) et son disque de poussières
Crédit : ESO

Le gaz est principalement constitué d'hydrogène, l'élément le plus abondant de l'univers ; ce dernier existe sous forme atomique ou moléculaire. Le gaz interstellaire contient aussi quelques traces d'éléments plus lourds, également sous la forme d'atomes ou de molécules.

La poussière interstellaire se présente sous la forme de grains extrêment petits, dont la taille typique est de l'ordre d'une fraction de micron (1 micron = un millionième de mètre). La composition chimique des grains de poussière interstellaire est variée : on y trouve du graphite, des silicates, des carbonates.


Le gaz et la poussière interstellaires

Le milieu interstellaire, mélange de particules gazeuses (atomes et molécules) et de grains de poussière, dans la proportion de 1012 à 1, est extrêmement ténu : on y rencontre des densités de gaz, en nombre de particules par cm3, qui varient de quelques unités dans les zones les plus diffuses, à quelques dizaines ou centaines de milliers dans les régions les plus denses. Ces densités sont extêmement faibles : le milieu interstellaire est plus ténu que les vides les plus poussés que l'on sait réaliser en laboratoire.

Bien qu'extrêmement ténu, le milieu interstellaire occupe un espace si vaste qu'il représente une masse de 10 à 15% de celle de l'ensemble des étoiles de notre Galaxie, c'est à dire de l'ordre de 10 à 15 milliards de fois la masse de notre Soleil. Les grains de poussière représentent 1% de la masse totale du milieu interstellaire.

La photographie de la galaxie Centaurus A montre que le milieu interstellaire a une structure extrêmement complexe. On y observe des régions sombres, nuages où le gaz et la poussière sont intimement mêlés, qui côtoient des zones brillantes, appelées nébuleuses, principalement composées de gaz illuminé par les étoiles voisines.

centaurusa.jpg
La structure complexe du milieu interstellaire dans la galaxie Centaurus A
Crédit : ESO

Les rayonnements électromagnétique et cosmique

Le gaz et la poussière ne sont pas les seuls constituants du MIS. Ce dernier baigne en effet dans un rayonnement électromagnétique couvrant toutes les longueurs d'onde, depuis les rayonnements gamma et X, les plus énergétiques correspondant aux très courtes longueurs d'onde, jusqu'au rayonnement radio, le moins énergétique, en passant par les rayonnements ultraviolet, visible et infrarouge.

Ces rayonnements sont produit par les étoiles, les enveloppes et nébuleuses qui leur sont associés à certaines étapes de l'évolution stellaire, et également au sein des différentes composantes (nuages, poussières, nébuleuses...) du MIS, au cours de processus physiques extrêmement variés.

A côté du rayonnement électromagnétique, le MIS est baigné par un rayonnement de type corpusculaire : le rayonnement cosmique, constitué de particules animées de très grandes vitesses, proches de celle de la lumière.

Ces particules sont d'une part, des noyaux d'atomes qui portent une charge électrique positive, essentiellement des protons (noyaux d'atomes d'hydrogène), et des particules alpha (noyaux d'atomes d'hélium) et, d'autre part, des électrons.

Les particules du rayonnement cosmique sont produites lors des explosions de supernovae, ultime étape de l'évolution des étoiles les plus massives. Les particules sont libérées par l'explosion de l'étoile et éjectées dans le milieu interstellaire avec une très grande énergie. Elles peuvent être accélérées en traversant les champs magnétiques, de structures et d'intensités extrêmement variées, qui baignent le MIS.


Les régions d'hydrogène ionisé (HII)

Le milieu interstellaire est observable directement, notemment en lumière visible, sous la forme de nébuleuses diffuses plus ou moins brillantes et contrastées. La plus brillante, -elle est visible à l'œil nu-, et l'une des plus célèbres, est la nébuleuse d'Orion, représentée dans la figure ci-contre.

orion.jpg
La nébuleuse d'Orion (Messier 42) région d'hydrogène ionisé (HII)
Crédit : ESO

Il s'agit d'un nuage d'hydrogène atomique soumis au rayonnement ultraviolet intense émis par quelques étoiles très lumineuses et chaudes (de type spectral O ou B) dont les quatre plus brillantes, formant le trapèze d'Orion, sont visibles sur la photo.

Ces étoiles émettent l'essentiel de leur rayonnement dans le domaine ultraviolet, c'est dire de longueur d'onde inférieure à 300 nm. Les plus énergétiques de ces photons, ceux dont la longueur d'onde est inférieure à 91,2 nm, peuvent ioniser l'atome d'hydrogène en lui arrachant un électron. Une région, composée d'un mélange de protons et d'électrons, appelée région HII, se forme autour des étoiles brillantes.

Les zones brillantes et diffuses que l'on observe sur les photographies, sont dues au rayonnement fluorescent qui est produit lorsque l'electron se recombine sur le proton pour former un atome d'hydrogène. Celui-ci est formé dans un état d'énergie élevée et se désexcite en emettant des photons sous forme de cascades radiatives. Le rayonnement émis s'étend du domaine visible jusqu'aux domaines infrarouge et radio.


L'hydrogène interstellaire neutre (HI)

L'hydrogène est le constituant principal de l'univers et donc du milieu interstellaire des galaxies. Si les nébuleuses d'hydrogène ionisé sont directement observables en lumière visible (cf page précédente), il a fallu attendre l'avènement de la radioastronomie pour observer l'hydrogène atomique sous la forme neutre.

L'atome d'hydrogène est constitué d'un proton et d'un électron en "orbite" autour de lui. L'électron se comporte comme s'il était animé d'un mouvement de rotation sur lui même. Spontanément, mais avec une très faible probabilité d'une fois tous les 11 millions d'années, le sens de rotation de l'électron s'inverse : ceci entraîne l'émission d'une onde électromagnétique de longueur d'onde 21 cm (de fréquence 1420 MegaHertz), dans le domaine radio.

La raie 21 cm a été observée pour la première fois en 1951 en utilisant des radiotélescopes implantés aux USA, en Australie et aux Pays-Bas. Cette raie est observable partout dans notre Galaxie ; son intensité est plus grande dans une zone étroite correspondant à la Voie Lactée, c'est à dire dans le disque où sont concentrées la grande majorité des étoiles de notre Galaxie. La raie 21 cm est émise au sein de nuages de gaz principalement constitués d'hydrogène neutre et appelés régions ou nuages HI.

La raie 21 cm, peu absorbée par le MIS, permet d'observer toute notre Galaxie, y compris les régions situées au delà du centre. La distribution spatiale des nuages HI, déterminée à partir des variations d'intensité de la raie 21 cm a permis de montrer que notre Galaxie possédait une structure spirale.

La figure ci-contre montre la distribution de l'intensité de la raie 21 cm dans notre Galaxie, en fonction de la longitude et de la latitude galactiques. Les zones brillantes correspondent au maximum d'intensité et donc d'abondance de HI. Cette dernière est maximale dans le plan moyen de la Galaxie (la ligne brillante qui traverse toute la figure). Mais on peut voir que l'hydrogène neutre est présent partout et peut s'étendre à de très hautes latitudes galactiques. Des "ponts" d'hydrogène ayant la forme de filaments reliant le plan de notre Galaxie et ses zones extérieures, son halo, sont nettement visibles sur la figure.

hI_milkyway.gif
Un ciel plein d'hydrogène !
Crédit : J. Dickey (UMn-USA) & F. Lochman (NRAO-USA)

Nuages moléculaires géants et nuages interstellaires diffus

La matière interstellaire n'existe pas que sous la seule forme des nuages atomiques HI, elle est aussi distribuée dans des nuages moléculaires d'extension, de masse, de densité, de température et de morphologie extrêmement variées.

Les nuages moléculaires géants sont constitués d'un mélange de poussières et de gaz composé de plus d'une centaine de molécules différentes (voir plus loin). Ils s'étendent sur plusieurs parsecs, voire dizaines de parsecs. Leur masse peut atteindre plusieurs millions de fois celle du soleil. Ils ont une densité moyenne typique de 1000 particules/cm3 et leur température varie entre 10 et 150 K. La nébuleuse de l'Aigle en est un exemple typique.

eagle.jpg
La nébuleuse de l'Aigle (Messier 16)
Crédit : NASA - Hubble Space Telescope

Les nuages moléculaires géants sont le siège de la formation des étoiles et sont souvent associés à des régions HII, comme on peut le voir sur l'image de la nébuleuse RCW 38. Ces régions HII sont créées par les étoiles très chaudes et très lumineuses qui se sont formées il y a moins de 10 à 100 millions d'années, c'est à dire tout récemment à l'échelle cosmique. Les étoiles se forment donc au sein des nuages moléculaires de façon continue, et encore de nos jours.

rcw38.jpg
Le nuage moléculaire associé à la nébuleuse RCW 38
Crédit : ESO

A l'autre extrémité de la séquence des nuages interstellaires, on trouve les nuages diffus qui sont vus en absorption devant des étoiles. Leur masses (quelques dizaines à quelques centaines de masses solaires) et leurs densités (entre dix et quelques centaines de particules/cm3) sont beaucoup plus faibles. Ils sont composés surtout d'atomes neutres (H, C, N, O...) ou ionisés (C+, Mg+, Si+...). Les plus denses d'entre eux contiennent quelques molécules simples neutres (H2, CO, CH, CN, OH, H2O...) ou ionisées (CH+...). Tous ces constituants sont identifiés par leur spectre en absorption devant celui de l'étoile située derrière.

De propriétés physiques voisines, les nébuleuses par réflexion sont des nuages de gaz et de poussières qui diffusent la lumière d'étoiles situées au sein du nuage ou dans son environnement immédiat. Un bel exemple est fourni par la nébuleuse du Caméléon.

chameleon1.jpg
Nébuleuses par réflexion dans la constellation du Caméléon
Crédit : ESO

Nuages interstellaires sombres et globules

Les nuages moléculaires sombres et les globules se présentent comme des taches sombres plus ou moins régulières masquant la lumière d'étoiles situées en arrière plan. L'un des plus fameux est la nébuleuse de la Tête de Cheval.

horsehead.jpg
Nébuleuse de la Tête de Cheval
Crédit : ESO - VLT

Ces nuages interstellaires ont un contenu moléculaire aussi riche que celui des nuages géants, leur densité est comparable, voire plus élevée (quelques dizaines de milliers de particules /cm3), mais ils sont plus froids (une température de l'ordre de 10°K, voire moins). Les poussières dans ces zones denses absorbent plus ou moins complètement la lumière des étoiles situées derrière, d'où leur aspect de taches sombres, particulièrement visibles dans la photographie du globule B 68.

b68.jpg
Le globule de Bok B 68
Crédit : ESO - VLT

Les nuages sombres peuvent présenter des formes plus complexes comme c'est le cas par exemple des globules de Thackeray.

thackeray.jpg
Les globules de Thackeray dans IC 2944
Crédit : NASA - Hubble Space Telescope

Les observations en infrarouge ont permis de mettre en évidence la présence de sources ponctuelles au sein de certains nuages sombres . Quelques sources IR ont été identifiées comme des étoiles en formation, dont seul le rayonnement infrarouge, moins absorbé par les poussières, parvient à sortir du nuage.

Le telescope spatial Hubble a même permis de détecter un disque protoplanétaire en formation.

protoplan.jpg
Disque protoplanétaire en formation dans la nébuleuse d'Orion
Crédit : NASA - Hubble Space Telescope

La présence de proto-étoiles et de disques proto-planétaires dans les nuages sombres montrent qu'ils sont, comme les nuages moléculaires géants, le siège d'une formation continue d'étoiles qui se poursuit à l'époque actuelle.


Les molécules interstellaires, produits d'une chimie très élaborée

Les premières observations de molécules dans le MIS remontent à 1941 : les molécules : CH, CH+ et CN ont été détectées dans un nuage diffus, grace à leurs raies observées en aborption dans le domaine visible le spectre de l'étoile Dzeta Ophiuchii.

L'avènement de la radioastronomie en ondes centimétriques et décimétriques, outre la découverte de l'hydrogène atomique, a permis la découverte du radical hydroxyle OH (en 1963) et des premières molécules polyatomiques : l'ammoniac NH3 (en 1968), l'eau H2O et le formaldéhyde H2CO (en 1969).

C'est le développement de la radioastronomie dans le domaine des ondes millimétriques et sub-millimétriques, à partir des années 1970, qui a permis de découvrir la plupart des molécules interstellaires. La première molécule découverte dans ce domaine de longueur d'onde est la molécule de monoxyde de carbone CO. C'est la molécule la plus abondante, après H2  : elle sert de traceur du gaz moléculaire dans notre Galaxie et les galaxies extérieures.

A ce jour, 150 molécules ont été identifiées dans le MIS. On peut en consulter la liste sur les sites suivants : http://aramis.obspm.fr/mol/index.html et http://www.cv.nrao.edu/~awootten/allmols.html

On y trouve des molécules simples bien connues, comme par exemple le chlorure de sodium NaCl (sel de cuisine !). Beaucoup de molécules organiques ont été détectées ; parmi les plus courantes : le méthane CH4, l'alcool éthylique C2H5OH, l'acide acétique CH3COOH (qui entre dans la composition du vinaigre !), l'acétone CH3COCH3, et même un sucre : le dihydroxyacétone (CH2OH)2CO.

La molécule la plus complexe découverte jusqu'ici est une longue chaîne carbonée de 13 atomes : le cyanodécapentayne HC11N. Elle fait partie de la famille des cyano-poly-ines dont tous les éléments plus simples : HC3N, HC5N, HC7N et HC9N ont également été détectés dans le MIS.

Il est remarquable que dans un ultra-vide, que sont en fait les nuages interstellaires, où règnent des conditions physiques extrêmes, puissent se former des molécules, et en particulier des molécules organiques, aussi complexes. L'acide aminé le plus simple, la glycine : NH2CH2COOH, est une molécule moins complexe que les molécules les plus complexes détectées à ce jour. Néanmoins, toutes les tentatives de détection de la glycine dans le MIS ont échoué jusqu'ici.

Une autre caractéristique de la composition chimique du MIS est la présence de cations (ions chargés positivement), et en particulier, de cations moléculaires, tels : CH+, SO+, H3 +, HCO+, HCS+, N2H+, H3O+, HOCO+, H2COH+, HCNH+, HC3NH+. Comme nous le verrons plus loin, les cations jouent un rôle fondamental dans la chimie interstellaire. Les anions (ions chargés négativement) sont aussi présents dans le MIS, mais en nombre beaucoup plus restreint.


Exercice : Identification de molécules interstellaires

exerciceIdentification de molécules interstellaires

Les molécules interstellaires sont formées à partir des éléments les plus abondants de l'univers, à savoir : H, C, N, O et S. On trouve cependant des molécules contenant des éléments beaucoup plus rares. En vous référant à l'une des deux listes de molécules interstellaires indiquées dans le cours :

Question 1)

Pouvez-vous citer cinq molécules interstellaires contenant du silicium Si ?

Question 2)

Combien de molécules différentes contiennent du chlore, Cl ? Pouvez-vous les citer ?

Question 3)

Même question, mais pour des molécules contenant du phosphore, P.


La chimie interstellaire en phase gazeuse

Le nombre, la diversité, la complexité (en particulier des composés organiques) des molécules détectées dans les nuages interstellaires sont la preuve qu'une chimie active et très élaborée est en œuvre dans le MIS.

Aux faibles densités et températures qui règnent dans ce milieu, les collisions entre particules sont extêmement rares : elles se produisent néanmoins et peuvent se transformer en collisions réactives, c'est dire en réactions chimiques conduisant à la transformation d'espèces chimiques. On peut citer en exemple la réaction suivante :

C+ + H2O HCO+ + H

L'animation ci-dessous présente la suite des réactions qui conduisent à la formation de la molécule CO, la plus abondante après H2. On parle de réactions en phase gazeuse. Seules les réactions exothermiques, c'est à dire qui se produisent spontanément en libérant de l'énergie, participent à la chimie du MIS compte tenu des faibles températures prévalant dans ce milieu.

co_form.gif
Ensemble de réactions chimiques conduisant à la formation de CO
Crédit : Astrophysique sur Mesure / Yves-Paul Viala et Gilles Bessou

La synthèse des molécules complexes observées dans le MIS est le résultat d'un ensemble de plusieurs milliers de réactions chimiques en phase gazeuse. Ces réactions chimiques se classent en différents types qu'il n'est pas possible de détailler ici.


Exercice : Un mécanisme efficace pour former des molécules

exerciceUn mécanisme efficace pour former des molécules

Différentes catégories de réactions chimiques, trop nombreuses pour être détaillées dans ce cours, peuvent conduire à la formation des molécules interstellaires. L'un des processus chimiques les plus efficaces, parce que libérant spontanément une grande quantité d'énergie est la recombinaison, sur un électron, d'un ion moléculaire qui se casse en plusieurs "morceaux" : c'est pourquoi on nomme ce type de réaction une recombinaison dissociative.

Un exemple de recombinaison dissociative est donné dans l'animation qui présente la formation de CO dans la page précédente : il s'agit de la dernière réaction qui conduit à CO :

HCO+ + e- CO + H

Question 1)

Pouvez-vous indiquer les ions moléculaires les plus simples, observés dans le mileu interstellaire, dont la recombinaison dissociative conduit à : CS, N2, H2O et HCN.

Question 2)

Quelles sont les deux molécules di-atomiques observées auxquelles peut conduire le recombinaison dissociative de l'ion HCO+, dont la formule développée est H-C+=O.

Question 3)

La recombinaison dissociative de l'ion moléculaire H3CO+ peut conduire aux espèces CO (monoxyde de carbone), HCO et H2CO (formaldéhyde), toutes trois observées dans le milieu interstellaire. Pouvez-vous écrire les réactions chimiques correspondantes.


Chimie interstellaire sur les grains de poussière

L'enchaînement de réactions chimiques en phase gazeuse peut conduire à la formation des molécules interstellaires, même les plus complexes. Cette production de molécules requiert cependant la présence de la molécule H2, nécessaire au démarrage de toute cette chimie interstellaire active et complexe.

Or, on ne peut pas former H2 directement par collision réactive entre deux atomes d'hydrogène car cette réaction ne peut se produire spontanément dans les conditions physique qui règnent dans le MIS. La formation de H2 interstellaire se produit à la surface des grains de poussière suivant le schéma illustré ci-dessous.

h2_form.gif
La formation de H2 à la surface d'un grain de poussière
Crédit : Astrophysique sur Mesure / Yves-Paul Viala et Gilles Bessou

Les atomes d'hydrogène qui se déplacent dans le MIS du fait de l'agitation thermique, entrent en collision avec un grain de poussière et se collent à sa surface : c'est le phénomène d'adsorption. Ils ne restent pas immobiles mais sont au contraire animés d'une grande mobilité sur cette surface, se déplaçant très rapidement d'un site à un autre. Il arrive que deux atomes d'hydrogène, présents au même moment sur un même site, se recombinent pour former une molécule, le grain de poussière servant en quelque sorte de "catalyseur". La molécule formée peut alors être ré-injectée dans l'espace environnant : c'est le processus de désorption.

Des expériences de laboratoire et des études théoriques ont montré que la formation de H2 sur les grains de poussière est un processus efficace. A tel point que, si les conditions sont favorables (en particulier en l'absence de rayonnement UV au plus profond des nuages moléculaires), tout l'hydrogène existe sous la forme moléculaire. Cet hydrogène moléculaire initie la chimie interstellaire en phase gazeuse et la formation de molécules de plus en plus complexes.

Les processus conduisant à la formation de H2 sur des grains de poussière peuvent également entrer en jeu pour former d'autres molécules, jusqu'aux plus complexes molécules organiques observées. Une chimie intestellaire à la surface des grains de poussière, au moins aussi active et efficace, coexiste donc avec la chimie gazeuse. Elle semble même plus efficace que cette dernière pour former les molécules les plus complexes.

Des études théoriques et des mesures de laboratoire, couplées à des modèles élaborés de chimie interstellaire, ont permis de comprendre la richesse et la complexité de cette dernière. Les processus chimiques en œuvre, même dans les conditions extrêmes qui prévalent dans le milieu interstellaire, participent pleinement à la "complexification" de la matière cosmique, qui conduit des particules élémentaires aux constituants de la vie.


Conclusion

conclusionConclusion

Outre la grande diversité de ses composantes (poussières, gaz, rayonnements électromagnétiques et cosmiques, champs magnétiques), les autres caractéristiques fondamentales du milieu interstellaire sont l'extrême variété et complexité des structures qu'on y rencontre (nuages de gaz, globules, filaments, nébuleuses diffuses, ondes de choc) et des processus physiques et chimiques qui s'y déroulent.

Les processus chimiques enrichissent les nuages de gaz interstellaire en molécules organiques complexes et en poussières. C'est au sein de ces nuages, par contraction gravitationnelle et fragmentation du nuage, que se forment les nouvelles étoiles.

Au centre de la nébuleuse protostellaire, se situe le cœur très chaud de l'étoile en formation, où les molécules et les poussières sont dégradées en leurs constituants atomiques, enrichissant en éléments lourds la matière originelle de l'étoile nouvellement formée.

Les molécules et les poussières subsistent cependant dans les zones extérieures de la nébuleuse proto-stellaire, et en particulier dans le disque où se formeront les futures planètes. La chimie interstellaire contribue ainsi à l'enrichissement en composés complexes de la matière qui formera les éventuelles futures planètes.

Parmi les étoiles nouvellement formées, les plus massives d'entre elles exploseront en supernovae, ré-injectant dans le MIS environnant de nouveaux éléments lourds qui entreront à leur tour en jeu dans la chimie interstellaire...et le cycle recommence !

Ainsi, à l'instar des autres constituants de l'univers : étoiles, galaxies, amas de galaxies et de l'univers dans son ensemble, le milieu interstellaire au sein des galaxies est en perpétuelle évolution : il participe au recyclage de la matière cosmique et à sa "complexification" et joue un rôle déterminant dans l'évolution des galaxies et de leurs composantes.


Vie et mort des étoiles


La formation des étoiles

Les étoiles se forment par effondrement gravitationnel de nuages de gaz interstellaire composés principalement d'hydrogène (~70-75 % de la masse) et d'hélium (25-30 %) avec une faible teneur en éléments plus lourds (< 2 %), appelés (improprement) métaux en astrophysique. Contrairement à l'hydrogène et à la majeur partie de l'hélium qui se sont formés au cours de la nucléosynthèse primordiale (juste après le Big-Bang), les éléments lourds sont le produit des réactions de fusion nucléaire de générations précédentes d'étoiles.

Une étoile passe sa vie à s'opposer à l'effondrement gravitationnel. Au fur et à mesure qu'une étoile se contracte, sa densité augmente. Ceci entraîne une augmentation de la pression jusqu'à ce que celle-ci équilibre la contraction gravitationnelle.

L'augmentation de la pression s'accompagne d'une augmentation de la température qui peut alors atteindre les quelques millions de degrés nécessaires à la fusion de l'hydrogène. Au cœur d'une étoile ont donc lieu des réactions de fusion nucléaire qui transforment des noyaux légers en noyaux plus lourds et produisent de l'énergie sous forme de photons et de neutrinos selon la fameuse formule d'Einstein E=mc2. Les réactions nucléaires permettent de maintenir la température élevée et donc la pression nécessaire à la stabilité de l'étoile. Les réactions nucléaires créent de l'énergie qui a tendance à augmenter la température. Or, le taux de réactions nucléaires croît avec la température. Les réactions devraient donc s'emballer. Ce n'est pas le cas car la pression augmente avec la température. Si la température augmentait, les forces de pression deviendraient supérieures aux forces de contraction gravitationnelle. Le milieu se dilaterait et la densité diminuerait. La pression et donc la température suivraient cette diminution ce qui calmerait les réactions nucléaires. La température et le taux de réactions nucléaires sont ainsi autorégulées et l'intérieur d'une étoile est donc en équilibre.

Les étoiles ainsi formées peuvent avoir des masses allant de quelques centièmes à quelques dizaines de masses solaires. Plus l'étoile est massive, plus la pression et la température au centre sont fortes.


Formation dans les associations et les amas

images/form_etoiles.gif
Formation d'étoiles par contagion dans des nuages moléculaires. Le premier nuage se fragmente et forme des étoiles de toutes masses au sein d'une association OB. Après quelques millions d'années, les étoiles les plus massives explosent en supernovae et créent une onde de choc. Cette onde, en atteignant une autre nuage proche, le déstabilise, y provoque une fragmentation et la formation d'une nouvelle association OB. Et ainsi de suite pour un troisième nuage... C'est le mécanisme invoqué pour expliquer la formation d'étoiles dans les complexes d'association OB des constellations du Scorpion et du Centaure.
Crédit : Astrophysique sur Mesure / Noël Robichon et Gilles Bessou

Les étoiles naissent dans un même nuage moléculaire sous forme d 'amas de quelques parsecs eux même souvent situés au sein d'associations de quelques dizaines de parsecs. Les amas sont constitués d'étoiles de différentes masses, les étoiles de faible masse étant les plus nombreuses. Dans ces structures, les étoiles sont mutuellement attirées par les forces de gravitation. Ces amas vont se disperser ensuite d 'autant plus vite qu 'ils seront moins massifs. En effet, les étoiles d'un amas peuvent échanger de l'énergie lors de leurs passages proches ou lors de perturbations externes par un nuage moléculaire massif. Si une étoile gagne suffisament d'énergie pour atteindre une vitesse supérieure à la vitesse de libération du système elle quitte l'amas. L'amas est alors moins massif et l'énergie gravitationnelle moindre permettant aux autres étoiles membres de quitter l'amas d'autant plus facilement.

Les étoiles qui se forment dans le disque galactique commencent ainsi leur vie dans des amas ouverts de quelques dizaines ou centaines de masses solaires. De tels amas mettront typiquement quelques dizaines ou centaines de millions d 'années pour perdre toutes leurs étoiles qui iront « vivre leur vie » dans la Voie Lactée.

Il existe, par ailleurs, des amas beaucoup plus massifs, appelés amas globulaires, qui se sont formés, dans notre Galaxie, il y a plus de 12 milliards d 'années, en même temps que les premières étoiles. Ces amas globulaires contenant jusqu'à des millions d 'étoiles ont une masse suffisante pour avoir survécu jusqu 'à maintenant aux perturbations gravitationnelles de la Galaxie et de ses composantes.


Amas stellaires

m44_NOAO.jpg
Amas ouvert Praesepe (encore appelé la Crèche ou Messier 44). Cet amas de la constellation du Cancer a environ 700 millions d'années et compte un millier de membres.
Crédit : NOAO/AURA/NSF
hcpery_NOAO.jpg
Le double amas ouvert h et chi Per (dans la constellation de Persée, comme son nom l'indique). Situés à plus de 2 kiloparsecs, ces deux amas sont très jeunes (environ 10 millions d'années) et hébergent des étoiles très chaudes et bleues qui n'ont pas encore évoluées en supernovæ.

Un amas stellaire est un groupe d'étoiles nées d'un même nuage moléculaire et qui sont encore liées par la gravitation. Les étoiles qui composent un amas ont donc même âge et même composition chimique. On distingue deux types d'amas qui dépendent des conditions dans lesquelles ils se sont formés :


La séquence principale

Les étoiles tirent donc principalement leur énergie de réactions de fusion nucléaire. La durée de vie d'une étoile n'est donc pas illimitée puisque l'étoile à une masse limitée. Pour fusionner, deux noyaux doivent donc d'abord vaincre une force de répulsion électrostatique d'autant plus forte qu'ils sont chargés (et donc lourds). L'élément qui fusionne le premier dans les étoiles est donc l'hydrogène. Pour vaincre cette force électrostatique, ils doivent avoir une énergie cinétique suffisante et donc une vitesse suffisante. Ceci revient à dire que la température doit être très élevée puisque la température n'est rien d'autre qu'une mesure macroscopique de la distribution de vitesse des particules. De plus, comme la réaction de fusion de l'hydrogène est celle qui fournit le plus d'énergie, et que l'hydrogène est de loin l'élément le plus abondant, la majeure partie de la vie d'une étoile se passera à fusionner de l'hydrogène. L’endroit du diagramme HR où les étoiles fusionnent de l’hydrogène dans leur cœur s'appelle la séquence principale. Lors de cette phase, les paramètres globaux de l’étoile évoluent peu (la luminosité augmente de quelques dizaines de pourcents, le rayon de quelques pourcents) ce qui explique que la majorité des étoiles se placent sur cette séquence.

Contrairement à ce que l'on pourrait croire, plus une étoile est massive, moins elle vit longtemps. En effet, plus la masse est grande, plus la pression et la température à l'intérieur de l'étoile seront fortes. Or l'efficacité des réactions de fusion croit avec la température. Les deux grands types de réactions qui transforment l'hydrogène en hélium sont le cycle pp (pour proton-proton) qui domine dans les étoiles de petite masse (comme le Soleil) et le cycle CNO (pour Carbone-Azote-Oxygène qui agissent globalement comme catalyseurs) dans les étoiles de grande masse. Or, le taux de production d'énergie du cycle p-p est proportionnel à T4 et celui du cycle CNO à T20, l'égalité de ces deux taux étant équivalent aux alentours de 1,2 masse solaire. Les étoiles libèrent donc d'autant plus d'énergie qu'elles sont massives et vivent donc moins longtemps car elles épuisent plus vite leur carburant.

En fonction de leur masse, les étoiles ne vivront donc pas la même durée. Mais leur fin pourra également être très différente. Les étoiles peu massives vont vivre tranquillement très longtemps et finir paisiblement tandis que les étoiles massives brilleront beaucoup avant de finir dans un cataclysme.


Évolution des étoiles de faible masse

Évolution des étoiles de très faible masse (inférieure à une demi masse solaire)

Pour des étoiles dont la masse est inférieure à la moitié de la masse du Soleil, également appelées naines froides, il n ’y a pas de fusion d ’éléments plus lourds après la fusion de l ’hydrogène. Le temps que ces étoiles vont passer sur la séquence principale est supérieur à l'âge actuel de l'Univers (environ 14 milliards d'années). Les modèles d'évolution stellaire prévoient que ces étoiles finiront en naines blanches d'hélium de la même manière que les étoiles un peu plus massives finiront en naine blanche de carbone et d'oxygène (voir plus loin).

Il existe une masse limite inférieure en dessous de laquelle la température centrale n'est pas suffisante pour initier la fusion de l'hydrogène (environ 8 millions de Kelvin). Cette masse se situe entre 0,07 et 0,08 masse solaire. Au dessous de cette limite, on ne parle plus d'étoile mais de naine brune. Une naine brune est le résultat de la contraction gravitationnelle d'un nuage de masse inférieure à 0,08 masse solaire. Cette contraction chauffe la naine brune et sa température effective initiale se situe autour de 3000 K. Mais, comme aucune autre source d'énergie ne peut maintenir cette température et que l'objet perd de l'énergie par rayonnement, il se refroidit pour atteindre quelques centaines de Kelvins au bout de quelques centaines de millions d'années.

Évolution des étoiles de masse intermédiaire (comprise entre 0,5 et 7 masses solaires)

Entre 0,5 et 7 masses solaires, seuls l'hydrogène puis l'hélium vont pouvoir fusionner dans l'étoile. Sur la séquence principale, il y aura d'abord fusion de l'hydrogène dans le cœur. Puis l'hydrogène va fusionner dans une couche autour d'un cœur d'hélium. L'étoile va alors gonfler pour former une géante rouge. Sur le diagramme HR, elle va « monter » le long de la branche des géantes (c'est à dire que sa température effective va baisser en même temps que son rayon va augmenter suffisamment pour faire croître la luminosité). Une fois arrivée en haut de la branche des géantes, la fusion de l'Hélium au cœur va s'allumer. L'étoile va « redescendre » (contraction et réchauffement de la surface).

La fusion de l'hélium va alors produire du carbone et de l'oxygène d'abord dans le cœur (l'étoile garde alors une luminosité presque constante dans le bas de la zone des géantes) puis en couche (ce qui va de nouveau faire « monter » l'étoile dans le diagramme HR le long de ce que l'on appelle la branche asymptotique).


Nébuleuses planétaires et naines blanches

Animation montrant la nébuleuse planétaire dite de l'œil de Chat (NGC 6543).

Arrivée en haut de la branche asymptotique, l'étoile a perdu ses couches externes par l'effet des vents stellaires. La majeure partie de l'étoile est éjectée dans le milieu interstellaire sous forme de gaz enrichi. Le cœur de C et O est désolidarisé de l'enveloppe éjectée et se contracte et s'échauffe à luminosité constante. Cette phase est masquée (dans le domaine visible du spectre) par le gaz et les poussières éjectés. Lorsque sa température atteint environ 10.000 K, le flux UV devient intense et balaye et ionise les couches expulsées formant une nébuleuse planétaire.

Le cœur continue de se contracter mais la masse n'est pas suffisante pour atteindre la température de fusion du carbone. Il continue de se contracter jusqu'à ce que la pression de dégénérescence des électrons s'oppose à la gravité. On a alors formé une naine blanche de C et O. La naine blanche n'a plus de source d'énergie et continue à rayonner en se refroidissant. Sa température diminue inexorablement.


Évolution des étoiles massives

presupenova.gif
Structure dite en «pelure d'oignon» d'une supergéante juste avant l'effondrement du cœur de fer et l'explosion de la supernova.
Crédit : Astrophysique sur Mesure / Noël Robichon et Gilles Bessou

À partir de la séquence principale, des éléments de plus en plus massifs fusionnent au cœur de l'étoile. Les éléments moins massifs continuent de fusionner en couches enrichissant les couches plus profonde en produits de fusion. De forts vents stellaires sont également observés. Finalement, le noyau de fer dépasse la masse limite de Chandrasekhar et s'effondre. Le vide créé aspire la matière de l'étoile qui rebondit et crée une onde de choc qui explulse violemment toutes les couches externes : c'est la supernova de type II.

Le résidu du cœur de fer effondré forme une étoile à neutrons ou un trou noir selon sa masse. Si elle inférieure à 3 masses solaires environ, la force nucléaire forte s'oppose à la gravité (la densité dans une étoile à neutrons est en effet de l'ordre de la densité d'un noyau atomique). Sinon, aucune force ne peut s'opposer à la gravitation et l'on a un trou noir.

État Température (K) Densité (g/cm3) Durée
Fusion de l 'Hydrogène 4.107 5 7.106 ans
Fusion de l'Hélium 2.108 700 5.105 ans
Fusion du Carbone 6.108 2.105 600 ans
Fusion de l 'Oxygène 1,5.109 107 6 mois
Fusion du Silicium 2,7.109 3.107 1 jour
Effondrement du cœur 5,4.109 3.109 1/4 seconde
Rebond 1,3.1010 4.1014 qqs millisecondes
Explosive environ 109 variable 10 secondes

Supernovae

Nous venons de voir ce qu'il advient d'une étoile massive en fin de vie : une supernova de type II. Il existe un autre type de supernovae, les supernovae de type Ia, qui ont une cause différente.

Comme nous l'avons déjà vu, une grande proportion des étoiles vivent en couple. Lorsque les deux masses sont différentes, la plus massive peut devenir une naine blanche de C/O tandis que son compagnon est encore sur la séquence principale.

Lorsque la secondaire devient géante, ses couches externes peuvent être accrétées par la naine blanche qui acquiert de la masse. Si le taux d 'accrétion est suffisamment grand, la masse atteint la masse limite de Chandrasekhar (1,4 masse solaire) et l'étoile finit par exploser en fusionnant son carbone, son oxygène … jusqu 'à former des éléments du pic du fer. Contrairement à une SNII, aucun débris ne subsiste et la totalité des éléments produits vont enrichir le milieu interstellaire.

Le tableau suivant donne les caractéristiques des supernovae de types Ia et II.

Type de Supernova Thermonucléaire (Type Ia) Effondrement du cœur (Type II)
Luminosité Maximum 3.109 Soleils (MB = -19.5) quelques 108 Soleils (MB = -18.5 +/- 1)
Spectre Pas de raies d 'hydrogène Raies de nombreux métaux raies d 'hydrogène + spectre continu
Emplacements systèmes stellaires vieux (amas globulaires, bulbe galactique, galaxies elliptiques) systèmes stellaires jeunes (amas ouverts jeunes, régions de formation d 'étoiles, galaxies spirales)
Étoile précurseur Naine blanche dans un système binaire Étoile massive
Mécanisme déclencheur Transfert de masse du compagnon Effondrement du cœur de Fer
Mécanisme de l 'explosion explosion thermonucléaire du cœur carbone/oxygène qui fusionne pour former du fer Onde de choc de rebond de la surface de l 'étoile à neutrons : neutrinos
Résidu rien ! étoile à neutrons ou trou noir
Débris expulsés éléments du pic du fer (principalement du fer) Tous types d 'éléments lourds (principalement de l 'oxygène)

Naines blanches, étoiles à neutrons et trous noirs

Voici un tableau qui récapitule quelques propriétés des résidus stellaires.

Objet Taille Masse Densité
Naine blanche environ celle de la Terre de l'ordre de celle du Soleil (mais inférieure à 1,4 fois sa masse). 1 tonne/cm3
Étoile à neutrons une dizaine de kilomètres entre 1,4 fois et 3 fois la masse du Soleil 109 tonnes/cm3
Trou noir inconnue mais on ne peut rien « voir » à l'intérieur de l'« horizon » du trou noir qui vaut quelques kilomètres plus grande que 3 fois la masse du Soleil inconnue mais forcément plus grande que celle d'une étoile à neutrons en moyenne

résumé de l'évolution stellaire

Voici un récapitulatif des phases d'évolution stellaire en fonction de la masse initiale de l'étoile.

M_étoile < unité(0,07;M_soleil) La température centrale de l'étoile est inférieure à la température de fusion de l'hydrogène. L'objet est une étoile avortée : une naine brune.
unité(0,07;M_soleil)<M_étoile<unité(0,5;M_soleil) L'hydrogène fusionne en hélium lorsque l 'étoile est sur la séquence principale mais, ensuite, la température centrale de l'étoile est inférieure à la température de fusion de l'hélium. L'étoile finit en nébuleuse planétaire avec formation au centre d'une naine blanche d 'hélium. Il faut tout de même noter que le temps d 'évolution sur la séquence principale est supérieur à l 'âge de l 'Univers et que cette évolution est hypothétique (aucune naine blanche d'hélium ne peut encore être observée).
unité(0,5;M_soleil)<M_étoile<unité(7;M_soleil) Fusion de l 'hydrogène, puis de l 'hélium. Ensuite la température centrale de l'étoile est inférieure à la température de fusion du carbone. L'étoile finit en nébuleuse planétaire avec formation au centre d'une naine blanche de carbone et d'oxygène.
M_étoile>unité(8;M_soleil) Fusion de l'hydrogène sur la séquence principale puis fusion de l'hélium, puis du carbone, puis de l'oxygène... lors de la phase de supergéante rouge. L 'étoile finit par avoir une structure en pelure d 'oignon avec un cœur de fer entourés d 'éléments de plus en plus légers en train de fusionner. L'étoile finit par exploser en supernova de type II.
si unité(8;M_soleil)<M_étoile<unité(25;M_soleil) Le résidu de la supernova donne une étoile à neutrons (éventuellement observable sous forme de pulsar)
si M_étoile>unité(25;M_soleil) Le résidu de la supernova donne un trou noir de masse stellaire.

Exoplanètes

Auteur: Jean Schneider

Introduction

introductionIntroduction

Puisque le Soleil est une étoile comme les autres, il est naturel de se demander si celles-ci sont entourées d'un cortège planétaire comme l'est notre astre du jour. Si elles existent, à quoi ressemblent ces planètes ? Sont-elles semblables aux planètes du système solaire ou bien sont-elles très différentes ? Enfin, on peut se poser la question excitante de savoir si sur certaines de ces "exoplanètes" peut se développer une forme de vie.

Nous vivons une époque extraordinaire où l'on peut commencer à donner une réponse scientifique à ces questions.

Le présent chapitre fait le point sur l'ensemble de ces questions, depuis les récentes découvertes aux perspectives futures jusque dans les années 2020 - 2030.


Définition d'une planète

Rôle de l'énergie nucléaire interne

Une planète se distingue d'une étoile essentiellement par le fait qu'elle n'a pas de source d'énergie interne durable sur des milliards d'années. Une telle source durable d'énergie ne peut être que d'origine nucléaire. Une planète est donc un corps sans énergie nucléaire interne. Les calculs montrent que les réactions thermonucléaires ne peuvent s'amorcer qu'au-dessus environ 13 fois la masse de Jupiter. Cette valeur fixe donc la limite au-dessus de laquelle un astre ne peut plus, selon la présente définition, être appelé "planète".

Scenarii de formation

Une autre différence entre une étoile et une planète est la manière dont elle se forme. Une étoile se forme par effondrement d'un nuage de gaz, alors que généralement, une planète se forme par condensation des particules de silicates ("poussières") et de glace dans un disque ("protoplanétaire") de matériaux divers qui est en orbite autour d'une étoile.

Les deux définitions précédentes conduisent à peu près au même résultat : une exoplanète est un corps de masse maximum environ 13 masses de Jupiter en orbite autour d'une étoile. Toutefois, il y a des exceptions à cette coïncidence :

Planètes plus massives que 13 Jupiters

Rien n'empêche que certaines planètes commencent, au cours de leur formation, par être moins massives que 13 fois Jupiter et qu'elles "grossissent" jusqu'à atteindre une masse supérieure à cette limite.

Planètes flottantes

Rien n'empêche que certains astres se forment par effondrement d'un nuage de gaz et de poussières mais n'atteignent pas la masse limite de 13 Jupiter. Ce sont des planètes selon la première définition, mais elles ne sont pas en orbite autour d'une étoile. On les appelle planètes flottantes.


Pourquoi chercher les exoplanètes ?

Première motivation : planétologie comparée

L'exploration du système solaire a montré à quel point les planètes de notre système planétaire diffèrent entre elles ; Il est donc intéressant de voir comment cette diversité se manifeste dans d'autres systèmes planétaires. On peut se poser de nombreuses questions à ce sujet :

De plus, il sera très intéressant de voir comment ces propriétés sont corrélées au type de l'étoile "parente", à sa position dans la Galaxie...

Une motivation à long terme : la recherche de vie

Une autre motivation, plus profonde, est de chercher à terme s'il peut y avoir une forme de vie dans certaines exoplanètes.


Méthodes de détection des exoplanètes

Auteur: Philippe Thébault

Méthodes de détection directe

Auteur: Philippe Thébault

Introduction

introductionIntroduction

Détecter une exoplanète, beaucoup moins lumineuse que son étoile et de plus extrêment près d'elle, vu depuis la Terre, est une tâche extrêmement difficile. Plusieurs méthodes ont cependant été proposées pour réaliser cet exploit, et la plupart d'entre elles marchent ! Nous allons ici présenter les principales, en ne brossant pour chacune d'elle que les grandes lignes, en commençant par les techniques les plus "naturelles" (imagerie directe) et en allant vers les méthodes de plus en plus "tarabiscotées".


Imagerie directe : une méthode intuitive

La méthode la plus naturelle à laquelle on pourrait penser a priori est celle de l'imagerie directe, à savoir essayer de détecter, sur une image, la faible lueur d'une planète à côté de son étoile parente. Cette méthode se heurte cependant à deux obstacles majeurs :

  1. L'éclat de la planète est extrêmement faible par rapport à celui de l'étoile
  2. A la distance où on observe le système, la planète va se trouver extrêmement proche de l'étoile sur l'image.

La combinaison de ces deux effets va faire que la planète risque d'être complètement noyée dans le halo de lumière de l'étoile. En raison de ces difficultés, la détection directe de planètes a longtemps été hors de portée, et c'est par d'autres méthodes que les premières exoplanètes ont été découvertes. Mais les techniques d'observation ont aujourd'hui suffisamment progressé pour rendre l'imagerie directe de planètes enfin possible. Et à ce jour, une trentaine d'exoplanètes ont été détectées par cette méthode. (voir le nombre actualisé de planètes détectées sur le site exoplanet.eu)

Nous allons dans ce chapitre voir tout d'abord plus en détail pourquoi l'observation directe est si difficile, avant de nous pencher sur les différentes techniques d'observation et les premiers résultats, spectaculaires, qui ont été obtenus.

Il y a deux régimes différents par lesquels on peut recevoir la lumière émanant d'une planète :

images/fluxplanete.png
Comparaison entre le spectre du Soleil et celui de 4 planètes du système solaire, ainsi que celui d'un "Jupiter chaud" (S.Seager, 2010). Les spectres planétaires montrent les deux types d'émission, le flux réfléchi à gauche et l'émission thermique à droite.
Crédit : S. Seager et A.Boccaletti (2010)

Sur la figure, on voit que le spectre réfléchi est prépondérant aux longueurs d'onde visibles. Aux plus grandes longueurs d'onde, l'émission thermique de la planète l'emporte sur le flux réfléchi. Plus la planète est proche de l'étoile, donc chaude, plus la transition entre les deux régimes se fait à petite longueur d'onde.


Imagerie directe : une méthode intuitive mais difficile

Difficulté d'une observation directe : Flux réfléchi - Flux thermique

Pour ces deux régimes, le paramètre crucial pour l'observation d'une exoplanète est le rapport entre le flux lumineux et celui de son étoile. Ce rapport est toujours très petit, mais sa valeur peut cependant fortement varier en fonction de la taille de la planète et de sa distance à l'étoile, ainsi que du régime (réfléchi ou thermique) dans lequel on observe.

Pour le flux stellaire réfléchi par la planète, ce rapport vaut, pour toutes les longueurs d'onde :

(A/4) *(R_(pl)/a)^2 *phi(t)

où A est l'albédo (pouvoir réflecteur) de la planète et phi(t) un "facteur de phase" qui indique la portion relative de la surface éclairée de la planète visible par l'observateur (analogue aux phases de la Lune ou de Vénus). R_(pl) est le rayon de la planète et a sa distance à l'étoile.

L'albédo dépend plus ou moins de la longueur d'onde en fonction du type et des conditions physiques de la planète.

Le flux thermique dépend quant à lui de la température de la planète. Si l'on néglige les sources de chaleur interne, cette température est fournie par le flux incident de l'étoile qui chauffe la planète. Elle est donnée par :

T_(pl)= racine(R_(étoile)/(2*a))*(1-A)^slash(1;4)*S

où S est un facteur caractérisant l'effet de serre. Ce dernier mesure la proportion du rayonnement de la planète qui ne peut s'en échapper car absorbé par son atmosphère. Le flux thermique a un spectre donné par la loi de Planck qui dépend de la température.

Spectre du corps noir application.png

Le rapport de flux thermique planète/étoile est alors très dépendant de la longueur d'onde :

(R_(pl)/a)^2 *(1/(1-exp(-h*c/(lambda * k*T))))

On remarque que, aussi bien dans le régime thermique que dans le régime réfléchi le rapport de flux planète/étoile est extrêmement faible. Comme par ailleurs la planète est, vue par l'observateur, très proche de son étoile, ce dernier est "ébloui" par l'étoile au détriment de la planète. Ceci illustre l'extrême difficulté de l'observation directe d'exoplanètes.

La réponse à cet inconvénient consiste à amoindrir fortement le flux de l'étoile sans amoindrir celui de la planète. Il y a pour cela deux techniques : la coronographie et l'extinction interférométrique de l'étoile.


Exercice : flux Terre vs Soleil

exerciceRapport de flux Terre/Soleil

Difficulté :   

Question 1)

Quel est le rapport de flux réfléchi Terre/Soleil sachant que l'albédo de la Terre vaut 0.4 et phi(t)=0.5 ?


Imagerie directe : premières détections

Le cas le plus favorable pour l'observation directe est celui d'une planète loin de son étoile, pour qu'elle sorte du halo de celle-ci, et qui soit de plus de grande taille et très chaude afin que son flux thermique soit élevé. Ce cas idéal est malheureusement difficile à trouver, car en principe plus une planète est loin de son étoile, plus elle est froide. Par exemple, Jupiter, qui a une surface 100 fois plus grande que celle de la Terre, n'a pas un flux 100 fois plus grand du fait de sa température de surface beaucoup plus faible.

Il existe cependant un type de systèmes planétaires pour lesquels on peut trouver ce cas idéal d'une planète lointaine et chaude, à savoir les systèmes jeunes, pour lesquels les planètes conservent encore une grande partie de l'énergie thermique emmagasinée lors de leur formation. On pense ainsi que Jupiter, lorsqu'il était âgé de seulement 100 millions d'années, était beaucoup plus chaud qu'aujourd'hui et environ 1000 fois plus lumineux ! C'est donc vers l'observation de tels systèmes jeunes que se sont tournés les efforts de détection directe... et ces efforts ont enfin payé. Après la première image directe obtenue en 2004, plus d'une vingtaine de détections ont eu lieu depuis. Les deux résultats les plus spectaculaires étant sans doute le système autour de l'étoile HR8799, avec pas moins de 4 planètes détectées, et la découverte de la planète autour de β Pictoris, dont l'existence avait été prévue depuis plus de 10 ans par l'observation du disque de poussière autour de cette étoile.

Le système planétaire autour de HR8799
images/HR8799crop.jpg
Image directe des 4 planètes en orbite autour de l'étoile HR8799. Le petit trait horizontal donne l'échelle : 20 AU (20 "unités astronomiques" correspond environ à la distance Soleil-Uranus. Cette image a été obtenue avec le télescope géant Keck, en masquant la lumière de l'étoile centrale avec un coronographe (voir page suivante).
Crédit : C.Marois & Keck Observatory

Il faut souligner que, même pour ces cas idéaux de planètes externes et chaudes, la détection directe relève toujours de la prouesse technique, tout le problème étant de faire ressortir la faible luminosité de la planète juste à côté de son éblouissante étoile hôte.


Imagerie directe : méthodes

Pour résoudre le problème majeur de l'imagerie directe, à savoir faire ressortir la faible lumière de la planète à côté d'une étoile infiniment plus brillante, il faut arriver à masquer la lumière de l'étoile sans toucher à celle de la planète. Pour celà, on utilise 2 techniques : la choronographie et l'extinction interférométrique.

Coronographie

Cette technique est sans doute la plus intuitive. Schématiquement, elle consiste à cacher l'étoile par une pastille (masque coronographique) dans le plan de l'image produite par le télescope. Elle a permis, dès les années 1980, de détecter des disques de poussières autour de nombreuses étoiles, et elle est aujourd'hui utilisée avec succès pour la détection d'exoplanètes (voir page précédente).

images/nulling.png
Schéma du montage optique qui fait interférer destructivement une étoile avec elle-même, ce qui permet d'augmenter le contraste planète/étoile.
Crédit : Jean Schneider

Extinction interférométrique

Une technique plus sophistiquée pour amoindrir le flux d'une étoile est d'utiliser un interféromètre constitué d'au moins 2 miroirs. On fait interférer "négativement" le flux stellaire passant par l'un des miroirs avec celui passant par un autre miroir. Cette interférence destructive éteint l'étoile, et on peut arranger la configuration de l'interféromètre pour que le flux issu de la planète ne soit pas éteint. En effet, comme les rayons lumineux issus de la planète viennent d'une direction légèrement différente de celle de l'étoile, le chemin parcouru par ces rayons n'est pas le même.


Méthodes de détection indirecte

Auteur: Philippe Thébault

Méthodes dynamiques : principe

Au vu de la difficulté d'observer directement une exoplanète, d'autres méthodes peuvent être envisagées, qui vont chercher à observer le mouvement induit par la planète sur son étoile.

Mouvement d'une étoile dû à une planète

On présente souvent les lois de Kepler en disant que l'orbite d'une planète est une ellipse dont son étoile occupe l'un des foyers. Mais l'on pourrait tout aussi bien dire que le couple étoile-planète tourne autour du centre de gravité de ce système. Certes, la masse de l'étoile étant beaucoup plus grande que celle de la planète, ce centre de gravité sera très proche du centre de l'étoile, mais pas tout à fait. Et ce "pas tout à fait" a ici une importance cruciale, car il fait que l'étoile a elle aussi un mouvement, décrivant une petite orbite autour du centre de gravité de son système.

Ainsi, pour une planète de masse Mpl dont l'orbite autour de son étoile de masse M* est une ellipse de demi-grand axe a, le mouvement de l'étoile autour du centre de gravité du système est une ellipse de demi-grand axe a*  :

a_(étoile)=a*(M_(pl)/M_(étoile))

Dans le cas simplifié où la planète est sur orbite circulaire, a est constant et il en est donc de même de a* de sorte que l'étoile suit une trajectoire circulaire autour du centre de masse.

mouvement orbital d'un couple étoile-planète
images/Planet_reflex_200.gif
Mouvements respectifs d'une étoile et d'une planète moins massive autour du centre de gravité du système étoile-planète
Crédit : (Rtn20)

La période orbitale de l'étoile sera la même que celle de la planète et est donnée par la 3ème loi de Kepler :

P=2*pi*racine(a^3/G*(M_étoile+M_pl))

G est la constante de la gravitation, G=6,6742*10^(-11) N*m^(2)*kg^(-2)

Du fait de la faible masse de la planète, le mouvement de l'étoile est très limité, mais il peut cependant s'observer, et ce de trois manières différentes :


Méthodes dynamiques : vitesses radiales

Cette méthode, même si elle n'est pas la plus simple dans son principe, est la première à avoir permis la découverte d'une exoplanète autour d'une étoile de type solaire en 1995. Elle a été pendant plusieurs années la méthode par laquelle la quasi-totalité des exoplanètes était trouvée. Même si aujourd'hui beaucoup d'autres méthodes moissonnent avec succès de nouvelles planètes, il n'en reste pas moins que plus de 2/3 des exoplanètes découvertes à ce jour l'ont été par la méthode des vitesses radiales.

Principe de la méthode
images/exoplanet_spectro.gif
Effet Doppler sur la lumière provenant d'une étoile perturbée par une planète. La lumière est décalée vers le bleu (courtes longueurs d'onde) lorsque l'étoile se rapproche de nous, et vers le rouge quand elle s'éloigne. La courbe en haut à droite donne la courbe de vitesse radiale de l'étoile que l'on peut déduire de son décalage Doppler.
Crédit : Observatoire de Paris/ASM Emmanuel Pécontal

Le principe de cette méthode est de détecter le mouvement d'une étoile en observant l'effet Doppler sur la lumière qui nous en provient. Quand l'étoile a un mouvement qui la fait se rapprocher de nous, sa lumière est décalée vers le bleu, alors qu'elle est décalée vers le rouge quand elle s'éloigne. L'amplitude de ces décalages est proportionnelle à la vitesse de l'étoile. Dans le cas simplifié où l'orbite de l'étoile (due à une planète) est parfaitement circulaire, la vitesse VR à laquelle elle s'éloigne ou se rapproche de nous varie en fonction du temps suivant :

(V_R)(t)=K*sin(2*pi*t/P)

où K est l'amplitude de la variation de (V_R)(t), donnée par : K=(M_(pl)*sin(i)/M_(étoile))*racine(GM_(étoile)/a)

où i est l'angle entre la ligne de visée de l'observateur et la perpendiculaire au plan de l'orbite de la planète. L'effet Doppler est maximum quand cet angle est égal à 90°, c'est-à-dire quand on regarde l'orbite "par la tranche". Quand i est nul, la vitesse de l'étoile n'a pas de composante radiale. Dans ce cas, même si une planète est présente, cette méthode ne permet pas de la détecter.

L'amplitude de l'effet Doppler induit par le mouvement de l'étoile est de l'ordre de K/c, où c est la vitesse de la lumière, c'est-à-dire de quelques m/s (la vitesse d'un homme qui court !) divisés par 300 000 km/s ! (voir ce petit exercice, pour calculer cet effet pour la Terre et pour Jupiter). Il s'agit donc de mesurer des effets extrêmements fins. A l'heure actuelle, on peut détecter des vitesses radiales de l'ordre de 0.5m/s, c'est-à-dire qu'une "exo Terre" est presque à notre portée.


Méthodes dynamiques : vitesses radiales (suite)

On voit que cette méthode favorise la détection de planètes massives et proches de leur étoile, car l'amplitude K est directement proportionnelle à Mpl et inversement proportionnelle à racine(a). Et de fait, les premières planètes détectées par effet Doppler étaient des "Jupiter chaud", c'est-à-dire des planètes de la masse de Jupiter mais situées extrêmement près de leur étoile (plus près que Mercure). Le plus célèbre de ces Jupiter chaud est la planète 51 Pégase b, la toute première à avoir été détectée.

Courbe de vitesse de l'étoile 51 Pegase (1995)
51peg.gif
Cette courbe est historique, car elle correspond à la première détection d'une exoplanète autour d'une étoile de type solaire. Cette observation a été réalisée à l'Observatoire de Haute-Provence, par Michel Mayor et Didier Queloz, de l'Observatoire de Genève.
Crédit : (M.Mayor & D.Queloz)

Depuis 1995, quantité d'autres exoplanètes ont été découvertes par cette méthode. Et si initiallement la plupart d'entre elles étaient des Jupiter chaud (car ce sont les plus faciles à détecter), celles découvertes aujourd'hui sont de tout type : "Jupiter froid", "Neptune-chaud", "super-Terre", etc. Voir l'Encyclopédie des planètes extrasolaires pour une liste actualisée de toutes les exoplanètes découvertes par effet Doppler.


Exercice : vitesses radiales

exerciceApplication numérique Vitesse Radiale

Difficulté : ☆☆☆  

Question 1)

Sachant que l'Unité Astronomique (UA) vaut = 1,5*10^(11)m, et que la masse du Soleil est de 1,989*10^(30)kg, quelle est l'amplitude K de variation de la vitesse d'une étoile de 1 masse solaire pour :

  • Une masse de Jupiter (1,9*10^(27) kg) à 5 UA sur une orbite inclinée de 60 degrés.
  • Pour une Terre (5,97*10^(24) kg) à 1 UA sur une orbite inclinée de 90 degrés.
  • Pour une masse de Jupiter à 0,05 UA pour une orbite inclinée de 10 degrés.


Autres méthodes dynamiques

Astrométrie

L'astrométrie consiste à mesurer un autre effet induit par la planète sur son étoile, non plus ses variations de vitesse (comme pour la méthode Doppler), mais les variations de sa position apparente sur le fond du ciel par rapport aux autres étoiles.

Mouvement astrométrique du Soleil vu à 10 parsecs
astrometric.jpg
Mouvement de notre étoile induit par son cortège de planètes, vu depuis une distance de 10 pc.

Cette méthode relève vraiment du défi, car par exemple, le mouvement induit par Jupiter sur le Soleil vu depuis l'étoile la plus proche (4 années-lumière) n'est que de 0.004" (environ 0.000001 degré !), soit beaucoup moins que la résolution des télescopes au sol les plus performants. La seule solution est de réaliser des observations ultra-précises sur des intervales de temps très longs, ou bien d'utiliser des télescopes spatiaux.

Cette méthode n'a, pour l'instant, pas encore porté ses fruits : elle a permis l'observation de planètes déjà détectées par d'autres méthodes mais encore pas la découverte de nouveaux objets. Cela devrait changer avec le lancement prochain de l'observatoire spatial européen GAIA.

Chronométrage

On peut aussi mesurer une autre conséquence indirecte de la présence d'une planète : la variation de la distance entre l'étoile et l'observateur. La meilleure méthode pour mesurer cette variation est de mesurer la variation Delta*T de temps que met la lumière à nous parvenir de l'étoile. A chaque instant cette variation est donnée par :

Delta*T(t)=a_(étoile)*sin(2*pi*t/P)*sin(i)

Pour mesurer cette variation le plus simple est de mesurer les variations de temps d'arrivée d'un signal périodique. Delta *T est alors le retard ou l'avance de l'instant d'arrivée du signal par rapport à un instant "nominal" (sans perturbation). Tout le problème est d'avoir à sa dispostion un système stellaire possédant un tel signal périodique. On connait 2 types de systèmes possédants de tels signaux :


Transits planétaires

C'est la méthode qui a actuellement le "vent en poupe". Son principe est simple : si on a la chance d'observer un système étoile-planète exactement "par la tranche", alors on peut assister à un transit de la planète devant son étoile. Lors de ce transit une petite fraction de la lumière stellaire est cachée par la planète et donc le signal lumineux en provenance de l'étoile chute légèrement le temps du transit (voir Figure).

Simulation (animation)
images/anim-transit-deeg.gif
Crédit : Hans Deeg (Instituto de Astrofisica de Canarias)

La chute de luminosité est de l'ordre de (Rpl/R*)2 , où Rpl est le rayon de la planète et R* celui de l'étoile. L'effet est certes petit, mais il est bien plus important que le rapport de luminosité directe entre la planète et l'étoile, qui est lui de l'ordre de (Rpl/d)2 , où d est cette fois-ci la distance de la planète à l'étoile (voir exercice page suivante).


Exercice : méthode des transits (1)

exerciceEffet d'un transit Terre/Soleil et Jupiter/Soleil

Difficulté :   

Question 1)

Quelle est la chute de luminosité relative induite par la Terre (rayon de 6400 km) sur le Soleil (rayon de 700 000 km) si on pouvait l'observer en transit ?

Question 2)

Même question pour un transit de Jupiter (rayon polaire de 66000 km et rayon équatorial de 71000 km).


Transits planétaires (suite)

Exemple de courbe de lumière
OGLE-TR-56.jpg
courbe de lumière autour de l'étoile OGLE-TR-56
Crédit : Groupe Ogle

La principale difficulté de cette méthode n'est pas tant l'amplitude de l'effet à mesurer que le fait qu'il faut une situation très favorable et a priori peu probable pour voir un transit, à savoir être exactement aligné avec l'orbite planétaire (voir exercice page suivante). De ce fait, la solution est de réaliser un très grand nombre d'observations d'étoiles, pour être sûr d'avoir au moins une chance d'être dans une configuration favorable.

Le premier transit planétaire a été observé en 1999, et depuis lors, plus de 240 planètes ont été observées par cette méthode. Le rythme de détection s'est très fortement accéléré ces dernières années, avec l'arrivée du télescope spatial français COROT et du télescope KEPLER de la NASA, tous deux dédiés à ce type d'observations.


Exercice : méthode des transits (2)

exerciceProbabilité d'un transit

Difficulté : ☆☆  

Question 1)

Vous êtes sur la lointaine planète RX92 et vous cherchez des exoplanètes autour du Soleil par la méthode des transits. On suppose que les planètes sont des points sur le disque du Soleil, c’est à dire qu’on ne prend pas en compte leur taille. Nous allons calculer quelle est la probabilité que, vue de RX92, une planète soit détectable par transit, c’est à dire qu’elle passe devant le Soleil (figure du haut).

Pour cela, regardons le système vu de côté au moment où la planète est « au milieu du Soleil » (dessin du milieu). La condition pour que le transit soit visible est que, à ce moment-là, le disque de la planète se projette sur le disque du Soleil.

Transits vus de RX92
transit.png

Dans le cas limite, c’est à dire quand la planète passe juste « au bord » du Soleil, on a le triangle rectangle de la figure du bas où l’hypoténuse mesure a_pl(rayon de l’orbite de la planète), et où le côté opposé mesure R_S(rayon du Soleil). On a alors : sin(alpha_lim)=R_S/a_plalpha_lim est l’angle entre la ligne de visée et le plan de l’orbite de la planète autour du Soleil.

Comme alpha_lim est très petit, sin(alpha_lim)~=alpha_lim, où l'angle alpha est exprimé en radians.

Si, pour une planète donnée du Soleil, l'angle entre le plan de son orbite et la ligne de visée, appelons-le alpha, est plus petit que alpha_lim, les transits sont détectables de RX92.

L'angle alpha peut prendre toutes les valeurs entre 0 et pi/2 radians, mais seules les valeurs entre 0 et alpha_lim donnent un transit détectable. La probabilité de transits détectables est donc égale au rapport alpha_lim/pi/2=(2*R_S)/(pi*a_pl)

Quelle est la probabilité d'observer les transits de la Terre devant le Soleil?

Même question pour Jupiter.


Lentilles gravitationnelles

C'est une application de la théorie d'Einstein de la gravitation. Celle-ci prédit que lorsqu'un corps de masse M (déflecteur) est à une distance b projetée sur le ciel ("paramètre d'impact") de la ligne de visée d'une source lointaine, l'éclat apparent de cette dernière est amplifié par un facteur A=racine(M_étoile/b). Lorsque la source et le déflecteur se déplacent l'un par rapport à l'autre sur le plan du ciel, le paramètre d'impact b varie au cours du temps. Il en est donc de même du facteur d'amplification qui devient une fonction du temps A(t).

Principe d'une détection par lentille gravitationnelle
images/lentille.gif
Saut de luminosité dû à un phénomène de lentille gravitationnelle. Une étoile lointaine passe exactement derrière une autre étoile autour de laquelle orbite une planète. L'étoile proche focalise la lumière de l'étoile lointaine, ce qui crée une augmentation de la luminosité. La planète focalise aussi la lumière de l'étoile lointaine, ce qui crée les deux pics de luminosité visibles avant le maximum.
Crédit : Observatoire de Paris / UFE

La probabilité d'observer un tel évènement est très faible. De ce fait, cette méthode de l'extrême nécessite d'observer un large champ stellaire pendant très longtemps pour avoir une chance d'assister à un phénomène de lentille.

Cette méthode de l'extrême a porté ses fruits : plus de 15 planètes ont été ainsi détectées à ce jour.


Comment détecter une forme de vie ?


Que cherche-t-on exactement ?

Un peu de philosophie :

La notion de vie est fondamentalement subjective : nous déclarons vivant un "objet" (comme on dit "objet d'attention" ou "objet d'amour") avec lequel nous pouvons avoir des relations riches et intéressantes. Parmi ces relations, il y a le fait de pouvoir projeter sur lui des comportements qui nous sont propres comme l'autonomie. Il n'y a donc strictement parlant pas d'organisme vivant mais seulement des relations vivantes à des organismes.

Cela dit, c'est une constatation empirique que tout objet avec lequel nous entretenons une relation vivante a une architecture physico-chimique complexe (molécules, cellules, organes, ...). Aucune théorie philosophique, psychologique ou biochimique n'a jamais expliqué cette corrélation, on ne peut que la constater. Elle permet de faire le chemin inverse et d'attribuer, à titre d'hypothèse méthodologique, le caractère de biologiquement vivant à un objet dont l'architecture physico-chimique est complexe et présente des caractéristiques analogues à celles des organismes terriens. C'est la démarche suivie par les astronomes qui cherchent "la vie" en dehors de la Terre (exobiologie). Dans cette démarche, il s'agit alors de savoir quelles sont les caractéristiques que l'on va retenir. Ce choix est partiellement arbitraire.


La notion de zone habitable

Une fois admise la démarche biochimique décrite précédemment, elle permet de préciser dans quel type de planète on peut s'attendre à rencontrer une vie biologique. Pour que cette dernière puisse prospérer, un certain nombre de conditions sont requises. Ces conditions sont généralement admises par les astronomes, mais ils restent ouverts à des écarts et des variantes.

La condition principale est qu'il faut un milieu liquide car il favorise énormément le transport des matériaux nécessaires à une activité biochimique.

L'eau est un liquide à priori prometteur car c'est l'un des plus abondants de l'univers (les autres étant par exemple l'alcool ou le méthane et l'ammoniaque qui peuvent également être liquides, quoique à des températures beaucoup plus basses). De plus elle a l'avantage d'être un des meilleurs solvants ce qui favorise les réactions et échanges biochimiques. On est ainsi conduit à favoriser les circonstances permettant la présence d'eau liquide.

Une autre condition universelle est qu'il faut, dans le cadre des concepts thermodynamiques traditionnels, une source d'énergie "noble" (c'est-à-dire sous forme non thermique) à entropie très basse. Elle doit par ailleurs être permanente car son interruption conduirait à la destruction des organismes. La meilleure source d'énergie permanente, abondante et de basse entropie connue à ce jour est le rayonnement des étoiles.

HZ.jpg
Distance de la zone habitable à l'étoile, en fonction du type stellaire.
Crédit : NASA

Le meilleur endroit identifié à ce jour où on trouve à la fois de l'eau liquide et une source permanente et intense de lumière est une planète située à une distance de son étoile telle que sa température est d'environ 300 K. De plus elle doit être suffisamment massive pour empêcher l'eau de s'échapper de la planète, mais pas trop sinon l'eau est confinée dans des couches profondes et sans lumière d'une atmosphère d'hydrogène (ce dernier point est toutefois sujet à discussion). On est ainsi conduit à chercher en priorité une vie biologique sur une planète de 1 à quelques masses terrestres située à une distance de 0,2 UA (pour les étoiles de type M) à 1,5 UA (pour les étoiles de type F) de son étoile (bien que des satellites de planètes géantes riches en eau et chauffés par effet de marée comme Europe, satellite de Jupiter, soient envisageables). Cette distance critique, dépendant du type d'étoile, définit ce qu'on appelle la zone d'habitabilité de l'étoile.


Comment chercher ?

Alors que dans le système solaire on peut envoyer des missions qui feront de l'analyse in situ voire du retour d'échantillons pour analyser la structure biochimique d'échantillons, dans le cas des exoplanètes on en est réduit à faire de la télédétection. Celle-ci peut a priori prendre plusieurs formes :

Il y a deux approches pour détecter une activité biologique dans le spectre d'une planète : l'analyse spectrale de sa surface et celle de son atmosphère.

images/veget.jpg
Pouvoir réflecteur de la végétation en fonction de la longueur d'onde. On voit que les plantes réfléchissent essentiellement dans l'infrarouge, et 7 fois moins dans le visible (du bleu au rouge).
Crédit : "Spectroscopy of Rocks and Minerals, and Principles of Spectroscopy" par Roger N. Clark. cf http://speclab.cr.usgs.gov/PAPERS.refl-mrs/refl4.html#section4.3

Végétation

Une approche directe consiste à chercher et à détecter directement des organismes sur la surface de la planète grâce à leurs propriétés spectrales. Un exemple est de chercher un analogue des caractéristiques spectrales d'une végétation qui révèlent un pouvoir réflecteur très renforcé au-dessus de 725 nm (ce qui fait que les plantes réfléchissent 60 fois plus de lumière dans l'infrarouge que dans le vert).

Oxygène-ozone

Au lieu de détecter directement le spectre de la lumière réfléchie par des organismes comme des plantes, on peut chercher à détecter des sous-produits non biologiques d'une activité biochimique. C'est le cas par exemple des gaz rejetés dans l'atmosphère comme l'oxygène (sous-produit de la photosynthèse) ou du méthane (sous-produit de la décomposition des organismes). D'ailleurs l'oxygène lui-même a comme sous-produit l'ozone que l'on peut également chercher à détecter.


Propriétés des exoplanètes


Diversité des observations et richesse des résultats


Les campagnes d'observation en cours

Il y a actuellement (juillet 2012) plus d'une centaine de programmes de recherche d'exoplanètes en cours ou en projet. Parmi les 90 projets qui utilisent des instruments au sol, plus de 20 ont déjà donné lieu à des détections. Parmi la vingtaine de projets spatiaux opérationnels ou en projet, 4 ont déjà donné des résultats, Corot et Kepler par la méthode des transits, le Hubble Space Telescope en astrométrie et le satellite infrarouge Spitzer qui détecte l'emission thermique de la planète en spectroscopie.

Les projets du sol privilégient aujourd'hui la technique des transits alors que la majorité des exoplanètes découvertes l'ont été par la méthode des Vitesses Radiales (VR). L'observation d'un transit aboutit à la détection de planète mais peut aussi donner des informations sur sa taille et la composition de son atmosphère. Au delà des techniques de VR et de transit, d'autres projets recherchent l'emission directe des planètes, soit en imagerie visible, millimétrique ou sub-millimétrique, soit en détection radio, soit avec de la photométrie, de la spectroscopie ou de la spectro-polarimétrie.

Quelques projets du sol recherchent des signatures d'exoplanètes par astrométrie ou micro-lentilles gravitationelles. Les projets de l'espace privilégient l'astrométrie et les techniques des transits mais exploitent aussi les fenêtres infrarouges, inaccessibles du sol, pour faire de la photométrie, de l'imagerie et de la spectroscopie.


Les planètes découvertes et leurs propriétés

Détection indirecte par vitesse radiale

A ce jour (juillet 2012) on a détecté plus de 770 planètes dont 475 par la méthode des vitesses radiales. Comme on l'a vu, celle-ci ne fournit que la période orbitale (d'où l'on peut déduire le demi-grand axe de l'orbite), l'excentricité de l'orbite et le produit (M_pl)*sin(i).

images/fg3.gif
Courbe de lumière du transit de HD 209458 mesurée par le télescope spatial Hubble.
Crédit : ApJ

Détection indirecte par transit

239 planètes ont été détectées par la méthode des transits dans 205 systèmes planétaires. Cette méthode donne la période orbitale, l'inclinaison de l'orbite (forcément voisine de 90°), le rayon de la planète et, lorsqu'on lui associe des mesures de vitesse radiale, sa masse. La connaissance de la masse et du rayon donne accès à la valeur de la densité qui permet de dire si la planète est plutôt rocheuse (densité de l'ordre de 5 grammes par centimètre cube), glacée (densité de l'ordre de 1 gramme par centimètre cube) ou gazeuse (densité inférieure à 1 gramme par centimètre cube).

En outre, on peut observer le spectre de l'étoile pendant le transit de la planète. L'atmosphère de la planète produit alors des raies d'absorption dans le spectre de l'étoile d'où l'on peut déduire la composition chimique de l'atmosphère.

img11.gif
Image directe de la planète 2M1207 b
Crédit : ESO
tres1_thermalemission.gif
Courbe de lumière du système planète-étoile pour la planète TrES-1, mesurée par le télescope infrarouge Spitzer. Quand la planète passe derrière l'étoile, sa contribution au flux total disparaît. Par différence, on déduit donc le flux issu de la planète.
Crédit : High Altitude Observatory Boulder Colorado

Détection directe

Mais le tournant le plus important depuis les premières détections indirectes est la détection de la lumière provenant directement d'une planète. C'est ce qui a pu être fait pour la planète très jeune (donc encore très chaude) 2M1207-3932 et pour HD 209458b et TrES-1. Ces deux dernières transitent périodiquement devant leur étoile ; il se produit donc un phénomène d'éclipse secondaire lorsque c'est l'étoile qui passe, une demi-période plus tard, devant la planète. C'est cette éclipse secondaire qui a été détectée, d'où l'on déduit par soustraction la quantité de flux (en l'occurrence thermique) émis par la planète.

Catalogue des planètes

Les propriétés des exoplanètes sont rassemblées dans ce catalogue régulièrement mis à jour.


Propriétés des exoplanètes


Nombre de planètes

De ces découvertes, on peut tirer quelques leçons intéressantes.

Voisinage du Soleil
Discovery.jpg
La plupart des méthodes utilisées ne permettent de détecter des planètes qu'autour des étoiles situées à moins de 300 années-lumière du Soleil.
Crédit : NASA

La proportion d'étoiles ayant au moins une planète

Un des principaux résultats de cette recherche est qu'une proportion importante d'étoiles possèdent au moins une planète, même s'il est difficile de quantifier cette proportion qui dépend de la région de la Galaxie et du type d'étoile. Entre 3 et 4.5% des étoiles de type solaire ont des planètes géantes de période inférieure à 100 jours (c'est-à-dire plus près de l'étoile que Mercure). Des planètes plus petites et plus loin de l'étoile sont beaucoup plus fréquentes et pourraient concerner 40% des étoiles dans le voisinage solaire (voir la figure). La méthode des micro-lentilles gravitationnelles, qui sonde des étoiles beaucoup plus loin dans la Galaxie, semble montrer qu'une étoile possède, en moyenne, 1.6 planètes entre 0.5 et 10 unités astronomiques. Il y aurait donc plus de planètes que d'étoiles dans la Galaxie.


Caractéristiques des orbites

Caractéristiques des orbites

Les paramètres orbitaux des exoplanètes révèlent des systèmes beaucoup plus chahutés que le système solaire, où les orbites des planètes sont bien circulaires, dans le même plan, avec une séparation claire entre les planètes terrestres situées près de l'étoile et les planètes géantes, plus éloignées du Soleil.

Orbites des exoplanètes
orbites-exoplanets.png
Orbites des exoplanètes : excentricité en fonction de la distance à l'étoile.
Crédit : Jean Schneider

Distances planète-étoile

Une grande proportion des planètes, notamment des planètes géantes, découvertes à ce jour sont beaucoup plus près (jusqu'à 100 fois) de leur étoile que ne l'est Jupiter du Soleil. Cela a constitué une grande surprise car la théorie prévoit qu'une planète géante doit se former à au moins 5 UA de son étoile. Cette disparité s'explique maintenant par le phénomène de "migration" : une fois qu'une planète commence à se former relativement loin de son étoile dans le disque protoplanétaire, un phénomène d'interaction gravitationnelle entre le disque et la planète en formation se produit. Elle a pour effet de freiner la planète qui du coup se rapproche de son étoile, migre, jusqu'à ce que l'interaction s'arrête. Ces planètes étant très proches de leur étoile, celle-ci les porte à une température élevée (jusqu'à 1200 K).

Excentricité des orbites

Une autre surprise a été de constater que la majorité des orbites planétaires sont assez ou très excentriques : elles forment des ellipses plus ou moins allongées au lieu d'être quasi circulaires comme dans le système solaire. On n'est pas sûr à ce jour de connaître l'explication de ce phénomène. Une explication pourrait être que, quand deux planètes migrent, elles le font à des vitesses différentes, et doivent alors forcément se perturber ou se rencontrer. Cette interaction se traduit par une augmentation des excentricités, voire par l'éjection d'une des deux planètes.


Exercice : Excentricités des orbites d'exoplanète

exerciceOrbites

Difficulté :   

Question 1)

Le rayon du Soleil est de 700 000 km. Est-ce qu'une planète tournant autour d'une étoile de type solaire et dont le demi grand-axe, a, est de 0,01 UA peut avoir une excentricité, e de 0,55 ? Pourquoi ? On rappelle que unité(1;UA)=unité(1,5*10^8;km)


Inclinaison des orbites d'exoplanètes

Inclinaison des orbites

Dans plusieurs systèmes planétaires, les planètes orbitent dans un même plan, comme c'est le cas dans le système solaire. Dans certains autres systèmes, les orbites des planètes sont inclinées les unes par rapport aux autres.

Les orbites de la plupart des planètes sont dans un plan perpendiculaire à l'axe de rotation de l'étoile. C'est la conséquence directe du processus de formation: Quand l'étoile se forme, le disque circumstellaire qui l'accompagne est perpendiculaire à son axe de rotation. Si les planètes se forment dans ce disque sans autre perturbation, elles vont garder une orbite perpendiculaire à l'axe de l'étoile.

La découverte de plusieurs planètes avec des orbites inclinées par rapport à l'axe de rotation de l'étoile, voire même sont rétrogrades, montre que les processus de formation ont parfois été plus agités.

Les configurations orbitales des exoplanètes sont donc très variées et nécessitent de diversifier les modèles de formation et d'évolution des systèmes planétaires.


Composition des planètes et des étoiles hôtes

Masse, composition et densité

Actuellement, à peu près la moitié des exoplanètes découvertes sont plus massives que 10 fois la masse de la Terre. Cependant, les planètes les plus massives sont évidemment les plus faciles à détecter. Avec l'augmentation de la sensibilité des instruments, il semble que les petites planètes sont beaucoup plus nombreuses que les grosses.

Plusieurs planètes rocheuses ont été découvertes. Ainsi COROT-7b a une densité largement supérieure à celle de la Terre et pourrait donc avoir un noyau métallique comme Mercure. A l'inverse, on a trouvé, pour plusieurs planètes, des rayons élevés qui se traduisent par des densités étonnamment basses que l'on ne sait pas encore expliquer.

La méthode des transits permet de séparer la lumière de l'étoile+planète de la lumière de l'étoile seule, obtenue quand la planète est derrière l'étoile. En faisant la différence entre ces deux flux, on obtient la lumière de la planète qui peut être étudiée en spectroscopie. C'est ainsi qu'on a trouvé de l'hydrogène, de l'oxygène, du sodium, de la vapeur d'eau et du dioxyde de carbone dans diverses planètes.

Mission EChO
transits.png
La mission de l'ESA EChO a pour projet l'étude de l'atmosphère des exoplanètes.
Crédit : ESA

Métallicité de l'étoile parente

Une observation intéressante est que les étoiles pour lesquelles on a trouvé une ou des planètes géantes, sont plus riches en éléments lourds (carbone, oxygène, fer, ...) que la moyenne des étoiles. Par contre les planètes plus petites ne semblent pas montrer de préférence pour les étoiles métalliques. On hésite encore sur l'explication à donner à cette corrélation. Elle peut être due soit au fait que l'étoile et son cortège planétaire sont issus d'un nuage moléculaire riche en éléments lourds, soit au fait que l'étoile a été enrichie en éléments lourds par la chute de planètes.


Planétologie Comparée

Auteur: Alain Doressoundiram et Raphael Moreno

Prérequis et résumé

prerequisPrérequis

Résumé

Dans ce cours, nous ferons de la planétologie comparée.

Nous explorerons les propriétés physiques et chimiques des corps du Système Solaire et montrerons qu'elles ne sont pas le fruit du hasard mais au contraire découlent de lois physiques relativement simples.

Nous décrirons la structure et l'échelle des distances dans le Système Solaire ainsi que la carte d'identité de chaque planète. Grâce à la moisson d'images ramenée par les sondes d'exploration planétaire, nous étudierons des vues saisissantes, précises et instructives des planètes, astéroïdes et comètes.


Introduction

introductionIntroduction

Qu'est ce que la planétologie comparée ?

Cela consiste à comparer les propriétés des planètes telluriques (c'est à dire Mercure, Vénus, la Terre, Mars) et mettre en évidence leurs similitudes et leurs différences. Nous appliquerons également cette analyse aux astéroïdes et comètes qui sont les briques élémentaires (planétésimaux) ayant servi à fabriquer ces planètes.

Pourquoi faire cette comparaison?

Vue globale des mondes de type terrestre
planetestelluriques.jpg
Comparaison des cinq mondes de type terrestre : Mercure, la Lune, Vénus, la Terre, Mars. Nous observons une très grande diversité des surfaces et des atmosphères.
Crédit : Astrophysique sur Mesure / Montage Alain Doressoundiram et Gilles Bessou à partir d'images NASA

Pour comprendre par exemple pourquoi Vénus (de même taille et de même masse que la Terre) est le siège d'un effet de serre emballé, avec une température au sol de 460°C, pourquoi sur Mars (qui est deux fois plus petite que la Terre) on observe des structures géologiques gigantesques, ou encore pourquoi la Lune est un astre mort alors que la Terre, sa très proche voisine déborde de vie. Autant de questions pour tenter de retracer l'histoire et l'évolution des autres planètes, afin de comprendre in fine les origines de la formation de notre propre Terre, son évolution et aussi son probable devenir.

Pour commencer, nous allons explorer le Système Solaire interne et analyser les propriétés physiques et chimiques des planètes telluriques.


Qu'est ce que le Système Solaire ?


Introduction

introductionIntroduction

Commençons avant toute chose par définir le Système Solaire.

Le Système Solaire est l'ensemble de l'espace gouverné par l'attraction gravitationnelle du soleil. Il comprend notamment :

definitionDéfinition

L'unité astronomique (UA) est, par convention le demi-grand axe de l'orbite de la Terre. Sa valeur est de 149,598 millions de kilomètres. Cette unité est surtout utilisée pour mesurer les distances dans le Système Solaire.

application.png


Formation des planètes

Les orbites des planètes sont à peu près dans un même plan (le plan de l'écliptique). C'est le résultat du processus de formation du Système Solaire qui est né à partir d'un nuage de gaz et de poussière qui s'est aplati au fur et à mesure de sa contraction.

Les orbites sont des ellipses, dont le Soleil occupe l'un des foyers.

Exception à la règle : Pluton n'est pas dans le plan de l'ecliptique. En fait, Pluton est un objet à part : il fait partie des objets transneptuniens et a, depuis 2006, le statut de "planète naine".

orbites-planetes.jpg
Orbites des huit planètes principales et de la planète naine Pluton.
Crédit : Astrophysique sur Mesure / Gilles Bessou + images NASA
Scénario de formation du Système Solaire à partir d'un nuage de gaz. Séquence animée résumant les principales étapes: nébuleuse primitive, effondrement, applatissement, rotation de plus en plus rapide, formation de grains, puis de planétésimaux et enfin formation des planètes.
Crédit : Astrophysique sur Mesure / Alain Doressoundiram et Gilles Bessou

Paramètres orbitaux

Nous définirons dans ce paragraphe les principaux paramètres qui caractérisent l'orbite d'une planète.

application.png

Ce tableau est une feuille de calcul (type excel) et permet de tracer des graphes. Amusez vous à en faire afin de mieux comprendre les propriétés des planètes. Par exemple:


Orbites des planètes

La ronde des planètes

Les rayons moyens des orbites des planètes s'échelonnent entre 58 millions de kilomètres pour Mercure (la plus proche du Soleil) à près de 4500 millions de kilomètres pour Neptune (la plus lointaine).

La période de révolution s'allonge logiquement lorsqu'on s'éloigne du Soleil. En effet, l'attraction gravitationnelle du Soleil se manifeste par une force qui attire la planète vers lui. Cette force est d'autant plus grande que l'on est proche du Soleil. Dans le même temps, la planète doit parcourir son orbite assez vite pour contrebalancer cette force et rester sur son orbite. Ainsi, plus la planète est proche du Soleil, plus elle doit tourner vite, c'est à dire plus sa période doit être courte (0,24 année pour Mercure et 164 ans pour Neptune ! )

Les excentricités des orbites sont globalement proches de zéro, ce qui traduit des orbites quasi-circulaires. Notez cependant la forte excentricité de Mercure (0,206), ainsi que la valeur relativement élevée de celle de Mars (près de 0,1)

La troisième loi de Kepler

A y regarder de plus près, il existe une relation précise reliant le demi-grand axe (a) et la période orbitale (P), c'est la fameuse troisième loi de Kepler (1618) :

a^3/P^2 = constante

Cette relation est une conséquence de la loi de la gravitation universelle, mais elle a été établie par Kepler de façon empirique bien avant que Newton ne démontre ses fameuses lois.

Cette loi énonce que la constante est toujours la même pour un système donné (Soleil + planète, ou encore Jupiter + ses satellites). En conséquence, cette relation s'avère extrêmement utile et d'une grande simplicité d'application car elle permet, connaissant a de déterminer P (ou inversement).


Propriétés physiques

Il y a planète et planète

La lecture des propriétés physiques des planètes (rayon, masse et densité) permet de distinguer deux classes de planètes :

Encore une fois, Pluton se distingue en ne ressemblant ni aux planètes telluriques, ni aux planètes géantes : pas assez dense, mais trop petite pour être une planète géante. Pluton fait vraiment partie d'une classe à part.

remarqueRemarque

En se rappelant que l'eau a une densité de 1, on voit que Saturne, avec une masse de 95 masses terrestres pour une densité de 0,69 devrait flotter sur l'eau si l'on trouvait un océan assez grand pour la contenir !

application.png

Pirouette !

Dans la table des paramètres orbitaux, T est la période de rotation. Là aussi, une distinction s'établit entre les planètes telluriques et les planètes géantes. Ces dernières ont des périodes de rotation autour de 10-15 heures alors que les planètes telluriques montrent une belle cacophonie de rotations. Notez ainsi la rotation extrêmement lente de Vénus, et de surcroît dans le sens inverse (-243 jours), ce qui est unique dans le Système Solaire.


Exercices

qcmQCM

1)  L'orbite des planètes est-elle




2)  Sur Vénus, quelle serait la date d'anniversaire de ses habitants s'il y en avait?




Promenade dans le système solaire interne


Introduction

Dans cette partie, nous allons vous guider à travers les propriétés étonnantes et variées des quatre planètes telluriques : Mercure, Vénus, la Terre et Mars, qui constituent ce que l'on appelle le "Système Solaire interne". Une "promenade" vous est proposée pour chaque planète. Puis, la fiche "Résumé" de chaque planète vous indique quelles sont les propriétés importantes à retenir.


Mercure

La planète Mercure vue par Mariner 10
images_tellu/mercure-hemisphere.jpg
Mosaiques d'images de la surface cratérisée de Mercure.
Crédit : NASA/Mariner 10

Située à une distance moyenne de 58 millions de km du Soleil et avec une taille de 4900 km, Mercure est à la fois la plus proche et la plus petite des planètes internes. Son orbite très elliptique, c'est à dire très allongée (l'excentricité est de 0,2) mène la planète au plus près à 46 millions de km et au plus loin à 70 millions de km du Soleil. C'est un objet brillant du ciel et connu depuis l'antiquité.

Comme la Lune, Mercure n'a pas d'atmosphère. Si vous vous teniez à la surface de Mercure, vous seriez plongés dans l'obscurité de l'espace, car l'atmosphère ne diffuse pas la lumière du Soleil. En effet, c'est la diffusion de la lumière solaire par les particules de l'atmosphère (phénomène de diffusion Rayleigh) qui est responsable du bleu du ciel sur Terre. A cause de l'absence d'atmosphère qui retient la chaleur, les variations de température diurne/nocturne sont très fortes de 430°C (le jour) à -170°C (la nuit).

Image de la Lune
Mercure et la Lune présentent toutes deux des surfaces extrêmement cratérisées.
Crédit : Calvin J. Hamilton

Une intense cratérisation

Toujours située au voisinage du Soleil (à une distance angulaire de moins de 27°), Mercure se présente comme un très mince croissant, difficilement observable. Mercure a une rotation lente (58 jours alors que sa période orbitale est de 88 jours), ce qui rend encore plus difficile toute observation à partir du sol. En effet, les grands télescopes au sol, avec leurs détecteurs ultra-sensibles, ne se risqueraient pas à pointer un objet si proche de notre étoile. Il aura donc fallu attendre les années 1974-1975 et le survol de la planète par la sonde NASA - Mariner 10, envoyée vers Mercure par la NASA, pour avoir les premières images de la surface.

Ces images révèlent une surface caractérisée par une intense cratérisation. Tout comme la Lune, Mercure présente une surface criblée de cratères de toutes tailles.

Caloris basin
images_tellu/mercure-caloris.jpg
Caloris basin, un énorme bassin d'impact et un des points les plus chaud de Mercure
Crédit : NASA/Mariner 10

Caloris basin

Caloris Basin est la plus importante structure du relief hermien (de Mercure). C'est un bassin de près de 1350 km de diamètre, créé sans doute par un impact géant au tout début de la formation de Mercure. Ce bassin a ensuite été rempli de lave.

Pôle sud de Mercure
mercure-southpole.jpg
De la glace d'eau est sans doute présente aux pôles de Mercure.
Crédit : NASA/Mariner 10

Objectif Mercure

A ce jour, deux sondes NASA ont visité la planète Mercure : Mariner 10, la pionnière, dans les années 1974-1975 et Messenger, qui a effectué son premier survol de la planète en 2008. Une des plus grandes surprises de Mariner a été de découvrir que Mercure possédait un champ magnétique similaire à celui de la Terre, bien que beaucoup plus faible. En 1991, des astronomes ont pu, grâce à des observations radar, mettent en évidence des points brillants aux pôles. Est-ce de la glace d'eau ? Comment peut-elle subsister aux températures extrêmes de Mercure ? La glace pourrait subsister au fond des cratères perpétuellement à l'ombre, donc jamais exposés aux rayons du Soleil.

Beaucoup de mystères entourent encore la planète Mercure. C'est pourquoi elle est l'enjeu de deux grosses missions spatiales. La sonde Messenger de la NASA, après son premier survol et les nouvelles images extraordinaires qu'elle a délivrées de la surface, parviendra à destination en 2011. Par ailleurs, Bepi Colombo, mise en oeuvre par la mission l'agence spatiale européenne (ESA) et son homologue japonais (JAXA), comportera deux orbiteurs (chargés de l'étude à la fois de la planète et de la magnétosphère générée par son faible champ magnétique). Cette mission sera lancée en 2014.


Mercure en résumé

La planète Mercure vue par Mariner 10
images_tellu/mercure-firstimage.jpg
La première image prise par la sonde Mariner 10, le 24 Mars 1974, alors que la sonde était en approche de Mercure à une distance de 5 380 000 km
Crédit : NASA/Mariner 10

Exercices Mercure

qcmQCM

1)  A quel autre corps Mercure ressemble t-elle?




2)  Quelle est la différence de température entre le jour et la nuit sur Mercure ?





Vénus

Les nuages de Vénus
images_tellu/galileo-venus.gif
Image en fausse couleur prise par la sonde Galileo à 2,7 millions de kilomètres de Vénus. Cette image a été prise dans le filtre violet mais a été colorée en bleu pour accentuer les contrastes. On peut y voir la structure nuageuse d'acide sulfurique. Ces nuages ont un mouvement très rapide pouvant aller jusqu'à des vitesses de 360 km/h
Crédit : NASA/Galileo
Dynamique de l'atmosphère de Vénus
images_tellu/venus-anime-vex.gif
Film en fausse couleur (filtre ultraviolet) prise par la sonde Vénus Express entre 39100 et 22600 kilomètres de la surface le 22 Mai 2006.
Crédit : ESA

Qui ne connaît pas Vénus ? Vénus est le troisième objet le plus brillant du ciel (après le Soleil et la Lune). Sa magnitude visuelle (échelle d'intensité logarithmique utilisée par les astronomes) est de -4,6 à son maximum. La planète est située à une distance angulaire maximum de 48° du Soleil.

C'est l'étoile du berger qui a fait rêver de tout temps l'homme au lever comme au coucher du Soleil. On l'a longtemps appelée la sœur jumelle de la Terre à cause de sa taille et sa masse très comparables à celles de la Terre.

Mais en fait, Vénus, c'est plutôt l'anti-Terre. Jugez en vous-même : toujours par le pouvoir de l'imagination, transportons-nous sur la planète. La température au sol est prodigieusement élevée (730K, soit 450°C). On est écrasé par une pression au sol de 90 fois la pression sur Terre. L'atmosphère irrespirable (96% de CO2) est tellement dense qu'elle absorbe la lumière du Soleil de telle sorte que la pénombre est perpétuelle. Évoluer dans l'atmosphère vénusienne, c'est quelque chose à mi-chemin entre voler et nager, car la densité de l'air n'est que de 1/10 fois celle de l'eau.

Pour terminer ce tableau apocalyptique, il y a des pluies sur Vénus, mais des pluies d'acide sulfurique (H2SO4). Mais ce n'est qu'un moindre mal car les pluies se vaporisent avant même d'arriver au sol ! Les vents au sol sont très faibles, sans doute à cause de la rotation extrêmement lente de la planète.

Rotation de Vénus
Cartographie complète effectuée par Magellan grâce à son radar. Les zones brillantes correspondent à des chaînes de montagnes, les régions sombres à des plaines. La couleur rougeâtre simulée est basée sur les données recueillies par les sondes soviétiques Venera 13 et 14 qui se sont posées à la surface.
Crédit : NASA/Magellan

La rotation la plus lente du Système Solaire

Vénus a la rotation sur elle-même la plus lente du Système Solaire (en sens inverse des autres planètes, ce qui est rare). Ce qui fait que son période sidérale (225 jours) est plus courte que sa rotation propre (243 jours). La surface, protégée par une atmosphère opaque, a longtemps été inaccessible. Après les pionnières, la soviétique Venera 4 (en 1967) et l'américaine Mariner 5 en 1967, ce sont plus d'une vingtaine de sondes qui visiteront Vénus jusqu'à la dernière en date, Venus Express, entrée en orbite le 11 avril 2006.

L'atmosphère épaisse de Vénus rend invisible à l'oeil sa surface, mais elle est transparente aux ondes radio. Ainsi, la sonde Magellan, grâce à son radar, a permis de révéler la surface de Vénus et d'en établir une cartographie complète entre 1991 et 1994.

Des volcans

La Terre et Vénus sont comparables en densité et en composition chimique, et ont également des surfaces relativement jeunes. Cependant, Vénus n'a pas d'océan. La surface a été modelée par le volcanisme, les impacts et les déformations de la croûte. On n'a pas constaté sur Vénus de volcans en activité. Par contre, de grandes variations de dioxyde de soufre (SO2) dans l'atmosphère laissent à penser que les volcans sont sans doute encore actifs.

Plus de 1000 volcans de plus de 20 km de large constellent la surface de Vénus. Il y a sans doute près d'un million de volcans de plus d'un kilomètre de large. Le plus gros de la surface de Vénus est couvert de vastes coulées de lave. Ainsi, au nord une région appelé Ishtar Terra est un bassin rempli de lave, grand comme l'Europe.

Volcan Maat Mons
maat_mons.jpg
Cette vue générée par ordinateur de la surface de Vénus a été créée à partir des images radar de Magellan. Les hauteurs ont été exagérées d'un facteur 10 environ. La montagne du fond est Maat Mons, un volcan de Vénus qui doit son nom à la déesse égyptienne de la vérité et de la justice. Le volcan s'élève à 8 km d'altitude. Les zones brillantes sont des régions très découpées et les zones sombres, des terrains plus lisses. Les lignes sombres et brillantes qui partent du sommet de Maat Mons sont des coulées de lave de rugosité différente. La région brillante au premier plan est une coulée de lave étendue et rugueuse qui s'est répandue sur une plaine lisse, probablement basaltique.
Crédit : NASA/Magellan
Trois cratères
3_craters_3D.gif
Vue oblique de trois cratères vénusiens : Howe (37km) au centre, Danilova (47km) à gauche et Aglaonice (62km) à droite. On a attribué à chaque structure du sol vénusien des noms de femmes, réelles ou mythiques. A l'exception unique du Mont Maxwell (la plus haute montagne), en hommage au savant anglais, car c'est grâce aux ondes électromagnétiques de Sir Maxwell que l'on a pu sonder la surface de Vénus !
Crédit : NASA/Magellan

L'intérieur de Vénus est probablement très similaire à celui de la Terre, avec un noyau d'environ 3000 km de rayon et un manteau rocheux en fusion recouvrant la majorité de la planète.

Vénus n'a pas de satellites, ni de champ magnétique intrinsèque. L'atmosphère très dense freine le processus de cratérisation de la surface : il n'existe pas de cratères plus petits que 1-2 km sur Vénus. La raison est que les météores brûlent dans l'atmosphère avant d'arriver au sol.

Cratères d'impact

Chaque cratère est entouré d'une couche brillante et rugueuse d'éjectas qui sont les débris excavés et éjectés par l'impact. Au centre des cratères, on reconnaît le pic central caractéristique des cratères d'impacts. Ce pic matérialise le rebond élastique de la croûte suite à la collision.

roche en fusion
crater-impact.jpg
Coulée de roche en fusion suite à un impact de météorite.
Crédit : NASA/Magellan

Chaud !

La surface de Vénus est tellement chaude que très peu de chaleur supplémentaire, comme celle apportée par les impacts, suffit pour fondre les roches. Certains cratères de Vénus montrent ainsi que les éjectas retombent partiellement en fusion, comme ici, où l'on voit les éjectas, qui n'ont pas eu le temps de solidifier, s'écouler sur le sol en pente.


Vénus en résumé

La planète Vénus vue par la sonde Galileo
venus-mariner.jpg
Image en fausses couleurs prise par la sonde Mariner 10 en 1974. On peut également y voir la structure nuageuse très dense qui empêche de voir la surface.
Crédit : NASA

Exercices Venus

qcmQCM

1)  Pourquoi Vénus est-elle couverte de nuages ?



2)  Vénus reçoit plus de lumière solaire que Mars ?




Terre

Vue de l'espace !

La Terre vue de l'espace
images_tellu/terre_apollo17.gif
Image prise par les astronautes d'Apollo 17. On voit de la Méditerranée (tout en haut) jusqu'au pôle sud.
Crédit : NASA

Les images de la Terre vue de l'espace, comme cette impressionnante photo prise par les astronautes de apollo 17, révèlent la beauté et la fragilité de notre planète. L'atmosphère qui nous semble si épaisse de notre perspective apparaît de l'espace comme un film très fin. Les frontières disparaissent, et il apparaît clairement que notre planète existe comme une seule entité.

Rotation de la Terre
Et pourtant elle tourne !
Crédit : NASA

Ce qui frapperait l'œil d'un extraterrestre, c'est la présence de ces immenses masses océaniques, car en effet, la Terre est la seule planète qui possède de l'eau liquide à sa surface (71% de la surface). L'eau existe à l'état liquide seulement dans une gamme de température de 0 à 100 °C. Cette gamme de températures est remarquablement étroite quand on la compare à la gamme complète de températures que l'on trouve dans le Système Solaire. La présence de l'eau à l'état vapeur dans l'atmosphère est responsable en grande partie de la météorologie terrestre.

L'apparition de la vie primitive dans les océans a été rendue possible grâce à la présence d'eau liquide. Une vie extraterrestre pourrait donc exister sur d'autres planètes en concomittance avec la présence de l'eau liquide

Le système terre-Lune

Terre et Lune
images_tellu/terre_lune_par_Near.gif
La Terre et son unique satellite naturel, la Lune. Cette image montre une perspective originale du pôle sud, prise par la sonde NEAR en route vers l'astéroïde Eros. La lune est le satellite naturel de la Terre. La Terre (12800 km de diamètre) est 4 fois plus grande que la Lune (3500 km).
Crédit : NASA/NEAR

Le Lune est en rotation synchrone avec la Terre, c'est à dire que la Lune fait exactement un tour sur elle même pendant le temps qu'elle met à faire le tour de la Terre. De ce fait, la Lune nous montre toujours la même face (en réalité on en voit 59%, soit plus de la moitié de sa surface est visible grâce aux petits mouvements de la Lune sur son axe de rotation)

Clair de Terre
images_tellu/lever_terre.jpg
Image d'un lever de Terre prise par les astronautes d'Apollo 11, peu de temps après leur entrée en orbite lunaire. Remarquez le contraste saisissant entre les couleurs grises et marrons de la surface sans vie de la Lune et les couleurs vives, bleues et blanches de la Terre.
Crédit : NASA

Un lever de Terre ne peut être observé qu'en orbitant autour de la Lune ou en marchant à sa surface. On ne peut pas simplement rester sur place et attendre que la rotation fasse le travail. Pourquoi ? À cause de la rotation synchrone, la Lune expose toujours la même face à la Terre. Ainsi, un observateur sur la surface visible de la Lune, verrait la Terre telle une lanterne, éternellement suspendue à la même place dans le ciel; Chaque mois, la Terre passerait par un cycle complet de phases.

Pour en savoir plus, dirigez vous vers les éclipses de Lune

L'ouragan Mitch
ouragan.jpg
L'ouragan Mitch au large de la Floride
Crédit : NASA

L'atmosphère : amie ou ennemie ?

Depuis les années soixante, les satellites artificiels nous transmettent des images de la Terre qui permettent d'étudier, les mouvement de la banquise, les températures , Les phénomènes météo etc... comme par exemple, ici l'ouragan Mitch. Même, si des phénomènes climatiques peuvent avoir des effets destructeurs, les effets de l'atmosphère sont globalement, et de très loin, protecteurs (contre les radiations, les petites météorites, rétention de la chaleur par effet de serre…)

Meteor Crater
meteorcrater_fromspace.jpeg
Le Meteor crater (1,2 km de diamètre) en Arizona. Un des cratères d'impact les mieux conservés sur Terre.
Crédit : NASA/Jet Propulsion Laboratory

Cratères sur Terre

Sur Terre, on recense relativement peu de cratères d'impact (environ 200). Le meilleur exemple conservé est celui du Meteor Crater, situé en Arizona aux Etats-Unis d'Amérique (1,2 km de diamètre). En comparaison, la Lune est complètement criblée de cratères. Pourquoi ? La réponse est : l'érosion. C'est ce phénomène seulement présent sur Terre (eau, vent, volcanisme) qui est responsable de la disparition systématique des traces de cratères d'impact.

L'Etna
etna.gif
L'Etna avec plus de 3000 mètres d'altitude culmine en Sicile.
Crédit : NASA

Activité volcanique

Notre planète bouge !

La surface terrestre est constituée de plaques qui bougent les unes par rapport aux autres, s'entrechoquant pour former des montagnes, ou au contraire, se séparant pour former des mers ou des océans. Ces mouvements sont connus sous le nom de tectonique des plaques et donnent lieu aux tremblements de terre.

Le volcanisme est une autre manisfestation de l'activité interne de la Terre. Les volcans matérialisent la remontée de magma en des points précis.


Terre en résumé

La Terre vue de l'espace
images_tellu/terre_apollo17.gif
Image prise par les astronautes d'Apollo 17. Une vue depuis la Méditerranée (tout en haut) jusqu'au pôle sud.
Crédit : NASA

Exercices Terre

qcmQCM

1)  Pourquoi la Lune ne tombe pas sur la Terre par la gravité ?



2)  Pourquoi ne voit-on jamais la face cachée de la Lune depuis la Terre ?





Mars

Mars vue par le télescope spatial Hubble
mars.jpg
La couleur rouge caractéristique de Mars est due aux oxydes de fer présents à sa surface
Crédit : NASA

Comme Vénus, l'atmosphère de Mars est composée de CO2, mais est beaucoup moins dense que celle de Vénus. On a une pression si faible (100 fois plus faible que sur Terre) que votre corps enflerait si vous vous teniez à la surface de Mars, sans une combinaison spatiale. En fait température et pression sont incompatibles avec de l'eau liquide. Le fait de voir des lits asséchés sur Mars nous enseignent que l'atmosphère a donc dû être différente dans le passé.

Elle tourne aussi !
Une rotation complète de Mars. Le jour martien (24h37mn) est sensiblement égal à une journée sur Terre (23h56mn)
Crédit : NASA/HST

Un jour Martien

Ce film de la rotation complète de Mars a été réalisé avec des images de Hubble. Le jour martien (23h37mn) est sensiblement égal à celui de la terre . Mars est autant incliné que la Terre, ce qui permet des saisons comme sur Terre, mais qui sont plus marquées à cause de l'excentricité de Mars. La couleur caractéristique de la « planète rouge » est due à l'oxydation des minéraux de fer (la rouille) Mars a deux calottes polaires bien visibles depuis la Terre à partir d'un télescope. Chaque calotte polaire a une composante permanente constituée de glace d'eau au pôle nord et d'une mixture de glace de CO2 et H2O au pôle sud. Cette composante permanente grossit au fur et à mesure de l'arrivée de l'hiver martien (la température chute à –140 °C).

On a aussi une composante saisonnière constitué de glace de CO2 qui apparaît avec la venue de l'hiver et qui provient du gel de l'atmosphère.

Les conditions actuelles sur Mars ne permettent pas la présence d'eau liquide à la surface et donc de la vie. En effet la surface de Mars est complètement stérilisée (rayons UV, ...). Cependant le fait de voir des lits asséchés sur Mars nous enseigne que l'eau a coulé dans le passé, et donc que la vie a pu exister.

Vue de la calotte sud de Mars
Mars-pole-sud.jpg
Le pôle sud de Mars vue par la sonde Mars Express. On peut y voir la calotte polaire très brillante, riche en dioxyde de carbone (rose), entourée de glace d'eau pure (vert à bleu)
Crédit : ESA

Le relief Martien

L'ombre de Phobos
images_tellu/eclipse_phobos.jpg
L'ombre de Phobos sur la surface de Mars
Crédit : NASA/MGS

La surface de Mars comporte relativement peu de cratères.

Olympus Mons
mars_olympus.jpg
Le volcan le plus haut du Système Solaire (25 000m d'altitude)
Crédit : NASA/MGS

Olympus Mons est un gigantesque volcan qui fait 25 km de haut et 700 km de diamètre. C'est le plus grand volcan du Système solaire. Olympus Mons et les volcans de la région de Tharsis sont des volcans similaires aux volcans hawaiiens. Sur Terre, le plus grand d'entre eux fait 9 km de haut à partir du plancher océanique et 120 km de diamètre. Remarquez les cratères d'impact au sommet du volcan.

Climat

Les hivers, et globalement la température moyenne sur Mars, sont plus froids que sur Terre et la température peut chuter jusqu'à -140°C. En effet, Mars étant située 1,5 fois plus loin du soleil, elle reçoit 57% d'énergie en moins. De plus, l'atmosphère peu dense empêche un effet de serre conséquent (augmentation de seulement 3°C contre 33°C pour la Terre). Toutefois, la température peut atteindre environ 20°C en plein été aux basses latitudes.


Atlas de Mars

Mars Atlas

Voici quelques figures montrant l'atlas de Mars, avec ses vallées (Valle Marineris) ou probalement l'eau a coulé dans le passé, ses plaines et ses montagnes (Tharsis Montes).

Valle marineris
mars_vallemarineris.gif
Mars Atlas de Valle marineris. On notera à droite les montagnes de Tharsis.
Crédit : NASA
Syrtis Major
mars_syrtismajor.gif
Mars Atlas de Syrtis Major
Crédit : NASA
Cerberus
mars_cerberus.gif
Mars Atlas de Cerberus
Crédit : NASA

Mars en résumé

Mars au plus près
mars-closest-approach2.jpg
Cette image de Mars a été obtenue le 27 Août 2003 lorsque la Terre et Mars se sont trouvées au plus près depuis 60000 ans à 55 760 220 km.
Crédit : NASA
Mars au plus près
mars-closest-approach1.jpg
L'autre côté de Mars. Passez la souris sur l'image pour découvrir les noms des différentes structures du relief Martien
Crédit : NASA

Exercices Mars

qcmQCM

1)  Pourquoi la surface de Mars est-elle rouge ?





2)  Pourquoi pense-t-on qu'il y a eu de l'eau liquide sur Mars ?




Géologie comparée


Introduction

introductionIntroduction

Vue globale des surfaces des mondes de type terrestre
cercle.jpg
Grande diversité géologique pour les cinq mondes de type terrestre : Mercure/Lune, Vénus, la Terre, Mars
Crédit : Montage Alain Doressoundiram/Gilles Bessou à partir d'images NASA

Les cinq mondes de type terrestre -Mercure, Vénus, la Terre, la Lune, Mars- ont été à priori formés dans le même moule à partir de la nébuleuse primitive. Pourtant nous avons vu dans le chapitre précédent que leurs surfaces présentent une grande diversité géologique. Par exemple, Mercure et la Lune sont des mondes complètement criblés de cratères. Vénus, elle, a un relief perturbé fait de plaines volcaniques et de volcans. Mars, malgré sa taille intermédiaire, abrite les plus grands volcans du Système Solaire et est la seule planète avec la Terre où le ruisselement de l'eau a principalement modelé la surface. Enfin, la Terre a un relief reprenant un peu toutes les caractéristiques vues sur les autres surfaces planétaires avec en plus, trait non anodin, une biosphère qui recouvre quasi complètement la surface de la planète.

Notre objectif dans ce chapitre est de comprendre pourquoi et comment ces différences géologiques ont pu apparaître. En effet, prenons l'exemple de la cratérisation. Nous constatons que les surfaces des planètes sont inégalement cratérisées. Ainsi, les surfaces de Mercure et de la Lune sont criblées de cratères de toutes tailles alors que pour la Terre et Vénus, ces mêmes cratères sont rares. Mars par contre est un cas intermédiaire entre ces deux extrêmes. Pourquoi existe-t-il de telles différences ?


Cratères

Cratère Manicouagan, Canada
manicouagan.jpg
La cratère Manicouagan au Canada est l'un des plus grands cratères (70 km), encore préservé sur Terre. Il date d'environ 200 millions d'années. On remarque la présence d'un lac annulaire dans le cratère.
Crédit : NASA

Cratères : un peu, beaucoup, passionnément

Prenons comme exemple le système Terre-Lune. La Lune, notre plus proche voisine a une surface complètement criblée de cratères, alors que la surface de la Terre semble relativement indemne. Pourtant les deux astres sont soumis au même environnement météoritique, au même flux d'impacteurs. La Terre aurait-elle été épargnée par rapport à la Lune par un quelconque mécanisme protecteur?

La réponse est NON

La Terre a bel et bien subi autant d'impacts que la Lune, et ce n'est pas l'atmosphère (absente sur la Lune) qui aurait pu arrêter les plus gros bolides cosmiques. Donc si la Terre n'a pas été exempte d'impacts, où sont alors les cicatrices ? Sur Terre on ne dénombre qu'environ 200 cratères d'impacts dont la plupart sont méconnaissables, alors que la surface de la Lune arbore des milliers de cratères. L'explication c'est l'EROSION. C'est ce phénomène qui a effacé les traces d'impacts sur Terre alors qu'il est absent sur la Lune. Les acteurs de l'érosion sur Terre sont par ordre d'importance :

  1. l'eau (les précipitations)
  2. le vent
  3. le volcanisme et la tectonique des plaques, sur des échelles de temps plus longues

Ainsi donc l'érosion est responsable des disparités de cratérisation des surfaces planétaires. Mais a t-on résolu pour autant l'origine profonde de ces disparités ? En effet, pourquoi l'action du volcanisme (qui est le mécanisme d'érosion à prendre en considération sur des échelles de temps géologiques) est-il si différent d'une planète à l'autre ? C'est l'objet de la partie suivante.


Différenciation

Structure interne des planètes application.png

La composition globale des planètes telluriques est rocheuse, c'est à dire constituée de silicates, de fer et de nickel. Ce qui donne une densité d'environ 5 (rappel : la densité de l'eau est 1).

Les planètes telluriques se sont formées par accrétion de planétésimaux. En conséquence, durant cette phase d'accrétion initiale, les planètes sont restées

Ensuite, à cause de la gravitation, on assiste à la chute des matériaux les plus lourds (fer, nickel) vers le centre : c'est le phénomène de la différenciation qui conduit à la formation d'un noyau plus dense. Le manteau est constitué de silicates. Le refroidissement de la surface donne ensuite lieu à la formation de la croûte solide. Pour la Terre, La densité décroit du noyau (12) jusqu'à la croûte (3) en passant par le manteau (5)


Energie interne : les sources

Les trois sources de chaleur
images_geolo/differenceradio.gif
Crédit : Astrophysique sur Mesure / Alain Doressoundiram et Gilles Bessou

L'activité géologique d'une planète dépend de sa structure interne (manteau liquide, épaisseur de la croûte,...) et sa structure interne dépend de sa température interne. Nous allons voir ci-après comment l'énergie est emmagasinée dans l'intérieur de la planète, et comment elle s'échappe vers l'extérieur.

Comment l'intérieur de la planète est-il chauffé?

Trois principales sources d'énergie contribuent à chauffer l'intérieur d'une planète : l'accrétion, la différenciation, et la radioactivité. Une quatrième source appelée effet de marée, n'est pas importante pour les planètes telluriques, mais joue un rôle majeur pour les satellites galiléens (les satellites de Jupiter), en particulier pour Io.

remarqueRemarque

Les intérieurs de planètes se refroidissent lentement, au fur et à mesure que leur énergie interne s'évacue. A ce jour, 4,6 milliards d'années après la formation des planètes, l'énergie initiale due à l'accrétion et à la différenciation a été presque complètement évacuée. Aujourd'hui, la majeure partie du flux de chaleur provient de la radioactivité naturelle.


Energie interne : refroidissement

Comment la planète se refroidit-elle ?
images_geolo/geologie.gif
La chaleur s'échappe de l'intérieur de la planète au moyen de trois processus: la convection (dans une cellule convective du manteau liquide, de la roche chaude monte tandis que de la roche plus froide redescend), la conduction (qui transporte la chaleur dans la croûte rigide), et le volcanisme (qui amène la lave en fusion à la surface)
Crédit : Astrophysique sur Mesure / Alain Doressoundiram et Gilles Bessou

Comment l'intérieur de la planète se refroidit

La chaleur emmagasinée dans la planète s'échappe continuellement de l'intérieur. Cette évacuation se fait de l'intérieur chaud vers la surface plus froide au travers de quatre processus principaux : la conduction, la convection, le volcanisme et la tectonique des plaques.

remarqueRemarque

On peut se demander quelle est notre source d'énergie principale sur Terre: le rayonnement solaire ou l'énergie interne ? A la surface, l'énergie provenant de l'intérieur est 10000 fois moins importante que celle provenant du Soleil.


Âge des surfaces

L'abondance des cratères permet de dater l'âge des surfaces et la fin du volcanisme :

Pourquoi de telles différences?

L'énergie interne disponible est proportionnelle au volume : R^3 (R est le rayon de la planète)

Le refroidissement est proportionnel à la surface : R^2

Il en résulte que la durée de l'activité est proportionnelle au rayon R de la planète.

La taille est donc le facteur ultime qui détermine la durée pendant laquelle la planète restera chaude. Les grosses planètes resteront chaudes longtemps, tout comme une grosse pomme de terre restera chaude plus longtemps que les petites.


Exercices géologie comparée

qcmQCM

1)  Quelle est l'origine de la tectonique des plaques sur la Terre




2)  Pourquoi y a-t-il moins de cratères sur Vénus, la Terre et Mars que sur la Lune ou Mercure ?




3)  Pourquoi y a-t-il du volcanisme sur Vénus et la Terre?





Conclusion

conclusionConclusion

Bien que toutes les planètes telluriques soient de composition très similaire et qu'elles se soient formées à peu près au même moment, nous avons appris que leurs histoires géologiques ont différé, principalement à cause de leur taille.


Les atmosphères planétaires


Introduction

L'atmosphère des planètes telluriques est le fluide gazeux qui entoure leur surface. Ce gaz est maintenu par l'attraction gravitationnelle et est entraîné avec la planète. On caractérise ces atmosphères par plusieurs aspects tels que leur température, leur composition, la présence de nuages et leur météorologie.

L'étude de ces différents aspects est bien évidemment couplée et permet à la fois de mieux comprendre ces atmosphères et leur interaction avec la surface (et les océans dans le cas de la Terre), ainsi que le type de climat associé et son évolution dans le temps.

De plus, l'étude des atmosphères planétaires permet de contraindre la formation des planètes et leur histoire. Finalement, la comparaison de l'histoire des atmosphères (i.e. la planétologie comparée) permet de comprendre les paramètres physico-chimiques qui sont à l'origine de leur évolution distincte.


Température

Température d'équilibre

Le Soleil est la source d'énergie principale reçue par les planètes. La température d'équilibre à la surface des planètes dépend de leur distance au Soleil. Plus on est près du Soleil plus il fait chaud (Mercure) et plus on est loin plus il fait froid (Mars). Le mécanisme physique qui permet ce chauffage est l'absorption par la surface du rayonnement solaire émis dans le domaine Ultra-Violet (UV) et visible.

En fonction des propriétés de la surface (composition, relief, océans, calotte polaire, ...) et de la latitude, le sol absorbera plus ou moins efficacement ce rayonnement, tandis que l'énergie solaire non-absorbée sera réfléchie par la surface vers l'espace. Le coefficient de réflexion, caractérisant la part d'énergie réfléchie, est appelé albédo. Il dépend aussi de la composition chimique de l'atmosphère et de la couverture nuageuse.

La température d'équilibre d'une planète ne dépend que de trois paramètres basiques : la distance au soleil, l'albédo, et la période de rotation.
Crédit : Astrophysique sur Mesure / Alain Doressoundiram et Gilles Bessou

Effet de serre

La surface de la planète absorbe l'énergie solaire dans le domaine UV-visible, puis elle se refroidit en émettant un rayonnement Infrarouge (IR). Ce rayonnement IR se dirige vers l'espace en traversant l'atmosphère de la planète, avec laquelle elle peut interagir. Les gaz à effet de serre tels que l'eau (H2O) , le dioxyde de carbone ou gaz carbonique (CO2), et le méthane (CH4) présents dans une atmosphère absorbent le rayonnement IR et le re-émettent dans toutes les directions, et notamment vers la surface, favorisant ainsi une accumulation de l'énergie thermique, et par conséquent une augmentation de la chaleur.

Ainsi, la température moyenne à la surface peut être supérieure à la température d'équilibre de la planète (cas de Vénus et de la Terre). L'effet de serre est notablement présent lorsque l'on a une atmosphère relativement transparente dans le domaine UV-visible et opaque dans l'infrarouge. On notera que la présence de nuages peut aussi augmenter l'effet de serre (par exemple les nuages d'acide sulfurique sur Vénus). L'effet de serre augmente la température à la surface de Vénus, la Terre et Mars, respectivement de 500, 35 et 5 °C.

images_atmos/effet-de-serres.gif
L'effet de serre a pour conséquence de réchauffer la planète.
Crédit : Astrophysique sur Mesure / Alain Doressoundiram et Gilles Bessou

application.png


En savoir plus : Variations diurnes

ensavoirplusEn savoir plus

L'inertie thermique du sol, la période de rotation et l'atmosphère sont les paramètres principaux qui contrôlent le contraste de température entre le jour et la nuit d'une planète. Lorsqu'une planète a une période de rotation lente (comme Mercure et la Lune), la température du jour est beaucoup plus élevée que celle de la nuit, tandis qu'une rotation rapide permettrait une plus grande homogénéité de température entre le jour et la nuit. L'inertie thermique du sol joue un rôle équivalent à la période de rotation (comme pour Mars). En effet, plus elle est faible (c'est à dire que la température varie rapidement), plus il y a de contraste jour-nuit. Inversement plus l'inertie thermique est forte, moins il y a de contraste jour-nuit. En règle générale, pour les planètes sans atmosphère, la variation de température diurne est un compromis entre la période de rotation et l'inertie thermique : elle varie de 150, 300 et 600 °C pour respectivement Mars, la Lune et Mercure. La basse atmosphère peut aussi intervenir dans le cas où les échanges thermiques sont importants, c'est le cas sur Vénus et la Terre (variation diurne d'environ 10 °C) . Dans ce cas, le pouvoir radiatif élevé et la convection vont permettre d'homogénéiser les basses couches de l'atmosphère.

Planète Tjour (°C) Tnuit (°C)
Mercure 430 -170
Vènus 460 450
Terre 15 5
Lune 120 -170
Mars -23 -93

Tableau des températures jour/nuit des planètes telluriques


Diversité des atmosphères

Composition et vent

La composition actuelle des atmosphères des planètes telluriques est très diverse. Mercure et la Lune n'ont presque pas d'atmosphère (pression < 10-15 bars). Vénus et Mars ont une composition atmosphérique proche, avec principalement du CO2 et quelques pourcents d'azote (N2). Cependant, la pression au sol de Vénus est environ 100 fois supérieure à celle de la Terre, et celle de Mars environ 100 fois inférieure. L'atmosphère de la Terre est, quand à elle, composée principalement d'un mélange d'azote (N2 ) et d'oxygène (O2) que l'on appelle l'air.

Sur Vénus, l'activité volcanique importante rejette une grande quantité de composés soufrés dans l'atmosphère, donnant naissance à des nuages d'acide sulfurique (H2SO4) qui nous empêchent de voir la surface. Une faible quantité de vapeur d'eau est encore présente dans l'atmosphère. Les vents près de la surface y sont quasiment nuls, mais augmentent considérablement avec l'altitude, avec des vitesses pouvant atteindre 300 km/h.

Sur la Terre, la vapeur d'eau est présente en quantité variable ( < 4%) en fonction des régions sèches ou humides qui dépendent fortement du climat. En s'élevant dans l'atmosphère, la vapeur d'eau se refroidit et se condense pour former des nuages (composés de goutelettes d'eau ou de cristaux de glace). La circulation des masses atmosphériques induit des vents de quelques km/h, mais pouvant atteindre des centaines de km/h lors de fortes tempêtes.

Sur Mars, on trouve aussi un peu d'oxygène, de monoxyde de carbone (CO) et des traces de vapeur d'eau dans l'atmosphère, mais les faibles pressions atmosphériques empêchent d'obtenir de l'eau liquide en surface. Néanmoins, de la glace d'eau et de dioxyde de carbone se forment en hiver sur les calottes polaires à cause des faibles températures. Pendant l'été martien, de fortes tempêtes peuvent soulever les poussières rendant la surface invisible. Des vents de quelques centaines de km/h sont fréquents en altitude.

Planète Composition Atmosphérique Pression au sol (bars) Vent, climat Nuages
Mercure Atomes de O, Na, He, K, H, Ca 10-15 Aucun, trop peu d'atmosphère Aucun
Vénus 96,5% CO2; 3,5% N2, 0.015% SO2 <0.01% H2O, CO 90 Vent faible à la surface, pas de tempête violente. Fort vents en altitude Nuages d'acide sulfurique : H2SO4
Terre 78% N2, 21% O2, 0.9 % Ar <4% H2O, 0.034% CO2 1 Vents, cyclones Nuage d'eau, pollution
Lune Atomes de He, Ar, Na, K 10-15 Aucun, trop peu d'atmosphère Aucun
Mars 95.3% CO2, 2.7% N2, 1.6% Ar, 0.13% O2, 0.07% CO, <0.03% H2O 0.006 Vents, tempêtes de poussières H2O et CO2, poussières

Saisons

Les saisons existent lorsqu'il y a une variation de l'ensoleillement durant l'année, qui est due à l'obliquité de l'axe de rotation de la planète sur le plan de l'écliptique (voir le tableau). C'est le cas pour la Terre et Mars pour lesquelles cet angle atteint environ 23°-25°. Par contre, sur Vénus, il n'y a pratiquement pas de saisons, puisque son obliquité n'est que de 3°. Pour en savoir plus sur les saisons sur la Terre consultez le cours sur les saisons


Origine des atmosphères

Pendant la phase initiale de formation des planètes telluriques (il y a environ 4,56 milliards d'années), les planètes ont peut-être acquis une atmosphère primaire composée principalement d'hydrogène (H2) et d'hélium (He) à 99%, comme dans le Soleil ou Jupiter. Cependant cette hypothèse est très incertaine, et si c'était le cas, l'atmosphère primitive s'est probablement échappée très rapidement. Soit à cause de la faible gravité de ces planètes, soit soufflée par le vent solaire et par l'intense rayonnement UV du Soleil jeune, en même temps que la nébuleuse primitive, environ 10 millions d'années après la formation du soleil.

Une atmosphère secondaire s'est formée ensuite par le dégazage des gaz piégés dans les roches - due à l'activité volcanique - ainsi que par des impacts de planétésimaux (astéroïdes, comètes) contenant des gaz volatils tels que H2O et CO2. Ces atmosphères secondaires étaient probablement semblables et composées principalement de H2O, CO2, N2, SO2 et à un degré moindre des gaz rares (Ar, Ne, He, Xe, Kr). La très faible abondance relative des gaz rares par rapport aux abondances solaires (10-4-10-12) est une preuve que ces atmosphères sont secondaires, puisque les gaz rares ne peuvent s'échapper que par des processus classiques. Les variations de composition initiale des roches formant ces planètes ainsi que leur faculté à absorber et dégazer les différents volatiles ont pu conduire à des atmosphères secondaires quelque peu différentes.

images_atmos/atmosphere-origine.gif
Origine de la formation des atmosphères primaires et secondaires.
Crédit : Astrophysique sur Mesure / Raphael Moreno et Gilles Bessou

Evolution des atmosphères I

Introduction

Pendant la formation des atmosphères secondaires (environ 10-100 millions d'années après la formation de la planète), leur composition et leur température ont été modifiées par de nombreux facteurs tels que : la chimie, l'activité biologique (Terre), l'échappement atmosphérique, l'échange entre atmosphère/surface/océan (e.g. cycle du carbone), et l'effet de serre. Chacun de ces facteurs est complexe, et nous ne détaillerons dans cette partie que l'échappement atmosphérique d'origine thermique et le cycle du carbone.

Echappement atmosphérique

C'est la gravité des planètes qui retient leur atmosphère. Si un corps ou une molécule acquiert une vitesse supérieure à une certaine vitesse appelé vitesse de libération il quitte définitivement la planète. Chaque planète a une vitesse de libération (Vlib) différente qui dépend de sa gravité (g) et de son rayon (R): V_lib=sqrt(2 g R). Les vitesses de libération pour Vénus, la Terre et Mars sont respectivement de 10, 11 et 5 km/s (ou encore 36000, 39600 ou 18000km/h resp.).

A cause de l'agitation thermique, une molécule de masse molaire m, dans une atmosphère de température T, a une vitesse thermique (Vt) proportionnelle à sqrt(T/m) . Si la vitesse thermique est supérieure à la vitesse de libération il y a échappement de l'atmosphère. En pratique, ce sont principalement les atomes légers présents dans la très haute atmosphère peu dense (exosphère, P~10-11 bar) qui peuvent atteindre des vitesses thermiques suffisantes pour s'échapper sans qu'il y ait de collisions avec d'autres atomes. Sur la Terre et Mars, l'hydrogène (H) présent dans l'exosphère s'échappe ainsi quotidiennement. Sur Vénus, il existe d'autres processus d'échappement non thermiques complexes qui peuvent être beaucoup plus efficaces, comme par exemple le criblage de l'atmosphère par des particules énergétiques. En effet, contrairement à la Terre, Vénus n'a pas de bouclier magnétique (plus connu sous le nom de magnétosphère) pour la protéger.

En bref...

Ce qu'il faut retenir, c'est que la vitesse de libération d'une planète est le paramètre clé qui lui permet de conserver ou non son atmosphère. De plus, en règle générale, que le processus d'échappement soit d'origine thermique ou non-thermique, plus la molécule est légère et plus la température est élevée, plus elle s'échappe facilement de la planète. Par conséquent, les processus d'échappement jouent un rôle important dans la modification de la composition atmosphérique.

Planète R (km) g (m/s^2) Vlib (km/s)
Mercure 2439 3,70 04,2
Vènus 6051 8,83 10,4
Terre 6378 9,80 11,2
Mars 3189 3,72 05,0

Tableau de la gravité et de la vitesse de libération des planètes telluriques


Evolution des atmosphères II

Cycle du Carbone

Le gaz carbonique (CO2) présent dans l'atmosphère se dissout dans l'eau de pluie et se dépose sur le sol sous forme d'acide carbonique (H2CO3). Les minéraux contenant des silicates (tel que la Wollastonite : CaSiO3) réagissent avec le CO2 dissous pour former des roches carbonatées (telle que la Calcite : CaCO3) et du quartz (SiO2). Par ailleurs, le ruissellement des pluies peut aussi éroder les roches continentales carbonatées et transporter l'ion bicarbonate (HCO3 -) dans les océans pour se combiner avec du calcium (Ca) et former à nouveau de la Calcite. Aujourd'hui ce sont principalement certains organismes marins qui fabriquent ainsi leur squelette minéralisé et leur coquille, cependant des réactions chimiques abiotiques plus lentes le permettent aussi. Avec le temps, le Calcaire se dépose dans les fonds marins et s'y accumule sous forme de sédiments. Le déplacement des plaques tectoniques enfouit ces roches carbonatées par le mécanisme de subduction. La pression et la température intense de ce mécanisme permettent de combiner le calcaire et le quartz en minéraux silicatés (tels que la Wollastonique). Cette transformation produit à nouveau du gaz carbonique qui se mélange au magma et qui est réinjecté dans l'atmosphère par l'activité volcanique. Après ce cycle du carbone, on retrouve le gaz carbonique présent initialement dans l'atmosphère.

Sur Terre, le temps de résidence du CO2 atmosphérique n'est que de quelques années. Dans l'océan il est de quelques siècles (en surface) à quelques centaines de milliers d'années (fonds marins), et dans le sous-sol (lithosphère) de quelques 100 millions d'années, à cause de la tectonique qui est un phénomène géologique lent. S'il n'y avait pas de recyclage, le CO2 atmosphérique disparaîtrait en 400 000 ans. En revanche, il faudrait seulement 20 millions d'années pour injecter 1 bar de CO2 dans l'atmosphère par volcanisme. Le cycle du carbone est un mécanisme qui permet de moduler/réguler la composition atmosphérique en gaz carbonique et la température d'une atmosphère (Effet de serre).

Cycle du carbone
images_atmos/cycleco2.gif
Le gaz carbonique suit un cycle qui conduit à l'accumulation du carbone tantôt dans l'atmosphère, tantôt dans le sous-sol.
Crédit : Astrophysique sur Mesure / Alain Doressoundiram et Gilles Bessou

Histoire des atmosphères

Introduction

Il y a 4,5 milliards d'années le soleil jeune était moins lumineux de 30% environ. Depuis cette époque, l'albédo des planètes a probablement varié à cause d'une couverture nuageuse différente, de la présence de calotte polaire ou de l'activité volcanique éjectant une quantité importante de poussières dans l'atmosphère. Les variations de l'albédo, du flux solaire et de l'effet de serre ont certainement modifié les températures de surface. D'autres facteurs comme la variation temporelle de l'inclinaison et de l'excentricité de la planète (sur Terre de 40000 à 100 000 ans – cycle de Milankovitch) modifie l'illumination des planètes par le soleil, et ont conduit à des changements climatiques importants (âges glaciaires).

La proximité entre Vénus, la Terre et Mars nous font penser que leur composition initiale était semblable. Actuellement, Vénus et Mars ont une composition proche (CO2, N2), mais ont une énorme différence de pression et de température. La Terre, elle, a une composition différente (N2, O2).

Quelle a pu être l'évolution de la composition de leur atmosphère, ainsi que de leur surface (océans, calotte polaire) et de leur température, pouvant expliquer de telles différences ? Pourquoi l'eau est-elle abondante sur Terre, alors que Vénus est pratiquement sèche et Mars aride ? Les paragraphes suivants permettront de comprendre la succession des évènements qui semblent expliquer les différentes atmosphères actuelles.

Mercure

Mercure n’a probablement pas eu une atmosphère primitive comme les autres planètes telluriques à cause de sa proximité avec le soleil. De plus, sa faible masse et les températures élevées autorisent une vitesse de libération faible. Ainsi son atmosphère secondaire formée par le dégazage des roches s’est rapidement échappée au cours du temps, aidée aussi par l’intense flux du rayonnement UV solaire. Il faut noter que la cratérisation intense de la surface nous indique que l’atmosphère a disparu avant la fin du bombardement tardif de planétésimaux (environs 700 millions d’années après sa formation). Par conséquent, il est difficile d’établir une chronologie plus détaillée des processus physiques qui ont permis l’échappement de son atmosphère, puisque les traces potentielles d'érosion ont dû être effacées avec le bombardement tardif.

images_atmos/atmevol-mercure.gif
Evolution de l'atmosphère de Mercure.
Crédit : Astrophysique sur Mesure / Raphael Moreno et Gilles Bessou

Vénus

Vénus a probablement possédé autant d'eau que sur la Terre. Avec une température probablement inférieure à 100 °C (le soleil jeune était moins intense), l'eau se trouvait sous forme liquide formant des océans. Cependant, Vénus étant plus proche du soleil, sa température était nécessairement plus chaude que celle de la Terre, permettant progressivement une évaporation plus importante des océans. Une grande quantité de vapeur d'eau augmente l'efficacité de l'effet de serre et par conséquent la température, qui à son tour fait croître à nouveau l'évaporation. Lorsque la température dépasse celle du point critique de l'eau ( 374 °C), l'eau se retrouve à l'état gazeux sous forme de vapeur d'eau et il n'y a plus de pluie qui permet de soustraire le gaz carbonique. Le cycle du carbone est stoppé, ce qui entraîne une augmentation irrémédiable de la quantité de CO2 par le volcanisme et par conséquent de la température de l'atmosphère. On désigne cette situation par "emballement de l'effet de serre".

D'autre part, les fortes températures de la basse atmosphère permettent à la vapeur d'eau de s'élever par convection dans la haute atmosphère. Dans cette région, des réactions photochimiques avec le rayonnement UV solaire permettent de photodissocier (ou briser) la molécule d'eau (H2O) pour séparer l'hydrogène (H) et l'oxygène (O). L'hydrogène étant léger s'échappe de l'atmosphère. L'oxygène peut aussi être éliminé soit par des processus d'échappement non-thermiques, soit par l'oxydation des sols, qui sont perpétuellement régénérés par l'activité volcanique. Au final, on obtient une atmosphère sèche, ce qui explique bien l'absence de vapeur d'eau sur Vénus.

La rupture du cycle du carbone, augmente le gaz carbonique dans l'atmosphère. Une partie du gaz carbonique est tout de même soustraite par des transformations chimiques (sans eau) avec les roches silicatées de surface, produisant des roches carbonatées. L'équilibre est atteint pour des pressions de gaz carbonique et des températures observées de 90 bar et 430 °C.

images_atmos/atmevol-venus.gif
Evolution de l'atmosphère de Vénus.
Crédit : Astrophysique sur Mesure / Raphael Moreno et Gilles Bessou

Terre

Après la formation de la Terre, le faible flux solaire aurait dû geler l'eau, mais l'absence de glaciers il y a 4 milliards d'années semble indiquer que la température était bien plus clémente et qu'il y avait des océans. A cette époque, suite au dégazage, le gaz carbonique était beaucoup plus abondant qu'aujourd'hui permettant ainsi un effet de serre bien plus important. Cet effet a permis de maintenir une température moyenne proche de celle d'aujourd'hui (~ 15 °C). Au fur et à mesure, l'intensité du soleil a augmenté et le niveau de gaz carbonique a diminué à cause du cycle du carbone qui a transformé la plupart du gaz carbonique en roches carbonatées. A l'heure actuelle, on trouve uniquement des traces de gaz carbonique dans l'air. Par ailleurs, le développement intense de la vie sur Terre (il y a environ 2 milliards d'années) a favorisé l'augmentation de l'oxygène dans l'atmosphère grâce à la photosynthèse des plantes. Le cycle du carbone et le développement de la vie explique que notre atmosphère actuelle est composée principalement d'azote et d'oxygène.

Sur Terre, il y a un équilibre stable entre l'effet de serre et le cycle du carbone qui permet de réguler les températures moyennes entre 5 et 20 °C évitant ainsi un effet de serre divergent comme sur Vénus. Lorsque la température augmente, l'humidité augmente à cuase des pluies plus fréquentes, ce qui altère plus les sols et diminue la quantité de gaz carbonique. Par conséquent, l'effet de serre diminue et la température baisse. Inversement, si la température diminue fortement jusqu'à la congélation de l'eau ( 0 °C), il s'arrête de pleuvoir et le cycle du carbone s'interrompt. Le volcanisme, lui, persiste et provoque l'augmentation de la quantité de gaz carbonique. Cette fois-ci, l'effet de serre augmente et la température avec, permettant la fonte des glaces et des calottes polaires, puis l'évaporation des océans jusqu'à réanimer le cycle de l'eau (évaporation et pluies) et par conséquent celui du carbone. Un autre paramètre important pouvant altérer cet équilibre est l'activité de l'homme (aérosols, agriculture, combustion, etc), responsable de l'augmentation artificielle du niveau de gaz carbonique et d'autres gaz à effet de serre (CH4, polluants, etc). L'activité humaine doit absolument être maîtrisée pour éviter d'atteindre la zone dangereuse du régime d'emballement de l'effet de serre comme sur Vénus, qui serait un point de non-retour.

Mars

Les traces de lits de rivières à la surface de Mars sur des terrains géologiques anciens (Tharsis) prouvent que l'eau a coulé à la surface de Mars pendant les premiers 500 millions d'années. Un océan d'environ 150 mètres de profondeur a pu exister. La température était donc supérieure à 0°C et la pression supérieure à quelques bars, ce qui implique une forte concentration de gaz à effet de serre (CO2, H2O) et surtout un climat chaud et humide. Dans ces conditions, le cycle du carbone a transformé la majeure partie du gaz carbonique en roches carbonatées, comme sur Terre.

Par la suite, le bombardement tardif de planétésimaux (environs 700 millions d'années après la formation) et la relative faible gravité de la planète a probablement éliminé une partie de l'atmosphère soufflée par des impacts. D'autre part, la datation des terrains géologiques a permis de constater que les rivières ont disparu au bout d'environ 1 à 2 milliards d'années, ce qui coïncide avec la baisse de l'activité volcanique. Mars est une petite planète qui s'est refroidie plus rapidement que la Terre et Vénus, arrêtant ainsi volcanisme et activité tectonique et empêchant la régénération du gaz carbonique atmosphérique. Il faut noter que la variation temporelle (de 100000 ans à 1 million d'années) de l'inclinaison et de l'excentricité de la planète a accentué la formation de calottes polaires et le refroidissement à la surface.

L'arrêt du cycle du carbone, l'érosion de l'atmosphère et les changements climatiques ont contribué à des degrés différents à diminuer la quantité de gaz à effet de serre jusqu'aux pressions actuelles (7 mbar), refroidissant ainsi l'atmosphère jusqu'aux températures actuelles (-50 °C). Une partie de l'eau s'est congelée sur les calottes polaires, et une autre a disparu en s'infiltrant dans les sous-sols sous forme de pergélisol. Une dernière partie s'est échappée de l'atmosphère à la suite de la photodissociation de l'eau (comme sur Vénus).


Exercices Atmospheres

qcmQCM

1)  Les atmosphères de Mars et de Vénus sont constituées principalement de :






2)  Comment se sont formés les océans sur la Terre ?


3)  Après leur formation, qu'est-ce qui apporte du CO2 dans les atmosphères des planètes telluriques ?




4)  La pluie est le principal facteur d'élimination du CO2 dans l'atmosphère de la Terre. Sous quelle forme se dépose le CO2 ?


5)  L'effet de serre permet de réchauffer la température de surface de certaines planètes, pourquoi ?



exerciceA propos de l'eau sur Vénus

Question 1)

Pourquoi n'y a-t-il plus d'eau sur Vénus alors qu'il y en a sur la Terre ?

exerciceAugmenter l'effet de serre

Question 1)

Comment peut-on augmenter l'effet de serre ?

exerciceUne Terre à 100°C

Question 1)

Que se passerait-il si la température de la Terre augmentait de 100 °C ?


Les astéroïdes


Introduction

introductionIntroduction

Aucune étude de planétologie comparée ne saurait être complète sans inclure une analyse des corps les plus nombreux du Système Solaire : les astéroïdes et les comètes.


Pourquoi étudier les astéroïdes ?

Giuseppe Piazzi
Giuseppe_piazzi.jpg
Le père jésuite et astronome Giuseppe Piazzi designant de l'index le fruit de sa découverte.
Crédit : Observatoire astronomique de Palerme

Le premier jour de l'année 1801, Giuseppe Piazzi découvrit un objet qu'il pensa d'abord être une comète. Mais après que son orbite fut mieux déterminée, il apparut évident que ce n'était pas une comète mais qu'il s'agissait plus vraisemblablement d'une petite planète. Piazzi l'appela Cérès, en l'honneur du dieu sicilien de l'agriculture. Cette découverte marqua le début de l'exploration et de la recherche sur la population astéroïdale. Mais pourquoi que sont les astéroïdes, d'où viennent-ils et que nous apprennent-ils ?

Fossiles du Système Solaire

Petits objets rocheux de taille n'excédant pas quelques centaines de kilomètres de diamètre, les astéroïdes ont souvent été appelés, au milieu du siècle, "les vermines du ciel". Les petites traînées qu'ils laissaient sur les plaques photographiques étaient considérées comme des nuisances. Les astéroïdes occupent principalement la région de transition, entre les planètes telluriques et les planètes géantes, c'est à dire entre 2,1 et 3,3 UA. Quoique les astéroïdes aient subi une substantielle évolution collisionnelle depuis leur formation, la plupart d'entre eux n'ont pas eu à souffrir d'une grande évolution géologique, thermique ou orbitale. Et c'est là que réside le principal intérêt de l'étude des astéroïdes. De par leur petitesse, ces objets ont très vite évacué la chaleur originelle de la nébuleuse protosolaire figeant ainsi la composition initiale de cette dernière. Ainsi l'étude des petits corps nous renseigne sur les conditions initiales qui ont prévalu à la naissance du système solaire. En particulier, les météorites, qui sont des fragments d'astéroïdes, sont les preuves fossiles des événements qui ont affecté les premiers temps de la formation du système solaire.

impact géant
nasa_chicxulub_010.jpg
Une vue d'artiste d'un impact géant comme celui qui a produit le cratère de Chicxulub au Mexique.
Crédit : NASA/Don Davis

Par Toutatis!

Les astéroïdes sont aussi importants parce qu'ils sont la source de la plupart des météorites. De plus, certains astéroïdes, les géocroiseurs, ou en anglais Earth Crossing Asteroids (ECA) présentent un danger pour la Terre car leurs orbites croisent celle de notre planète. On sait que la terre, comme tous les corps du système solaire, a eu un passé violent. Pour preuve, la constellation de cratères dont est ornée la surface lunaire. De telles cicatrices sur Terre ont été masquées et érodées par l'activité terrestre. Il est rituel quand on parle de ce sujet, d'évoquer la chute d'un astéroïde ou d'une comète, il y a 65 millions d'années, à la frontière du Crétacé et du Tertiaire et qui fut peut-être responsable de l'extinction des dinosaures. Le cratère d'impact, retrouvé près de la côte de la péninsule du Yucatán près du village de Chicxulub (golfe du Mexique) a un diamètre estimé d'au moins 180 km.

Coloniser un astéroïde
images_aster/nasa_asteroid_mining.jpg
Une vue d'artiste illustrant l'exploitation d'un astéroïde pour ses ressources minières
Crédit : NASA/Denise Watt

Une mine d'or ?

Un troisième et dernier intérêt que l'on peut trouver à l'étude des astéroïdes est d'aspect économique. Les ressources sur Terre ne sont pas inépuisables, et on peut envisager, dans un futur proche pouvoir exploiter les ressources minières des astéroïdes. On estime qu'un kilomètre cube d'astéroïde de type M, c'est-à-dire métallique contient 7 milliards de tonnes de fer, 1 milliards de tonne de nickel, et suffisamment de cobalt pour satisfaire la consommation mondiale pendant 3000 ans. Les astéroïdes peuvent constituer d'avantageuses bases spatiales de pré-colonisation du système solaire. En effet, grâce à leurs ressources minières, ils peuvent pourvoir les colons en matériaux de construction, ainsi que leurs besoins en eau, oxygène, carbone et azote. De plus, de part leur faible masse et donc faible gravité, l'énergie requise pour quitter l'astéroïde-hôte est beaucoup plus faible que celle nécessaire pour quitter la Terre.


Localisation des astéroïdes

Un cliché instantané du Système Solaire intérieur
images_aster/Inner.gif
Instantané des positions des astéroïdes et des comètes le 17 Mai 2005. Tout ce qui gravite autour du Soleil jusqu'à Jupiter y figure. L'étoile jaune au centre est le Soleil. Les grands cercles bleus à partir du Soleil représentent successivement les orbites de Mercure, Vénus, La Terre, Mars et Jupiter. La position de chaque planète est aussi représentée par un cercle coloré. Les points de différentes couleurs représentent les différents groupes d'astéroïdes (voir page suivante). Les ronds rouges repésentent les astéroïdes géocroiseurs. Les points verts représentent les astéroïdes de la Ceinture Principale d'Astéroïdes. Les 2 nuages de points bleus situés de part et d'autre de Jupiter (points de Lagrange) représentent les astéroïdes Troyens. Enfin, les petits carrés bleus représentent les comètes.
Crédit : Minor planet Center (MPC)

Combien sont-ils?

En 2009, on recense environ 500 000 astéroïdes, dont 200 000 sont numérotés et seulement plus d'une centaine ont une dimension supérieure à 100km. Un astéroïde obtient son numéro et son nom quand un nombre suffisant d'observations a été effectué pour déterminer ses éléments orbitaux avec précision. Le rythme annuel des découvertes est actuellement de plusieurs milliers, ceci grâce aux programmes automatiques de recherche. Il y a certainement encore des centaines de milliers d'autres astéroïdes qui sont trop petits, trop sombres ou trop distants de la Terre pour être détectés. Le plus gros astéroïde du Système Solaire, Cérès, a un diamètre de 940 km et une masse de 1,18 1021 kg. A lui seul, il représente environ un tiers de la masse totale de la ceinture principale (voir définition plus loin). Puis viennent par ordre de taille, Vesta (576 km), Pallas (538 km) et Hygiéa (429 km). Ensuite, les tailles décroissent très vite car seulement 30 astéroïdes ont un diamètre supérieur à 200 km, 200 astéroïdes ont un diamètre supérieur à 100 km et on estime à un million le nombre d'astéroïdes de taille kilométrique.


Panorama de la population astéroïdale

Des géocroiseurs à la Ceinture Principale d'Astéroïdes

La grande majorité des astéroïdes occupe une "ceinture" située entre Mars et Jupiter, et connue sous le nom de ceinture principale, qui s'étend entre 2,1 et 3,3 UA du Soleil. Un petit nombre ont leur demi-grand axe plus grand ou plus petit, ou une excentricité telle qu'ils n'appartiennent pas à cette région (figure ci-contre). Faisons un petit tour du Système Solaire des astéroïdes en commençant par les plus proches de notre étoile.

Nous rencontrons tout d'abord le groupe des Aten (les groupes d'astéroïdes sont souvent dénommés d'après le nom du premier membre découvert, en l'occurrence ici, 2062 Aten), qui a un demi-grand axe a < 1,00 UA donc tourne autour du Soleil en moins d'une année terrestre. Il est à noter que ces objets croisent l'orbite de la Terre (distance à l'aphélie Q ≥ 0,983). Ensuite, nous avons encore deux autres groupes d'astéroïdes, le groupe des Apollo (a > 1,00 UA et distance au périhélie q ≤ 1,02) et le groupe des Amor (a > 1,00 UA et 1,02 < q ≤ 1,30). Les objets Amor ne croisent donc, actuellement, que l'orbite de Mars. L'ensemble des Objets Aten-Apollo-Amor sont souvent dénommés OAAA, ou NEAs, (acronyme des mots anglais Near Earth Asteroids) ou encore géocroiseurs. Ce sont ces objets qui présentent un danger de collision potentiel avec la Terre, et qui sont étroitement surveillés. Plus loin du Soleil, nous trouvons le groupe de Hungaria entre 1,82 et 2,00 UA, bien en dehors de l'orbite de Mars (1,52 UA). A cause de l'excentricité de son orbite, Mars a « nettoyé » la région entre 1,38 et 1,66 UA. Enfin, nous atteignons la région très peuplée de la ceinture principale d'astéroïdes (CPA). Cette région est clairement entrecoupée d'espaces vides d'astéroïdes : les lacunes de Kirkwood. Nous reparlerons de ces lacunes et de leur signification un peu plus loin.

Histogramme
images_aster/OrbEls01.gif
Cet histogramme montre la répartition des astéroïdes en fonction de leur distance au Soleil. Les résonances et les lacunes de Kirkwood y sont apparentes.
Crédit : Minor Planet Center (MPC)

Panorama de la population astéroïdale II

Des troyens aux objets trans-neptuniens

A la frontière de la ceinture principale d'astéroïdes, on trouve le groupe de Cybeles (3,2 UA), et plus détaché se trouve le groupe de Hildas à 4 UA du Soleil. Ensuite, sur la même orbite que Jupiter, aux points de Lagrange L4 et L5, une population d'objets suit et précède la planète géante d'un angle de 60° avec le Soleilb: les Troyens. Plusieurs centaines d'astéroïdes de ce type sont connus ; parmi les plus gros sont 624 Hektor (222 km), 588 Achilles (147 km) et 617 Patroclus (149 km). Il existe aussi un petit nombre d'astéroïdes (appelés Centaures) dans la partie externe du Système Solaire : 2060 Chiron se situe entre Saturne et Uranus ; l'orbite de 5335 Damocles commence près de Mars, et va jusqu'au delà d'Uranus ; 5145 Pholus orbite de Jupiter jusqu'à Neptune. Il y en a probablement beaucoup d'autres, mais de telles orbites croisant celles des planètes géantes sont instables, et hautement susceptibles d'être perturbées dans le futur. La composition de ces objets est probablement plus proche de celle des comètes que de celle des astéroïdes ordinaires. En particulier, Chiron est désormais considéré comme une comète. D'ailleurs, astéroïdes et comètes, loin de former deux populations bien distinctes ont des liens très étroits.

Pour conclure ce panorama des astéroïdes, il faut signaler la présence de deux autres populations d'astéroïdes situées encore plus loin du Soleil. La première est la ceinture d'Edgeworth-Kuiper (ou objets trans-neptuniens) située au delà de l'orbite de Neptune entre 30 et 100 UA environ. Son existence a été prédite conjointement par Edgeworth (1949) et Kuiper (1951) pour expliquer l'origine des comètes à courte période. La première observation d'un objet trans-neptunien a été faite beaucoup plus tardivement (pour des raisons techniques évidentes, dues à la faible magnitude de ces objets) par Jewitt et Luu en 1992. Il s'agit de 1992 QB1 qui a un demi-grand axe de 44,2 UA. A une distance aussi lointaine, on pense que ces objets pourraient constituer un réservoir de comètes, avec une composition de glaces et de roches. L'étude de ces corps sera l'objet de la mission NASA New Horizons, lancée en 2006, et qui devrait atteindre la ceinture de Kuiper après 2015.

Aux confins du système solaire se trouve un vaste nuage de comètes, que l'on pense être de forme sphérique : le nuage de Oort. Composé probablement de 1012 objets, il s'étend au delà de l'orbite de Pluton entre 30000 UA et une année lumière ou plus. C'est très probablement le réservoir des comètes à longue période. Il n'a encore jamais été observé directement.

oort_kb.jpg
Schéma du système solaire avec la ceinture de Kuiper et le Nuage de Oort.
Crédit : Astrophysique sur Mesure / Françoise Roques et Gilles Bessou

Les lacunes de Kirkwood

La figure donnant la distribution des astéroïdes en fonction de leur demi-grand axe montre clairement que certaines régions sont vides d'astéroïdes. Ces lacunes, découvertes en 1867 par D. Kirkwood qui leur a donné son nom, représentent des périodes orbitales interdites, et non des distances héliocentriques interdites. En effet, les astéroïdes, proches des lacunes de Kirkwood, possèdent une orbite suffisamment allongée pour leur permettre de traverser ces lacunes fréquemment. Ainsi, la Figure ci-contre qui est un instantané des positions des astéroïdes le 17 Mai 2005, ne révèle pas de lacunes.

Les lacunes de Kirkwood correspondent à des périodes orbitales qui sont commensurables avec la période de révolution de Jupiter. Une telle commensurabilité a lieu quand la période de révolution d'un astéroïde est un multiple p/(p+q) de la période de révolution de Jupiter, où p et q sont des entiers de l'ordre de l'unité. Traditionnellement, ces commensurabilités s'appellent résonances de moyen mouvement et se notent (p+q) : p. Ainsi, la résonance 3:1 concerne les astéroïdes qui effectuent trois révolutions pour une effectuée par Jupiter.

Une résonance
images_aster/resonance.gif
Illustration de la résonance 3:1 avec Jupiter
Crédit : Astrophysique sur Mesure / Alain Doressoundiram et Gilles Bessou

Les résonances sont très importantes pour comprendre la dynamique des astéroïdes de la ceinture principale. En effet, les résonances sont des zones chaotiques du Système Solaire et on montre qu'elles gouvernent les mécanismes responsables du transfert des astéroïdes de la ceinture principale d'asteroïdes (CPA) vers les astéroïdes géocroiseurs. Ainsi, un astéroïde tombant dans une résonance (par le biais de collisions ou perturbations par un autre astéroïde proche de lui) est très (quelques millions d'années) vite éjecté de la CPA.


Diversité des astéroïdes

Les astéroïdes présentent une grande diversité de tailles, de formes et de couleurs. Nous avons vu que la taille des astéroïdes varie entre un millier de kilomètres pour le plus gros (Cérès) et quelques mètres de diamètre pour les plus petits.

Les masses actuellement connues pour les trois plus gros astéroïdes sont :

1 Cérès 1,18 1021 kg

2 Pallas 0,216 1021 kg

4 Vesta 0,275 1021 kg

Ce qui donne des densités de:

1 Cérès 2,12 (± 40%) g.cm-3

2 Pallas 2,62 (± 35%) g.cm-3

4 Vesta 3,16 (± 45%) g.cm-3

La connaissance des densités des petits corps apporte quelques indications sur la composition interne, par comparaison avec les densités des météorites.

Les formes des astéroïdes peuvent être plus ou moins déterminées, comme la période de rotation, à partir de la courbe de lumière. Pour les astéroïdes suffisamment grands (D > 150km), la forme d'équilibre gravitationnelle est la sphère. Par contre, la forme des astéroïdes plus petits, issus des collisions, est certainement irrégulière. Cependant, un certain nombre de fragments peuvent se réaccumuler, sous l'effet de l'autogravitation et former un aggloméré sphérique. C'est ce qu'on appelle un « tas de gravats » ou en anglais, « rubble pile ».

La ceinture principale d'astéroïdes (CPA) : planète avortée ou détruite ?

C'est une question qui a longtemps accupé les esprits des scientifiques depuis les premières années de la découverte des astéroïdes. En effet, faisant écho à la fameuse loi de Titius-Bode, on s'attendait à trouver entre Mars et Jupiter (2,8 AU) une seule et unique planète au lieu des myriades de petits corps que l'on connait aujourd'hui. La CPA serait-elle le résultat d'une planète ayant explosé en milliers de débris ? En fait, on pense plutot aujourd'hui que la CPA est la conséquence d'une planète n'ayant jamais pu se former. Pourquoi? Parce que la formation précoce de Jupiter a eu pour conséquence d'exciter (d'accélérer les vitesses) les planétésimaux présents entre Mars et Jupiter, empêchant ainsi tout phénomène d'accrétion. Rappelons que la formation des planètes s'est faite par accrétion (voir la figure formation ), c'est à dire collisions constructives (coalescence), entre planétésimaux. Or, à cause de la présence de Jupiter, les collisions dans la CPA actuelle sont destructives.


Portraits

Un astéroïde vu d'un télescope
otawara.gif
L'astéroïde 4979 Otawara (point circulaire blanc au milieu) observé avec un télescope de 60 cm. L'astéroïde apparaît circulaire et les étoiles autour comme des trainées car le télescope a suivi l'astéroïde.
Crédit : Alain Doressoundiram/Observatoire de Paris

Même avec les plus grands télescopes du monde, un astéroïde apparaitra toujours comme un petit point brillant, car c'est un corps relativement petit et distant. Pour avoir une idée véritable de la surface d'un astéroïde et en avoir une image précise, il faut envoyer une sonde planétaire. Ces dernières années ont, par chance, permis à des missions spatiales de ramener des images spectaculaires de ces petits corps.

Ida et Dactyl
idadactyl_color.jpg
Le système double Ida-Dactyl observé lors du survol de la sonde GALILEO le 28 Août 1993 constitua la première preuve directe de l'existence d'astéroïdes binaires.
Crédit : NASA/Galileo

Ida est la première image (avec Gaspra) d'un astéroïde. Elle a été prise par la sonde Galileo en route vers Jupiter. Ida a pour dimensions 56 x 24 x 21 kilomètres. On peut voir que la surface de Ida est couverte de cratères, témoignant du fait qu'aucun corps du Système Solaire (même aussi petit qu'un astéroïde) n'a été épargné par les collisions.

Mathilde
mathild2.jpg
Image de 253 Mathilde prise par la sonde NEAR le 27 Juin 1997 à une distance de 2400 km. La partie éclairée de l'astéroïde fait environ 59 par 47 km d'envergure, la lumière incidente du Soleil venant d'en haut à droite. La résolution est de 380 mètres. On peut distinguer au centre le plus gros cratère de 30 km de diamètre ainsi que les bords d'autres grands cratères.
Crédit : NASA/Galileo

Les images de Mathilde ont surpris en révélant des collisions intenses observées grâce aux cratères en surface. L'imageur de la sonde a trouvé au moins cinq cratères de plus de vingt kilomètres de diamètre sur le côté jour de l'astéroïde. On se demande comment Mathilde a pu rester intact après des collisions aussi violentes, et c'est pourquoi on pense que l'astéroïde a une structure en "rubble pile". La valeur de la densité autour de 1,3 semble conforter cette hypothèse.


NEAR et autres missions

433 Eros a une place particulière dans la population astéroïdale. Tout d'abord c'est un des plus gros géocroiseurs (33x13x13 km), d'autre part il a fait l'objet d'une mission dédiée de la NASA: la mission NEAR (Near Earth Astéroid Rendez-vous). En effet, la sonde NEAR a étudié Eros sous toutes ses coutures, passant une année en orbite autour de l'astéroïde, pour finalement y "atterrir" le 12 février 2001.

Eros
Une vue impressionnante de l'astéroïde Eros alors que la sonde NEAR se trouvait en orbite basse (à 200 km de la surface).
Crédit : NASA/Galileo

La sonde Hayabusa de l'agence spatiale japonaise (JAXA) a atteint l'astéroide Itokawa en 2005, autour duquel elle s'est mise en orbite proche (prenant des photographies à environ 10km de d'altitude). La sonde est ensuite parvenue, de façon spectaculaire et pour la première fois, à "atterir" sur l'astéroïde le 19 novembre pour y prélever directement des échantillons ! Ayant ensuite redécollé, Hayabusa fait route vers la Terre pour y larguer sa récolte en 2010.


Composition

Les astéroïdes sont de petits rochers dont la composition consiste essentiellement en des silicates (pyroxène, olivine) et des métaux. La spectroscopie, appliquée à l'observation de ces corps, permet de décomposer la lumière qu'ils renvoient, et ainsi d'obtenir leur spectre, qui permet de caractériser la composition chimique des astéroïdes. Le pourcentage de lumière réfléchie, caractérisé par l'albédo, est un autre paramètre important qui permet d'affiner cette composition. Par exemple, savoir si on a affaire à un matériau brillant ou sombre est important. Albédo et spectres permettent de classer les astéroïdes en types taxonomiques (la taxonomie est la science qui a pour objet de décrire les corps afin de pouvoir les identifier, les nommer et les classer) :

Il existe encore une douzaine d'autres types plus rares mais qui sont des variantes de ces 3 types principaux


Exercices Asteroides

qcmQCM

1)  Pourquoi la plupart des astéroïdes ne sont-il pas sphériques comme les planètes ?




2)  La plupart des astéroïdes résident dans la ceinture principale. où est situé cette ceinture principale ?





Conclusion

conclusionConclusion

Tous les astéroïdes visités
images_aster/all-asteroids.jpg
Ce montage donne une vue synthétique d'astéroïdes visités par des sondes spatiales depuis 1991. 253 Mathilde, le plus gros des astéroïdes visités, a un diamètre de 60 km.
Crédit : Montage Alain Doressoundiram/Observatoire de Paris à partir d'images NASA

Vers une nouvelle ère d'exploration des petits corps du Système Solaire

Après le succès retentissant de la mission NEAR vers l'astéroïde EROS, les scientifiques envisagent des missions beaucoup plus ambitieuses. C'est le cas par exemple de la mission HAYABUSA de l'agence spatiale japonaise (JAXA) dont l'objectif est ni plus ni moins que de ramener un échantillon d'astéroïde sur Terre.

Deux missions d'envergure sont actuellement sur les rangs. La mission NASA Dawn a été lancée le 27 septembre 2007. Elle fait route vers deux astéroïdes majeurs, Cérès et Vesta, autour desquels elle se mettra en orbite (2001-2012 pour Vesta et 2015 pour Cérès) afin d'étudier leur composition très différente. En parallèle, la mission NASA New Horizons, lancée le 19 janvier 2006 à destination des confins du système solaire, survolera le centaure Crantor en 2010, Pluton et Charon en 2015 (ainsi que leurs deux nouveaux satellites Hydra et Nyx, décelés par le satellite Hubble en 2005), pour continuer ensuite dans la ceinture de Kuiper jusqu'en 2020, où plusieurs objets de 50 à 100km de diamètre pourront être observés.


Les comètes


Introduction

introductionIntroduction

Les comètes sont connues depuis l'Antiquité. Certaines sont visibles dans le ciel à de rares occasions (~10 ans). Suivant les différentes cultures, la croyance populaire associait les comètes à un symbole de bon ou de mauvais présage. Elles ont une orbite elliptique et inclinée par rapport au plan de l'écliptique. Certaines sont périodiques, c'est à dire qu'elles sont visibles régulièrement comme la comète de Halley (période 77 ans), d'autres non. Plus de 2000 comètes sont recensées actuellement. Les plus grandes ou celles qui s'approchent suffisamment de la Terre sont observables à l'oeil nu, mais la plupart d'entre-elles ne sont visibles qu'avec un télescope. Parmi les grandes comètes observées ces dernières décennies, on citera les comètes Hale-Bopp et Hyakutake.

La comète de Halley
halley.jpg
La comète de Halley en mars 1986.
Crédit : NASA/NSSDC

Propriétés physiques

Le noyau des comètes est composé d'un mélange de glace et de poussière; de faible densité (0,1 à 1), il est poreux et friable. On peut associer ce noyau à une "boule de neige sale" plutôt compacte, que l'on pourrait séparer facilement avec ses mains, tant le noyau est fragile. Un noyau cométaire peut avoir un diamètre de 1 à 20 km, une masse de 108 à 1012 tonnes et il tourne sur lui-même avec une période de rotation de 4 à 70 heures.

Les noyaux cométaires sont relativement petits et peu massifs comparés aux planètes. Par conséquent, leur gravité est faible. Si nous étions sur une comète, un simple saut nous éjecterait de sa surface et nous empêcherait de retomber sur celle-ci. Ce même effet explique pourquoi les comètes ne peuvent pas conserver d'atmosphère. Les noyaux cométaires sont tellement petits qu'ils sont difficilement observables depuis la Terre. Cependant, la mission spatiale ESA Giotto a permis d'observer de près le noyau de la comète de Halley en 1986.

noyau_halley.jpg
Le noyau de la comète de Halley observé par la sonde GIOTTO.
Crédit : ESA

L'activité cométaire

Quand les comètes s'approchent du soleil, le rayonnement solaire qui les atteint est plus intense et permet de sublimer les glaces. Cet échappement gazeux entraîne avec lui des poussières. On observe :

Structure d'une comète application.png

Les différents "visages" de la comète au cours de son orbite
images_comet/cometes.gif
Evolution de l'activité cométaire au cours de l'orbite
Crédit : Astrophysique sur Mesure / Alain Doressoundiram et Gilles Bessou

Composition

Les poussières sont principalement constituées de silicates dont la composition ressemble à celle des olivines (Fe2SiO4, Mg2SiO4) ou des pyroxènes (FeSiO3, MgSiO3). Les glaces du noyau sont composées essentiellement d'eau avec quelques pourcents de glace de monoxyde de carbone (CO).

Des composés minoritaires moléculaires ont été observés dans les atmosphères cométaires: on citera par exemple CO, CO2, CH3OH, H2CO, CH4, NH3, HCN, H2S, CS, SO, SO2, ainsi que des nitriles et des hydrocarbures. La photodissociation et l'ionisation de ces molécules à partir du rayonnement UV solaire permet de produire d'autres molécules, ions et atomes tels que CN, NH, NH2, C2, CH, OH, CO+, H2O+, O, H

chimie_comet.jpg
Composition chimique des comètes. Sous l'effet du rayonnement solaire, les glaces du noyau se subliment (1ère série de molécules représentées, que l'on appelle les "molécules mères"). Les rayons UV solaires brisent ces molécules (on parle de photo-dissociation) pour donner naissances aux "molécules filles", celles que l'on détecte en faisant des observations (2ème série de molécules, à droite).
Crédit : Astrophysique sur Mesure / Françoise Roques et Gilles Bessou

Origine

Nos connaissances actuelles sur l'origine des comètes indiquent que celles-ci proviennent de deux grands réservoirs différents : le Nuage de Oort et la ceinture de Kuiper

Le nuage de Oort

Le premier réservoir entoure notre système solaire et se situe entre 50 000 et 100 000 UA. C'est le nuage de Oort d'où proviennent les nouvelles comètes dont les trajectoires présentent des inclinaisons quelconques par rapport au plan de l'écliptique et ont de longues périodes (Périodes ~50-5000 ans) comme la comète de Halley (77 ans) ou Hale-Bopp (4 000 ans). Les comètes de ce réservoir se seraient formées à l'intérieur du système solaire en même temps qu'il se formait lui-même. Les perturbations gravitationnelles des planètes géantes nouvellement créées auraient par la suite éjecté ces comètes du système solaire formant ainsi le nuage de Oort. On estime qu'environ 1000 milliards de comètes pourraient être présentes dans ce réservoir. Du fait de leur grand éloignement par rapport au soleil, on pense que les nouvelles comètes provenant du nuage de Oort ont une composition qui reflète celle des régions externes de la nébuleuse primitive. L'étude des comètes permet donc de mieux comprendre la composition et les conditions physico-chimiques de la nébuleuse primitive. N. B : à ce jour, le nuage de Oort n'a jamais été observé directement.

La ceinture de Kuiper

La ceinture de Kuiper est le deuxième réservoir de comètes. On peut la représenter comme un tore, entourant le plan de notre système solaire, et qui se serait formée en même temps que celui-ci au-delà de Neptune (de 30 UA jusqu'à une distance inconnue). On pense que les comètes de la famille de Jupiter proviennent principalement de ce réservoir. Elles ont comme caractéristiques d'avoir des périodes orbitales courtes (entre 3 et 15 ans) et des inclinaisons faibles. Depuis 1992, environ 1300 objets de la ceinture de Kuiper ont été détectés (2009), confirmant ainsi l'existence de ce réservoir cométaire.

oort_kb.jpg
Schéma du système solaire avec la ceinture de Kuiper et le Nuage de Oort.
Crédit : Astrophysique sur Mesure / Françoise Roques et Gilles Bessou

Mort de comètes

Le rayon des comètes diminue à chaque passage près du soleil d'environ 1 mètre, en moyenne. Au bout de 1000 passages, elles perdent pratiquement toute leur masse et s'éteingnent définitivement. D'autres catastrophes peuvent détruire les comètes prématurément : I) rencontre et chute avec une planète (Shoemaker-Levy 9) ou le soleil (famille Kreutz), II) désintégration à cause de la proximité du soleil (Linear S4). Une vingtaine de comètes brisées ont été observées durant le siècle passé, ce type d'évènement étant peu fréquent mais pas rare.

La comète SL9

En 1993, la comète Shoemaker-Levy 9 (SL9) est découverte; elle appartient à la famille de Jupiter. Des observations plus précises montrent alors que la comète s'est fragmentée en une vingtaine de morceaux. A son dernier passage au voisinage de Jupiter (juillet 1992), elle aurait atteint la limite de roche et les forces de marée de la planète ont été suffisamment fortes pour détruire sa cohésion et la briser en une vingtaine de morceaux. On calcule que cette comète entrera en collision avec Jupiter vers le 25 juillet 1994.

Pendant une semaine environ, les différents morceaux de SL9 tombent successivement sur Jupiter, entraînant des explosions d'intensités différentes. La fréquence de collisions d'une comète telle que SL9 sur Jupiter est de l'odre de une tous les 500 à 6000 ans selon différentes études. On peut donc aisément considérer la chute de la comète SL9 sur Jupiter comme l'IMPACT DU XX SIECLE ! Par ailleurs, la comète Brooks 2 en 1886 est passée à environ 70000 km de la surface de Jupiter. Cette comète s'est brisée en 2 morceaux mais n'est pas tombée sur Jupiter comme la comète SL9.

images_comet/hst_sl9_9426c.jpg
Image de la comète Shoemaker-Levy 9 prise le 17 mai 1994 par la caméra du HST. La largeur de l'image correspond à environ un million de km soit 3 trois la distance Terre-Lune.
Crédit : H.A. Weaver, T. E. Smith (Space Telescope Science Institute) et NASA

Famille Kreutz

Le groupe de comètes dont le périhélie est inférieur à 0,01 UA appartient à la famille Kreutz. Ces comètes passent tellement près du soleil au périhélie qu'elles peuvent tomber sur le soleil dont le rayon est d'environ 0.0023 UA. On estime à environ 50000 comètes appartenant à la famille de Kreutz.

Le diamètre de ces comètes (difficile à mesurer) semble être assez petit (environ quelques dizaines de mètres). La comète Ikeya-Seki est un exemple d'une comète brillante de cette famille. Cependant il est assez difficile d'observer ces comètes à cause de leur proximité du soleil. Le satellite SOHO qui étudie le soleil, a des instruments assez adaptés pour observer ces comètes.

soho_54_c2_3.gif
Image de la comète C/1998 K10 avec le satellite SOHO juste avant de plonger dans le Soleil.
Crédit : NASA/SOHO

La comète linear S4

La comète Linear S4 était une nouvelle comète provenant du nuage de Oort. A son dernier passage en juillet 2000, son périhélie était à environ 0,76 UA du Soleil. Cette comète d'environ 500m de diamètre a eu une augmentation de son activé entre le 18 et le 23 juillet 2000, impliquant une fragmentation progressive de son noyau en une vingtaine de petits morceaux de 50 à 120 m de diamètre.

On pense que l'augmentation de l'activité cométaire juste avant le périhélie due à la proximité du Soleil et la rotation du noyau sont à l'origine de la destruction de la comète Linear S4. Cependant, les raisons exactes de cette désintégration sont encore mal comprises. Malgré tout, il apparaît clairement que les comètes peuvent être de nature très "friable".

hst_linear_s4.jpg
Image de la comète Linear S4 prise le 5 août 2000 à partir du HST, environ 2 semaines après le début de la fragmentation de la comète. Cette image montre une multitude de petits fragments cométaires à la place d'un seul noyau.
Crédit : H.A. Weaver - NASA/HST

17 P Holmes

Une autre comète de la famille de Jupiter s'est parée d'une célébrité récente. Il s'agit de 17P Holmes, découverte par l'astronome du même nom en 1892. Cette comète est maintenant très connue pour son activité évènementielle d'octobre 2007, où sa luminosité a brutalement augmenté de 15 ordres de grandeur (soit 1 million de milliards de fois !), passant de la magnitude 17 à 2,8. Elle est ainsi devenue visible à l'oeil nu, prenant l'apparence d'une étoile jaune brillante. L'origine de cet éclat provient vraisemblablement d'un dégazage soudain lié à son passage au plus près du soleil en mai 2007, peut-être lié à son fractionnement. La taille visible de la chevelure cométaire a ainsi augmenté considérablement pour atteindre la dimension apparente de Jupiter.


Exercices Cometes

qcmQCM

1)  Pourquoi les comètes brillent-elles ?



2)  Les noyaux cométaires sont constitués de glaces et de poussières. Cette glace est-elle comestible ?




exerciceTaille des comètes et des astéroïdes

Question 1)

En moyenne les comètes sont-elles plus grandes que les astéroïdes ?

exerciceNombre de comètes et d'astéroïdes

Question 1)

Y a-t-il plus de comètes répertoriées que d'astéroïdes ?


Conclusion

conclusionConclusion

Nous avons constaté que la diversité des objets du Système Solaire est d'une grande richesse. L'étude détaillée de ces objets nous donne une vision de leur histoire, et permet aussi de mieux comprendre la formation et l'évolution de notre système planétaire. Finalement, l’étude de ces objets fournit des contraintes sur les environnements physico-chimique qui peuvent permettre l’apparition de la vie.


Réponses aux QCM

pages_bb-qcm/bb-qcm-cosmo-1.html

QCM

pages_definition-systeme-solaire/bb-exercices-intro-planetologie.html

QCM

pages_promenade-telluriques/bb-exercices-mercure.html

QCM

pages_promenade-telluriques/bb-exercices-venus.html

QCM

pages_promenade-telluriques/bb-exercices-terre.html

QCM

pages_promenade-telluriques/bb-exercices-mars.html

QCM

pages_geologie-comparee/bb-exercices-geologie.html

QCM

pages_atmospheres-planetaires/bb-exercices-atmospheres.html

QCM

pages_asteroides/bb-exercices-asteroides.html

QCM

pages_cometes/bb-exercices-cometes.html

QCM


Réponses aux exercices

pages_visite-univers/bb-exo-distances-2.html

Exercice 'La mesure de la distance Terre-Lune'


pages_visite-univers/bb-exo-distances-3.html

Exercice 'Le Soleil et Alpha du Centaure à l'échelle de la Terre'


pages_redshift/bb-exercice-decalage.html

Exercice 'Décalages vers le rouge'


pages_modeles-univers/bb-exo-equilibre-univers.html

Exercice 'L'équilibre de l'Univers'


pages_modeles-univers/bb-applet-univers.html

Exercice 'Fabriquez votre propre univers'


pages_la-matiere/bb-exo-atomes.html

Exercice 'Quels sont ces éléments?'


pages_atomes/exo-bb-helium.html

Exercice 'Synthèse de l'hélium'


pages_atomes/bb-exo-abondance-helium.html

Exercice 'l'abondance de l'hélium'


pages_atomes-etoiles/bb-exo-fer.html

Exercice 'Alchimie du fer'


pages_histoire-univers/bb-hubble-age.html

Exercice 'L'âge de l'Univers… de 1931 à nos jours'


pages_observation/bb-exo-distance-etoiles.html

Exercice 'Distance des étoiles'


pages_methodes-detection/exo-rapport-flux.html

Exercice 'Rapport de flux Terre/Soleil'


pages_methodes-detection/exo-vrad.html

Exercice 'Application numérique Vitesse Radiale'


pages_methodes-detection/exo-transit1.html

Exercice 'Effet d'un transit Terre/Soleil et Jupiter/Soleil'


pages_methodes-detection/exo-transit2.html

Exercice 'Probabilité d'un transit'


pages_resultats-observations/exercice-orbite-exoplanete.html

Exercice 'Orbites'