Le but de ce module est d'appréhender la relation entre l'espace et le temps, depuis le système solaire jusqu'à l'Univers dans son ensemble. Le déroulement se fait sous la forme ludique d'un voyage depuis la Terre jusqu'aux confins de l'Univers.
Les notions principales qui y seront acquises incluent :
Il n'y a pas de pré-requis particulier pour ce cours qui peut être suivi par des élèves de niveau L1 indifférencié.
La Terre est une des quatre planètes dites telluriques du système solaire, c’est-à-dire une planète essentiellement rocheuse avec un noyau métallique. Son rayon moyen est de 6371 km et elle tourne autour du Soleil avec une vitesse de près de 30 km/s. L'image ci-dessous démontre la petite taille relative de la Terre par rapport aux planètes géantes gazeuses, et encore plus par rapport au Soleil. L'image ci-contre montre à quel point l'atmosphère terrestre est ténue comparée au diamètre terrestre.
La planète Terre est de taille modeste surtout comparée au Soleil. Sa couche atmosphérique est particulièrement ténue !
Difficulté : ☆
Mentionner les 8 planètes du système solaire, par ordre croissant de distance au Soleil.
Le rayon du Soleil est de 696 000 km. L'épaisseur de l'atmosphère respirable par l'homme (troposphère) est de 10 km, la stratosphère qui inclut la couche d'ozone atteint une altitude de 50 km. Calculer le rapport de la taille du Soleil sur celle de la Terre, puis le rapport de la taille de la Terre sur celle de la troposphère et de la stratosphère. Commentez ces chiffres.
Difficulté : ☆☆
Pourquoi la vitesse de Jupiter autour du Soleil (qui est de 13 km/s) est inférieure à celle de la Terre ?
Depuis les années 1970, l'humanité a envoyé de nombreuses sondes spatiales pour explorer le système solaire. Ces sondes se déplacent à des vitesses qui sont limitées par l'efficacité de leur moteur et de leur carburant. La sonde New Horizons, lancée par la NASA le 19 Janvier 2006 a acquis une vitesse de 16 km/s après sa sortie de l'atmosphère terrestre, c'est-à-dire la plus grande vitesse acquise par une sonde. Le passage au voisinage de Jupiter, le 28 juillet 2007, a permis d'augmenter la vitesse en direction de Pluton de 4 km/s. C'est l'effet de fronde gravitationnelle (voir explication et vidéo sous l'icône, ci-dessous à droite).
De très nombreux objets ont été découverts au-delà de l'orbite de Neptune, l'un d'entre eux, Eris ayant une masse plus importante que celle de Pluton. Ils sont cependant tous beaucoup moins massifs que la Terre. Cela a conduit, en 2006, l'Union Astronomique Internationale (UAI) à redéfinir la notion de planètes, comme étant des objets qui "dominent tous les autres objets au voisinage de leurs orbites". Pluton, Eris et de nombreux autres objets dit "trans-neptuniens" ont été classifiés comme planètes naines.
Difficulté : ☆☆
Pourquoi Pluton est-il une planète naine d'après la définition de l'UAI ? Quelles sont les autres caractéristiques de Pluton et autres planétésimaux qui les différencient des planètes externes dites géantes gazeuses ?
Difficulté : ☆☆
Les vitesses des sondes lorsqu'elles s'éloignent du Soleil sont ralenties par la masse de ce dernier. Par exemple, New Horizons avait une vitesse moyenne de 14 km/s après son passage au voisinage de Pluton, en 2015.
Les objets transneptuniens sont observés jusqu'à des distances de 70 unités astronomiques. On considérera que la limite de ces objets est de 100 unités astronomiques. L'unité astronomique est la distance Terre-Soleil, et vaut 150 millions de km. A quelle époque New Horizons aura atteint la limite des objets transneptuniens ?
Les sondes Pioneer et Voyager sont les objets de fabrication humaine ayant atteint les plus grandes distances. Voyager 1, lancé en 1977, détient le record dans ce domaine, ainsi que la plus grande vitesse d'éloignement (17 km/s) obtenue grâce à l'effet de fronde gravitationnelle avec la planète Saturne. Ils se rapprochent de l'héliopause (Voyager 1 l'a atteint en 2012) qui se trouve à près de 100 unités astronomiques de nous. L'héliopause se caractérise par l'équilibre entre la pression due aux radiations solaires, à celle due au milieu interstellaire. Elle représente bien la zone d'influence de notre astre.
Les signaux radio en provenance de Voyager 1 nous parviennent en environ 16 heures. Ils voyagent à la vitesse de la lumière. En comparaison, la lumière de l'étoile la plus proche, Proxima du Centaure, nous parvient après 4,2 années de voyage. A la vitesse de Voyager 1, il faudrait près de 75 000 années pour atteindre Proxima du Centaure !
La présence de planètes autour des très nombreuses étoiles de la Galaxie a été mise en évidence dans les années 1990. Depuis, plusieurs milliers ont été découvertes. Les techniques observationnelles les plus utilisées sont d'observer les perturbations causées par les planètes sur leur étoile, soit par spectroscopie (perturbation de la vitesse radiale de l'étoile), soit par transit (passage de la planète devant l'étoile perturbant sa luminosité). Ces techniques (voir vidéo sous l'icône) ne permettent pas de connaître précisément la fraction d'étoiles possédant un cortège planétaire, mais on estime à plusieurs milliards, voire centaines de milliards le nombre de planètes dans la Galaxie.
Beaucoup de planètes extrasolaires découvertes aujourd'hui sont bien plus massives que la Terre, car ce sont celles qui perturbent le plus leur étoile, et sont donc plus faciles à détecter. Cependant on découvre aussi des planètes ayant des masses comparables à celle de la Terre, et il n'y a aucun doute que l'on va en découvrir de plus en plus dans les années à venir.
En février 2011, les responsables de la mission spatiale KEPLER ont annoncé la découverte de 1235 candidats planètes extrasolaires. Cinq de ces candidats ont une taille proche de la Terre et sont situés à une distance de leur étoile qui permettrait la présence d'eau liquide à leur surface (zone habitable). Ces candidats doivent être vérifiés par des observations spectroscopiques. En effet, la technique des transits peut confondre une planète avec une étoile-compagnon.
Durant les prochaines décennies, nous devrions être capables d'identifier des planètes similaires à la Terre, puis de vérifier la présence d'eau et d'éventuels marqueurs biologiques. Pourra-t-on visiter ces planètes ? Quelle serait la possibilité d'envisager une migration vers des planètes extrasolaires ?
Plusieurs astrophysiciens et physiciens étudient la possibilité d'un tel voyage, généralement en association avec les Agences Spatiales. Les principaux problèmes étudiés sont :
Pour poursuivre notre exploration de l'Univers, nous sommes confrontés à l'immensité de la Galaxie, puis de l'Univers. L'échelle de distance utilisée par les astronomes est l'année-lumière qui représente le trajet parcouru par la lumière durant une année, soit près de 10 000 milliards de kilomètres (valeur exacte : 9461 milliards de kilomètres) !
Terre-Lune | 1,2 seconde |
Terre-Soleil | 8 minutes |
Soleil-Pluton | 5,5 heures |
Soleil-limite du système solaire (héliopause) | 17 heures |
Soleil-Proxima du Centaure | 4,2 années |
Soleil-Centre Galactique | 28 000 années |
Voie Lactée-Andromède | 2,5 millions d'années |
Les galaxies lointaines | 6 à 13 milliards d'années |
Difficulté : ☆☆
Supposons que la taille du système solaire jusqu'à l'héliopause soit représentée par un grain de sable d'un rayon d'un millimètre. A quelle distance se trouverait l'étoile la plus proche, Proxima du Centaure ?
Dans une sphère d'un rayon de 50 années-lumière, centrée autour du Soleil, on trouve environ 1400 étoiles, dont 10% sont visibles à l'oeil nu (voir image). On fait l'hypothèse que ces étoiles se répartissent de façon uniforme. Quelle est la distance moyenne entre une étoile et sa voisine la plus proche (aide conseillée) ?
En prenant la même analogie qu'en 1), quelle serait la distance entre deux grains de sable ? Comparer la Galaxie avec une plage de sable.
Difficulté : ☆
L'étoile Gliese 581 située à 20,3 années-lumière possède un important système planétaire. Il est possible qu'une ou deux de ces planètes (GJ581d et GJ581g) aient une masse comparable à celle de la Terre (5 à 6 fois pour GJ581d), et qu'elles soient dans une zone habitable, c'est-à-dire à une distance de leur étoile permettant à l'eau d'être liquide. Ce système pourrait abriter la planète habitable la plus proche de nous.
En faisant la même comparaison que dans l'exercice précédent (système solaire d'une taille d'un millimètre) quelle serait la distance de ce système ?
Supposons maintenant qu'un vaisseau spatial atteigne une vitesse moyenne de 3000 km/s. En combien de temps celui-ci pourrait atteindre ce système ?
La Voie Lactée est de loin le plus vaste objet du ciel nocturne, dont elle occupe une importante fraction. Elle est observable de préférence par une nuit sans Lune et surtout sans pollution lumineuse. La Voie Lactée apparaît comme une longue traînée blanchâtre qui traverse tout le ciel nocturne sur 360 degrés. Cela est dû au très grand nombre d'étoiles qui constituent la Voie Lactée, leurs lumières se superposant pour donner cette allure blanchâtre. C'est en l'observant avec une lunette astronomique que Galilée a pu en résoudre les étoiles individuelles. Toutes les étoiles que nous apercevons à l'oeil nu font partie de la Voie Lactée.
Le système solaire fait partie de la Voie Lactée. Notre Galaxie est dominée par son disque, une immense "assiette". Etant à l'intérieur du disque, nous voyons celui-ci de côté, comme une longue traînée d'étoiles, la Voie Lactée. Celle-ci contient de 150 à 250 milliards d'étoiles, du gaz dans différentes phases (chaud et moléculaire) ainsi que de la poussière qui absorbe la lumière visible, ce qui explique les traînées sombres dans les parties les plus centrales de la Galaxie.
Notre Galaxie est une galaxie de type "spirale". Elle est dominée par un disque dont les étoiles tournent autour du centre qui est constitué d'un bulbe et d'une barre. Entre 70% à 80% des étoiles sont dans le disque qui a un diamètre de 90 000 années-lumière pour une épaisseur de seulement 2500 années-lumière. Le disque est constitué de plusieurs bras spiraux dans lesquels se concentre la majorité des étoiles. On pense que les bras se forment naturellement par des instabilités gravitationnelles induites lors de la rotation du disque. Les deux bras spiraux qui dominent la Galaxie sont ceux de Scutum-Centaurus et de Perseus, le Soleil se trouvant dans un bras secondaire, appelé bras d'Orion.
Pour découvrir la structure de la Galaxie il a fallu l'observer à de nombreuses longueurs d'onde pour s'affranchir de l'extinction due aux poussières, en particulier en direction du Centre Galactique. C'est l'observation d'un très grand nombre d'étoiles vers le centre qui a permis d'identifier la présence de la barre.
Difficulté : ☆☆
De quel type est la Galaxie ? Quel est la composante (bulbe, barre ou disque) qui contient le plus d'étoiles ?
Quel est le rapport entre le diamètre du disque et son épaisseur ? Comparez-le à celui d'une grande assiette.
Observez l'image de la Galaxie vue de face et comparez les bras spiraux au mouvement de l'eau qui s'écoule dans un évier. Quel est le sens de rotation de la Galaxie sur cette image : horaire (dans le sens des aiguilles d'une montre) ou anti-horaire ?
Difficulté : ☆☆☆
La Voie Lactée est une longue bande de lumière qui partage le ciel quelque soit la position et l'époque d'observation. On en déduit qu'elle s'étend sur 360 degrés, c'est-à-dire le long de l'ensemble de la voûte céleste. Qu'est-ce que cette observation implique sur la position du Soleil dans la Galaxie ?
Le Soleil est une des nombreuses étoiles du disque de la Galaxie. Il est presque exactement dans le plan du disque, avec une distance au Centre Galactique de 28 000 années-lumière. Le Soleil tourne autour du Centre Galactique avec une vitesse de 230 km/s.
Pour connaître précisement notre position dans la Galaxie, il est nécessaire de déterminer les distances des étoiles. La distance aux étoiles proches est déterminée par les effets dit de parallaxe. Ceux-ci utilisent leurs variations en position sur le ciel, lorsqu'elles sont observées de la Terre à deux positions différentes autour du Soleil. Le satellite GAIA, lancé par l'ESA en 2013, a observé la position de près d'un milliard d'étoiles ! La distance aux étoiles plus lointaines est déterminée grâce aux propriétés particulières de certaines étoiles variables, les Céphéides, dont la période de variabilité dépend de leurs luminosités intrinsèques.
Difficulté : ☆☆
La trajectoire du Soleil peut être approximée à un cercle avec un rayon de 28 000 années-lumière. Avec une vitesse de 230 km/s, en combien de temps le Soleil parcourt-il un tour complet ?
Le Soleil s'est formé il y a 5 milliards d'années. Combien de tours autour du Centre Galactique a-t-il parcouru ?
Difficulté : ☆☆
Les amas globulaires sont des amas d'étoiles qui se sont formés aux toutes premières époques. En observant les amas globulaires dans d'autres galaxies, on s'aperçoit qu'ils se distribuent autour de leurs centres. En 1920 Harlow Shapley, un astronome américain, a montré que les amas globulaires étaient centrés autour d'un point situé à plusieurs dizaines de milliers d'années-lumière du Soleil. Que cela nous dit-il sur notre position dans la Galaxie ?
Le centre Galactique est situé dans la constellation du Sagittaire. Il est très difficile à observer car nous sommes au beau milieu du disque de la Galaxie et de nombreuses poussières absorbent la lumière visible qui peut nous provenir du Centre de la Voie Lactée. Il faut donc l'observer aux longueurs d'onde infra-rouges ou radio qui sont beaucoup moins affectées par la poussière.
A ces longueurs d'onde, le Centre Galactique est extrêmement lumineux, malgré sa distance, 28 000 années-lumière. Le Centre Galactique contient du gaz qui est chauffé par les émissions de nombreuses étoiles jeunes ou en formation.
La Galaxie avec plus de 100 milliards d'étoiles est immensément massive. Que peut contenir son centre ? Les astronomes ont observé le centre de la Galaxie durant plus de dix ans pour observer les mouvements propres des étoiles. La plupart des étoiles ont des orbites bien ordinaires. Cependant, l'une d'entre elles (voir vidéo) montre une trajectoire avec une accélération considérable lorsqu'elle passe au voisinage d'un point n'émettant aucune lumière. La masse nécessaire pour produire une telle orbite elliptique peut être calculée : 3,7 millions de fois la masse du Soleil ! Comment une telle masse peut-elle se concentrer dans un si petit espace sans qu'aucune émission lumineuse soit détectée ? C'est aujourd'hui la preuve la plus concrète de l'existence d'un trou noir massif au coeur de notre Galaxie.
Difficulté : ☆☆
A son plus proche passage, l'étoile S2 se trouve à 15 milli-arcsecondes du trou noir supposé de la Galaxie. Connaissant la distance du Centre Galactique (28 000 années-lumière), en déduire la taille maximale, en temps-lumière ou en unités astronomiques du trou noir. Comparez cette valeur à celle de l'étendue du système solaire, jusqu'à l'héliopause. Qu'en déduisez-vous ?
Les trous noirs fascinent le grand public par leurs propriétés exceptionnelles. Par définition un trou noir est un corps massif et compact exerçant une telle force gravitationnelle à sa surface, que même la lumière ne peut s'en échapper. Pour définir un trou noir, il faut d'abord définir la vitesse de libération, une notion qui s'applique aussi bien à une planète qu'à une étoile ou un trou noir.
La vitesse de libération à la surface d'une planète est la vitesse nécessaire que doit avoir un objet (par exemple une fusée) pour s'échapper définitivement de son attraction, et donc de pouvoir naviguer dans l'espace. Cette vitesse est égale à : , où G est la constante gravitationnelle, M la masse de la planète et R son rayon. La vitesse de libération pour une fusée décollant de la Terre est de 11,2 km/s.
Avec une vitesse de libération de 300 000 km/s un trou noir est considérablement plus dense que tous les objets astronomiques connus. Dans le cadre de la relativité générale, un trou noir déforme la trajectoire des particules massives et aussi celle de la lumière (Figure). Plus généralement la présence d'un trou noir est associée à une singularité et à une déformation de l'espace temps. Imaginons une sonde spatiale en orbite autour d'un trou noir, qui lancerait une navette vers l'intérieur du trou noir : la navette franchirait rapidement le rayon critique du trou noir, tandis qu'un observateur, resté prudemment sur la sonde, la verrait indéfiniment voyager vers le trou noir sans jamais l'atteindre. C'est la contraction des temps au voisinage du trou noir.
Difficulté : ☆☆☆
La masse de la Terre est de 5,97 1024 kg et son rayon de 6371 km. La constante gravitationnelle G est égale à 6,67 10-11 m3 kg-1 s-2. A partir de la formule définissant la vitesse de libération, calculer ce que serait le rayon d'un trou noir ayant la masse de la Terre. Retrouver ce résultat plus simplement en utilisant la vitesse de libération d'une fusée décollant de la Terre (11,2 km/s).
La vitesse de libération à la surface d'un trou noir dit de Schwarzschild est c=300 000 km/s (3 105 km/s). Exprimer le rayon d'un trou noir en fonction de sa masse, de c et de G.
La masse du Soleil est de 2 1030 kg : quel serait le rayon d'un trou noir de cette masse ?
La masse de l'auteur est de 80 kg : quel serait le rayon d'un trou noir de cette masse ? Comparez-le à la taille de l'atome de l'hydrogène (2,5 10-14 km) ou du rayon classique de l'électron (2,8 10-18 km).
Poursuivons notre visite de la Galaxie au-delà de son disque et de son centre. La Galaxie est entourée d'un cortège de plusieurs galaxies de très petites tailles appelées galaxies naines. Les Nuages de Magellan, qui sont des galaxies naines irrégulières, sont les plus importantes d'entre elles.
La Galaxie se caractérise par une histoire peu mouvementée. Il est probable qu'elle n'a pas fait de rencontre majeure avec d'autres galaxies de masse comparable à la sienne, depuis 10 à 11 milliards d'années, ce qui en fait peut-être une exception parmi les galaxies de masse comparable. Actuellement, la Galaxie absorbe une minuscule galaxie naine, appelée Sagittarius, qui laisse une immense trainée d'étoiles lors de sa dissolution. Cependant cette collision n'affecte pas la Galaxie dans son ensemble. Par ailleurs, les Nuages de Magellan tombent dans la Galaxie avec une vitesse prodigieuse, à plus d'un million de km/h (350 km/s). Il est presque certain que les Nuages de Magellan s'approchent pour la première fois de la Galaxie. Ils sont actuellement situés à 160 000 années-lumière de celle-ci. Le résultat de cette rencontre n'est pas encore connu : leur vitesse d'approche est tellement élevée qu'il est possible qu'ils s'échappent ensuite de la Galaxie en direction de l'espace intergalactique.
Cette histoire calme devrait s'achever dans plusieurs milliards d'années avec une rencontre vraiment majeure ! A suivre...
Si l'on additionne la masse des étoiles, du gaz et de la poussière, on trouve pour la Galaxie une masse de 55 milliards de fois celle du Soleil. Les astronomes s'intéressent beaucoup à l'environnement de notre Galaxie. En effet les étoiles et le gaz au bord du disque de la Galaxie tournent beaucoup trop vite pour que la masse ci-dessus puisse équilibrer l'accélération centrifuge causée par la rotation d'ensemble ! Cela fait soupçonner l'existence d'une importante masse cachée qui contribuerait à équilibrer cette rotation. Comme l'excès de vitesse est particulièrement important au bord de la Galaxie, cette masse cachée devrait se trouver autour de son disque, dans une région appelée le halo. On trouve dans le halo de notre Galaxie des étoiles généralement âgées et pauvres en éléments lourds, des amas globulaires et des galaxies naines. Tous contribuent à enrichir notre connaissance du passé de la Galaxie et de sa formation !
A côté de la mystérieuse masse cachée, certaines propriétés de la Galaxie sont surprenantes. Par exemple plus de 30 galaxies naines l'entourent. Alors qu'on s'attendrait à ce qu'elles soient distribuées de façon aléatoire autour de la Galaxie ou autour de son disque, elles semblent se distribuer préférentiellement autour d'un plan qui est perpendiculaire à ce disque. Les scénarios actuels de formation des galaxies ont bien de la peine à interpréter ce mystère !
Difficulté : ☆☆☆
Pour mesurer la vitesse d'une galaxie naine par rapport à la Galaxie, il faut non seulement mesurer sa vitesse d'approche par rapport à nous, mais aussi sa vitesse en trois dimensions. Pour celà, il est nécessaire de connaître son mouvement propre sur le ciel. De récentes mesures, faites en particulier avec le Télescope Spatial Hubble, ont permis de mesurer les vitesses de plusieurs de ces galaxies.
Le Grand Nuage de Magellan se situe à 163 000 années-lumière de la Galaxie. Sa vitesse par rapport à la Galaxie est de 350 km/s. En supposant que cette vitesse soit égale à la vitesse de libération, calculer la masse de la Galaxie en unités de masses solaires (1 masse solaire=2 1030 kg).
On suppose que la matière de la Galaxie se répartit selon une distribution sphérique, dans le halo. Quel est le volume occupé par la masse calculée dans la question précédente ? Comparer la valeur de la masse calculée dans la question précédente à la masse totale de la Galaxie en étoiles, gaz et poussières (55 milliards de masses solaires). Qu'en déduisez-vous soit sur la présence de matière cachée, soit sur la trajectoire future du Nuage de Magellan ?
La masse de la galaxie peut aussi être déduite de la vitesse de rotation des étoiles. A 163 000 années-lumière, la vitesse de rotation observée est de 180 km/s. On peut déduire la masse en utilisant la relation . Calculez cette nouvelle masse dans un rayon de 163 000 années-lumière. Qu'en déduisez-vous sur la trajectoire future du Nuage de Magellan ?
Reprendre le calcul de la Question 1) ci-dessus pour les galaxies naines Carina (v=90 km/s, R=332 000 a.l.), Fornax (220 km/s, R=450 000 a.l.) et Leo II (250 km/s, R=684 000 a.l.). Que pensez-vous de la trajectoire future de Carina ?
Le Groupe Local s'étend sur un rayon de 3 millions d'années-lumière. Il est dominé par deux galaxies spirales géantes, la grande galaxie d'Andromède (M31) et notre Galaxie. Il inclut aussi une autre galaxie spirale, la galaxie du Triangle (M33) qui est dix fois moins massive que M31. On dénombre actuellement une cinquantaine de galaxies naines, qui se répartissent principalement autour des deux grandes galaxies. Ce nombre continue de croître régulièrement avec la découverte de nouvelles galaxies de plus en plus petites.
Le Groupe Local se caractérise par de nombreuses interactions entre les galaxies qui le constituent. Outre l'interaction de la Galaxie avec les galaxies naines Sagittarius et les Nuages de Magellan, la galaxie d'Andromède est en interaction avec la galaxie du Triangle. On peut cependant considérer que le Groupe Local résulte de l'approche des deux grandes galaxies et de leur cortège de galaxies naines. La Galaxie et celle d'Andromède se rapprochent à la vitesse de 130 km/s, soit 468 000 km/h. La rencontre n'est pas prévue pour tout de suite : les deux galaxies sont actuellement à une distance de 2,5 millions d'années-lumière !
Les deux grandes galaxies du Groupe Local sont des grandes galaxies spirales, c'est-à-dire dominées par leur disque. La Galaxie est de type Sbc, ce type indiquant un bulbe représentant 19% de sa masse en étoiles. La galaxie d'Andromède est de type Sb, avec un bulbe représentant 28% de sa masse en étoiles. Si l'on additionne la masse des étoiles, du gaz et de la poussière dans ces deux galaxies, on trouve une masse de 55 milliards de fois celle du Soleil pour la Galaxie, et exactement le double pour la galaxie d'Andromède.
La rencontre de ces deux galaxies sera l'événement le plus important du Groupe Local. Les deux galaxies sont pauvres en gaz : 12% et 5% pour la Galaxie et Andromède respectivement. Cela implique que le produit de la collision entre les deux galaxies sera une galaxie elliptique, semblable à un gigantesque bulbe ou ellipsoïde. Dans cette nouvelle structure, les trajectoires des étoiles se distribueront de façon aléatoire, s'inscrivant dans un ellipsoïde.
Il est impossible à ce jour de dater exactement cette collision future, car certains paramètres comme la vitesse tangentielle d'Andromède ne sont pas bien connus. Il est encore plus difficile de prédire quelle sera la position du Soleil après cette rencontre phénoménale. Celui-ci pourrait même être arraché de la Galaxie lors de la première rencontre, du fait de sa position relativement proche du bord du disque de la Galaxie. Il pourrait être éjecté dans une queue de marée, pour errer dans l'espace intergalactique, voire même... être capturé par la galaxie d'Andromède ! Dans tous les cas cet événement aura lieu dans près de 5 milliards d'années, une durée suffisante pour que le Soleil ait consommé tout son hydrogène.
Le Groupe Local est comparable à plusieurs groupes de galaxies que l'on trouve dans notre voisinage, à des distances de quelques dizaines de millions d'années-lumière. La plupart de ces groupes de galaxies sont situés en bordure d'une concentration beaucoup plus importante de galaxies : l'amas de la Vierge. Celui-ci inclut quelques milliers de galaxies et aussi du gaz chaud détecté aux longueurs d'onde X. La masse de l'amas de la Vierge est tout simplement énorme : plusieurs centaines de milliers de milliards de fois celle du Soleil, en tenant compte de la masse cachée ! On comprendra que cette énorme masse affecte les galaxies environnantes. Par exemple, le gaz chaud de l'amas provient probablement du gaz arraché, par effet de marée gravitationnelle, aux galaxies qui sont tombées dans le coeur de l'amas.
Le Groupe Local se dirige en direction de l'amas de la Vierge à une vitesse de plusieurs centaines de km/s. Celà est-il du à la forte masse de cet amas ? On verra par la suite que ce n'est pas le seul mouvement du Groupe Local...
Difficulté : ☆
Supposons un observateur éloigné disposant de capacités observationnelles tellement remarquables qu'il puisse observer la vie sur la Terre.
Si cet observateur était situé au centre de la Galaxie, à quel stade observerait-il la race humaine ?
Si cet observateur était situé sur la grande galaxie d'Andromède, à quel stade observerait-il la race humaine ?
Si cet observateur était situé de l'autre côté du superamas de la Vierge, précisement à 11 millions d'années-lumière au-delà de l'amas de la Vierge, quel évenement majeur de la vie animale observerait-il ?
Les galaxies ne se répartissent pas de façon homogène dans l'Univers proche : elles se répartissent préférentiellement le long de superstructures, sur des échelles de quelques dizaines de millions d'années-lumière. Les astronomes ont baptisé ces superstructures les "super-amas". Le Groupe Local fait donc partie du super-amas de la Vierge. Il est difficile de connaître la masse des super-amas car il est certain que ce ne sont pas des structures en équilibre gravitationnel, comme l'est le disque de la Galaxie par exemple.
Sur des échelles encore plus vastes, on s'aperçoit que les galaxies se rassemblent le long de structures encore plus gigantesques, appelées "murs" ou "filaments". On s'aperçoit aussi qu'il y a des régions vides de l'espace dans lesquelles on trouve très peu de galaxies.
Notre position dans l'Univers local est assez ordinaire : la densité volumique des galaxies qui nous entourent est comparable à la densité moyenne de l'Univers en galaxies.
Au-delà de la rotation de la Terre sur elle-même, la Terre subit de nombreux mouvements ! Elle tourne autour du Soleil à une vitesse de 30 km/s, soit plus de 100 000 km/h. Le système solaire est entraîné autour du centre de la Galaxie à une vitesse de 230 km/s. Notre Galaxie et la grande galaxie d'Andromède tombent vers le centre du Groupe Local, chacune avec à une vitesse de 65 km/s. Ce n'est pas tout ! Les astronomes ont mesuré la vitesse des galaxies du Groupe Local par rapport à un très grand nombre de galaxies distribuées sur toute la voûte céleste. Ils en ont déduit un mouvement considérable des galaxies du Groupe Local, en direction des super-amas de Centaurus et de Shapley, avec une vitesse de 627 km/s soit plus de 2 millions de km/h.
On a appelé "Grand Attracteur" la masse responsable du mouvement d'ensemble du Groupe Local en direction des superamas de Centaurus et de Shapley. Cette masse est probablement répartie sur plusieurs de ces superamas, à des distances comprises entre 150 et 400 millions d'années-lumière.
La force gravitationnelle joue un rôle fondamental en astronomie, des planètes à l'Univers dans son ensemble. Le rôle de cette force est d'accélérer les corps les uns vers les autres. L'accélération gravitationnelle causée par un corps de masse M sur un autre corps situé à une distance R s'exprime selon : .
Difficulté : ☆☆☆
Calculer l'accélération due à l'attraction de la Terre à sa surface, puis l'accélération due à l'attraction du Soleil sur la Terre. Comparez ces valeurs.
L'accélération causée par le Soleil sur la Terre est exactement compensée par l'accélération centrifuge due à la vitesse de la Terre autour du Soleil. Cette accélération centrifuge vaut : V2/R. En déduire la vitesse de la Terre autour du Soleil.
On supposera que la masse de la Galaxie contenue dans un rayon de 28 000 années-lumière est de 1,05 1011 masses solaires. Calculez l'attraction de cette masse sur la Terre. En déduire la vitesse de rotation du Soleil par rapport au Centre Galactique.
Calculez l'accélération gravitationnelle induite par la galaxie d'Andromède sur la Galaxie. On supposera que la masse totale d'Andromède est de 2 1012 masses solaires.
En supposant qu'Andromède est la masse principale du Groupe Local, quelle serait la vitesse de rotation (ou vitesse orbitale) induite pour la Galaxie ? Comparer avec la vitesse d'approche entre les deux galaxies (120 km/s).
Calculez l'accélération causée par le Grand Attracteur sur la Galaxie. On supposera que la masse du Grand Attracteur est de 1016 masses solaires, et que son centre de masse se situe à 350 millions d'années-lumière. En déduire la vitesse orbitale de la Galaxie par rapport au Grand Attracteur.
A l'exception de la grande galaxie d'Andromède et de quelques galaxies naines proches, toutes les galaxies s'éloignent de nous. Pour mesurer les distances des galaxies, les astronomes utilisent la relation établie par l'astronome américain Edwin Hubble, qui montre que la vitesse v d'éloignement des galaxies est proportionnelle à leurs distances, D, selon v=H0D, ou H0 est la constante de Hubble. Plus une galaxie est lointaine, plus vite elle s'éloigne de nous. Son émission lumineuse est alors affectée par sa vitesse d'éloignement, à cause de l'effet Doppler. Ce même effet s'applique aux ondes acoustiques : lorsqu'une ambulance se rapproche de nous, la longueur d'onde acoustique est diminuée (le son devient plus aigu), et lorsqu'elle s'éloigne, elle s'agrandit (le son devient plus grave). De même, la lumière émise par une galaxie s'éloignant de nous sera décalée vers le rouge (augmentation de la longueur d'onde) avec un décalage spectral z donné par :
Pour mesurer le décalage spectral, les astronomes utilisent les spectres des galaxies (voir Figure). Ils en déduisent la vitesse des galaxies, avec :
, où c est la vitesse de la lumière, c=300 000 km/s.
Lorsque la vitesse d'éloignement est petite par rapport à la vitesse de la lumière, on peut simplifier l'expression ci-dessus par v=cz. Connaissant la vitesse d'éloignement d'une galaxie, on en déduit sa distance, D=v/H0.
Les astronomes ont mesuré la répartition dans l'espace de dizaines de milliers à plusieurs millions de galaxies en observant leurs spectres ainsi que leurs positions sur le ciel. Les images ci-dessous révèlent que les galaxies se distribuent le long de filaments, évitant les vides. Lorsque plusieurs filaments se croisent, ils créent une forte densité de galaxies qui est le lieu privilégié de formation des amas de galaxies.
Cette distribution filamentaire des galaxies est aussi déduite des simulations numériques cosmologiques, qui modélisent la distribution des halos de matière sombre. On en déduit que l'ensemble de la matière se répartit à grande échelle selon un "réseau cosmique", où les filaments atteignent des longueurs de 250 millions d'années-lumière, et les vides des diamètres de 150 millions d'années-lumière.
Avec l'avènement des grands télescopes et des spectrographes multi-objets, il est devenu possible d'étudier l'Univers distant. La première étude, le "Canada France Redshift Survey (CFRS)" a été réalisée de 1992 à 1997. Elle a permis d'étudier plus de mille galaxies lointaines, agrandissant le volume de l'Univers connu par un facteur 150 !
Ces galaxies sont si lointaines que leur lumière a mis plusieurs milliards d'années pour nous parvenir. A ces échelles considérables, l'Univers peut être considéré comme homogène et isotrope. Ses propriétés ne dépendent pas de la position de l'observateur : c'est le Principe Cosmologique. Cela implique que les propriétés des galaxies lointaines doivent être semblables aux ancêtres, plusieurs milliards d'années auparavant, des galaxies actuelles.
En étudiant les galaxies lointaines, on peut remonter dans le passé de l'Univers et étudier comment les galaxies se sont formées !
Le but de ces exercices est de se familiariser avec l'Univers lointain et son contenu en galaxies.
Difficulté : ☆
Supposons un observateur éloigné disposant de capacités observationnelles tellement remarquables qu'il puisse observer la Terre.
Si cet observateur était situé dans l'amas de Coma, quelle époque géologique observerait-il de la Terre ?
Si cet observateur était situé dans une galaxie lointaine ayant émis sa lumière il y a 6 milliards d'années, qu'observerait-il du système solaire ?
Difficulté : ☆
Une difficulté pour observer les galaxies vient de la turbulence de notre atmosphère qui dilue les images sur des échelles de l'ordre d'une arcseconde, soit 0.00000485 ou 4.85 10-6 radian. Le Télescope Spatial Hubble est bien utile pour résoudre des images d'un dixième de ces échelles.
Quelle serait la taille apparente sur le ciel d'une galaxie lointaine, semblable à la Galaxie, située à une distance de 8 milliards d'années-lumière ? Donnez la valeur en radian, puis en arcsecondes. Sachant que la Galaxie est une grande galaxie, qu'en déduisez-vous pour l'observation des galaxies lointaines ?
Un des mystères de la cosmologie moderne est de comprendre comment les galaxies se sont formées. Pour cela, les astrophysiciens analysent les images des galaxies lointaines à partir des observations faites au Télescope Spatial Hubble (HST). Pour comprendre comment les galaxies se sont formées, il faut aussi étudier les différents mouvements internes qui les animent. Pour cela il faut utiliser les plus grands télescopes, dont le "Very Large Telescope (VLT)" et les instruments permettant de disséquer la lumière de ces galaxies.
Connaissant la forme et les mouvements internes dans des galaxies comparables aux ancêtres des galaxies actuelles, il devient possible d'en étudier leur évolution sur plusieurs milliards d'années et d'en déduire les conditions de la formation des galaxies ! Les études les plus récentes montrent que de nombreuses galaxies se forment bien par collisions entre des galaxies plus petites.
Ces galaxies sont si lointaines, que leurs luminosités sont bien inférieures à celles du ciel noir le plus profond, en l'absence de Lune. Pour pouvoir disséquer leurs lumières, il faut disposer des plus grands télescopes.
La galaxie J033239.72-275154.7 a émis sa lumière il y a 4,3 milliards d'années. C'est en combinant les images du télescope spatial avec les mouvements internes du gaz, que les astrophysiciens ont compris ce qui se passait dans cette galaxie. Il s'agit du résultat d'une collision entre deux galaxies : la plus massive forme une barre géante en réaction aux mouvements de la galaxie de plus petite taille. Cette dernière est prête à tomber dans le coeur de la plus grande pour former une nouvelle galaxie.
En multipliant ces observations et en les reproduisant avec des modèles numériques, les astronomes pourront enfin expliquer comment les galaxies actuelles ont pu assembler leurs étoiles et leurs gaz. Le but sera de reproduire l'ensemble des galaxies de la séquence de Hubble !
Les plus grands télescopes passent un temps considérable à rechercher les galaxies de plus en plus lointaines. La lumière nous provenant de ces sources est tellement faible qu'il faut poser pendant plusieurs dizaines, voire centaines d'heures pour pouvoir les détecter. Malgré le pouvoir collecteur des télescopes les plus géants, les galaxies les plus lointaines apparaissent comme de petites taches (voir les images à la fin de la vidéo), et leurs spectres ne révèlent que très peu d'informations. Ces galaxies ont émis leurs lumières il y a près de 13 milliards d'années, soit moins d'un milliard d'années après le Big-Bang !
A côté du plaisir de découvrir la galaxie la plus lointaine, que nous apportent ces observations ? Nous verrons que l'Univers le plus lointain, il y a 13,7 milliards d'années était formé de gaz chaud et ionisé. Ce gaz s'est ensuite refroidi avant la formation de tout objet, que ce soit des étoiles, des amas d'étoiles ou des galaxies. Les observations de l'Univers, il y a 10 milliards d'années, indiquent cependant que le gaz dans l'Univers était à nouveau chaud et ionisé. Que s'est-il passé entre-temps ? Les astrophysiciens pensent que le gaz de l'Univers a été ré-ionisé par le rayonnement des premiers objets dans l'Univers, peut-être par les premières galaxies.
Par contre il devient très difficile, voire impossible, de relier ces "premières" galaxies aux galaxies actuelles. En près de 12 milliards d'années, celles-ci ont eu le temps de fusionner avec d'autres galaxies !
Difficulté : ☆☆
Pour résoudre les exercices qui suivent, il sera utile de se reporter à la page Le décalage spectral pour mesurer les distances des galaxies.
En obtenant le spectre de la galaxie J033239.72-275154.7, les astronomes ont observé la raie d'Oxygène ionisé à 7160 Angstroms. Cette raie, au repos, se trouve à 5007 Angstroms. Calculez le décalage spectral de cette galaxie. Déduisez sa vitesse d'éloignement.
Une des galaxies les plus lointaines est la galaxie hôte d'un sursaut gamma, appelée GRB090423. Son décalage spectral est z=8,1. Calculez sa vitesse d'éloignement.
Difficulté : ☆☆
L'image la plus profonde faite par le Télescope Spatial couvre une surface angulaire de 11 minutes d'arc carrées, soit une minuscule fraction du ciel. Sachant qu'une minute d'arc carrée correspond à 8,46 10-8 stéradian, et que la surface du ciel fait 4π stéradian, calculez la fraction de la surface du ciel occupée par cette image.
Environ 10 000 galaxies ont été observées sur cette image. En déduire le nombre de galaxies observables sur tout le ciel. Comparer ce nombre au nombre d'étoiles dans la Galaxie.
Le fond diffus cosmologique correspond à la première émission de photons dans l'Univers, 380 000 ans après le Big-Bang. Il a été découvert par les radioastronomes Penzias et Wilson qui testaient une antenne pour mesurer le rayonnement radio de notre Galaxie. Ils ont découvert un signal émis qui était identique quelque soit la direction observée.
Le fond diffus cosmologique avait été prédit par l'astrophysicien Gamow. 380 000 ans après le Big-Bang, l'Univers était considérablement plus petit et plus dense qu'il ne l'est aujourd'hui. Les photons étaient perpétuellement en interaction avec la matière dense : tout photon émis était immédiatement absorbé par la matière, en particulier par les électrons libres. Dès que les électrons ont commencé à se combiner avec les noyaux des atomes, les photons ont pu se libérer de la matière : l'Univers est devenu transparent. L'image de ces premiers photons occupe toute la sphère céleste (voir image).
La découverte du fond diffus cosmologique est une des preuves du Big-Bang. Son décalage spectral correspond à z=1100, impliquant que l'Univers était plus d'un milliard de fois plus dense qu'aujourd'hui ! On peut associer une température à cette émission, dite de corps noir, qui est de 2,7 kelvin aujourd'hui, alors qu'elle était de 3000 kelvin lors de l'émission.
Les minuscules variations de densité, il y a 13,7 milliards d'années, sont à l'origine, sous l'action de la gravitation, de la formation de toute la diversité des objets astrophysiques que nous avons visités !
Le voyage de la Terre aux confins de l'Univers s'achève. On pourra en retenir quelques éléments :
La gravitation : le chef d'orchestre de notre Univers depuis ses débuts, jusqu'aujourd'hui.
Un dernier scoop : notre mouvement vers le Grand Attracteur de 627 km/s est en fait un mouvement par rapport au fond diffus cosmologique, c'est-à-dire par rapport à l'Univers...
Ce chapitre présente la découverte des ondes gravitationnelles, qui a eu lieu le 14 septembre 2015. Il est structuré en vidéos et exercices issus du MOOC "Peser l'Univers" proposé par l'Observatoire de Paris sur la plate-forme FUN.
La luminosité gravitationnelle d'une source, c'est-à-dire la quantité d'énergie émise par unité de temps sous forme d'ondes gravitationnelles, est en première approximation donnée par la formule
où est la masse de la source, sa taille caractéristique et la vitesse interne typique.
Quelle est la luminosité gravitationnelle maximale d'une source compacte et relativiste (exprimée en Watts) ?
On rappelle la valeur de la constante universelle de gravitation, et on prendra pour la vitesse de la lumière . (Conseil : Attention aux unités !)
Vous trouverez ci-dessous un entretien avec Éric Chassande-Mottin mené par Alexandre Le Tiec. Éric Chassande-Mottin est chercheur au sein de l'équipe Gravitation du laboratoire AstroParticule et Cosmologie (APC) de l'Université Denis Diderot, spécialiste de l'analyse des données du détecteur Virgo.
Vidéo de l'entretien avec Éric Chassande-Mottin mené par Alexandre Le Tiec
Ce cours est dédié à la cosmologie. Il traite donc de notre univers dans sa globalité. La cosmologie a pour but de répondre à trois questions majeures : de quoi est fait notre univers ? comment s'est-il créé ? et quelle est son évolution ? Bien que les scientifiques se soient posés ces questions depuis fort longtemps, ce n'est qu'avec la relativité générale et les instruments performants du XXe siècle que les premières réponses crédibles, basées sur des observations et non des croyances, ont vu le jour. La cosmologie est paradoxalement une science assez récente en astronomie comparée par exemple à la planétologie.
Que répond la cosmologie du début du XXIe siècle aux trois questions fondamentales que sont la composition, la formation et l'évolution de l'univers ? Premièrement, l'univers serait constitué d'étoiles, de gaz chaud ou froid mais surtout de matière noire, invisible et toujours inconnue, et d'une énergie noire encore plus mystérieuse. Le résultat est que 97% de la composition masse-énergie de notre univers serait inconnue. Deuxièmement au sujet de sa formation, l'univers serait né d'une singularité, le Big Bang, où toute la matière et l'espace-temps seraient réduit à un point. D'où vient cette singularité, comment s'est-elle créé, est-elle réelle ou est-elle le fruit d'une connaissance physique insuffisante ? Ces questions sont encore sans réponse claire. Dernièrement, au sujet de l'évolution de l'univers, grâce entre autre à l'observation du Fond Diffus Cosmologique, on sait que l'univers a évolué d'un état de gaz quasi-homogène pour arriver à une répartition inhomogène de la matière caractérisée par des filaments de matière remplis de galaxies qui se croisent en formant des amas entourés de vide.
En définitif, l'apparition du Big Bang est un mystère, la quasi-totalité du contenu masse-énergie est très mal comprise et l'évolution de l'univers commence à bien être contrainte. Bref, la cosmologie est une science encore jeune, en plein développement, qui requiert encore beaucoup de travail et d'observations pour comprendre les mécanismes du l'univers.
Ce cours traite de ce qui est le mieux confirmé en cosmologie. Il commence par montrer que l'univers est en expansion. Cette caractéristique s'explique dans le cadre de la relativité générale et implique que dans le passé, l'univers était plus dense. En poussant ce raisonnement à ses limites, le concept de Big Bang apparaît naturellement, l'univers est si compressé dans le passé qu'il se réduit à un point. Cette expansion induit une évolution de l'univers, d'un état très chaud homogène et dense, il y a plus de 13 milliards d'années, à un état froid et inhomogène, aujourd'hui. Le Fond Diffus Cosmologique permet d'avoir une image d'une époque très reculée de l'univers lorsqu'il n'avait que 380 000 ans. Le modèle du Big Bang explique la fabrication des atomes et la prédominance de l'hydrogène (75% de la masse totale) et de l'hélium (25%). Enfin, la physique subatomique, les observations des galaxies lointaines et les simulations numériques permettent d'avoir une idée de l'évolution de l'univers de ses premiers instants jusqu'à nos jours.
La découverte des galaxies et la compréhension de leur nature ont débouché sur la représentation d'un univers constitué d'îles de matière contenant chacune des milliards d'étoiles telles que la Voie Lactée, M31 et bien d'autres encore. A l'échelle de l'univers ces galaxies sont presque des points qui se déplacent dans l'espace. Quelle est la cinématique de ce "gaz" de galaxies ? Est-il en équilibre, s'effondre-t-il sur lui-même ? En fait, depuis notre point d'observation qu'est la Voie Lactée, l'écrasante majorité des galaxies ont l'air de s'éloigner de nous et ceci d'autant plus vite qu'elles sont distantes. Comment comprendre cette fuite des galaxies qui est mesurée par le décalage spectral vers le rouge de la lumière des galaxies ? Comment comprendre cette apparente répulsion alors que la loi universelle de la gravitation énonce que toutes les masses s'attirent ? Penser l'univers régi par les lois classique de la mécanique de Newton nous amène à ne plus rien comprendre à l'univers. Penser l'univers avec la relativité générale d'Einstein nous donne la solution. L'espace n'est plus une donnée indépendante et statique mais bien un objet qui peut se contracter ou se dilater en fonction de la matière qu'il contient. En effet, notre univers est en expansion, ce qui explique que les galaxies semblent s'éloigner de nous. Dans les faits, c'est l'espace lui-même qui se dilate et non les galaxies qui s'éloignent les unes des autres. Ce chapitre traite de l'observation de cette expansion, de sa mesure et de sa loi, la loi de Hubble, alors que le prochain l'expliquera théoriquement par le biais de la relativité générale.
Après avoir compris et prouvé par des mesures de distances que les galaxies n'étaient pas des nuages de gaz de notre galaxie mais bien des galaxies à part entière et clairement séparées les unes des autres, les astronomes se sont posés la question de leur cinématique, leur mouvement, ainsi que de leur dynamique, la cause de leur mouvement. Une méthode simple et directe consiste à observer les galaxies qui nous entourent en mesurant leur distance et à mesurer leur déplacement par rapport à nous. Cela permet d'avoir leur position en trois dimensions et leur vitesse radiale par rapport à la ligne de visée. La vitesse tangentielle est encore inaccessible pour la quasi-totalité des galaxies, excepté les plus proches représentant seulement une dizaine de galaxies. Leur dynamique est supposée être dominée par la force gravitationnelle entre les galaxies. La cinématique montre cependant des galaxies qui ont tendance à fuir la Voie Lactée, comme si notre galaxie exerçait une force gravitationnelle négative sur les autres galaxies, ce qui est en complète contradiction avec les lois de la gravitation classique.
La compréhension de la nature des galaxies et la découverte de leur cinématique apparaît à la même période qu'une autre grande découverte scientifique, la relativité générale, dans les années 1920. Très rapidement, plusieurs scientifiques, tels que Lemaître ou Friedmann, ont compris que cette fuite n'était pas due au mouvement propre des galaxies dans l'espace mais à l'évolution de l'espace qui se dilate, éloignant ainsi les galaxies les unes des autres. L'étude de l'univers, la cosmologie, nous oblige donc à étudier la matière et son évolution mais aussi l'évolution du continuum espace-temps qui ne peut plus être considéré comme statique et immuable.
Difficulté : ☆☆ Temps : 30 min
Avant de regarder l’expansion dans notre univers, illustrons ce phénomène dans un univers à deux dimensions et sphérique. Imaginons que nous vivons à la surface d'une sphère de rayon . Cet univers a pour caractéristique d’être de taille finie, avec une surface égale à , mais sans bord. De fait, il est possible d’aller indéfiniment en ligne droite sans jamais trouver d’obstacle. Imaginons que cet univers est en expansion, le rayon évoluant suivant la loi , en milliards d’années, exprimant la vitesse d'expansion qui vaut 1000 Mpc par milliard d'années, et en Mpc, avec Mpc.
Quelle est la surface de cet univers à ?
Soit deux points proches supposés sans interaction. A , leur distance, à la surface de la sphère, est notée , avec . Au fil du temps, cette distance va s’accroître. Quelle est leur distance en Mpc au temps et quelle est sa loi d'évolution ?
Combien vaudront le rayon et la surface de cet univers à 10 milliards d'années ?
Donner la vitesse à laquelle les deux points s'éloignent l'un de l'autre en fonction de la distance initiale.
Afin de mesurer l'évolution de l’espace-temps, il convient de mesurer le déplacement des galaxies nous entourant. Une méthode théoriquement possible serait de mesurer, pendant un intervalle de temps, la distance d'une galaxie et de la diviser par l'intervalle de temps. Cette méthode est, en pratique, impossible à réaliser du fait qu'elle requiert des précisions sur les mesures de distances inaccessibles. Une autre méthode plus réaliste pour calculer une vitesse est l'effet Doppler. Ce phénomène physique est bien connu pour la mesure de la vitesse d'un objet émettant une onde, soit un son ou de la lumière.
Lorsqu'un objet en mouvement par rapport à vous émet une onde, définie par une longueur d'onde, le déplacement de l'objet induit une dilatation ou une compression de l'onde, si l'objet s'éloigne ou se rapproche de vous. Par exemple, lorsqu’un camion de pompier s’approche de vous avec la sirène allumée, le son est plus aigu que lorsqu’il s’éloigne de vous, bien que le camion émette le même son en continu (voir image). De là, un décalage la de longueur d'onde, ou, ce qui est équivalent, de la fréquence de l'onde, permettra de déduire la vitesse de l'objet. La relation trouvée par le physicien Christian Doppler au XIXe siècle relie la longueur d’onde émise () à celle observée () en fonction de la vitesse de l’émetteur (, négative quand l'émetteur se rapproche et positive quand il s’éloigne) et de la vitesse de l’onde () :
Si l’on connaît la longueur d’onde émise, il est alors possible d'en déduire la vitesse de l’émetteur en renversant la relation précédente :
En astronomie, le terme est défini comme le décalage spectral d’une galaxie. S’il est positif, la longueur d’onde est allongée, décalée vers le rouge (le redshift en anglais) ; s’il est négatif, la longueur d’onde est décalée vers le bleu (blueshift).
Dans le cas des galaxies, le phénomène physique du décalage de la longueur d'onde est un peu plus subtil. Prenons le cas de deux galaxies distantes sans vitesse propre l'une par rapport à l'autre. L'effet Doppler devrait être nul ainsi que le décalage de longueur d'onde. Cependant, si l'univers est en expansion, cela induit une dilatation de l'onde lumineuse pendant son trajet de la galaxie émettrice jusqu'à nous. Si bien qu'en atteignant notre galaxie, l'onde lumineuse connaît un décalage qui s'apparente à un effet Doppler classique, comme si la première galaxie l'avait émise avec la vitesse due à l'expansion de l'univers. On parle alors d'effet Doppler cosmologique. De ce fait, certaines galaxies peuvent avoir des décalages spectraux supérieurs à 1 et donc des "vitesses d'expansion" équivalentes supérieures à la vitesse de la lumière. Cependant, il faut bien garder à l'esprit que ce n'est pas la galaxie qui a une vitesse supérieure à celle de la lumière mais l'univers qui se dilate. En plus de leur vitesse d'expansion, les galaxies ont des vitesses propres, dues à leur mouvement dans l'espace. Ces dernières sont bien plus faibles que la vitesse de la lumière (< 10 000 km/s). En définitif, le décalage d'une onde lumineuse provient de deux phénomènes physiques : l'effet Doppler classique dû au mouvement propre de la galaxie émettrice et l'effet Doppler cosmologique dû à l'expansion de l'univers.
Difficulté : ☆☆ Temps : 20 min
Supposons un camion de pompier s’approchant de vous à 100 km/h en émettant la note La à 440 Hz se propageant à une vitesse de 330 m/s.
Quelle est la longueur d'onde de cette note ?
Quelles longueur d'onde et fréquence entendez vous ?
Même question mais lorsque le camion s'éloigne de vous à 100 km/h.
Soit deux galaxies distantes l'une de l'autre et sans vitesse relative. Entre le moment où la première galaxie a émis des photons de la raie H à 650 nm et celui où la deuxième galaxie les reçoit, l'univers a doublé sa taille.
Quelle est alors la longueur d'onde reçue par la seconde galaxie ?
Combien vaut le décalage spectral z ?
Dans quel domaine se situe cette longueur d'onde ?
Les deux galaxies ont en fait une vitesse propre relative de +1 000 km/s, elles s'éloignent, quelle sera alors la mesure du décalage spectral en prenant en compte la vitesse propre et l'expansion de l'univers ?
L'importance de la connaissance de la vitesse d'expansion des galaxies pour comprendre l'évolution du continuum espace-temps de l'univers a généré plusieurs séries de relevés dédiés à la mesure d'un grand nombre de décalages spectraux. Il fallut attendre les années 1970 pour que des programmes de grande envergure prennent place (> 1 000 décalages spectraux). L'immense majorité des galaxies dans ces relevés ont des décalages spectraux positifs. Donc, la lumière provenant de ces galaxies est décalée vers le rouge. Cela signifie qu'entre leur émission et leur réception l'univers s'est dilaté. Cela étant confirmé pour des galaxies proches comme pour des galaxies plus lointaines, on en conclut que l'univers a connu de tout temps une expansion. Les très rares galaxies dont la lumière n'est pas décalée vers le rouge se situent juste à côté de la Voie Lactée dans le Groupe Local (< 1,5 Mpc). M31, notre galaxie voisine, en est un bon exemple avec une vitesse radiale de -120 km/s par rapport à la Voie Lactée. Leurs mouvements relatifs ne sont pas dominés par l'expansion de l'univers mais par l'attraction gravitationnelle. Dans ce cas, le décalage vers le bleu est dû à l'effet Doppler classique et non cosmologique.
Historiquement, le premier relevé spectroscopique a été entrepris par Slipher entre les années 1913 et 1927. Il a mesuré les décalages spectraux de quelques dizaines de galaxies se situant dans l'univers très proche (< 3 Mpc). Cela a permis par la suite à Lemaître puis à Hubble de montrer que l'univers est en expansion.
En 1977, Marc Davis, John Huchra, Dave Latham et John Tonry établissent un relevé spectroscopique de grande envergure pour l'époque : le relevé de décalages spectraux du CfA (Center for Astrophysics). A la différence de celui de Slipher, qui était confiné à l'univers très proche, ce relevé sonde l'univers jusqu'à 200 Mpc. Son objectif est de mesurer la vitesse radiale des galaxies plus brillantes que la magnitude 14,5 dans l'hémisphère nord. Des vitesses de 15 000 km/s ont été mesurées, ce qui correspond à un décalage spectral de 0,05. La suite de ce relevé, le CfA2, comprend 18 000 décalages spectraux de galaxies mesurés entre 1984 et 1995.
Un autre relevé plus récent est le 2dfGR (Two degrees field Galaxy Survey, Relevé de galaxies sur des champs de 2 degrés carrés). Il a mesuré des décalages spectraux jusqu’à une valeur de 0,2 et compilé plus de 200 000 objets. Son successeur, le 6dF Galaxy Survey a commencé ses observations en 2001 et a fini six ans plus tard. Il a cartographié presque tout le ciel de l’hémisphère sud et a obtenu plus de 100 000 décalages spectraux de galaxies proches (z < 0,06). Son nom provient aussi de son champ de vue, ici de six degrés carrés, qui permet de faire en une pose plus de 150 spectres.
Des exemples de spectres de galaxies spirales à différents décalages spectraux sont illustrés par les images ci-contre. Elles proviennent du relevé SDSS (Sloan Digital Sky Survey) qui en plus de cartographier une grande partie du ciel de l’hémisphère nord a aussi effectué un relevé spectroscopique des galaxies plus brillantes que la magnitude 17 en bande r. Le nombre de décalages spectraux ainsi mesurés approche le million. La majorité est entre 0 et 0,1. Cependant des quasars, bien plus éloignés, ont aussi été observés. On en trouve à des décalages spectraux supérieurs à 2 dans le SDSS.
Le but de cet exercice est de montrer les contraintes de temps liées aux relevés spectroscopiques.
Pour une magnitude limite de 14,5, le relevé CfA2 a permis de mesurer le décalage spectral de près de 15 000 galaxies. Pour une magnitude limite de 17, le SDSS en a mesuré près d'un million. Cela montre que le nombre de galaxies augmente de manière exponentielle et non linéaire avec la magnitude, en supposant que la surface couverte par le CfA2 et le SDSS est la même, ce qui est assez vrai. Cela permet très grossièrement de conclure que pour une magnitude de plus le nombre de galaxies est multiplié par 10. Combien de décalages spectraux de galaxies devrions nous alors mesurer pour une magnitude limite de 20 ?
Quelle méthode instrumentale est la plus adaptée pour faire une campagne efficace de relevé de décalage spectral ? Quelles sont les contraintes observationnelles les plus gênantes pour y parvenir ?
A la suite de la mesure des décalages spectraux, des études ont tenté de relier ces dernières à la distance des galaxies. Cela a débouché sur la célèbre loi de Hubble qui historiquement avait déjà été découverte par le cosmologue belge Georges Lemaître. Cette relation montre une proportionnalité entre la distance d'une galaxie et son décalage spectral. Plus une galaxie est éloignée, plus son décalage spectral est grand. La constante de proportionnalité est appelée constante de Hubble et est estimée aujourd'hui à près de 70 km/s/Mpc, alors qu'une valeur de plus de 500 km/s/Mpc a été mesurée lors de sa découverte. La relation s'écrit donc sous la forme :
où est la constante de Hubble et D la distance d'une galaxie. Cette relation entre vitesse d'expansion et distance a deux conséquences physiques. La première est qu’à faible distance l’expansion de l’univers ne se fait pas sentir. Qui sur Terre a déjà vu des objets s’éloigner sans raison ! Sur une échelle un peu plus grande (<2 Mpc), l’expansion de l’univers n’est pas dominante dans la dynamique des galaxies ; la force gravitationnelle domine. Quelques dizaines de galaxies ont alors un décalage vers le bleu dans le Groupe Local. Entre 10 et 50 Mpc, l’expansion bien que dominante se compose avec les vitesses particulières des galaxies pour produire un décalage spectral. Par exemple, dans l'amas de la Vierge à 16 Mpc, l'expansion de l'univers produit un décalage spectral de l'ordre de 1 100 km/s. Or les vitesses particulières des galaxies dans un amas tel que l'amas de la Vierge peuvent atteindre des valeurs de l'ordre de 500 km/s ajoutant un effet Doppler classique à celui cosmologique. Ainsi, M100 a un décalage spectral de 1 470 km/s quand M49 en a un de 840 km/s. Les vitesses particulières contribuent pour près de 30% au décalage spectral. Au-delà de 50 Mpc, la valeur du décalage spectral est dominé par l'expansion de l'univers.
Sur les millions de mesures de décalages spectraux effectuées depuis plus de 100 ans, l'écrasante majorité se révèle être des décalages spectraux vers le rouge et non vers le bleu. Deux possibilités peuvent expliquer cette tendance. Soit la Voie Lactée connaît une position très privilégiée au sein de l'Univers et il existe un mécanisme étrange qui fait que les autres galaxies s'en éloignent et d'autant plus rapidement qu'elles sont éloignées ; soit l'univers est homogène et isotrope et ces décalages vers le rouge ainsi que la Loi de Hubble résultent naturellement des lois d'Einstein.
La loi de Hubble est un outil très efficace pour estimer la distance des galaxies dans l'univers proche. Grâce à cela il est possible d'accéder à la troisième dimension spatiale et de voir la structure de l'univers à grande échelle.
Difficulté : ☆☆
Quelle est la relation entre le décalage spectral d'une galaxie de l'univers proche et sa distance ?
Soit une galaxie à un décalage spectral de 0,08, quelles sont sa distance et sa vitesse radiale ?
Soient deux galaxies sans vitesse par rapport à nous mais en interaction à une distance de la Voie Lactée de 200 Mpc. Leur interaction mutuelle confère une vitesse radiale de 100 km/s à la première galaxie et de -100 km/s à la seconde. Quel est le décalage spectral de chacune des galaxies et quelle devrait être leur distance sans tenir compte de leur interaction ? Que valent les erreurs absolue et relative de leur distance ?
Expliquer à quoi correspond le "bonhomme" visible sur la figure ci-dessus (dans l'ellipse rouge).
Le précédent chapitre a montré que les galaxies s'éloignent de la Voie Lactée, et ceci d'autant plus vite qu'elles sont éloignées de cette dernière. Pour comprendre ce phénomène physique, il faut envisager l'espace dans le cadre de la relativité générale et non plus dans le cadre de la physique classique de Newton. Depuis Einstein, on sait que l'espace et le temps ne sont pas indépendants. Le continuum espace-temps peut se dilater, se comprimer et cela en fonction de la masse et de l'énergie qu'il contient. Le lien entre le couple masse-énergie et le continuum espace-temps est résumé par l'équation d'Einstein : "masse + énergie équivaut à la courbure de l'espace-temps". Plus l'univers a une forte densité de masse et d'énergie, plus il est courbé et vice-versa. Au-delà d'une densité critique, l'univers est clos et connaîtra une phase de compression après sa phase d'expansion, alors qu'au dessous de cette limite, il se révèle infini et en continuelle expansion. La relativité générale, en plus d'expliquer l'espace-temps de l'univers actuel et futur, permet aussi de le décrire dans le passé. Cette théorie, associée à des hypothèses sur l'univers, prédit que l'univers était plus dense dans le passé et qu'il a même existé un temps où toute la masse était réduite à un point, une singularité, le Big Bang.
D'après la relativité générale d'Einstein, pour connaître parfaitement le continuum espace-temps, il faut prendre en compte la distribution du couple masse-énergie de l'univers : la position de chaque atome, leur vitesse ainsi que la position des photons avec leur énergie propre. C'est évidemment impossible en pratique, il faut alors faire les bonnes simplifications pour décrire la distribution d'énergie de l'univers et être ainsi capable de résoudre l'équation d'Einstein et d'accéder au continuum espace-temps de l'Univers. Ces simplifications sont définies sous le terme de "principes cosmologiques" ; ce sont des postulats caractérisant les propriétés de l'univers. En utilisant les données observationnelles de la distribution de la matière dans l'univers de la fin du XXe siècle jusqu'à nos jours, on s'aperçoit que ces principes tendent à être vérifiés dans la partie de l'univers observable.
Les premiers principes de cosmologie concernent le caractère spatial de l'univers. Il est supposé isotrope et homogène. Cela signifie que l'univers n'a pas de direction privilégiée, il est le même quelque soit la direction dans laquelle on le regarde. De plus, il n'a pas de position privilégiée, il est le même quelque soit l'endroit où l'on se trouve.
Le second principe cosmologique concerne le temps. Peu importe où l'on se situe dans l'univers, son évolution a été la même. Ce principe est très important lorsque l'on observe des galaxies lointaines. En effet, étant très éloignées, elles sont vues dans le passé. Ces galaxies ne sont donc pas directement les ancêtres de notre Voie Lactée et des autres galaxies proches de nous. Cependant grâce au principe d'équivalence temporelle, ces galaxies sont statistiquement les ancêtres des galaxies de l'univers proche.
Historiquement, le principe d'homogénéité était généralisé au temps. En effet pour Einstein, l'univers était identique quelque soit le lieu mais aussi l'époque. Cela a généré un univers statique ; ce qui est faux. L'expansion de l'univers montre que l'univers n'est pas statique, l'univers évolue. Toute la suite de ce cours présentera son évolution.
En ce qui concerne les postulats sur le caractère spatial de l'univers, si ce dernier était réellement homogène et isotrope, ce serait un nuage de gaz dont la masse volumique moyenne serait de 1 atome d'hydrogène par mètre cube. Il est évident qu'à petite échelle ces deux propriétés sont fausses ; galaxies, étoiles et planètes le prouvent. Cependant à grande échelle, plusieurs centaines de Mpc, elles paraissent cohérentes avec les données observationnelles. Cela signifie que nous ne décrirons l'évolution de l'univers qu'à grande échelle ; tout comme l'on décrit la terre comme une sphère alors qu'elle est couverte de montagnes la rendant non sphérique à petite échelle. Il est certain que lorsque nous aurons une bonne connaissance du continuum espace-temps à grande échelle, l'étape suivante sera de comprendre et de quantifier l'effet des inhomogénéités de masse tels que les amas ou les grands vides sur le continuum espace-temps.
Avant Einstein, l'espace de la physique classique était considéré comme statique et plat. Deux masses seules supposées sans interaction et sans vitesse relative, séparées dans l'espace, ne pouvaient ni s'éloigner ni se rapprocher. L'espace de la physique classique était aussi décorrélé du temps et comprenait trois dimensions. On pouvait lui joindre un repère cartésien pour donner à chaque point des coordonnées (x, y, z). Dans cet espace, la distance, , entre deux points très proches s'écrivait de la manière suivante en coordonnées cartésiennes (x, y, z) et sphériques (, , ) :
où , et sont les différences de coordonnées en coordonnées cartésiennes et , et les différences de coordonnées en coordonnées sphériques entre les deux points. Ces deux relations sont ce que l'on appelle la métrique de l'univers dans les coordonnées cartésiennes ou sphériques car elles permettent de mesurer la distance entre deux points proches. Le temps quant à lui est séparé de l'espace et ne fait pas partie de la métrique ; il est absolu, peu importe votre référentiel pour décrire un événement, le temps de ce dernier sera toujours le même.
La relativité restreinte apporte un premier changement en mêlant espace et temps et définit pour cela une métrique en quatre dimensions notée . Entre deux événements E1(x1, y1, z1, t1) et E2(x2, y2, z2, t2) dans un espace à quatre dimensions, la distance est notée :
, le même qu'en physique Newtonienne, avec et étant la vitesse de la lumière.
Ce changement de définition de distance mêlant espace et temps, et surtout l'invariance de cette distance par changement de référentiel, provoque un grand changement conceptuel. L'espace et le temps sont maintenant liés et le temps perd son caractère absolu. Cette métrique de la relativité restreinte est appelée métrique de Minkowski, du nom du mathématicien Hermann Minkowski.
Avec la relativité générale, Einstein bouleverse encore les concepts d'espace-temps. Après avoir lié l'espace et le temps, Einstein le courbe. En effet, l'espace-temps euclidien est plat, i.e. il correspond à la géométrie euclidienne. Dans ce cas deux droites parallèles ne se croisent jamais, la somme des angles d'un triangle fait 180°, etc. Einstein comprend que la métrique de l'espace-temps n'est pas définie de manière absolue mais qu'elle dépend de la quantité de matière et de la distribution d'énergie dans l'univers. Plusieurs scientifiques, Friedmann, Lemaître, Robertson et Walker, ont aidé à la mise en place de la forme de la métrique de l'univers. En effet, le caractère isotrope et homogène de l'univers contraint la forme de sa métrique. Ainsi, la métrique déduite est appelée métrique FLWR et elle s'écrit sous la forme :
En comparant cette nouvelle métrique avec la métrique de la relativité restreinte, trois caractéristiques apparaissent. Premièrement, la partie temporelle ne change pas, cela implique que l'univers évolue de manière identique dans tout l'espace, c'est le principe d'équivalence temporelle. Deuxièmement, la constante peut pendre trois valeurs possibles, -1, 0 ou 1. En fonction de ces valeurs l'univers sera :
hyberbolique et infini (-1), décrit par la géométrie de Lobatchevski ;
plat et infini (0), décrit par la géométrie euclidienne ;
elliptique et refermé sur lui même donc fini (1), décrit par la géométrie de Riemann.
Troisièmement, cette nouvelle métrique a un terme d'accroissement . S'il augmente avec le temps, les distances sont dilatées, sinon elles sont compressées. Ce terme, s'il est constant avec le temps, traduit l'expansion de l'univers. La constante et la fonction doivent être déterminées par l'observation pour caractériser l'espace-temps de l'univers.
La métrique de l'univers décrite précédemment conduit à des phénomènes inhabituels. Si deux masses sont supposées immobiles l'une par rapport à l'autre, leur distance relative peut tout de même changer. Elle augmente si l'univers est en expansion, elle diminue s'il se comprime. On peut ainsi définir une vitesse d'expansion. Cette vitesse n'en est pas réellement une car elle ne décrit pas le déplacement d'un objet dans l'espace au cours du temps mais le changement de l'espace lui même au cours du temps. La "vitesse d'expansion" entre deux points, distants d'une longueur , qui résulte de la métrique de l'univers, est donnée par la relation suivante :
qui est la forme générale de la Loi de Hubble (qui a été présentée au chapitre sur l'expansion de l'univers) pour un univers quelconque. Cette relation montre que la constante de Hubble n'en est pas réellement une. Actuellement, la constante de Hubble vaut près de 70 km.s-1.Mpc-1.
Si nous suivons l'évolution entre deux masses sans interaction comment évoluera leur vitesse d'expansion ? Elle n'a pas de raison d'être constante car la distance entre les masses change ainsi que la valeur de avec le temps. Le terme d'accélération de l'expansion décrit ce changement de vitesse :
où
Le terme (défini historiquement de la sorte) n'est pas directement l'accélération mais son signe indique s'il y a une accélération (négatif) ou une décélération (positif) car il est multiplié à un terme toujours positif . Actuellement, ce terme semble être négatif et valoir -0,55 m/s2. Son signe négatif implique que l'univers est en expansion accélérée.
La mesure la plus utile en cosmologie est le décalage spectral vers le rouge (redshift en anglais). Cette mesure est directement reliée à l'expansion de l'univers. Elle est basée sur le ratio entre la valeur de la fonction d'accroissement, , actuelle, , et dans le passé, :
Comme l'univers est en expansion alors est strictement supérieur à 0. Le décalage spectral vers le rouge tient son nom de la manière de le mesurer. En effet, lorsque l'on reçoit la lumière d'une galaxie lointaine, la longueur d'onde de cette dernière, du fait de l'expansion de l'univers, entre le moment où elle a été émise et le moment où elle est observée par un télescope, s'est dilatée. La lumière apparaît alors plus rouge ; quantitativement . La mesure de ce décalage vers le rouge permet de connaître l'état de l'expansion de l'univers quand la lumière a été émise.
Posons que vaut 1 à 13,7 milliards d'années. Si au temps t = 5 milliards d'années , quel est le décalage spectral d'une galaxie de cette époque ?
Si l'univers n'a connu qu'une phase d'expansion, comment classer chronologiquement les galaxies observées ?
Supposons que la constante de Hubble soit constante à tous temps et vaille 70 km.s-1.Mpc-1. Décrire qualitativement le mouvement dû à l'expansion de l'univers d'une galaxie par rapport à la Voie Lactée.
Que peut bien signifier le terme de distance dans un univers où l'espace se dilate et donc change continuellement les distances entres les objets ? L'astrophysicien a dû définir différentes distances qui toutes ont un intérêt. Dans un univers classique, les trois distances présentées, distance propre, distance lumineuse et distance angulaire auraient la même valeur. Leur changement de valeur est dû à l'expansion de l'univers et elles se déduisent de la valeur du décalage spectral vers le rouge.
La définition la plus naturelle de la distance consiste à figer l'univers à un instant et à mesurer la distance entre deux points, deux galaxies en pratique. C'est la définition de la distance propre. Cette distance propre dépend du temps par le biais de l'expansion de l'univers. Le lien entre deux distances propres est :
alors
Le temps est par définition notre temps présent. On définit la distance comobile par la distance propre au temps actuel, . On fixe la valeur de à 1. Dans le passé, les distances propres étaient donc plus petites car z > 0 dans un univers en expansion constante tel que le nôtre.
Dans un univers classique, lorsqu'un objet émet de la lumière avec une luminosité , un observateur à une distance percevra un flux dépendant de cette distance. Plus il est éloigné et plus faible sera le flux de lumière. La décroissance est inversement proportionnelle à la distance au carré :
Si la luminosité intrinsèque de l'objet, , est connue, il est alors possible d'en déduire la distance de l'objet émetteur par la mesure de son flux. Cette dernière s'appelle la distance lumineuse. Dans un univers relativiste plat, l'expansion ou la contraction de l'univers dilue ou renforce ce flux. De fait, le flux reçu est alors :
de là
où est la distance comobile avec . L'expansion de l'univers (z > 0) fait que les galaxies paraissent plus lointaines.
De même que pour le flux lumineux, la taille angulaire dépend de la distance. Plus un objet est lointain et plus sa taille angulaire diminue. Il existe une relation linéaire entre la distance d'un objet, , sa taille réelle, , et sa taille angulaire, :
La distance D, qui découle du rapport entre la taille réelle et la taille angulaire, est appelée distance angulaire. Elle n'est plus la même dans un univers relativiste. Un univers plat en expansion tend à faire voir un objet plus grand qu'il ne l'est, un effet de loupe, tandis qu'un univers en contraction réduit la taille angulaire des objets. La distance angulaire devient :
où D est la distance comobile. La distance angulaire est alors identique à la distance propre.
Ces nouvelles distances, lumineuses et angulaires, ont des répercussions sur la brillance de surface des galaxies. La brillance d'une galaxie n'est rien d'autre que le rapport entre sa luminosité divisé par sa surface. Cette dernière était constante dans un univers Newtonien mais décroît dans un univers relativiste avec le décalage spectral.
En effet, la surface apparente des galaxies est dilaté par un terme en et leur flux est divisé par le terme d'où la puissance quatrième.
Si aujourd'hui une galaxie se situe à D = 500 Mpc, quelle était sa distance propre à z = 0,6, 1 et 3 ?
Quelle est alors sa distance lumineuse et angulaire pour z = 0,6 ?
Par combien sa brillance de surface est-elle divisée pour les trois décalages spectraux ?
Prenons des galaxies identiques de tailles 10 kpc à différents décalages spectraux. Dans notre univers, pour un décalage spectral de 0,6 une des galaxies a une distance comobile D=2206 Mpc, pour un décalage spectral de 1, une autre galaxie a une distance comobile D=3303 Mpc, pour z = 2, la troisième galaxie a une distance comobile D = 5179 Mpc et pour la dernière galaxie à z = 10, la distance comobile est D = 9440 Mpc. Quelles seront les distances angulaires pour chaque décalage spectral ? Calculez ensuite les tailles angulaires en secondes d'arc et commentez.
Si les galaxies à grands décalages spectraux peuvent être aussi grandes qu'à plus petits décalages spectraux, pourquoi est-il tout de même plus difficile de les voir ?
Soit une galaxie à z = 1 dans un univers en expansion. Via un modèle cosmologique, il est déduit que la lumière de la galaxie fut envoyée il y a huit milliards d'années. Le modèle prédit aussi que la galaxie est aujourd'hui à une distance propre de 3 343 Mpc. Quelle était sa distance propre quand elle a envoyé sa lumière ? Quel distance a traversé la lumière pendant les huit milliards d'années ?
Pour décrire le continuum espace-temps de l'univers, il suffit de connaître sa courbure et la fonction d'accroissement qui définissent la métrique de l'univers. Ces deux quantités sont déduites des équations d'Einstein dans le cadre d'un univers isotrope et homogène. De plus, l'univers étant supposé être un fluide de masse volumique constante, l'énergie équivalente à sa densité de masse est donnée par avec en plus une pression . Les équations d'Einstein dans le cadre de la cosmologie furent obtenues dans les années 1920 par le mathématicien russe Alexandre Friedmann :
(a)
(b)
où est la vitesse de la lumière et la constante de la gravitation. Ces équations qui dépassent le cadre de ce cours sont seulement là pour illustrer le fait que seules les valeurs de et de sont inconnues dans ces équations. Des théorèmes mathématiques prouvent que ce système de deux équations à deux inconnues admet des solutions.
Les équations d'Einstein ont la particularité qu'il est possible de leur ajouter une constante d'intégration, notée . La valeur de cette constante peut avoir de grandes conséquences dans les propriétés de l'univers. Sa valeur n'a pas de réelle contrainte, si bien qu'elle peut être considérée comme un paramètre libre. Einstein, en son temps, l'avait utilisée pour faire de l'univers un univers statique. Aujourd'hui, cette constante sert à expliquer la possible accélération de l'univers. Dans le cadre de la cosmologie, les équations d'Einstein avec constante cosmologique deviennent :
(a)
(b)
Pour résoudre les équations de Friedmann et déterminer et , il faut connaître la valeur de la densité, , et de la pression, . Pour déterminer ces deux valeurs, il faut prendre en compte l'effet de chaque composante de l'univers dans le bilan masse-énergie.
La composante la plus simple de l'univers est la matière non relativiste, ayant des vitesses très inférieures à la vitesse de la lumière, avec une pression négligeable par rapport à la densité d'énergie de masse, , et une énergie équivalente . Les galaxies, les amas de galaxies et le gaz intergalactique forment cette composante énergétique. Cette matière est considérée comme un fluide à l'échelle cosmique (plusieurs centaines de Mpc). Elle est continue et d'une masse volumique constante. Parmi cette composante énergétique, en plus de la matière classique, il semble y avoir une matière dite noire car elle n'interagit que par la gravitation et est donc invisible. La masse volumique de matière actuelle est notée et vaut près de 0,6.10-29 g/cm3. La densité équivalente d'énergie de cette composante de l'univers diminue au cours de l'expansion de l'univers du fait de l'augmentation des volumes :
De manière inverse, la densité d'énergie augmente lorsque l'on remonte le temps, pour prendre des valeurs de plus en plus grandes vers l'origine de l'échelle du temps.
Sous l'appellation rayonnement, la lumière de même que le gaz relativiste sont pris en compte. Les particules matérielles deviennent relativistes lorsque leurs énergies cinétiques deviennent similaire à leurs énergies de masse, , donc à des vitesses proches de celle de la lumière. En effet, à grande vitesse un gaz relativiste se comporte comme un gaz de photons ayant une pression, . Cette dernière est reliée par une équation d'état à sa masse volumique, :
où est la vitesse de la lumière. De même que la matière, dans un univers en expansion, la densité d'énergie de ce gaz relativiste se dilue et de plus les photons perdent de l'énergie par la dilatation de leurs longueurs d'onde. De ce fait, la densité d'énergie décroît plus rapidement que celle de la matière. A contrario, cela veut aussi dire qu'elle augmente plus vite lorsque l'on remonte le temps. Ce gaz relativiste décrit alors bien l'état de l'univers durant ses premiers instants lorsqu'il n'était qu'un plasma chaud.
Cette dernière forme d'énergie peut être considérée de deux manières. Soit elle est reliée à la constante cosmologique qui serait due à la forme même des équations d'Einstein ; soit elle s'explique par une matière qui aurait des propriétés assez étranges de pression négative qui permettrait d'écrire l'équation d'état suivante : . Dans tous les cas, son influence contribue à l'expansion et peut même l'accélérer.
Durant l'évolution de l'univers, l'énergie de chaque composante a évolué ; des particules relativistes, en se refroidissant, sont devenues de la matière froide, un plasma de particules s'est transformé en gaz de photons, l'augmentation des volumes a fait décroître les densités énergétiques, etc. Ces changements de la densité énergétique pour chaque composante influe sur la manière qu'a l'espace-temps d'évoluer. Pour mieux comprendre l'influence de chaque composante, elles sont comparées à une densité critique. Les paramètres cosmologiques sont ainsi définis :
Le choix de ces paramètres se comprend lorsque les équations de Friedmann sont reprises avec ces paramètres cosmologiques. Cela crée deux relations très simples entre ces paramètres et le terme d'accélération :
Actuellement, la densité équivalente d'énergie pour la composante du rayonnement, , n'est pas dominante face à la composante de matière, = 0,3. Cependant dans le passé, la composante du rayonnement était plus importante que celle de la matière. Le but de cet exercice est d'avoir une idée grossière de l'époque de transition.
Que valent actuellement les masse volumiques et ?
Comment évoluent-elles lorsque l'on remonte le temps ?
Pour quel décalage spectral, leur valeur est-elle identique ?
Après avoir défini les concepts importants de l'évolution du continuum espace-temps, les sections qui suivent montrent des cas particuliers d'univers en fixant les paramètres cosmologiques et la constante de Hubble. Les premiers exemples d'univers sont uniquement constitués de matière. Le rayonnement est en effet négligeable durant la majeure partie de l'histoire de l'univers ; il ne joue un rôle important que pendant les premiers milliers d'années. De ce fait, l'évolution de l'univers est bien décrit même sans cette composante. La constante cosmologique, , est supposée être nulle. Le paramètre de la courbure de l'espace se trouve donc être < 1 car est plus grand que 0. La constante de Hubble est prise valant 70 km.s-1.Mpc-1. Tous les paramètres sont alors connus, il est possible d'en déduire et .
L'évolution de l'univers prend trois formes différentes en fonction de la valeur de . Si le paramètre de densité est plus grand que 1, donc si la densité de la matière est plus grande que la densité critique, alors est plus petit que 0 et après une phase d'expansion, l'univers s'effondrera sur lui même. La courbure de l'univers est alors positive et l'univers est fini. Si le paramètre de densité vaut 1, = 0, l'univers est plat et l'expansion continue indéfiniment. Les galaxies s'éloigneront avec des vitesses de plus en plus faibles jusqu'à arriver à une vitesse quasi-nulle dans un temps infini. Le troisième cas offre un univers hyperbolique qui ne fera qu'enfler avec une vitesse d'expansion qui certes diminuera mais ne sera jamais nulle. Le graphique illustre les trois fonctions possibles pour le terme d'accroissement, . Seul le cas admet pour un temps différent de 0 l'égalité suivante . Cela représente une deuxième singularité appelé le Big Crunch.
Cet exercice traite des particularités de l'univers d'Einstein-de Sitter. Bien que faux, cet univers est bien connu pour ses vertus pédagogiques ; en effet tout y est décrit analytiquement. Dans cet univers seule la matière courbe l'espace-temps, le rayonnement et la constante cosmologique sont supposés être nuls. Cet univers est de plus plat.
Quelles sont les valeurs des quatre paramètres cosmologiques, , , et ?
Dans ce modèle , quel est donc l'âge de l'univers ? Est-ce raisonnable ?
La densité vaut . Que vaudrait-elle à présent et lorsque l'univers avait 380 000 ans ?
Pour ce modèle, et . Est-ce cohérent avec un univers plat ? Comment seront distribuées les galaxies dans une époque très lointaine ?
La découverte assez récente de la possible accélération de l'expansion de l'univers oblige les astronomes à revoir leurs modèles d'univers composés uniquement de matière. En effet, dans ce dernier cas l'expansion de l'univers ne peut que ralentir. La seule façon d'expliquer une accélération dans le cadre d'un univers homogène et isotrope est l'ajout d'une composante de pression négative : l'énergie du vide ou la constante cosmologique.
La valeur du paramètre de la constante cosmologique avoisine = 0,7. La valeur de la densité de matière actuelle, , est 0,3. Ces deux paramètres impliquent un paramètre de courbure égal à 1 - 0,7 - 0,3 = 0, donc un univers plat. De plus, l'apport de la constante cosmologique permet d'avoir un univers dont l'expansion est accélérée. L'univers ne se contente plus de se dilater en décélérant mais il accélère sa dilatation.
Ce modèle de l'univers où = 70 km.s-1.Mpc-1, =0,3 et = 0,7 est nommé le modèle CDM, pour rappeler que la majorité de l'énergie actuellement est sous la forme de la constante , près de 70%, et qu'une grande partie du reste est contenu dans la matière noire froide (cold dark matter en anglais, d'où le CDM), c'est à dire non relativiste, avec 27% de l'énergie totale. Les 3% restant sont l'univers visible que nous connaissons. Pour l'instant, ce modèle est le modèle standard dans la communauté scientifique, cependant il est frustrant de se rendre compte que 97% du couple énergie-masse de l'univers soit inconnu. Aucun modèle n'explique à ce jour d'où peut provenir l'énergie noire et aucune détection directe n'a permis de mettre en évidence la matière noire. Tout reste encore à faire dans ce domaine.
A la suite de ces deux premiers chapitres de cours, deux aspects essentiels de l'univers sont à noter. L'univers est constitué d'un espace-temps qui n'est pas statique, et ce dernier est en expansion donc l'univers évolue. Si l'espace de l'univers se dilate cela signifie que l'univers était plus dense dans le passé. Les modèles cosmologiques nous apprennent qu'il doit exister un instant dans le passé où la fonction d'accroissement, , vaut zéro et où l'univers serait donc sans espace ni temps réduit à un point. Après cette époque l'univers aurait connu une phase d'expansion. Cette idée a pris le nom de Big Bang comme une explosion qui éjecterait tout autour d'elle de la matière. Cependant, cette comparaison fausse la bonne compréhension du Big Bang. En vérité, la matière n'est pas éjectée à partir d'un endroit de l'univers mais c'est l'espace de l'univers lui-même réduit en un point qui se serait dilaté. De plus, cet instant où tout ne serait réduit qu'à un point est une vision purement mathématique. Physiquement nous ne savons pas comment se comporte la matière et donc l'univers quand il atteint de très fortes densités. La singularité du Big Bang signifie un univers sans espace, avec une densité infinie. Les physiciens se méfient des valeurs infinies, elles montrent surtout la méconnaissance du physicien face à un phénomène et le besoin de nouveaux outils mathématiques pour décrire le phénomène physique.
Dans la suite de ce cours, les différentes étapes de l'univers seront exposées. L'époque de recombinaison puis celle de la nucléosynthèse primordiale seront mises en valeur. Ces deux époques sont importantes car leurs conséquences sont visibles actuellement via le Fond Diffus Cosmologique et la répartition de la quantité des atomes dans l'univers. Enfin, l'histoire de l'univers sera détaillée étape par étape, des premiers âges très denses, très chauds et très homogènes jusqu'à notre univers actuel, froid et très inhomogène.
L'expansion de l'univers décrite au précédent chapitre révèle un univers régi par les lois de la relativité générale confortant la théorie du Big Bang. L'expansion prédit que la lumière qui nous parvient des galaxies éloignées est décalée vers les grandes longueurs d'onde, vers le rouge. Donc regarder à de grandes longueurs d'onde, c'est pouvoir regarder les galaxies dans le passé. Cependant d'après la théorie du Big Bang, au début de l'univers, il y a plus de 13 milliards d'années, il n'y avait pas de galaxies, il n'y avait qu'un plasma mêlant de la lumière en interaction avec de la matière. Ce chapitre traite de la signature observationnelle de cette époque en présentant le Fond Diffus Cosmologique (FDC). Alors que nos instruments modernes détectent difficilement des galaxies à des décalages spectraux plus grands que 4, la lumière du Fond Diffus Cosmologique nous parvient d'un décalage spectral de près de 1 100, décalée à des longueurs d'onde si grandes, de l'ordre du centimètre, que nos yeux ne peuvent la percevoir. Cette lumière des tous premiers âges de notre univers est une ressource irremplaçable pour comprendre l'état de la matière au début de l'univers (380 000 ans) : un plasma quasi-homogène à l'équilibre, d'une température de près de 3 000 K. Plusieurs sondes ont cartographié cette lumière, la dernière en date, encore active, est la sonde Planck qui délivra ses premiers résultats en mars 2013.
Jusqu'à la seconde guerre mondiale, les observations astronomiques étaient limitées aux longueurs d'onde visibles. Pendant la seconde guerre mondiale, la technologie des radars a énormément évolué, en premier lieu pour des applications militaires, puis pour des applications civiles avec le retour de la paix. Durant les années 1959 - 1961, un cornet de 6 m a été construit aux États-Unis, installé sur la colline de Crawford, à Holmdel dans le New Jersey par le Bell Telephone Laboratory, pour recevoir le signal du satellite Echo puis Telstar.
En 1963, ce cornet a été transformé en radiotélescope par Alan A. Penzias et Robert W. Wilson pour observer le halo de notre Galaxie à la longueur d'onde d'environ 7,35 cm. Durant leurs observations pendant les années 1963 - 1965, Penzias et Wilson ont détecté un signal supérieur à celui prévu. Ils ont d'abord cherché à mieux estimer les contributions "parasites" qui pouvaient être dues au ciel, à l'antenne, au guide d'onde, aux détecteurs. Mais toutes ces contributions étaient trop faibles pour pouvoir rendre compte de l'excès observé. De plus, le signal observé était identique dans toutes les directions, donc ne pouvait pas provenir de sources ponctuelles. Il était aussi constant dans le temps. En résumé, nous baignons dans un flux permanent de photons de grandes longueurs d'onde.
Dans le but de tenter de comprendre le phénomène observé, Penzias et Wilson ont alors pris contact avec des théoriciens (Dicke, Peebles, Roll, Wilkinson) de l'Université de Princeton, l'une des meilleures Universités des États-Unis. Deux premiers articles ont paru en 1965 dans la revue américaine The Astrophysical Journal (volume 142, pages 414 et 419) présentant la découverte et l'interprétation de ce rayonnement comme étant un "fond diffus cosmologique", que nous noterons désormais FDC.
Leur interprétation était la suivante : le FDC est le résidu d'un rayonnement émis par l'Univers lorsqu'il était dans une phase très chaude et dense. Un tel rayonnement avait été prédit par Lemaître dans les années 1920, puis par Gamow, Alpher et Herman dans les années 1950. Ce rayonnement aurait été émis par l'univers tout entier environ 380 000 ans après le Big Bang et aurait aujourd'hui un spectre de corps noir à la température de quelques Kelvin, refroidi par l'expansion de l'univers.
L'observation de ce rayonnement qui sera détaillée et expliquée dans ce chapitre est l'argument le plus fort en faveur du modèle du Big Bang.
Avant de décrire plus en détail les propriétés du FDC, ce dernier doit être remis dans son contexte cosmologique afin d'être bien compris. Pour cela, il faut revenir à près de 380 000 ans après le Big Bang, quand l'univers était très jeune.
A cette époque qui correspond à un décalage spectral de 1 100, l'univers était bien différent de celui que l'on connaît aujourd'hui : pas de structure cosmologique, pas de galaxie ni même d'étoile ou de molécule. L'univers âgé de 380 000 ans était constitué essentiellement de photons, de noyaux d’hydrogène et d’hélium ainsi que d'électrons. L'univers était un plasma en équilibre thermique à la température de plus de 3 000 K où les photons interagissaient violemment et rapidement avec les électrons, les protons et les quelques autres noyaux atomiques formés alors (hélium en grande majorité). Cet équilibre thermique à plus de 3 000 K conditionne l'énergie des photons qui est rassemblée autour d'une énergie moyenne, c'est le modèle du corps noir qui sera vu par la suite. Cette énergie moyenne était si grande à cette époque qu'elle pouvait arracher un électron lié à un proton. Dans ces conditions, la lumière ne pouvait pas se propager librement, l’Univers était donc complètement opaque, et les noyaux atomiques ne pouvaient pas se combiner avec les électrons. On ne peut donc pas observer ce qui a pu se passer durant et avant cette période, car aucun photon n’a pu s’en échapper pour parvenir jusqu'à la Terre, tout comme il est impossible de voir à travers un épais brouillard.
Passés 380 000 ans après le Big Bang, l’expansion de l’Univers fait chuter la température de l'univers en dessous de 3 000 K. Les photons perdent alors de l'énergie via l'augmentation de leur longueur d'onde due à l'expansion de l'univers (voir le chapitre sur l'expansion de l'univers). Ils ne peuvent plus arracher d'électrons aux atomes, il n'y a plus d'interaction entre les photons et les noyaux. Les photons alors se découplent de la matière et peuvent parcourir des distances infinies. L'univers devient alors transparent. De leur côté, les noyaux atomiques peuvent enfin se combiner avec les électrons pour donner des atomes d’hydrogène et d'hélium neutre : c’est la phase dite de recombinaison bien qu'il n'y ait jamais eu de phase de combinaison. A la suite de cette phase, les photons libres constituent le FDC (aussi appelé rayonnement « fossile »). Avec l’expansion de l’Univers, la longueur d'onde de ces photons continue à augmenter et leur énergie à diminuer. Il en est de même de la température du corps noir correspondant ; de 3 000 K au moment de la recombinaison la température est tombée actuellement (13,7 milliards d'années après l’émission du FDC) à 2,728 K.
Le FDC est un rayonnement issu d'un univers dense et chaud lequel peut être modélisé par un corps noir. Afin de comprendre les propriétés de ce reliquat des premiers temps, il faut connaître les propriétés des corps noirs et de leur rayonnement.
La branche de la physique qui étudie les propriétés liées à la température des corps et aux échanges d’énergie entre eux (échanges de chaleur, émissions de rayonnement) s’appelle la thermodynamique. Un corps noir y est défini comme un corps en équilibre thermodynamique qui absorbe tout le rayonnement électromagnétique qu’il reçoit, contrairement à un miroir par exemple. Noir ne signifie pas qu'il est invisible comme un trou noir mais qu'il absorbe toute la lumière. En raison de sa température, un corps noir émet un rayonnement dit thermique qui est caractérisé par sa température. Le nombre de photons produits en fonction de leur longueur d'onde est une fonction qui a une forme de cloche asymétrique. Le pic de ce rayonnement est directement lié à sa température par la loi de Wien :
m.K
Ainsi le corps humain, qui est à une température d’environ 37°C (soit environ 37+273 = 310 K) émet un rayonnement principalement dans l’infrarouge à 9,3 (d’où les jumelles à infrarouge utilisées pour repérer des êtres humains la nuit). La température étant inversement proportionnelle à la longueur d'onde du pic d'émission, plus un corps est chaud, plus son rayonnement a lieu vers les hautes énergies, c’est à dire vers les petites longueurs d’onde. Ainsi au fur et à mesure que l’on chauffe un morceau de fer il apparaîtra d’abord rouge, puis orange, et enfin bleu, diminuant sans cesse de longueur d'onde. Passée une certaine température, le pic se trouvera dans l'ultra-violet et l'oeil ne verra que la queue de distribution des photons des grandes longueurs d'onde.
Les poussières dans le milieu interstellaire sont un exemple de corps noir dont la température est de quelques centaines de Kelvin. Elles émettent principalement à des longueurs d'onde dans l'InfraRouge. Les étoiles dont la température superficielle peut prendre des valeurs entre quelques milliers et quelques dizaines de milliers de Kelvin sont aussi des corps noirs (voir figure). Leurs pics d'émission se situent entre 1000 et 100 nm. A noter que l'atmosphère des étoiles crée des raies d'émission et d'absorption dans le spectre d'une étoile, ce qui l'éloigne du corps noir parfait. Cependant, elles restent de meilleurs corps noir que le corps humain ou le fer.
La loi de rayonnement du corps noir, découverte par Max Planck à la toute fin du XIXe siècle, relie l'énergie rayonnée par unité de volume, , ou le nombre de photon par unité de volume à la fréquence, , des photons pour un corps noir d'une température . Elle englobe la relation de Rayleigh-Jeans qui décrivait cette loi pour les grandes longueurs d'onde, au-delà du pic central de rayonnement. Elle est historiquement importante car la compréhension physique de la partie des courtes longueurs d'onde a requis l'ajout d'un concept nouveau en physique, le quantum d'énergie qui sera développé ultérieurement pour la mécanique quantique. Le loi de Planck est la suivante :
où est la vitesse de la lumière (300 000 km/s), la constante de Planck ( J.s) et la constante de Boltzmann ( J/K).
Un corps noir à la température émet un rayonnement qui dépend de sa température et dont l'intensité en fonction de la longueur d'onde est visualisée par l'applet suivant :
Le rayonnement du corps noir
De quel côté de l'échelle en longueur d'onde se trouve l'ultraviolet ? l'infrarouge ?
Dans quel domaine de longueur d'onde un corps assimilable à un corps noir à la température ambiante émet-il ?
Qu'est-ce qui est le plus chaud : une une étoile rouge ou une étoile bleue ?
Quand on augmente la température d'un corps, le maximum d'émission se déplace-t-il vers les plus grandes longueurs d 'onde ?
En décochant "normaliser", l'échelle des ordonnées est maintenant absolue, c'est-à-dire qu'elle va de zéro au maximum d'intensité pour une température de 30 000K. Un corps à 15 000 K est-il plus ou moins lumineux qu'un corps à 5000 K ?
Le FDC a été émis par l'univers quand il était sous la forme d'un plasma. L'univers à cette époque était un corps noir d'une température de près de 3 000 K. Le FDC est donc le spectre de ce corps noir mais décalé vers le rouge. En mesurant les propriétés de ce spectre, il est possible de connaître la température actuelle du FDC qui est de 2,728 K. En faisant le lien entre la température du FDC aujourd'hui et à l'époque de la recombinaison via le décalage spectral, on trouve un redshift de près de 1 100 pour l'époque de la recombinaison, que l'on associe à un âge de 380 000 ans après le Big Bang dans le modèle CDM.
L'image ci-jointe montre les mesures du flux du FDC pour différentes longueurs d'onde. Le pic se situe à proximité de 0,1 cm, ce qui équivaut d'après la loi de Wien à une température de 2,7 K. Penzias et Wilson avaient mesuré le FDC à 7,3 cm. L'intensité à cette longueur d'onde est près de 100 fois inférieure à celle du pic. L'utilisation de ballons stratosphériques et le manque de mesure terrestre à faible longueur d'onde sont dus à l'absorption d'une partie du FDC par l'atmosphère pour les faibles longueurs d'onde. Afin de résoudre ce problème et d'avoir une meilleure résolution spectrale et spatiale les missions suivantes d'observations du FDC se feront exclusivement dans l'espace.
Connaissant la loi de rayonnement du FDC, il est possible d'en déduire la densité volumique d'énergie et donc le nombre de photons dû au FDC par litre. Il est proche de 400 000, ce qui équivaut à 400 photons par . Il est intéressant de le comparer aux nombres de particules massives, protons et neutrons. Ce dernier semble approcher les 0,5 atomes par litre. Cela conduit à un rapport de 1 particule massive pour 1 milliard de photons. Le nombre de particules et celui des photons du FDC n'ayant que peu évolué depuis la recombinaison, leur rapport est resté constant depuis plus de 13 milliards d'années.
A basse résolution spatiale et de température, le FDC est isotrope (le même dans toutes les directions du ciel). Pourtant des anisotropies étaient attendues par le modèle théorique du FDC, de l'ordre de quelques K, K. Les résultats du satellite COBE, Cosmic Background Explorer, ont été les premiers à mettre en évidence sur tout le ciel des fluctuations du FDC. Ces résultats ont ensuite été affinés par des expériences utilisant des ballons envoyés dans l'atmosphère qui couvraient des parties plus petites du ciel mais avec une meilleure résolution (Archeops et Boomerang). Des résultats spectaculaires sur tout le ciel sont obtenus par la sonde WMAP en 2003. Le satellite Planck, lancé en 2009, a encore permis un bond en avant dans l’étude du FDC.
Plusieurs phénomènes peuvent expliquer les fluctuations du FDC. Il y a des raisons physiques dues à l'état de l'univers âgé de 380 000 ans qui n'était pas complètement isotrope (ceci cause des fluctuations dites primaires) et des interactions entre le FDC et les composantes de l'univers durant le voyage de treize milliards des photons pour parvenir à la Voie Lactée (ceci cause des fluctuations dites secondaires).
Certaines fluctuations primaires sont dues aux oscillations acoustiques. Dans l'univers chaud du début de l'univers, le fluide formé de photons, baryons et électrons oscille à la manière d'une onde acoustique. Le potentiel gravitationnel est contrebalancé par la force de pression de radiation, créant des bulles de légères sur-densités ou sous-densités. A la suite de la recombinaison la force de pression radiative due aux photons disparaît et les anisotropies sont figées. Ces oscillations du plasma primordial créent des changements dans la température donc dans le spectre du FDC et expliquent en partie ses anisotropies.
Certaines fluctuations secondaires sont dues à l'effet Sunyavev-Zel'dovich. Durant le long voyage des photons du FDC de leur lieu d'émission à la Voie Lactée, treize milliards d'années se sont écoulés et les photons ont parcouru une distance qui fait aujourd'hui près de 15 Gpc soit près de 50 milliards d'années lumière en prenant en compte l'expansion de l'univers (voir chapitre sur le continuum espace-temps de l'univers). Sur leur trajectoire, certains photons ont traversé des amas de galaxies formés bien après le Big-Bang. L'interaction (par diffusion) avec ce milieu rempli de gaz chaud et d'électrons libres a modifié leur température.
En définitif, les fluctuations de température mesurées sont de l'ordre de K en erreur absolue et donc de , 1 sur 100 000, en valeur relative. Le FDC a gardé l'empreinte du profil de densité de l'univers au moment du découplage lumière-matière.
Le système solaire se meut dans le référentiel du FDC qui est en moyenne à 2,728 K. Cela donne lieu a un dipôle lorsque l'on observe le FDC (voir figure). Les parties qui se rapprochent de nous sont moins décalées vers le rouge que celles qui s'éloignent de nous. C'est l'effet Doppler classique.
Sachant que la différence de température entre les deux pôles peut atteindre près de 10 mK, quelle est la longueur d'onde minimale des photons du FDC comparé à celle moyenne ?
Quel redshift est déduit de cette compression de la longueur d'onde moyenne ?
Quelle est alors la vitesse du système solaire par rapport au FDC ?
Après les images du FDC montrées dans la section précédente, il faut maintenant quantifier les inhomogénéités du FDC. Comment caractériser par des chiffres les anisotropies du FDC ? La méthode est de décomposer le FDC en une somme de moments multipolaires. Tout comme le nombre se décompose en la somme de 3 + 0.1 + 0.04 + 0.001 + 0.0005... le FDC peut se décomposer par une somme d'images ayant des résolutions spatiales de plus en plus grandes (voir l'animation). Le premier moment est une image homogène correspondant à un corps noir parfait sur tout le ciel de 2,728 K. Les autres images servent à affiner l'image pour retrouver l'image du FDC. Le résultat de cette décomposition s'appelle la loi de puissance du FDC. Elle donne l'intensité de chaque moment (voir graphique ci-joint). Les pics donnent une information sur la taille typique des anisotropies. Le premier pic est proche de 0,75°, c'est la taille typique des petites taches visibles sur la carte de WMAP. Elles seraient dues aux oscillations acoustiques de l'univers primordial.
Le spectre de puissance est très important pour contraindre les paramètres cosmologiques. En effet, pour reproduire ce spectre dans le cadre du modèle CDM, les paramètres cosmologiques sont ajustés : la densité de matière baryonique, celle de matière noire, la constante cosmologique, etc. Chaque mission d'observation du FDC (COBE, WMAP, Planck) a fourni et affiné la valeur des paramètres cosmologiques.
Les données ont montré que le FDC était très faiblement inhomogène ; une précision de l'ordre du K est nécessaire pour déceler les anisotropies. Cette faible inhomogénité sur tout le ciel pose un problème. De fait, deux directions opposées lors de l'émission du FDC, il y a plus de 13 milliards d'années, étaient distantes de près 81 millions d'années lumière. Or l'univers n'ayant que 380 000 ans, il est impossible que ces deux zones aient pu interagir l'une avec l'autre pour établir un équilibre de quelques K à cause de l'existence d'une vitesse limite : la vitesse de la lumière. Ces infimes fluctuations pourraient être expliquées par une phase d'inflation de l'univers. Il s'agit d'une période au tout début de l'univers pendant laquelle l'univers aurait connu une expansion exponentielle. De ce fait, elle aurait transformé des inhomogénéités microscopiques en inhomogénéités macroscopiques.
La terre est riche d'une diversité chimique exceptionnelle. On y trouve des molécules chimiquement simples, formées de seulement deux atomes, comme le dihydrogène (H2) jusqu'à des molécules géantes combinant des milliers d'atomes telles que l'ADN en passant par des cristaux de toutes sortes, etc. Cette diversité est trompeuse. A l'échelle de l'univers deux éléments règnent sur les composants chimiques, l'hydrogène et l'hélium, le reste ne représente qu'une infime fraction laborieusement formée dans les étoiles massives depuis plus de 13 milliards d'années. Plus de 99% des atomes de l'univers (75% d'hydrogène et 25% d'hélium en fraction de masse) ont été formés pendant la nucléosynthèse primordiale qui date des trois premières minutes de l'univers.
Avant d'en venir à la nucléosynthèse primordiale, un rapide bilan des connaissances sur les atomes et leur structure est entrepris.
Le terme atome a été utilisé, au XIXe siècle, pour désigner des particules qui ne peuvent se casser, du grec a-tomos. A cette époque, on croyait avoir découvert les briques élémentaires de la physique, classées dans le célèbre tableau de Mendeleïev. Le XXe siècle a cassé cette vision. Les atomes sont en vérité constitués de protons, de neutrons et d'électrons.
Un atome est composé de trois types d'éléments, neutrons, protons et électrons. Les neutrons et protons sont unis par la force nucléaire forte au sein d'un noyau d'une taille de l'ordre du femtomètre ( m). Les électrons sont liés par la force électromagnétique et "orbitent" autour du noyau atomique. Le terme "orbiter" comme pour les planètes est faux mais bien commode. Pour bien appréhender l'électron, il faudrait utiliser la mécanique quantique, parler d'onde de probabilité et de quantification de l'énergie, etc. Pour ce cours, on supposera que toutes les particules sont des billes très petites ; la vérité est plus complexe mais cette simplification est suffisante pour notre propos. Les électrons orbitent donc à une distance de m du noyau. Les masses du proton et du neutron sont sensiblement les mêmes, kg, alors que celle de l'électron est de l'ordre de kg ; l'électron est donc 1800 fois moins massif qu'un proton. Cela entraîne qu'un atome est constitué d'un noyau très dense contenant 99.99 % de la masse autour duquel orbitent des électrons de masses négligeables. Un atome est donc principalement constitué de vide.
Masse | Charge | |
Proton | 1,672.10-27 | e |
Neutron | 1,674.10-27 | 0 |
Électron | 9,1.10-31 | -e |
Les neutrons, comme leur nom l'indique, sont électriquement neutres. Les protons ont eux une charge positive +e (+ Coulomb) alors que l'électron a une charge négative de -e, l'exact opposé. Ainsi, pour qu'un atome soit neutre, il faut qu'il y ait autant de protons que d'électrons. Le nombre de neutrons n'est pas contraint pour la neutralité ; cependant il est défini afin que le noyau soit le plus stable possible. Les petits noyaux (hélium, carbone, azote) ont autant de neutrons que de protons tandis que les noyaux plus massifs (Uranium) ont un excès de neutrons. Le nom de l'atome est déterminé par son nombre de proton. Ainsi un atome de carbone a 6 protons et un atome de Fluor 9, etc. Deux atomes ayant le même nombre de protons mais un nombre différent de neutrons sont appelés des isotopes, du grec iso (même) et topos (lieu dans le tableau périodique). Seule leur masse totale change. Parmi les isotopes d'un atome, certains sont stables tandis que d'autres subissent des réactions nucléaires de désintégrations qui les transforment en un nouvel atome stable. L'exemple le plus connu est l'isotope (carbone 14), un noyau de carbone avec 6 protons (donc du carbone), 6 électrons pour être neutre, et 8 neutrons. Cet atome instable se transforme au bout d'un temps caractéristique de 6 000 ans, en (sept protons et sept neutrons). Une réaction nucléaire change un neutron en un proton en éjectant un électron pour conserver la charge électronique totale. Cet isotope existe encore sur terre même après des milliards d'années d'évolution séculaire car il est régénéré par les rayons cosmiques qui frappent quotidiennement la terre, changeant un atome d'azote en carbone 14. Lorsqu'un corps meurt, il devient un système fermé sans échange avec l'extérieur et alors son rapport entre le et le ne cesse de décroître par désintégration. La mesure du rapport permet de déterminer à quelle date l'être vivant est mort. Cela est très utilisé pour déterminer l'âge des momies. Cette méthode ne peut permettre des datations plus anciennes que quelques dizaines de milliers d'années car après cela tout le est désintégré.
Les atomes sont par définition neutres, cependant des réactions chimiques peuvent faire qu'un atome gagne ou perde un électron. L'atome résultant devient un ion, négatif s'il a gagné un électron, positif s'il en a perdu un. Étant chargé, un ion aura tendance à fortement interagir avec une autre particule chargée de signe contraire pour reformer un élément neutre ; un atome ou une molécule.
Avec les ordres de grandeurs donnés dans le cours, retrouver la masse volumique d'un atome d'hydrogène et celle de son noyau.
Expliquer la différence de masse volumique avec celle de l'eau ?
Combien le noyau d'3He contient-il de neutrons et de protons ? Même question pour le noyau d'4He.
Comment noter le deutérium sous la forme xH ? Même question pour le tritium.
De quels éléments chimiques s'agit-il ?
Où trouve-t-on des molécules dans l'espace ? Sur Terre, il existe des milliers de molécules différentes ; de simples molécules comme le dihydrogène dans l'air, H2, à des molécules géantes telles que l'ADN. De même, les autres planètes telluriques mais aussi les planètes gazeuses contiennent des molécules. Des molécules assez simples (moins d'une dizaine d'atomes) se trouvent aussi dans les nuages moléculaires (CO, HCN, ...). Les masse volumiques atteintes dans ces régions permettent de refroidir le gaz et de créer assez de collisions pour assembler des molécules. On trouve même des molécules d'eau, H20, jusqu'aux confins de l'univers (dans l'environnement de noyaux actifs de galaxies très distantes). Il peut paraître surprenant de trouver des molécules à la surface de certaine étoiles. Cependant, bien que les étoiles soient des environnements très chauds et donc impropres à conserver des molécules stables, les étoiles les plus froides 2 000 - 3 000 K (les étoiles K et surtout M) peuvent héberger des molécules simples sans les casser par collisions.
Bien que l'on trouve des molécules dans divers endroits de l'univers, leur masse totale est négligeable comparée à la masse totale des éléments chimiques de l'univers.
Les métaux en astrophysique englobent tous les éléments plus lourds que l'hélium. Il est assez facile d'en détecter dans les nuages de gaz galactique peu denses et chauds, par leur raies d'absorption ou d'émission. Certaines raies du calcium, de l'oxygène ou du fer ionisés sont maintenant bien connues et étudiées. De manière similaire, les métaux sont aussi visibles par les raies d'absorption qu'ils génèrent dans le spectre d'une étoile.
Bien que la totalité des métaux soit plus massifs que les molécules, ils ne représentent toujours qu'une infime partie de la masse totale de l'univers, moins de 1%.
Les éléments qui forment l'écrasante majorité de la matière ordinaire dans l'univers sont l'hydrogène, à près de 75% de la masse, et l'hélium à près de 24%. Ces deux éléments se retrouvent presque partout. Les étoiles en sont remplies et s'en servent comme carburant pour leurs réactions thermonucléaires. Les nuages interstellaires et intergalactiques sont des réservoirs de gaz qui pourront potentiellement se transformer partiellement en étoiles. Seules les zones de très fortes masse volumiques et froides sont moins fournies en hydrogène et en hélium. La terre par exemple n'a que peu d'hydrogène et d'hélium dans son atmosphère comparé à l'azote et l'oxygène. L'hélium fut ainsi découvert non pas sur terre mais sur le soleil en essayant d'expliquer ses raies d'absorption ; hélium vient de hélios, le Soleil en grec.
L'hydrogène et l'hélium ne peuvent pas s'être formés dans les étoiles comme pour les autres atomes car c'est justement l'endroit où ils sont détruits, fusionnés pour former les métaux. Très vite les modèles de Big Bang ont prédit une production de ces atomes dans les premiers instants de l'univers quand les températures étaient bien plus élevées que dans les étoiles. Cette période de formation des atomes légers, hydrogène, hélium (3He et 4He) mais aussi du deutérium (D ou 2H) et du Lithium 7 s'appelle la nucléosynthèse primordiale, à différencier de celle stellaire actuellement en cours dans les étoiles. Elle s'est déroulée près de trois minutes après le Big Bang.
L'univers avant cette nucléosynthèse primordiale avait une température de K et était un plasma. On est bien avant l'époque de la recombinaison. La matière se divisait en deux catégories : les protons (87% de la masse) et les neutrons (13% de la masse). Du deutérium et du tritium pouvaient se former mais ils étaient instables du fait des collisions et de l'énergie des photons qui existaient à cette époque.
Le deutérium est formé par l'addition d'un proton et d'un neutron. Au dessus d'un milliard de Kelvins, il est instable car des photons peuvent facilement le dissocier.
p + n D +, où est un photon résultant de la réaction.
Une fois la température descendue en dessous d'un milliard de Kelvin, il est possible de créer des noyaux plus massifs que le deutérium, le tritium, l'hélium 3 et 4, par le biais de plusieurs réactions nucléaires.
D + p 3He + puis 3He + n 4He +
D + n T + puis T + p 4He +
D + D He + n et D + D T + p
D + He He +p
3He + 3He 4He +2p
La nucléosynthèse a commencé près de trois minutes après le Big Bang quand les protons représentaient 87% de la matière et quand les neutrons en représentaient 13%. Cette dissymétrie est due au fait qu'un neutron libre est instable et se transforme en proton avec un temps caractéristique de 10 min. La quasi-totalité des neutrons a servi à créer des noyaux d'hélium. Cela conduit à une masse d'hélium comprenant les 13% de neutrons ainsi que 13% de protons pour faire des noyaux d'hélium (2 protons, 2 neutrons). Le tout comprend 26% de la masse totale. Les 74% restant sont des protons qui formeront ultérieurement les atomes d'hydrogène à l'époque de la recombinaison.
Après l'hélium 4 (deux neutrons, deux protons), qui est un noyau particulièrement stable, le processus de construction des noyaux par addition d'un neutron ou d'un proton tourne court. En effet, il n'existe pas de noyau stable de masse 5. Pour sauter le pas, il faudrait fusionner de l'hélium avec du deutérium ou un autre noyau d'hélium, mais à cause de l'expansion de l'Univers, température et masse volumique ne sont plus suffisantes pour vaincre la répulsion entre les noyaux chargés positivement. C'est un goulot d'étranglement de la nucléosynthèse.
Pendant la nucléosynthèse primordiale, il se forme donc extrêmement peu d'éléments plus lourds que l'hélium, juste un peu de lithium (7Li) et de béryllium (7Be). Il n'y a pas de noyau stable de masse 8, ce qui forme un nouveau goulot d'étranglement pour la formation nucléaire.
La figure ci-contre représente l'évolution des éléments légers pendant la nucléosynthèse. L'axe des abscisses est la température en unités de milliards de degrés : à t = 1 s, la température est de 15 milliards de degrés. En trois minutes, elle diminue à 1,1 milliard de degrés. Au début de la nucléosynthèse, l'Univers ne contient que des protons et des neutrons. Trois minutes après, le paysage s'est considérablement enrichi, et presque tous les neutrons ont été consommés pour fabriquer des noyaux d'hélium 4. Les autres neutrons vont rapidement disparaître car les neutrons libres (en dehors d'un noyau) sont instables avec un temps de demi-vie de 10 minutes, ils se transforment alors en protons.
Les sections précédentes ont décrit trois résultats concrets et observables du modèle du Big Bang, un univers en expansion, le Fond Diffus Cosmologique et les proportions d'hydrogène et d'hélium de notre univers. Ces trois phénomènes sont de puissants arguments en faveur du modèle du Big Bang. Par la suite, les différentes étapes de l'univers seront décrites dans le cadre du Big Bang, des premières millièmes de secondes jusqu'à nos jours. L'univers y est décrit comme une fournaise primordiale composée d'éléments subatomiques mélangés interagissant fortement avec la lumière. Cet univers, du fait de son expansion, se refroidit rapidement permettant la création d'éléments plus complexes tels que des protons, des neutrons et ensuite des noyaux d'hydrogène et d'hélium. Après 380 000 ans, la lumière et la matière se découplent enfin, laissant un univers composé de 75% d'atomes d'hydrogène et 25% d'atomes d'hélium. Cet univers qui est devenu froid et neutre rentre dans l'âge sombre et connaîtra, des centaines de millions d'années plus tard, une phase de réionisation où le gaz neutre deviendra ionisé. La dernière grande étape de l'univers qui dure plus de 13 milliards d'années correspond à la formation et surtout à l'évolution des étoiles et des galaxies.
Dans ses premiers instants, l'univers s'apparente à un plasma de particules élémentaires qui interagissent entre elles et avec la lumière, formant un système à l'équilibre. Des connaissances sur la physique des particules est alors primordiale pour comprendre ces premiers instants. L'expansion de l'univers ne remet pas en cause cet état d'équilibre mais oblige la matière à passer d'un état en équilibre à un autre. Les premiers instants de l'univers sont l'unique moment où l'univers connaît des températures de plusieurs milliards de Kelvin et des densités de plusieurs milliards de fois celle de l'eau. Bien que l'homme ait construit des accélérateurs de particules pour reproduire des chocs très énergétiques similaires à ceux du début de l'univers pour obtenir des particules subatomiques, il n'accède pas encore aux énergies des tous premiers instants (les premières secondes).
Par la suite, nous utiliserons une nouvelle unité pour la masse des particules. Cela tient au fait que leurs masses sont si faibles que la notation en kg est assez lourde et peu parlante. Par la suite, les masses seront données en eV (électron-Volt), qui est une unité d'énergie. Chaque masse peut être considérée comme une énergie par la formule d'équivalence . La conversion de la masse en énergie qui en découle donne des Joules, l'unité standard. Puis, cette énergie est convertie en eV (électron-Volt, énergie que gagne un électron dans un champs de 1 Volt en une seconde) par la relation suivante : 1 eV = J. Par exemple, un proton ayant une masse de kg a une énergie de J qui équivaut à 900 MeV (Mega-eV).
De même, pour parler de l'énergie d'un photon, on sera amené à utiliser l'énergie propre d'un photon donnée par la relation , où est la constante de Planck J.s et la fréquence du photon mais aussi l'énergie statistique moyenne des photons qui découle de la loi de Wien. Pour une température donnée, l'énergie des photons se situe au alentour du pic du corps noir. En moyenne, un photon, dans un corps noir d'une température de K, aura, d'après la loi de Wien, une longueur d'onde de 2,9 nm ce qui correspond à une énergie de J ou 426 eV.
Enfin, pour les particules, on peut parler de l'énergie cinétique d'une particule, où est sa masse et sa vitesse. On peut aussi dans le cas d'un corps noir parler d'énergie statistique des particules reliant leurs vitesses et la température du corps noir : où m2.kg.s-2.K-1 est la constante de Boltzmann et la température du corps noir. En moyenne, un proton dans un plasma de corps noir à la température de K aura une énergie cinétique égale à J = 129 eV qui correspond à une vitesse de 160 km/s.
Les hadrons forment la famille de particules subatomiques la plus riche. Elle compte des représentants très connus tel que le proton et le neutron (les nucléons), mais aussi une flopée de particules instables qui ne s'observent qu'assez rarement. Parmi elles se trouve la sous famille des mésons (, , ...), ou celle des hypérons (, , ...). Le schéma ci-joint résume clairement ces différentes familles. Les hadrons forment une structure complexe car ce ne sont pas des particules élémentaires. Elles sont elle-mêmes l'association de particules élémentaires, les quarks, jusqu'à preuve du contraire. Par exemple, le proton est l'assemblage de trois quarks : deux quarks up et un quark down. A l'inverse, le neutron est constitué de deux quarks down et d'un quark up. Les hadrons ont une masse, une charge et un spin. Ils peuvent donc ressentir les interactions gravitationnelles et électromagnétiques sauf si leur charge est nulle comme pour le neutron. En plus de cela, ils sont sujets par définition à l'interaction forte et faible. A chaque hadron est associé un nombre hadronique. Par exemple, le neutron et le proton ont un nombre hadronique de 1. Ce nombre doit être conservé dans une transformation tout comme est conservée la charge électrique.
Les leptons sont de vraies particules élémentaires pour autant que l'on sache. Les leptons les plus connus sont l'électron et le neutrino, découvert plus récemment. Ils ont une masse, même le neutrino qui auparavant était jugé sans masse, et peuvent aussi être chargés. Ils ont un nombre leptonique qui à l'instar du nombre hadronique est constant dans les réactions nucléaires. Par exemple, l'électron et le neutrino électronique, , ont un nombre leptonique de 1.
Les photons sont les premières particules élémentaires connues. Elles nous entourent et sans elles le monde serait invisible pour l'homme. Elles ont la particularité de ne pas avoir de masse, ni de charge mais un spin de valeur 1. Elles font partie de la famille des bosons.
Quel est la masse en MeV de l'Uranium 235 et de l'Uranium 238 ?
Pour un plasma à une température , la vitesse moyenne d'une particule vaut :
où est la constante de Boltzmann, m2.kg.s-2.K-1, la température en Kelvin et m la masse en kg. Quelle est la vitesse d'un proton à 3 000 K et à 3x109 K ? Vérifier que nous sommes bien dans un régime classique et non relativiste.
Soit l'électron de masse 0,511 MeV, à quelle température la collision de deux neutrons pourrait donner un couple électron-positron en plus des deux neutrons de base ?
Quel photon a l'énergie de masse d'un proton ?
L'antimatière, contrairement à ce que son nom indique, est de la matière dans le sens où elle a une masse, une charge, un spin, etc, comme la matière classique. Le suffixe "anti" met en exergue le fait que chaque particule de matière que l'on connaît a un jumeau d'antimatière ayant la même masse mais dont toutes les autres grandeurs sont opposées. Par exemple, la particule d'antimatière la plus connue et utilisée à ce jour est sans doute le positron, l'anti-électron ou électron positif. Le positron a la même masse que l'électron mais sa charge est positive, d'où son nom. Cette inversion vaut aussi pour le nombre leptonique qui passe de +1 pour l'électron à -1 pour le positron. De même, le neutron a son anti-neutron et le proton son anti-proton, etc. Le photon a la particularité d'être sa propre anti-particule.
Où est l'antimatière ? A l'état naturel, l'antimatière s'observe au cours de la désintégration dite qui transforme un proton en neutron et libère un positron. Cette désintégration intervient au sein des noyaux atomiques dans la matière dite radioactive comme l'Uranium 235. Les rayons cosmiques peuvent aussi générer des anti-particules. En effet, ces derniers sont des particules provenant de l'espace et ayant une grande énergie cinétique, donc une vitesse proche de celle de la lumière. Ce sont souvent des protons. En pénétrant dans l'atmosphère, ils rentrent en collision avec des particules de gaz et forment une gerbe de particules contenant des anti-particules. Historiquement, le positron fut découvert à la suite d'un rayon cosmique. Les accélérateurs de particules sont un autre moyen de créer des anti-particules. Le principe est le même que pour les rayons cosmiques sauf que c'est un accélérateur de particules créé par l'homme qui accélère un proton grâce à de puissants champs magnétiques et le fait collisionner dans une immense chambre pour étudier avec précision les particules résultantes de la collision. Néanmoins, exceptés ces trois processus, l'univers semble dépourvu d'antimatière. En effet, au contact de la matière, l'antimatière s'annihile pour former des photons très énergétiques. Si une partie de notre univers était faite d'antimatière nous devrions voir la limite avec la zone de matière par un dégagement de lumière intense, or il n'en est rien. On peut toujours rêver à une zone de l'univers si bien isolée et éloignée de nous que l'antimatière aurait survécu, mais cela est de plus en plus improbable.
Comment créer des particules élémentaires ? La manière de créer des particules subatomiques est liée à la relation la plus célèbre de la physique , où est l'énergie de masse d'une particule, sa masse et la vitesse de la lumière. Cette relation nous dévoile le fait qu'il existe une équivalence entre matière et énergie. Il est alors possible de transformer l'une en l'autre. Cependant, comme dans une réaction nucléaire, la charge, le nombres baryonique et leptonique doivent être conservés, donc cela interdit certaines réactions. Par exemple, la réaction suivante :
proton neutron + électron
ne conserve pas la charge (+1 avant, -1 après), ni le nombre leptonique (0 avant, 1 après).
Lorsqu'une anti-particule rencontre une particule, les deux se transforment en photons, il y a annihilation de la matière. En revanche, lorsque deux photons collisionnent, il peut se former une particule et son anti-particule à condition que les photons aient une énergie totale supérieure à l'énergie de masse des particules créées. Par exemple, pour créer une paire électron-positron, d'énergie deux fois 0,511 Mev, il faut des photons d'une énergie totale de plus de 0,511 Mev, c'est à dire ayant une longueur d'onde d'au moins nm, soit des rayons gamma. Le rayonnement visible (400-800 nm) est bien trop faible énergétiquement pour créer des particules élémentaires.
D'un autre côté, des chocs très énergétiques peuvent aussi créer de nouvelles particules. Ce phénomène physique est utilisé dans les collisionneurs de particules au CERN (Conseil européen pour la Recherche nucléaire). Ce processus requiert des conditions extrêmes. Créer une paire électron-positron exige des températures de plusieurs milliards de Kelvin donc des vitesses proches de celle de la lumière. Par comparaison, les températures atteintes au centre des étoiles ne sont que de quelques centaines de millions de Kelvin.
Si la création d'une particule entraîne celle d'une anti-particule et si leur destruction est aussi symétrique, comment expliquer la prédominance des particules sur les anti-particules ? Ce problème reste à ce jour mal compris et sans réelle réponse. Une possible piste serait que certaines réactions nucléaires, plus compliquées que la simple collision de deux photons, aient créé une dissymétrie rendant prédominante la matière sur l'antimatière. Cela se serait passé dans les tous premiers instants de l'univers.
Sachant que le proton est constitué de deux quarks u et d'un quark d et que le neutron est constitué de deux quarks d et d'un quark u, donnez la charge du quark u et d.
Le méson pion est constitué d'un quark et d'un antiquark . Quelle est sa charge ? Quelle est son antiparticule et la charge de celle-ci ?
Difficulté : ☆☆☆
Lorsque un neutron est à l'état libre, il est instable et se transforme en proton. Dans un noyau, il devient stable. Son temps de désintégration est de 885,7 s soit près de 15 min. Il se désintègre en un proton, un électron et un antineutrino électronique.
+ +
Vérifier que la charge, le nombres baryonique et le nombre leptonique sont conservés.
Une fois que le neutron s'est désintégré, les trois particules résultantes prennent des directions différentes. Il est possible de détecter le proton et l'électron mais le neutrino n'interagit quasiment pas avec la matière. Arrêter la moitié d'un flux de neutrinos requiert un mur d'une année lumière de plomb. Comment montrer alors son existence sans recourir à l'argument de la conservation du nombre leptonique ?
La théorie du Big Bang s'attache à décrire l'univers depuis ses premiers instants. Plus on remonte dans le passé, plus l'univers est dense et chaud. En théorie, la température et la densité croissent de manière infinie jusqu'au temps zéro. Cela crée un univers avec des conditions que nous n'avons jamais rencontrées sur terre et que nous n'avons jamais reproduites dans un accélérateur de particules. Cette époque de l'univers, les premières secondes, sont terra incognita.
Cela n'empêche pourtant pas les chercheurs d'échafauder de nombreuses théories pour expliquer cette époque de l'univers. Il en est même qui tentent d'expliquer ce qu'il y avait avant le Big Bang. Ce processus est normal en science, mais seule la contrainte observationnelle pourra trancher entre les différentes théories : théorie des supercordes, M-cordes, gravitation quantique, grande unification des lois fondamentales. C'est à cette époque de l'univers que pourrait avoir eu lieu l'inflation qui permet d'expliquer la grande homogénéité du FDC. En une fraction de seconde, l'univers se serait étendu d'un facteur faisant passer des inhomogénéités sur des échelles microscopiques à des échelles macroscopiques. C'est aussi à la fin de cette époque que les quarks se seraient assemblés pour former les hadrons : muons, protons, neutrons, ...
Tout cela est encore une terra incognita. Il faut des instruments plus performants pour créer des conditions de température et de pression qui avoisinent celles de l'univers durant les premières secondes. Le Large Hadron Collider (LHC large collisionneur d'hadron) devrait donner des pistes en produisant des énergies de l'ordre du Tev ( eV) ce qui correspond à une température de l'ordre de K.
Revenons vers des contrées plus connues de la science avec l'ère hadronique de l'univers. Cette ère commence à une température de plus de K jusqu'à une température de K, lorsque la température seuil du plus léger des hadrons est atteinte : le méson neutre ( Mev/). Cette ère dure seulement un dix-millioniène de seconde. Les hadrons et leurs antiparticules forment alors un système en équilibre thermodynamique. Leurs masses imposantes face aux leptons en font la composante dominante de la matière de cette époque. L'origine de la prédominance de la matière sur l'antimatière dans l'univers contemporain est à situer au coeur de ces ères, comme une conséquence possible de l'asymétrie de leurs propriétés dans les processus de création-annihilation qui régissaient l'équilibre thermodynamique. Cependant, cela reste encore une question très débattue.
Entre les température K et K, pendant un peu plus d'une seconde, l'univers se situe dans l'ère leptonique. La température de seuil des hadrons n'est plus atteinte. Les hadrons et leurs anti-particules se sont annihilés pour la plupart. Du fait d'une très légère dissymétrie avant l'annihilation, quelques hadrons ont survécu, un sur un milliard en ordre de grandeur. Il ne reste alors que des protons et des neutrons. L'univers est rempli de photons, de neutrinos, d'anti-neutrinos, d'électrons et de positrons. Le rapport entre les hadrons et les autres composantes est de 1 pour 1 milliard à peu près. Il y a presque autant de neutrinos, d'antineutrinos, d'électrons et de positrons. Des réactions incessantes se produisent, changeant protons en neutrons et vice-versa. Cependant, l'égalité du nombre des leptons assure l'égalité entre la proportion de neutrons et de protons.
Après 0,11 s, la température descend à K, rien ne change de nature mais il est maintenant plus facile aux neutrons, plus lourds, de se transformer en protons. Les proportions ne sont plus symétriques : 38% de neutrons contre 62% de protons.
Après 1,09 s, à une température de K, les neutrinos et antineutrinos qui interagissent bien moins fortement avec les autres particules deviennent libres. Ils peuvent alors se déplacer sans interagir avec la matière environnante. C'est le premier découplage. Ainsi, les neutrinos ont dû garder l'empreinte des conditions de l'univers à ses tous premiers instants de même que le FDC le fera plus tard. C'est donc une nouvelle voie pour étudier directement l'univers à des âges très reculés. La difficulté provient évidemment de la très faible interaction neutrino-matière qui rend quasiment impossible une observation fiable à l'heure actuelle. Le découplage interdit aux neutrons de se transformer en protons. Étant instables dans le vide, les neutrons sont alors voués à disparaître. Leur nombre continue de décroître : 76% de protons contre 24% de neutrons.
13,82 s après la fin de l'ère hadronique, la température est descendue jusqu'à K. Les électrons et positrons se sont annihilés en photons et il reste seulement 1 électron sur 1 milliard, rejoignant le nombre de protons. Les photons sont maintenant majoritaires en densité d'énergie. L'ère leptonique est terminée et l'ère radiative a pris place. Les nucléons commencent à s'associer en deutérium, tritium et Hélium 3. Cependant, ces nouveaux noyaux atomiques ne sont pas assez stables à ces températures pour former un atome d'hélium qui, lui, aurait pu l'être. La proportion de neutrons continue de chuter : 17% de neutrons et 83% de protons.
Après trois minutes, la température est de K, le nombre de neutrons a encore chuté à 14 %. Si le tritium et l'hélium 3 sont stable, le deutérium est quant à lui encore trop instable pour former des atomes plus complexes.
Passé le cap de l'instabilité du deutérium, à 3 min 46s, à 900 millions de Kelvins, la nucléosynthèse primordiale peut se mettre en marche. Il se forme des noyaux d'hélium avec les neutrons disponibles qui représentent maintenant 13% du nombre total des atomes. La température est trop élevée pour la formation de noyaux plus lourds que l'hélium en grand nombre. Il en résulte des fractions de masse de 25% d'hélium et de 75% de protons. C'est la nucléosynthèse primordiale.
L'expansion de l'univers fait décroître la densité d'énergie de la matière en diluant la masse. La densité d'énergie de la matière évolue en , où est le facteur d'expansion de l'univers vu au chapitre sur la relativité générale. De même, les photons sont dilués et leur longueur d'onde est dilatée par l'effet Doppler cosmologique. Leur densité d'énergie décroît donc plus vite, en . L'équilibre entre l'énergie radiative et l'énergie de la matière se situe 60 000 ans après le Big Bang à à une température de plus de 8 000 K. Suit alors l'ère stellaire où la matière domine le contenu énergétique.
L'ère stellaire connaît vraiment ses débuts lorsque, vers 380 000 ans après le début du Big Bang, la température a chuté vers 3 000 K. A ce moment, les électrons peuvent se stabiliser autour des noyaux atomiques et la lumière se découple de la matière. La lumière de cette époque deviendra après 13,7 milliards d'années le Fond Diffus Cosmologique étudié au chapitre précédent.
Passée l'époque de la recombinaison, l'univers est composé de trois systèmes indépendants : le système neutrino-antineutrino, le système de photons du FDC et la masse composée d'hydrogène et d'hélium. Chacun de ces systèmes évolue de manière quasi-indépendante. Les deux premiers ne feront que se refroidir tandis que la matière connaîtra une évolution plus complexe. La distribution de la matière va devenir de plus en plus inhomogène. Cette structuration de l'univers est l'objet du prochain chapitre.
Pour ce chapitre qui résume l'histoire de l'univers des premiers instants jusqu'à aujourd'hui, un schéma est présenté pour résumer les différentes étapes, et pour donner les ordres de grandeurs associés à ces dernières.
Après la période de recombinaison, 380 000 ans après le Big Bang, jusqu'à nos jours, l'univers a évolué d'un gaz neutre presque homogène à un état très inhomogène avec comme composantes du gaz neutre, du gaz ionisé et des étoiles regroupés gravitationnellement dans des galaxies qui sont elles-mêmes structurées suivant des filaments séparés par des zones de quasi-vide. Ce changement radical de structure a connu plusieurs phases, un âge sombre qui est la suite directe de l'époque de recombinaison, une époque de réionisation où se sont formées les premières structures (étoiles et galaxies), et où tout le gaz de l'univers s'est ionisé, et enfin une évolution hiérarchique qui dure depuis plus de treize milliards d'années et qui a vu principalement la formation des galaxies par des fusions successives.
Si l'univers était très homogène avant la recombinaison avec des inhomogénéités de l'ordre de 1 pour 100 000, l'univers aujourd'hui est très inhomogène mais aussi très structuré. Plusieurs facteurs ont rendu ce changement d'état possible. Le premier est évidemment le découplage lumière-matière qui a permis à la matière de s'effondrer sur elle-même sans en être empêchée par la pression du flux lumineux et ainsi d'augmenter les faibles inhomogénéités du FDC. Le second facteur est le temps. Depuis plus de 13 milliards d'années l'univers évolue et devient de plus en plus inhomogène et structuré. Le troisième facteur est la possible présence d'une grande quantité de matière noire qui aurait accéléré la formation des structures. En effet, la matière noire a pu se condenser sans entrave avant la recombinaison car elle n'était pas sujette à la pression lumineuse. Cela aurait permis la création de puits de potentiel gravitationnel qui auraient pu après la recombinaison être des catalyseurs pour condenser la matière baryonique.
L'expansion de l'univers ne crée pas d'inhomogénéité mais entrave plutôt la formation des structures de l'univers. Un univers connaissant une expansion trop rapide n'aurait pas permis l'effondrement de grandes quantités de gaz sur lui-même et la création de grandes structures cosmiques telles que les galaxies. A l'inverse, une expansion moins rapide permet une plus grande interaction entre la matière et donc la création de structures plus massives.
Un concept utile pour résumer et quantifier ce qui vient d'être présenté est la masse de Jeans. Pour une distribution de masse quelconque connaissant une force de pression (la pression cinétique due aux chocs des particules qui est donnée par la température), une température et une densité , la masse de Jeans se définit comme suit :
La température n'apparaît pas car elle se déduit de la pression et de la densité par une équation d'état. Une sphère englobant une masse supérieure à la masse de Jeans peut s'effondrer sur elle-même sinon elle n'en est pas capable par manque d'énergie gravitationnelle comparée à l'énergie cinétique. Plus la pression entre les particules dans la sphère de matière est forte plus la masse totale contenue dans la sphère doit être grande, et à l'inverse plus la densité est élevée plus la masse peut être petite. Ce concept ne dépend pas de la nature de la masse, il s'applique aussi bien à l'univers tout entier qu'à un nuage de gaz qui s'effondre pour former des étoiles.
La première image de l'univers est donnée par l'observation du Fond Diffus Cosmologique 380 000 ans après le Big Bang (voir FDC). La grande homogénéité et isotropie de l'univers permet d'utiliser des lois analytiques et la physique linéaire pour prédire l'évolution de sa densité. Les fluctuations de densité, notées , dépendant du temps et de la position, sont très petites (1 partie pour 100 000) devant la densité moyenne de l'univers, notée et ne dépendant que du temps. Tandis que cette densité moyenne chute avec l'expansion de l'univers d'après la loi , les fluctuations croissent linéairement avec la baisse de la température, . L'indice "rec" dénote les conditions au moment de la recombinaison. Les fluctuations deviennent non négligeables pour des décalages spectraux proches de 100. A cette époque, la physique linéaire doit être remplacée par une physique non linéaire. Pour ce faire les astronomes utilisent des simulations cosmologiques. Cette période de croissance linéaire a duré près de 16 millions d'années.
Du décalage spectral 100 à 25, c'est à dire de 16 à 132 millions d'années, les inhomogénéités de l'univers augmentent sans rencontrer de force pour les en empêcher, pas de pression lumineuse ni de force de pression mécanique, les collisions entre les atomes sont rares et peu énergétiques. L'univers reste sous la forme d'un gaz majoritairement composé en masse d'Hydrogène (75%) et d'Hélium (25%) avec un peu de Lithium et de Deutérium (voir cours sur la nucléosynthèse primordiale). Les galaxies, les étoiles, les planètes, tous les objets astronomiques connus dans l'univers proche n'existent pas encore. Cette époque qui dura presque 150 millions d'années, sans étoile et sans création de lumière, est appelée l'âge sombre.
La phase suivant l'âge sombre est appelée l'époque de réionisation. Au cours de cette période qui se déroule grossièrement du décalage spectral 25 au décalage spectral 6 se déroulent deux évolutions majeures pour l'univers : l'ionisation de tout le gaz neutre, l'univers redeviendra ionisé comme il l'était avant la recombinaison, et la formation des premières étoiles et des premières structures contenant ces étoiles.
Entre les décalages spectraux 25 et 6, de 132 millions d'années à 951 millions d'années après le Big Bang, les inhomogénéités de densité deviennent telles que les atomes du gaz commencent à s'entrechoquer fortement et à chauffer, le gaz émet alors de la lumière dans l'infrarouge. Pour continuer à s'effondrer sur eux-mêmes, les nuages de gaz doivent perdre de l'énergie sous forme de photons pour se refroidir. Cependant, l'hydrogène et l'hélium requièrent de grandes énergies pour exciter leurs électrons et ainsi émettre de la lumière. Cela conduit à un mécanisme de refroidissement lent qui permet une grande accumulation de matière. De ce fait, les premières étoiles devraient être des étoiles très massives évoluant en supernovae et des hypernovae. Ces étoiles très instables brûlent rapidement leurs carburants et émettent un rayonnement très fort dans l'ultra-violet (UV). Ce flux UV est d'abord absorbé par les atomes (ou le gaz neutre) l'entourant. Ce phénomène se répétant au niveau global de l'univers, un flux UV va bientôt baigner le cosmos et exciter de plus en plus d'atomes neutres formés à l'époque de la recombinaison. En plus des étoiles massives, les premiers trous noirs supermassifs se forment et accrètent le gaz neutre dans leur environnement devenant des noyaux actifs de galaxie et émettant une lumière très énergétique. L'effet combiné des étoiles massives et des noyaux actifs de galaxies ionisera complètement l'univers, si bien que le parcours moyen d'un photon énergétique ne sera plus stoppé par l'absorption d'un atome et pourra ainsi nous parvenir.
A la fin de la réionisation, bien que l'univers ait formé les premières structures, l'évolution de l'univers est loin d'être terminée. Trois processus vont transformer l'univers distant en notre univers proche. Le premier est la formation stellaire qui convertira une partie du gaz présent à cette époque en étoiles. Le second processus est la fusion entre les galaxies qui est le mécanisme à la base du modèle de structuration des galaxies, le modèle hiérarchique. Partant d'une multitude de petites galaxies, de nouvelles galaxies plus massives se forment. Les galaxies géantes au centre des amas de galaxies en sont le symbole. Enfin le dernier changement structurel de l'univers est le renforcement d'une structure filamentaire de la distribution spatiale des galaxies. En effet, les galaxies ne sont pas distribuées de manière isotrope et homogène mais elles forment des filaments qui semblent entourés de sphères quasiment vides. La description de la structure de notre univers à différentes échelles, du Mpc au Gpc, est traité dans le premier cours sur la découverte de notre univers.
Afin de suivre l'évolution des structures de la matière depuis l'âge sombre jusqu'à nos jours, des simulations cosmologiques de plus en plus précises ont été entreprises. Leur but est de décrire l'univers à différentes époques et à différentes échelles.
Dans le premier chapitre de ce cours de cosmologie, les lois de l’évolution de l’univers ont été expliquées en mettant en avant la relativité générale. Le contenu énergétique a aussi été défini, baryons (atomes, gaz et photons), matière noire et énergie noire. Cela a fourni le modèle ΛCDM ; Λ représentant l’énergie noire et CDM correspondant à Cold Dark Matter pour notifier la présence importante de matière noire froide. Dans ce modèle, la matière baryonique est négligeable et n'influence donc pas la structure de l’univers aux grandes échelles ; elle suit la matière noire. En partant de ce postulat et avec l’aide d'ordinateurs multi-processeurs, les scientifiques des années 1990 ont commencé à modéliser l’évolution de cubes d’univers de plusieurs Mpc de côté depuis un décalage spectral z = 100 (il y a plus de 13 milliards d'années) lorsque la physique de l'univers devient non linéaire jusqu’à nos jours, z = 0. Ces simulations ne prennent en compte que la matière noire, la force de gravité entre ces particules et l’expansion de l’univers. Les conditions initiales correspondent à un univers de densité constante avec des inhomogénéités générées de manière aléatoire.
L'univers est constitué de milliards de milliards de milliards, etc, de particules baryoniques et encore plus de matière noire ; il est impossible de suivre l'évolution de chacune d'elles, cela demanderait beaucoup trop d'heures de calcul. Les simulations cosmologiques les plus importantes simulent au maximum plusieurs milliards de particules. Dans le cas des simulations cosmologiques couvrant un grand volume spatial (cubes de plusieurs centaine de kpc), seule la matière noire est simulée par le biais d'éléments de masse appelés particules. Elles ont une masse allant du million au milliard de fois la masse du soleil. Cette taille crée une limite dans la résolution de la simulation. Elle ne rend pas fausse les simulations mais elle les rend incapables de simuler des objets de plus petite masse que la masse de base. Ces types de simulations ne sont donc pertinentes que pour reproduire les galaxies les plus massives et les grandes structures qu'elles forment. Il est à noter qu'il existe de plus en plus de simulations cosmologiques simulant de petits cubes d'univers (10-20 kpc) mais introduisant la matière baryonique. De plus, un autre type de simulation cosmologique se focalise sur les petites structures, telles les galaxies naines, en simulant de petit volume d'univers mais avec une grande résolution. Le domaine des simulations est donc très vaste et dépend de ce que l'on veut étudier : l'univers dans son ensemble, la formation des baryons dans les galaxies ou encore la formation des petites structures.
L'univers visible mesurable est celui des étoiles et gaz. Cependant, les simulations cosmologiques à grandes échelles nous montrent surtout l'univers invisible de la matière noire. Cela peut paraître de prime abord très profitable, nous aurions à notre portée les deux faces de l'univers. Cependant, cela empêche de vérifier directement si les simulations cosmologiques sont bonnes et décrivent bien l'univers. Il est donc primordial de faire le lien entre la matière baryonique et la matière noire, ce qui n'est pas chose aisée. Il paraît normal de supposer qu'un halo de matière noire abrite une galaxie. Mais une galaxie de quelle masse, de quelle type, et quelle est la nature de la matière dans cette galaxie, gazeuse ou stellaire ? Toutes ces questions ont donné lieu à des modèles semi-analytiques qui remplissent les halos de matière noire de matière baryonique et les font évoluer analytiquement. Ce procédé est rapide mais sujet à caution. Les lois analytiques sont-elles les bonnes, peut-on simplifier par quelques lois des phénomènes aussi complexes qu'une fusion de galaxies et connaît-on réellement ces lois à grands décalages spectraux ?
Bien que les simulations soient un outil irremplaçable, les limites dues à la résolution et les limites dues à la physique implémentée dans les simulations montrent que les simulations sont aussi un outil à utiliser avec précaution.
Un des exemples les plus connus de simulation cosmologique est la simulation Millennium. Lancée en 2005 au Max Planck Institut, elle simule plus de 10 milliards de particules couvrant un volume cubique de 500 Mpc de côté. Ses données de sortie sont 63 snapshots (données sur les positions et vitesses de chaque particule à un temps défini) répartis de z = 127 à z = 0 qui représentent plusieurs téraoctets de données. La masse de chaque particule est de masses solaires. Une seconde version a été lancée, Millennium II, dans le but de mieux contraindre les moyennes échelles. La taille du cube est dans ce cas de 125 Mpc avec une masse par particule de masses solaires.
Le principal résultat de telles simulations numériques est l'accord entre la distribution spatiale de la matière observée et de celle simulée. Dans ces simulations, la matière se distribue bien suivant des filaments remplis de galaxies isolées ou en petits groupes. Les intersections de ces filaments forment des amas. La ressemblance entre les résultats des simulations numériques et la distribution des galaxies et des amas de galaxies observée à grande échelle est frappante, et semble indiquer que les simulations numériques rendent bien compte de la manière dont les grandes structures ont pu se former dans l’univers.
La simulation Millennium simule un cube d'une taille de 500 Mpc de côté avec près de particules d'une masse de masses solaires environ chacune. Quelle est la masse totale simulée et la masse volumique moyenne à z = 0 en g/ cm3, à comparer à l'eau ?
Combien de halos de matière noire de masses solaires (la valeur généralement admise pour la Voie Lactée) peuvent être simulés ?
De combien de particules est constitué le halo de la Voie Lactée dans une telle simulation ?
La matière dans l'univers proche s'est répartie suivant une structure filamentaire mais elle a aussi changé de forme. Depuis la matière froide et neutre des âges sombres en passant par du gaz ionisé à la réionisation, la matière aujourd'hui prend plusieurs formes.
Si vous levez les yeux au ciel le soir vous verrez sous quelle forme se présente une partie de la matière dans l'univers : les étoiles. Il est assez facile de déterminer la masse des étoiles. Il suffit de mesurer la quantité de lumière qui nous parvient de ces dernières et de la convertir en masse. Bien que simple en théorie, cela s'avère plus difficile en pratique et certains pièges sont à éviter. La valeur déterminante dans cette recherche est le rapport M/L, masse sur luminosité. Si ce rapport était constant l'exercice serait trivial. Il change en fait en fonction de l'étoile observée. Une étoile géante à 20 000 K émettant beaucoup dans le bleu a un M/L plus petit qu'une étoile rouge moins massive de 4 000 K. La masse stellaire représente près de 20 % de la masse baryonique totale.
L'autre forme de la matière est le gaz neutre d'hydrogène, HI. Il est généralement le résultat d'une absence d'évolution depuis l'époque de la recombinaison. Ce gaz se raréfie. Pour la Voie Lactée, il compte pour seulement 12 % de la masse baryonique totale, le reste étant principalement des étoiles. Pour la galaxie d'Andromède c'est encore moins, 6%. Les galaxies elliptiques sont quant à elles presque dépourvues de gaz HI. Ce sont les galaxies naines irrégulières qui sont encore les plus riches en gaz avec des proportions pouvant atteindre plus de 50%. C'est le cas du Petit Nuage de Magellan. Les grands nuages de gaz neutre intergalactiques isolés sont rares à z = 0.
Les amas de galaxies sont connus pour deux caractéristiques : une forte concentration de galaxies, principalement elliptiques, et une grande masse de gaz chaud. Comment cela est-il possible quand on sait que les elliptiques sont quasiment dépourvues de gaz HI ? Il se trouve que le gaz dans les amas de galaxies n'est pas sous sa forme habituelle, neutre et attaché à une galaxie, mais il est très chaud, ionisé et en équilibre avec l'amas dans sa globalité. Ce gaz est facilement détectable car il émet très fortement dans le domaine des rayons X. De plus son interaction avec le FDC via l'effet Sunyaev-Zel'Dovitch permet de mesurer son décalage spectral. Ce gaz constitue plus de 90 % de la masse des amas de galaxies.
Le gaz chaud d'un amas est le résultat de l'agglomération successive de nombreuses galaxies dans l'amas. Lorsqu'un amas se forme, il commence par accréter des galaxies et par les faire interagir entre elles. Leur gaz est brûlé pour former des étoiles ou chauffé et éjecté dans leurs environnements. Au fur et à mesure que des galaxies peuplent un amas, le gaz environnant de l'amas devient chaud et surtout dense, si bien que les nouvelles galaxies riches en gaz qui tombent dans un amas sont dépouillées de leur gaz qui est chauffé et qui contribue au gaz chaud de l'amas. Cette formation ayant lieu dès le début de la formation des structures galactiques, pendant et après l'époque de réionisation, les galaxies accrétées étaient très riches en gaz, ce qui explique la fraction importante de gaz dans les amas.
Une dernière composante de la matière visible est la poussière. Cette dernière dans son sens général inclut tout ce qui n'est pas du gaz, ou un plasma de gaz tel qu'une étoile. La poussière est en général constituée de petites particules d'une taille de 0.001 à 0.2 m. Cependant, l'accumulation de cette poussière peut former des objets plus massifs comme les astéroïdes ou les planètes avec nous y vivant. Cette composante est le résultat de la nucléosynthèse des étoiles massives et de l'éjection de cette matière par les étoiles. Nous sommes donc de la poussière d'étoiles comme il est fréquent d'entendre dire. Sa masse totale est assez faible, moins d'un pourcent de la masse baryonique.
Lorsque toute la masse baryonique est comptabilisée à z = 0 et qu'elle est ensuite comparée à la masse baryonique mesurée à z = 2, il y a un déficit de près de 50% ; la moitié de la masse baryonique manque. Comme il n'existe pas de processus possible pour faire disparaître une aussi grande quantité de masse durant les 13 derniers milliards d'années, cela implique qu'elle est cachée, invisible. L'hypothèse la plus tangible est qu'elle soit sous la forme d'un gaz diffus froid ou d'un gaz tiède ou chaud. Le fait d'être diffus rend difficile sa détection car le gaz n'absorbe ou n'émet pas assez de lumière. Le fait que le gaz soit tiède ou chaud implique une émission de lumière dans des longueurs d'onde non observées intensivement par les astronomes, entre l'UV et les rayons X. Le gaz chaud des amas est facilement observable car il est concentré et émet beaucoup de rayons X.
Un autre type de matière semble aussi être présente bien qu'elle n'ait jamais été observée directement : la matière noire. Elle formerait des halos autour des galaxies et dans les amas. Sa particularité est de n'interagir que gravitationnellement, donc d'être totalement invisible. La propriété la plus surprenante de cette matière est que sa masse serait plus de six fois supérieure à la masse baryonique.
Les étoiles et les planètes sont les objets de l'univers qui aboutissent au vivant. En effet, la formation des atomes nécessaires à la vie est liée aux différentes étapes de l'évolution stellaire. Ensuite, le regroupement d'atomes en des chaînes carbonées constituant la matière vivante s'est probablement passé dans le Système Solaire, voire sur notre planète. Les planètes se forment dans l'environnement des étoiles : cela s'est passé autour de notre Soleil mais aussi, nous le savons maintenant, autour de la grande majorité des étoiles de la Galaxie.
Nous donnons dans ce chapitre un panorama des processus de la formation et de l'évolution des étoiles, puis de la structure des planètes du Système Solaire et des exoplanètes orbitant autour d'autres étoiles.
Certaines notions de physique et d'astronomie utiles à la compréhension de ce cours sont données au fil du texte. En physique, il s'agit des propriétés de la lumière et du principe de la spectroscopie, de la notion de corps noir, de la structure de la matière (atomes, électrons, ions), de l'effet Doppler-Fizeau. En astronomie, certaines définitions fondamentales (planète, étoile, galaxie) sont utiles.
Ce chapitre a pour but de vous expliquer ce qu'est une étoile : pourquoi elle brille, comment elle se forme et évolue. Nous commencerons par examiner quelles caractéristiques des étoiles peuvent être déduites de l'observation (taille, masse, luminosité...) avant de déduire ce que cela nous apprend de leur évolution par l'intermédiaire d'un diagramme fondamental : le diagramme de Hertzsprung-Russell.
La voûte céleste est constellée de myriades d'étoiles.
Une multitude d'objets sont visibles de nuit. Sous un ciel sans nuage, sans Lune et sans pollution lumineuse, plusieurs milliers d'étoiles sont visibles à l'œil nu. Malheureusement, ce nombre est de plus en plus restreint par l'activité humaine (éclairage urbain...) et, dans le centre des grandes villes, au mieux quelques dizaines d'étoiles sont visibles.
En plus de ces étoiles, outre la Lune et les cinq planètes visibles à l'œil nu (Mercure, Vénus, Mars, Jupiter et Saturne), le ciel est barré par la Voie Lactée, grande bande laiteuse (d'où son nom), faiblement lumineuse, aux contours flous. En la parcourant à l'œil ou aux jumelles, on se rend compte qu'elle est composée de zones brillantes et de zones sombres, de nébuleuses, d'étoiles en amas... Au télescope, elle se décompose en une nuée d'étoiles. La Voie Lactée n'est, en effet, que le disque de notre Galaxie vue par la tranche. Par extension, notre Galaxie porte ainsi le nom de Voie Lactée.
D'autres objets sont également visibles : des nébuleuses qui peuvent être extérieures à notre Galaxie - comme les Nuages de Magellan ou la nébuleuse d'Andromède, qui sont des galaxies proches de la nôtre - ou, au contraire, des éléments de notre Galaxie - comme la nébuleuse d'Orion, un nuage interstellaire, ou des groupes de millions d'étoiles liées par la gravitation appelés « amas globulaires » qui, comme la Voie Lactée, ne sont pas résolus en étoiles par l'œil.
Parmi les étoiles de notre Galaxie, la Voie Lactée, seules 6000 à 7500 sont visibles à l'oeil nu (sur l'ensemble du ciel). Pour se repérer dans le ciel, les astronomes des siècles passés ont dessiné arbitrairement sur la sphère céleste des figures reliant les étoiles les plus brillantes qu'ils ont nommées constellations. Les noms des constellations boréales (situées dans l'hémisphère nord) nous viennent principalement de l'antiquité, et sont des personnages (Andromède, Cassiopée...), des animaux (le Cygne, la Grande Ourse...), ou des objets (la Lyre, la Balance...) liés à la mythologie (principalement grecque et romaine). Mais les astronomes de l'antiquité n'ont pas observé la partie la plus australe du ciel (visible dans l'hémisphère sud) et ne l'ont donc pas organisée en constellations.
Ce travail fut effectué par des astronomes comme Bayer au 17ème siècle qui choisit des noms d'animaux (le Phénix, le Poisson Volant...) et La Caille au 18ème siècle qui préféra des noms d'instruments scientifiques (le microscope, la machine pneumatique...). Cependant, les limites des constellations restaient floues, et certaines nouvelles constellations mordaient sur les anciennes. La situation fut réglée en 1922 par l'Union Astronomique Internationale qui découpa une bonne fois pour toute le ciel en 88 constellations. En 1930, l'astronome belge Eugène Delporte en fixa précisément les limites selon des arcs de méridien ou de fuseaux horaires.
Les étoiles des constellations n'ont pas de liens physiques entre elles. Seule leur position apparente dans une même zone du ciel, lorsqu'elles sont vues depuis la Terre, les relie. En particulier, leurs distances peuvent être très différentes. Comme les étoiles ont des vitesses différentes les unes des autres, la forme des constellations évolue au cours du temps. Au bout de quelques dizaines de milliers d'années seulement, la forme d'une constellation n'est plus reconnaissable.
Durant l'antiquité, les astronomes nommaient les étoiles d'après leur position dans la constellation à laquelle elles appartenaient. Au moyen-âge, les astronomes arabes fixèrent le nom des étoiles les plus brillantes sur le même principe (Rigel dans la constellation d'Orion, qui était pour l'astronome grec Ptolémée « l'étoile la plus brillante du pied gauche en contact avec l'eau », signifie simplement « le pied » en arabe) et ces noms sont restés d'usage courant.
Au début du 17ème siècle, l'astronome allemand Bayer classa les étoiles des constellations par luminosité décroissante en suivant l'alphabet grec puis l'alphabet latin suivi du génitif du nom latin de la constellation. Ainsi, Arcturus, l'étoile la plus brillante du Bouvier (Bootes en latin) se nomme-t-elle aussi α Bootis (ou α Boo). De même, Castor et Pollux, les deux étoiles les plus brillantes des Gémeaux (Gemini) sont respectivement et α et β Geminorum ( α et β Gem). Parallèlement, l'astronome anglais Flamsteed désigna les étoiles visibles de chaque constellation en les comptant par ascension droite croissante. La manière de nommer une étoile par un numéro et d'une lettre grecque ou latine suivis du génitif du nom latin de la constellation à laquelle elle appartient s'appelle ainsi dénomination de Bayer-Flamsteed.
De nos jours, où le catalogage des étoiles n'est plus une fin en soi, et où le nombre d'étoiles connues est considérable, les étoiles sont nommées d'après leur numéros dans des catalogues spécifiques (catalogues d'étoiles brillantes, de binaires, de variables, d'étoiles observées avec tel ou tel instrument...). Une étoile appartenant à plusieurs catalogues a donc plusieurs noms. L'étoile Véga de la Lyre, par exemple, apparaît ainsi sous plus de cinquante noms comme α Lyr, GJ 721 (étoile numéro 721 du catalogue d'étoiles proches de Gliese et Jarheiss), HIP 91262 (catalogue Hipparcos), HD 172167 (catalogue Henry Drapper), CCDM J18369+3847A (catalogue CCDM d'étoiles doubles), etc.
L'essentiel de l'information en provenance des astres est sous forme de lumière (à différentes longueurs d'onde). Cette lumière peut être analysée de différentes manières :
Ces méthodes d'analyse peuvent éventuellement être couplées (spectrophotométrie, spectro-imagerie…) ou associées à d'autres techniques d'analyse de la lumière (interférométrie…).
Nous allons voir comment ces différentes techniques permettent de connaître des propriétés physiques des étoiles.
La parallaxe trigonométrique d'une étoile (ou parallaxe annuelle) est l'angle sous lequel est vu le demi-grand axe de l'ellipse apparente que semble effectuer une étoile à cause de son mouvement réflexe dû à la rotation de la Terre autour du Soleil. Il est noté π ou lorsqu'il y a ambiguité avec le nombre pi.
La distance D d'une étoile est alors donnée par la formule :
où R est le demi grand-axe de l'orbite terrestre c'est-à-dire une unité astronomique.
Par définition, la distance est de 1 parsec si la parallaxe est de 1 seconde de degré.
Comme R = 1 unité astronomique (u.a.), on a
L'étoile la plus proche a une parallaxe : .
Sa distance est donc : .
La précision des meilleures parallaxes était au début du siècle d'environ 1 millième de seconde de degré (1 mas). C'est en particulier la précision médiane du catalogue Hipparcos qui a mesuré les positions, parallaxes et mouvements propres d'environ 120 000 étoiles. Ainsi, seule la distance des étoiles proches était connue grâce à la mesure de leurs parallaxes trigonométriques. En effet, avec une telle précision, à 100 parsecs par exemple, l'erreur relative sur la parallaxe est de 10 % ce qui donne une erreur sur la distance du même ordre. Or, la Galaxie fait quelque 30 000 parsecs de diamètre ! Les parallaxes trigonométriques ne permettaient alors que d'obtenir la distance d'étoiles du voisinage solaire. Le satellite GAIA, lancé en 2013 et qui a une précision de quelques millionièmes de seconde de degré, permet maintenant un décryptage complet des différentes populations de notre Galaxie (plus d'1 milliard d'objets en 2018).
La distance d'étoiles plus lointaines, qui ont une parallaxe trigonométrique trop petite pour les instruments actuels, est mesurée par des méthodes indirectes. Par exemple en comparant leur luminosité intrinsèque et leur luminosité apparente observée depuis la Terre comme nous le verrons plus loin. On parlera alors de parallaxe spectroscopique ou photométrique selon que sa luminosité intrinsèque (on dit plutôt absolue) a été calibrée par spectroscopie ou photométrie.
Difficulté : ☆ Temps : 5 minutes
On représente le Soleil par une bille de 1 cm de diamètre. Quelle est la distance, à l'échelle, de l'étoile la plus proche ?
Données : la distance de l'étoile la plus proche, proxima du Centaure, est 1,3 parsec.
Relations entre les différentes unités :
Les étoiles se déplacent les unes par rapport aux autres dans notre Galaxie. Ces mouvements sont régis par la loi de la gravitation. La vitesse d'une étoile par rapport au Soleil se décompose en une vitesse sur la voûte céleste, appelée vitesse tangentielle, et une vitesse sur la ligne de visée de l'étoile appelée vitesse radiale. Ces deux composantes de la vitesse se mesurent par des méthodes très différentes.
À cause de sa vitesse tangentielle, la position d'une étoile va varier au cours du temps. La différence de positions sur la voute céleste à différentes époques est un angle. On appelle mouvement propre μ d 'une étoile la variation de position divisée par la variation de temps. Il est donc homogène à un angle divisé par un temps. Il est le plus couramment exprimé en seconde de degré par an.
La vitesse tangentielle VT de l'étoile est égale au produit de son mouvement propre par sa distance. Si l'on exprime la distance d en parsec et le mouvement propre μ en seconde par an, la vitesse tangentielle , exprimée en km/s est donnée par la formule numérique suivante :
La vitesse radiale ne modifie pas, par définition, la position sur le ciel d'une étoile. Elle est mesurée par une autre technique - la spectroscopie - grâce à l 'effet Doppler (voir dans les pages suivantes).
La position d'une étoile dépend de sa position à une certaine époque, de sa parallaxe et de son mouvement propre selon les relations :
où et sont les coordonnées équatoriales à un instant t, et à l'instant t0 de référence, et les composantes du mouvement propre de l'étoile, sa parallaxe et et les composantes du facteur parallactique de l'étoile à l'instant t. Le facteur parallactique est simplement la projection de l'orbite de la Terre dans la direction de l'étoile.
Une étoile double est un système de deux étoiles proches sur la sphère céleste. Une étoile double visuelle peut être une binaire visuelle (deux étoiles gravitant l'une autour de l'autre et donc liées physiquement) ou une étoile double optique (étoiles fortuitement proches sur le ciel mais qui sont en fait à des distances différentes).
Une étoile binaire (ou simplement binaire ou étoile double physique) est un système de deux étoiles orbitant l'une autour de l'autre sous l'effet de la gravité (comme la Terre tourne autour du Soleil). Une binaire est dite :
Le concept de binarité est donc subjectif : une binaire visuelle peut être résolue par un gros instrument et pas par un plus petit. De même la binarité spectroscopique ou photométrique dépend de la précision des détecteurs.
La plupart des étoiles se trouve dans des systèmes binaires ou multiples (il existe également des étoiles triples, quadruples...).
Les binaires jouent un rôle primordial dans notre connaissance des étoiles. En particulier, le calcul des éléments orbitaux (période, demi-grands axes, inclinaison...) des composantes d'une binaire est le seul moyen direct de mesurer des masses d'étoiles grâce aux lois de Kepler comme nous allons le voir dans les pages qui suivent.
Si l'on arrive à observer l'orbite des deux composantes d'un système binaire visuel, on peut déterminer leurs masses.
En effet, en posant P la période, m1 et m2 les masses des deux composantes, a1 et a2 les demi-grands axes des orbites des deux composantes autour du centre de gravité du système on a :
La résolution de ce système donne alors les masses individuelles m1 et m2 des deux étoiles.
En fait, les choses ne sont pas si simples. L'observation de l'étoile pendant une durée de temps supérieure à la période permet d'obtenir l'orbite apparente de l'étoile la plus faible autour de la plus brillante. La période est directement déduite de ces observations. En revanche, l'orbite observée n'est que la projection sur le ciel de l'orbite réelle. Il s'agit d'une ellipse, mais son demi-grand axe n'est pas celui de l'orbite réelle. Il existe néanmoins des moyens géométriques ou analytiques qui permettent de retrouver l'inclinaison de l'orbite mais dont le développement dépasse le cadre de ce cours.
Le rayon des étoiles peut facilement être déterminé dans le cas de binaires à éclipses. Une binaire à éclipses est une étoile binaire dont le plan de révolution est dans la ligne de visée de l'observateur (la Terre). Les deux composantes de la binaire ne sont pas résolues et la luminosité mesurée par l'observateur est la somme des luminosités des deux composantes de la binaire. Lorsqu'une des composantes passe entre l'observateur et l'autre étoile - on parle alors d'éclipse - une partie de la lunière de celle-ci est masquée à l'observateur. Il y a alors diminution de la luminosité totale de l'étoile binaire (somme des luminosités des deux composantes).
Si l'on connaît la masse des deux étoiles, la période du système nous permet, par la troisième loi de Kepler, de connaître la distance qui les sépare. On a alors la vitesse de ces étoiles. La durée des deux éclipses donne alors le rayon des deux composantes.
D'autres techniques presque* directes permettent d'obtenir le rayon de certaines étoiles. On peut citer les occultations par la Lune où l'on mesure le temps que met une étoile à disparaître derrière le limbe lunaire ou l'interférométrie qui permet, pour des étoiles suffisamment proches ou grosses, de mesurer directement le diamètre.
*moyennant tout de même un modèle d'assombrissement centre-bord du disque stellaire c'est-à-dire la manière dont la lumière se distribue sur le disque stellaire (le bord étant plus sombre que le centre).
Le gaz à la surface de l'étoile peut être considéré, en première approximation, comme un corps noir. Un corps noir est un corps idéal qui réémet tout le rayonnement qu'il reçoit sous forme d'un spectre continu (qui suit la loi de Planck) avec un maximum à une longueur d'onde λm qui ne dépend que de sa température T (selon la relation de Wien : λm T = cte = 3.10-3 m.K). La longueur d'onde λm détermine la couleur de l'étoile.
La température de la surface d'une étoile variant d'environ 3000 kelvins à quelques dizaines de milliers de kelvins, λm varie environ entre 150 et 3000 nm. Ceci correspond à un maximum situé entre le proche ultraviolet et le proche infrarouge en passant par toutes les couleurs de l'arc-en-ciel. Les étoiles les plus chaudes apparaissent ainsi très bleues et les plus froides sont rouge sombre.
Le flux F d'énergie émis par un corps noir à sa surface ne dépend lui aussi que de la température selon la relation de Stefan-Boltzmann F=σT4 avec σ = 5,67.10-8 W/m2/K. La luminosité totale L émise par un corps noir est le produit de sa surface par le flux F. La luminosité L d'une étoile représentée par un corps noir sphérique de rayon R, donc de surface égale à 4πR2, est par conséquent égale à L=4πR2 σT4 .
À rayon égal, une étoile chaude, donc bleue d'après la relation de Wien, émettra donc plus d'énergie qu'une étoile froide et plus rouge. De même, une étoile de grand rayon, comme une géante rouge par exemple, émettra plus d'énergie qu'une naine rouge de même température mais de rayon inférieur.
La luminosité apparente d'une étoile est la puissance du rayonnement électromagnétique émis par cette étoile qui arrive à l'observateur. La luminosité bolométrique est la luminosité sur l'ensemble du spectre électromagnétique. Sinon, il faut préciser dans quelle bande de longueur d'onde on intègre le flux.
La luminosité apparente d'un objet dépend de sa luminosité absolue et de sa distance. On conçoit bien en effet que plus un objet est intrinsèquement brillant, plus il va être brillant sur le ciel de même que plus il va être loin, moins il va être brillant.
On définit également la notion de magnitude. Initialement, c'est l'intensité de la sensation visuelle produite par une étoile. Les étoiles visibles ont ainsi été classées en 6 ordres de grandeur par les astronomes anciens, de la première magnitude pour les plus brillantes à la sixième pour les étoiles tout juste visibles à l'oeil nu. À cette hiérarchie s'est substitué un classement plus quantitatif coïncidant avec la première définition : Si F est le flux d'une étoile dans une bande de longueur d'onde donnée, la magnitude est définie par , où est une constante.
La magnitude absolue d'une étoile est la magnitude qu'aurait l'étoile si elle était située à 10 parsecs de la Terre. La magnitude absolue permet ainsi de comparer des étoiles ayant des distances différentes. La magnitude absolue est égale à , où D est la distance de l'étoile en parsecs et A est l'absorption interstellaire.
Connaissant la magnitude absolue d'un objet, sa magnitude apparente permet de déterminer sa distance même si il est trop loin pour avoir une parallaxe mesurable. Vice versa, connaissant la magnitude apparente d'une étoile et sa distance, on peut déterminer sa magnitude absolue.
L'indice de couleur d'une étoile est la différence de sa magnitude dans deux bandes différentes. Selon le système photométrique utilisé, un indice de couleur permet d'avoir des informations quantitatives sur les paramètres physiques d'une étoile (température, métallicité, magnitude absolue...).
Lorsque l'on fait varier la température d'un corps noir, la répartition de l'énergie avec la longueur d'onde varie. Ainsi pour un corps noir à 6000 K, le maximum d'émission est dans le jaune. La quantité d'énergie émise dans une bande spectrale autour du jaune (à travers un filtre de couleur jaune) est plus grande que la quantité d'énergie émise dans une bande spectrale centrée sur le bleu. Inversement, un corps noir à 12000 K émet plus dans le bleu que dans le jaune. La mesure de la quantité de lumière émise dans ces deux bandes renseigne ainsi sur la température de l'objet observé.
Comme la lumière du Soleil, la lumière d'une étoile peut être décomposée par un prisme ou un réseau selon toutes les couleurs de l'arc-en-ciel. La décomposition de la lumière selon la longueur d'onde s'appelle un spectre. Celui-ci peut-être de trois natures fondamentales : continu, avec des raies d'émission ou avec des raies d'absorption.
La lumière, ou onde électromagnétique, est composée de photons. Autrement dit, le photon est la particule qui transmet l'interaction électromagnétique. L'énergie E d'un photon dépend de sa fréquence ν selon la formule simple E=hν où h est la constante de Planck (h≈6,626.10-34 m2kg/s).
On appelle spectre continu un spectre dans lequel la lumière est émise à toutes les longueurs d'onde. C'est le cas par exemple dans un gaz à haute température. Les particules qui constituent le gaz (atomes et ions, électrons si le gaz est ionisé) ont une distribution continue de vitesses. Les collisions aléatoires entre les particules émettent des quantités aléatoires d'énergie et donc des photons à toutes les fréquences (ou à toutes les longueurs d'onde). Le corp noir donne un exemple typique et idéal de spectre continu.
L'énergie de liaison d'un électron dans un atome ou dans une molécule (de même que l'énergie vibrationnelle ou rotationnelle d'une molécule ou encore l'énergie des nucléons dans un noyau atomique) ne peut pas prendre n'importe quelle valeur : on dit qu'elle est quantifiée. Les lois physiques qui régissent ce phénomène sont regroupées dans la branche de la physique appelée physique quantique. Lors du passage d'un système quantique d'un niveau d'énergie E1 à un autre E2 plus petit, par exemple dans le cas d'un électron qui passe d'un niveau d'énergie à un autre moins exité dans un atome, un photon est émis à la fréquence ν qui correspond à la différence entre les deux niveaux d'énergie : ν=(E1-E2)/h. L'accumulation de photons émis à cette fréquence donne ce que l'on appelle une raie d'émission et le spectre résultant est un spectre d'émission. Inversement, si un photon de cette fréquence atteint un atome dont un électron est au niveau E2, il fait passer cet électron au niveau E1. Le photon est alors absorbé et l'on parle de raie d'absorption et de spectre d'absorption.
L'analyse du spectre des étoiles permet de connaître un certain nombre de leurs propriétés :
Nous allons voir comment.
Une raie d'absorption correspond au saut d'un électron dans un atome d'un niveau à un niveau plus énergétique par absorption d'un photon. Mais les atomes sont dans des états plus ou moins ionisés suivant la température (et la pression). De même, les niveaux d'énergie occupés par les électrons ne sont pas les mêmes selon la température. Les raies ne se forment donc pas toutes à la même température. La distribution des raies renseigne donc sur la température (ou plutôt la distribution de températures) dans la photosphère de l'étoile.
Le type spectral d'une étoile est une lettre donnée selon l'allure de son spectre et l'intensité de ses raies. Il permet de classer les étoiles en température. Des types les plus chauds aux plus froids on a : OBAFGKM.
Un moyen mnémotechnique a été inventé par les anglo-saxons avec la phrase : "Oh Be A Fine Girl Kiss Me!" qui peut aisément se transformer en "Oh Be A Fine Guy Kiss Me!" pour ne pas choquer les féministes les plus virulentes ou même en "Oh Be A Fine Gay Kiss Me!" pour être politiquement correct en toutes circonstances.
Chaque type spectral peut être affiné en rajoutant un nombre compris entre 0 et 10 (ainsi une étoile F3 est un peu plus chaude qu'une F4 et une A9 plus qu'une F0). On adjoint souvent la classe de luminosité au type spectral de manière à bien définir une étoile. Le Soleil est ainsi une G2V c'est-à-dire une étoile G2 de la séquence principale.
La première naine brune GL 229 B (dans une binaire) a été observée en 1995 ; la première naine brune de champ en 1997. Depuis, plusieurs dizaines d'objets plus froids que 3000 K ont été découverts. L'observation récente de ces objets stellaires plus froids que le type M a amené les astronomes à définir deux nouveaux types spectraux encore plus froids : les types L et T (comme les autres lettres utilisées pour définir les types spectraux, les lettres L puis T n'ont pas de signification particulière ; elles ont été choisies car elles étaient disponibles).
La séquence complète est donc maintenant OBAFGKMLT qui peut se retenir par la phrase : « Oh Be A Fine Girl (Guy, Gay...) Kiss My Lips Tenderly ».
L'observation du spectre d'une étoile et son analyse permet donc, entre autres, de connaître sa température effective.
Chaque composante du système binaire tourne autour du barycentre du système. La vitesse de chaque composante varie donc périodiquement. L'observation du décalage spectral des raies des deux composantes donne les variations de la vitesse radiale de chaque objet. Les masses individuelles des deux étoiles ne sont alors connues qu 'à l'inclinaison du système près. Si l'inclinaison est connue par d'autres moyens (binaire à éclipses, observations interférométriques…) les masses sont alors connues.
Outre la température et la pression, la forme des raies spectrales nous renseigne sur d'autres paramètres stellaires :
Un diagramme de Hertzsprung-Russell (ou diagramme HR en abrégé) a une ordonnée dans une échelle de magnitude absolue et une abscisse dans une échelle de température. On parle de diagramme théorique lorsque l'abscisse est la température effective et l'ordonnée la magnitude absolue bolométrique toutes deux calculées à partir de modèles théoriques de structure interne et de modèles d'atmosphères stellaires. On parle de diagramme observé lorsque abscisse et ordonnée sont des paramètres observés (par exemple une magnitude absolue MV en fonction de l'indice de couleur B-V).
Connaissant la distance d'une étoile, sa magnitude apparente et sa température, il est possible de la placer sur un diagramme HR observationnel. Les étoiles se répartissent selon des séquences dans le diagramme :
L'explication de la structure de ce diagramme est donnée par les mécanismes de l'évolution stellaire et détaillée plus loin.
En supposant qu'une étoile rayonne comme un corps noir, sa luminosité est : avec L la luminosité de l'étoile, R son rayon et T sa température.
En prenant le logarithme, on obtient :
On reconnaît l'équation d'une droite dans un diagramme (log T, log L). Les lignes d'égal rayon sont donc des droites sur le diagramme HR.
Les étoiles ont donc une grande variété de propriétés physiques :
où est le rayon du Soleil et sa luminosité.
Pourquoi les étoiles brillent-elles ? Parce qu'elles sont chaudes ! Mais pourquoi sont-elles chaudes ? Parce que quelque chose les chauffe !
Les étoiles brillent car leur surface, ou photosphère, est composée de gaz ionisé très chaud - entre 3000 et 50000 K - qui émet de la lumière. Mais pourquoi la surface est-elle si chaude et pourquoi émet-elle ? C'est-à-dire où l'étoile puise-t-elle son énergie ?
On connaît la masse du Soleil, environ 2.1030 kg.
On connaît la quantité de lumière émise par le Soleil, environ 4.1026 Watts.
On connaît enfin l'âge du Soleil : 4,6 milliards d'années. On suppose que la formation du système solaire a été brève devant son âge et on mesure l'âge des météorites par la mesure de la composition en isotopes radioactifs de longue période comme l'uranium 238 ou 235 et les produits de leurs désintégrations, plomb 206 et 207.
On peut maintenant tester différentes hypothèses quant à la nature de l'énergie interne du Soleil, et donc, des étoiles :
La température, la pression et la densité au coeur des étoiles atteignent des valeurs gigantesques. À titre d'exemple, la température au centre du Soleil est d'environ 15 millions de kelvins, la pression est de plusieurs centaines de milliards d'atmosphères et la densité est de plusieurs centaines de milliers de kilogrammes par mètres cubes. Dans ces conditions, les atomes d'hydrogène (protons) ont une vitesse suffisante pour vaincre la force de répulsion électrostatique et peuvent entrer en collision et fusionner pour former de l'hélium, en perdant de la masse et en libérant de l'énergie sous forme de neutrinos et de photons à haute énergie. C'est ce que l'on appelle la fusion nucléaire. Elle est d'autant plus importante que la température et la densité sont grandes.
Les neutrinos interagissent très peu avec la matière et sont tout de suite éjectés de l'étoile.
Les photons, au contraire, mettent plusieurs siècles à quitter l'étoile en ce sens qu'un photon issu d'une réaction de la fusion de deux atomes est presque immédiatement réabsorbé par un autre atome qui réémet à son tour un autre photon et ainsi de suite jusqu'à atteindre la surface de l'étoile où il part vers le milieu interstellaire.
La surface de l'étoile est donc chauffée par les réactions nucléaires qui ont lieu au cœur de l'étoile.
Deux forces agissent globalement sur l'étoile :
Ces deux forces sont en équilibre tant que la fusion peut se produire dans l'étoile. En effet, imaginons que l'étoile se dilate sous l'effet de la pression. Sa densité va diminuer (puisque l'on a la même quantité de matière dans un volume plus grand). Le taux de réactions nucléaires va également diminuer (il est facile de comprendre que les réactions sont plus faciles si la densité est plus grande puisque les particules sont plus proches de leurs voisines). Moins d'énergie étant produite, la température va baisser. Une dilatation (hypothétique) de l'étoile entraîne donc une diminution de la densité et de la température. Or, la pression est directement proportionnelle à ces deux paramètres. Elle va donc également baisser et la gravité fera se contracter l'étoile.
À l'inverse, si l'étoile se contracte, la densité va augmenter, va faire croître la production d'énergie par fusion donc la température et la pression qui va faire se dilater l'étoile.
On peut maintenant esquisser une définition de ce qu'est une étoile : une étoile est donc une boule de gaz, en équilibre, et qui émet de la lumière grâce aux réactions nucléaires qui ont lieu en son sein.
L'espace compris entre les étoiles de notre Galaxie n'est pas vide ; il est constitué d'un mélange extrêmement dilué de gaz et de poussières : le milieu interstellaire, que nous désignerons par l'abréviation MIS dans la suite de chapitre.
Dans ce milieu, le gaz et les grains de poussière sont intimement mêlés. Un milieu interstellaire est présent dans toutes les galaxies spirales, spirales-barrées et irrégulières. Il est quasiment inexistant dans les galaxies elliptiques et lenticulaires.
Le milieu interstellaire est bien visible sur la photo de la galaxie du Sombrero ci-contre. Les zones sombres signalent la présence des poussières qui absorbent la lumière des étoiles. Les poussières, et le gaz associé, sont concentrés dans un disque étroit autour du plan moyen de la galaxie. La photo donne une idée de ce que verrait un observateur extérieur à notre galaxie en l'observant par la tranche.
Le gaz est principalement constitué d'hydrogène, l'élément le plus abondant de l'univers ; ce dernier existe sous forme atomique ou moléculaire. Le gaz interstellaire contient aussi quelques traces d'éléments plus lourds, également sous la forme d'atomes ou de molécules.
La poussière interstellaire se présente sous la forme de grains extrêment petits, dont la taille typique est de l'ordre d'une fraction de micron (1 micron = un millionième de mètre). La composition chimique des grains de poussière interstellaire est variée : on y trouve du graphite, des silicates, des carbonates.
Le milieu interstellaire, mélange de particules gazeuses (atomes et molécules) et de grains de poussière, dans la proportion de 1012 à 1, est extrêmement ténu : on y rencontre des densités de gaz, en nombre de particules par cm3, qui varient de quelques unités dans les zones les plus diffuses, à quelques dizaines ou centaines de milliers dans les régions les plus denses. Ces densités sont extêmement faibles : le milieu interstellaire est plus ténu que les vides les plus poussés que l'on sait réaliser en laboratoire.
Bien qu'extrêmement ténu, le milieu interstellaire occupe un espace si vaste qu'il représente une masse de 10 à 15% de celle de l'ensemble des étoiles de notre Galaxie, c'est-à-dire de l'ordre de 10 à 15 milliards de fois la masse de notre Soleil. Les grains de poussière représentent 1% de la masse totale du milieu interstellaire.
La photographie de la galaxie Centaurus A montre que le milieu interstellaire a une structure extrêmement complexe. On y observe des régions sombres, nuages où le gaz et la poussière sont intimement mêlés, qui côtoient des zones brillantes, appelées nébuleuses, principalement composées de gaz illuminé par les étoiles voisines.
Le gaz et la poussière ne sont pas les seuls constituants du MIS. Ce dernier baigne en effet dans un rayonnement électromagnétique couvrant toutes les longueurs d'onde, depuis les rayonnements gamma et X, les plus énergétiques correspondant aux très courtes longueurs d'onde, jusqu'au rayonnement radio, le moins énergétique, en passant par les rayonnements ultraviolet, visible et infrarouge.
Ces rayonnements sont produits par les étoiles, les enveloppes et nébuleuses qui leur sont associés à certaines étapes de l'évolution stellaire, et également au sein des différentes composantes (nuages, poussières, nébuleuses...) du MIS, au cours de processus physiques extrêmement variés.
A côté du rayonnement électromagnétique, le MIS est baigné par un rayonnement de type corpusculaire : le rayonnement cosmique, constitué de particules animées de très grandes vitesses, proches de celle de la lumière.
Ces particules sont d'une part, des noyaux d'atomes qui portent une charge électrique positive, essentiellement des protons (noyaux d'atomes d'hydrogène) et des particules alpha (noyaux d'atomes d'hélium) et, d'autre part, des électrons.
Les particules du rayonnement cosmique sont produites lors des explosions de supernovae, ultime étape de l'évolution des étoiles les plus massives. Les particules sont libérées par l'explosion de l'étoile et éjectées dans le milieu interstellaire avec une très grande énergie. Elles peuvent être accélérées en traversant les champs magnétiques, de structures et d'intensités extrêmement variées, qui baignent le MIS.
Le milieu interstellaire est observable directement, notamment en lumière visible, sous la forme de nébuleuses diffuses plus ou moins brillantes et contrastées. La plus brillante (elle est visible à l'œil nu) et l'une des plus célèbres, est la nébuleuse d'Orion, représentée dans la figure ci-contre.
Il s'agit d'un nuage d'hydrogène atomique soumis au rayonnement ultraviolet intense émis par quelques étoiles très lumineuses et chaudes (de type spectral O ou B) dont les quatre plus brillantes, formant le trapèze d'Orion, sont visibles sur la photo.
Ces étoiles émettent l'essentiel de leur rayonnement dans le domaine ultraviolet, c'est-à-dire de longueur d'onde inférieure à 300 nm. Les plus énergétiques de ces photons, ceux dont la longueur d'onde est inférieure à 91,2 nm, peuvent ioniser l'atome d'hydrogène en lui arrachant un électron. Une région, composée d'un mélange de protons et d'électrons, appelée région HII, se forme autour des étoiles brillantes.
Les zones brillantes et diffuses que l'on observe sur les photographies, sont dues au rayonnement fluorescent qui est produit lorsque l'électron se recombine sur le proton pour former un atome d'hydrogène. Celui-ci est formé dans un état d'énergie élevée et se désexcite en émettant des photons sous forme de cascades radiatives. Le rayonnement émis s'étend du domaine visible jusqu'aux domaines infrarouge et radio.
L'hydrogène est le constituant principal de l'univers et donc du milieu interstellaire des galaxies. Si les nébuleuses d'hydrogène ionisé sont directement observables en lumière visible (cf page précédente), il a fallu attendre l'avènement de la radioastronomie pour observer l'hydrogène atomique sous la forme neutre.
L'atome d'hydrogène est constitué d'un proton et d'un électron en "orbite" autour de lui. L'électron se comporte comme s'il était animé d'un mouvement de rotation sur lui-même. Spontanément, mais avec une très faible probabilité d'une fois tous les 11 millions d'années, le sens de rotation de l'électron s'inverse : ceci entraîne l'émission d'une onde électromagnétique de longueur d'onde 21 cm (de fréquence 1420 MegaHertz), dans le domaine radio.
La raie 21 cm a été observée pour la première fois en 1951 en utilisant des radiotélescopes implantés aux USA, en Australie et aux Pays-Bas. Cette raie est observable partout dans notre Galaxie ; son intensité est plus grande dans une zone étroite correspondant à la Voie Lactée, c'est-à-dire dans le disque où est concentrée la grande majorité des étoiles de notre Galaxie. La raie 21 cm est émise au sein de nuages de gaz principalement constitués d'hydrogène neutre et appelés régions ou nuages HI.
La raie 21 cm, peu absorbée par le MIS, permet d'observer toute notre Galaxie, y compris les régions situées au-delà du centre. La distribution spatiale des nuages HI, déterminée à partir des variations d'intensité de la raie 21 cm a permis de montrer que notre Galaxie possédait une structure spirale.
La figure ci-contre montre la distribution de l'intensité de la raie 21 cm dans notre Galaxie, en fonction de la longitude et de la latitude galactiques. Les zones brillantes correspondent au maximum d'intensité et donc d'abondance de HI. Cette dernière est maximale dans le plan moyen de la Galaxie (la ligne brillante qui traverse toute la figure). Mais on peut voir que l'hydrogène neutre est présent partout et peut s'étendre à de très hautes latitudes galactiques. Des "ponts" d'hydrogène ayant la forme de filaments reliant le plan de notre Galaxie et ses zones extérieures, son halo, sont nettement visibles sur la figure.
La matière interstellaire n'existe pas que sous la seule forme des nuages atomiques HI, elle est aussi distribuée dans des nuages moléculaires d'extension, de masse, de densité, de température et de morphologie extrêmement variées.
Les nuages moléculaires géants sont constitués d'un mélange de poussières et de gaz composé de plus d'une centaine de molécules différentes (voir plus loin). Ils s'étendent sur plusieurs parsecs, voire dizaines de parsecs. Leur masse peut atteindre plusieurs millions de fois celle du Soleil. Ils ont une densité moyenne typique de 1000 particules/cm3 et leur température varie entre 10 et 150 K. La nébuleuse de l'Aigle en est un exemple typique.
Les nuages moléculaires géants sont le siège de la formation des étoiles et sont souvent associés à des régions HII, comme on peut le voir sur l'image de la nébuleuse RCW 38. Ces régions HII sont créées par les étoiles très chaudes et très lumineuses qui se sont formées il y a moins de 10 à 100 millions d'années, c'est-à-dire tout récemment à l'échelle cosmique. Les étoiles se forment donc au sein des nuages moléculaires de façon continue, et encore de nos jours.
A l'autre extrémité de la séquence des nuages interstellaires, on trouve les nuages diffus qui sont vus en absorption devant des étoiles. Leurs masses (quelques dizaines à quelques centaines de masses solaires) et leurs densités (entre dix et quelques centaines de particules/cm3) sont beaucoup plus faibles. Ils sont composés surtout d'atomes neutres (H, C, N, O...) ou ionisés (C+, Mg+, Si+...). Les plus denses d'entre eux contiennent quelques molécules simples neutres (H2, CO, CH, CN, OH, H2O...) ou ionisées (CH+...). Tous ces constituants sont identifiés par leur spectre en absorption devant celui de l'étoile située derrière.
De propriétés physiques voisines, les nébuleuses par réflexion sont des nuages de gaz et de poussières qui diffusent la lumière d'étoiles situées au sein du nuage ou dans son environnement immédiat. Un bel exemple est fourni par la nébuleuse du Caméléon.
Les nuages moléculaires sombres et les globules se présentent comme des taches sombres plus ou moins régulières masquant la lumière d'étoiles situées en arrière plan. L'un des plus fameux est la nébuleuse de la Tête de Cheval.
Ces nuages interstellaires ont un contenu moléculaire aussi riche que celui des nuages géants, leur densité est comparable, voire plus élevée (quelques dizaines de milliers de particules/cm3), mais ils sont plus froids (une température de l'ordre de 10 K, voire moins). Les poussières dans ces zones denses absorbent plus ou moins complètement la lumière des étoiles situées derrière, d'où leur aspect de taches sombres, particulièrement visibles dans la photographie du globule B 68.
Les nuages sombres peuvent présenter des formes plus complexes comme c'est le cas par exemple des globules de Thackeray.
Les observations en infrarouge ont permis de mettre en évidence la présence de sources ponctuelles au sein de certains nuages sombres. Quelques sources IR ont été identifiées comme des étoiles en formation, dont seul le rayonnement infrarouge, moins absorbé par les poussières, parvient à sortir du nuage.
Le télescope spatial Hubble a même permis de détecter un disque protoplanétaire en formation.
La présence de proto-étoiles et de disques proto-planétaires dans les nuages sombres montrent qu'ils sont, comme les nuages moléculaires géants, le siège d'une formation continue d'étoiles qui se poursuit à l'époque actuelle.
Les premières observations de molécules dans le MIS remontent à 1941 : les molécules CH, CH+ et CN ont été détectées dans un nuage diffus, grâce à leurs raies observées en aborption dans le domaine visible du spectre de l'étoile Dzeta Ophiuchii.
L'avènement de la radioastronomie en ondes centimétriques et décimétriques, outre la découverte de l'hydrogène atomique, a permis la découverte du radical hydroxyle OH (en 1963) et des premières molécules polyatomiques : l'ammoniac NH3 (en 1968), l'eau H2O et le formaldéhyde H2CO (en 1969).
C'est le développement de la radioastronomie dans le domaine des ondes millimétriques et sub-millimétriques, à partir des années 1970, qui a permis de découvrir la plupart des molécules interstellaires. La première molécule découverte dans ce domaine de longueur d'onde est la molécule de monoxyde de carbone CO. C'est la molécule la plus abondante, après H2 : elle sert de traceur du gaz moléculaire dans notre Galaxie et les galaxies extérieures.
A ce jour, 200 molécules ont été identifiées dans le MIS. On peut en consulter la liste sur les sites suivants : http://aramis.obspm.fr/mol/index.html et http://www.cv.nrao.edu/~awootten/allmols.html
On y trouve des molécules simples bien connues, comme par exemple le chlorure de sodium NaCl (sel de cuisine !). Beaucoup de molécules organiques ont été détectées ; parmi les plus courantes : le méthane CH4, l'alcool éthylique C2H5OH, l'acide acétique CH3COOH (qui entre dans la composition du vinaigre !), l'acétone CH3COCH3, et même un sucre : le dihydroxyacétone (CH2OH)2CO.
Une des molécules les plus complexes découvertes jusqu'ici est une longue chaîne carbonée de 13 atomes : le cyanodécapentayne HC11N. Elle fait partie de la famille des cyano-poly-ines dont tous les éléments plus simples : HC3N, HC5N, HC7N et HC9N ont également été détectées dans le MIS. Des fullerènes comme C60 ou C70 ont aussi été détectés.
Il est remarquable que dans un ultra-vide, que sont en fait les nuages interstellaires, où règnent des conditions physiques extrêmes, puissent se former des molécules, et en particulier des molécules organiques, aussi complexes. L'acide aminé le plus simple, la glycine : NH2CH2COOH, est une molécule moins complexe que les molécules les plus complexes détectées à ce jour. Néanmoins, toutes les tentatives de détection de la glycine dans le MIS ont échoué jusqu'ici.
Une autre caractéristique de la composition chimique du MIS est la présence de cations (ions chargés positivement), et en particulier, de cations moléculaires, tels : CH+, SO+, H3+, HCO+, HCS+, N2H+, H3O+, HOCO+, H2COH+, HCNH+, HC3NH+. Comme nous le verrons plus loin, les cations jouent un rôle fondamental dans la chimie interstellaire. Les anions (ions chargés négativement) sont aussi présents dans le MIS, mais en nombre beaucoup plus restreint.
Les molécules interstellaires sont formées à partir des éléments les plus abondants de l'univers, à savoir : H, C, N, O et S. On trouve cependant des molécules contenant des éléments beaucoup plus rares. En vous référant à l'une des deux listes de molécules interstellaires indiquées dans le cours :
Pouvez-vous citer cinq molécules interstellaires contenant du silicium Si ?
Combien de molécules différentes contiennent du chlore, Cl ? Pouvez-vous les citer ?
Même question, mais pour des molécules contenant du phosphore, P.
Le nombre, la diversité, la complexité (en particulier des composés organiques) des molécules détectées dans les nuages interstellaires sont la preuve qu'une chimie active et très élaborée est en œuvre dans le MIS.
Aux faibles densités et températures qui règnent dans ce milieu, les collisions entre particules sont extrêmement rares : elles se produisent néanmoins et peuvent se transformer en collisions réactives, c'est-à-dire en réactions chimiques conduisant à la transformation d'espèces chimiques. On peut citer en exemple la réaction suivante :
C+ + H2O → HCO+ + H
L'animation ci-dessous présente la suite des réactions qui conduisent à la formation de la molécule CO, la plus abondante après H2. On parle de réactions en phase gazeuse. Seules les réactions exothermiques, c'est-à-dire qui se produisent spontanément en libérant de l'énergie, participent à la chimie du MIS compte tenu des faibles températures prévalant dans ce milieu.
La synthèse des molécules complexes observées dans le MIS est le résultat d'un ensemble de plusieurs milliers de réactions chimiques en phase gazeuse. Ces réactions chimiques se classent en différents types qu'il n'est pas possible de détailler ici.
Différentes catégories de réactions chimiques, trop nombreuses pour être détaillées dans ce cours, peuvent conduire à la formation des molécules interstellaires. L'un des processus chimiques les plus efficaces, parce que libérant spontanément une grande quantité d'énergie est la recombinaison, sur un électron, d'un ion moléculaire qui se casse en plusieurs "morceaux" : c'est pourquoi on nomme ce type de réaction une recombinaison dissociative.
Un exemple de recombinaison dissociative est donné dans l'animation qui présente la formation de CO dans la page précédente, il s'agit de la dernière réaction qui conduit à CO :
HCO+ + e- → CO + H
Pouvez-vous indiquer les ions moléculaires les plus simples, observés dans le mileu interstellaire, dont la recombinaison dissociative conduit à : CS, N2, H2O et HCN ?
Quelles sont les deux molécules di-atomiques observées auxquelles peut conduire la recombinaison dissociative de l'ion HCO+, dont la formule développée est H-C+=O ?
La recombinaison dissociative de l'ion moléculaire H3CO+ peut conduire aux espèces CO (monoxyde de carbone), HCO et H2CO (formaldéhyde), toutes trois observées dans le milieu interstellaire. Pouvez-vous écrire les réactions chimiques correspondantes ?
L'enchaînement de réactions chimiques en phase gazeuse peut conduire à la formation des molécules interstellaires, même les plus complexes. Cette production de molécules requiert cependant la présence de la molécule H2, nécessaire au démarrage de toute cette chimie interstellaire active et complexe.
Or, on ne peut pas former H2 directement par collision réactive entre deux atomes d'hydrogène car cette réaction ne peut se produire spontanément dans les conditions physiques qui règnent dans le MIS. La formation de H2 interstellaire se produit à la surface des grains de poussière suivant le schéma illustré ci-dessous :
Les atomes d'hydrogène qui se déplacent dans le MIS du fait de l'agitation thermique, entrent en collision avec un grain de poussière et se collent à sa surface : c'est le phénomène d'adsorption. Ils ne restent pas immobiles mais sont au contraire animés d'une grande mobilité sur cette surface, se déplaçant très rapidement d'un site à un autre. Il arrive que deux atomes d'hydrogène, présents au même moment sur un même site, se recombinent pour former une molécule, le grain de poussière servant en quelque sorte de "catalyseur". La molécule formée peut alors être ré-injectée dans l'espace environnant : c'est le processus de désorption.
Des expériences de laboratoire et des études théoriques ont montré que la formation de H2 sur les grains de poussière est un processus efficace. A tel point que, si les conditions sont favorables (en particulier en l'absence de rayonnement UV au plus profond des nuages moléculaires), tout l'hydrogène existe sous la forme moléculaire. Cet hydrogène moléculaire initie la chimie interstellaire en phase gazeuse et la formation de molécules de plus en plus complexes.
Les processus conduisant à la formation de H2 sur des grains de poussière peuvent également entrer en jeu pour former d'autres molécules, jusqu'aux plus complexes des molécules organiques observées. Une chimie intestellaire à la surface des grains de poussière, au moins aussi active et efficace, coexiste donc avec la chimie gazeuse. Elle semble même plus efficace que cette dernière pour former les molécules les plus complexes.
Des études théoriques et des mesures de laboratoire, couplées à des modèles élaborés de chimie interstellaire, ont permis de comprendre la richesse et la complexité de cette dernière. Les processus chimiques en œuvre, même dans les conditions extrêmes qui prévalent dans le milieu interstellaire, participent pleinement à la "complexification" de la matière cosmique, qui conduit des particules élémentaires aux constituants de la vie.
Outre la grande diversité de ses composantes (poussières, gaz, rayonnements électromagnétiques et cosmiques, champs magnétiques), les autres caractéristiques fondamentales du milieu interstellaire sont l'extrême variété et complexité des structures qu'on y rencontre (nuages de gaz, globules, filaments, nébuleuses diffuses, ondes de choc) et des processus physiques et chimiques qui s'y déroulent.
Les processus chimiques enrichissent les nuages de gaz interstellaire en molécules organiques complexes et en poussières. C'est au sein de ces nuages, par contraction gravitationnelle et fragmentation du nuage, que se forment les nouvelles étoiles.
Au centre de la nébuleuse protostellaire, se situe le cœur très chaud de l'étoile en formation, où les molécules et les poussières sont dégradées en leurs constituants atomiques, enrichissant en éléments lourds la matière originelle de l'étoile nouvellement formée.
Les molécules et les poussières subsistent cependant dans les zones extérieures de la nébuleuse proto-stellaire, et en particulier dans le disque où se formeront les futures planètes. La chimie interstellaire contribue ainsi à l'enrichissement en composés complexes de la matière qui formera les éventuelles futures planètes.
Parmi les étoiles nouvellement formées, les plus massives d'entre elles exploseront en supernovae, ré-injectant dans le MIS environnant de nouveaux éléments lourds qui entreront à leur tour en jeu dans la chimie interstellaire... et le cycle recommence !
Ainsi, à l'instar des autres constituants de l'univers : étoiles, galaxies, amas de galaxies et de l'univers dans son ensemble, le milieu interstellaire au sein des galaxies est en perpétuelle évolution : il participe au recyclage de la matière cosmique et à sa "complexification" et joue un rôle déterminant dans l'évolution des galaxies et de leurs composantes.
Les étoiles se forment par effondrement gravitationnel de nuages de gaz interstellaire composés principalement d'hydrogène (~70-75 % de la masse) et d'hélium (25-30 %) avec une faible teneur en éléments plus lourds (< 2 %), appelés (improprement) métaux en astrophysique. Contrairement à l'hydrogène et à la majeur partie de l'hélium qui se sont formés au cours de la nucléosynthèse primordiale (juste après le Big-Bang), les éléments lourds sont le produit des réactions de fusion nucléaire de générations précédentes d'étoiles.
Une étoile passe sa vie à s'opposer à l'effondrement gravitationnel. Au fur et à mesure qu'une étoile se contracte, sa densité augmente. Ceci entraîne une augmentation de la pression jusqu'à ce que celle-ci équilibre la contraction gravitationnelle.
L'augmentation de la pression s'accompagne d'une augmentation de la température qui peut alors atteindre les quelques millions de degrés nécessaires à la fusion de l'hydrogène. Au cœur d'une étoile ont donc lieu des réactions de fusion nucléaire qui transforment des noyaux légers en noyaux plus lourds et produisent de l'énergie sous forme de photons et de neutrinos selon la fameuse formule d'Einstein E=mc2. Les réactions nucléaires permettent de maintenir la température élevée et donc la pression nécessaire à la stabilité de l'étoile. Les réactions nucléaires créent de l'énergie qui a tendance à augmenter la température. Or, le taux de réactions nucléaires croît avec la température. Les réactions devraient donc s'emballer. Ce n'est pas le cas car la pression augmente avec la température. Si la température augmentait, les forces de pression deviendraient supérieures aux forces de contraction gravitationnelle. Le milieu se dilaterait et la densité diminuerait. La pression et donc la température suivraient cette diminution ce qui calmerait les réactions nucléaires. La température et le taux de réactions nucléaires sont ainsi autorégulées et l'intérieur d'une étoile est donc en équilibre.
Les étoiles ainsi formées peuvent avoir des masses allant de quelques centièmes à quelques dizaines de masses solaires. Plus l'étoile est massive, plus la pression et la température au centre sont fortes.
Les étoiles naissent dans un même nuage moléculaire sous forme d'amas de quelques parsecs eux-mêmes souvent situés au sein d'associations de quelques dizaines de parsecs. Les amas sont constitués d'étoiles de différentes masses, les étoiles de faible masse étant les plus nombreuses. Dans ces structures, les étoiles sont mutuellement attirées par les forces de gravitation. Ces amas vont se disperser ensuite d'autant plus vite qu'ils seront moins massifs. En effet, les étoiles d'un amas peuvent échanger de l'énergie lors de leurs passages proches ou lors de perturbations externes par un nuage moléculaire massif. Si une étoile gagne suffisament d'énergie pour atteindre une vitesse supérieure à la vitesse de libération du système elle quitte l'amas. L'amas est alors moins massif et l'énergie gravitationnelle moindre permettant aux autres étoiles membres de quitter l'amas d'autant plus facilement.
Les étoiles qui se forment dans le disque galactique commencent ainsi leur vie dans des amas ouverts de quelques dizaines ou centaines de masses solaires. De tels amas mettront typiquement quelques dizaines ou centaines de millions d'années pour perdre toutes leurs étoiles qui iront « vivre leur vie » dans la Voie Lactée.
Il existe, par ailleurs, des amas beaucoup plus massifs, appelés amas globulaires, qui se sont formés, dans notre Galaxie, il y a plus de 12 milliards d'années, en même temps que les premières étoiles. Ces amas globulaires contenant jusqu'à des millions d'étoiles ont une masse suffisante pour avoir survécu jusqu'à maintenant aux perturbations gravitationnelles de la Galaxie et de ses composantes.
Un amas stellaire est un groupe d'étoiles nées d'un même nuage moléculaire et qui sont encore liées par la gravitation. Les étoiles qui composent un amas ont donc même âge et même composition chimique. On distingue deux types d'amas qui dépendent des conditions dans lesquelles ils se sont formés :
Les étoiles tirent donc principalement leur énergie de réactions de fusion nucléaire. La durée de vie d'une étoile n'est donc pas illimitée puisque l'étoile à une masse limitée. Pour fusionner, deux noyaux doivent donc d'abord vaincre une force de répulsion électrostatique d'autant plus forte qu'ils sont chargés (et donc lourds). L'élément qui fusionne le premier dans les étoiles est donc l'hydrogène. Pour vaincre cette force électrostatique, ils doivent avoir une énergie cinétique suffisante et donc une vitesse suffisante. Ceci revient à dire que la température doit être très élevée puisque la température n'est rien d'autre qu'une mesure macroscopique de la distribution de vitesse des particules. De plus, comme la réaction de fusion de l'hydrogène est celle qui fournit le plus d'énergie, et que l'hydrogène est de loin l'élément le plus abondant, la majeure partie de la vie d'une étoile se passera à fusionner de l'hydrogène. L’endroit du diagramme HR où les étoiles fusionnent de l’hydrogène dans leur cœur s'appelle la séquence principale. Lors de cette phase, les paramètres globaux de l’étoile évoluent peu (la luminosité augmente de quelques dizaines de pourcents, le rayon de quelques pourcents) ce qui explique que la majorité des étoiles se placent sur cette séquence.
Contrairement à ce que l'on pourrait croire, plus une étoile est massive, moins elle vit longtemps. En effet, plus la masse est grande, plus la pression et la température à l'intérieur de l'étoile seront fortes. Or l'efficacité des réactions de fusion croit avec la température. Les deux grands types de réactions qui transforment l'hydrogène en hélium sont le cycle pp (pour proton-proton) qui domine dans les étoiles de petite masse (comme le Soleil) et le cycle CNO (pour Carbone-Azote-Oxygène qui agissent globalement comme catalyseurs) dans les étoiles de grande masse. Or, le taux de production d'énergie du cycle p-p est proportionnel à T4 et celui du cycle CNO à T20, l'égalité de ces deux taux étant équivalent aux alentours de 1,2 masse solaire. Les étoiles libèrent donc d'autant plus d'énergie qu'elles sont massives et vivent donc moins longtemps car elles épuisent plus vite leur carburant.
En fonction de leur masse, les étoiles ne vivront donc pas la même durée. Mais leur fin pourra également être très différente. Les étoiles peu massives vont vivre tranquillement très longtemps et finir paisiblement tandis que les étoiles massives brilleront beaucoup avant de finir dans un cataclysme.
Pour des étoiles dont la masse est inférieure à la moitié de la masse du Soleil, également appelées naines froides, il n'y a pas de fusion d'éléments plus lourds après la fusion de l'hydrogène. Le temps que ces étoiles vont passer sur la séquence principale est supérieur à l'âge actuel de l'Univers (environ 14 milliards d'années). Les modèles d'évolution stellaire prévoient que ces étoiles finiront en naines blanches d'hélium de la même manière que les étoiles un peu plus massives finiront en naine blanche de carbone et d'oxygène (voir plus loin).
Il existe une masse limite inférieure en dessous de laquelle la température centrale n'est pas suffisante pour initier la fusion de l'hydrogène (environ 8 millions de kelvin). Cette masse se situe entre 0,07 et 0,08 masse solaire. Au-dessous de cette limite, on ne parle plus d'étoile mais de naine brune. Une naine brune est le résultat de la contraction gravitationnelle d'un nuage de masse inférieure à 0,08 masse solaire. Cette contraction chauffe la naine brune et sa température effective initiale se situe autour de 3000 K. Mais, comme aucune autre source d'énergie ne peut maintenir cette température et que l'objet perd de l'énergie par rayonnement, il se refroidit pour atteindre quelques centaines de kelvins au bout de quelques centaines de millions d'années.
Entre 0,5 et 7 masses solaires, seuls l'hydrogène puis l'hélium vont pouvoir fusionner dans l'étoile. Sur la séquence principale, il y aura d'abord fusion de l'hydrogène dans le cœur. Puis l'hydrogène va fusionner dans une couche autour d'un cœur d'hélium. L'étoile va alors gonfler pour former une géante rouge. Sur le diagramme HR, elle va « monter » le long de la branche des géantes (c'est-à-dire que sa température effective va baisser en même temps que son rayon va augmenter suffisamment pour faire croître la luminosité). Une fois arrivée en haut de la branche des géantes, la fusion de l'hélium au cœur va s'allumer. L'étoile va « redescendre » (contraction et réchauffement de la surface).
La fusion de l'hélium va alors produire du carbone et de l'oxygène d'abord dans le cœur (l'étoile garde alors une luminosité presque constante dans le bas de la zone des géantes) puis en couche (ce qui va de nouveau faire « monter » l'étoile dans le diagramme HR le long de ce que l'on appelle la branche asymptotique).
Arrivée en haut de la branche asymptotique, l'étoile a perdu ses couches externes par l'effet des vents stellaires. La majeure partie de l'étoile est éjectée dans le milieu interstellaire sous forme de gaz enrichi. Le cœur de C et O est désolidarisé de l'enveloppe éjectée et se contracte et s'échauffe à luminosité constante. Cette phase est masquée (dans le domaine visible du spectre) par le gaz et les poussières éjectés. Lorsque sa température atteint environ 10 000 K, le flux UV devient intense et balaye et ionise les couches expulsées formant une nébuleuse planétaire.
Le cœur continue de se contracter mais la masse n'est pas suffisante pour atteindre la température de fusion du carbone. Il continue de se contracter jusqu'à ce que la pression de dégénérescence des électrons s'oppose à la gravité. On a alors formé une naine blanche de C et O. La naine blanche n'a plus de source d'énergie et continue à rayonner en se refroidissant. Sa température diminue inexorablement.
À partir de la séquence principale, des éléments de plus en plus massifs fusionnent au cœur de l'étoile. Les éléments moins massifs continuent de fusionner en couches enrichissant les couches plus profondes en produits de fusion. De forts vents stellaires sont également observés. Finalement, le noyau de fer dépasse la masse limite de Chandrasekhar et s'effondre. Le vide créé aspire la matière de l'étoile qui rebondit et crée une onde de choc qui expulse violemment toutes les couches externes : c'est la supernova de type II.
Le résidu du cœur de fer effondré forme une étoile à neutrons ou un trou noir selon sa masse. Si elle est inférieure à 3 masses solaires environ, la force nucléaire forte s'oppose à la gravité (la densité dans une étoile à neutrons est en effet de l'ordre de la densité d'un noyau atomique). Sinon, aucune force ne peut s'opposer à la gravitation et l'on a un trou noir.
État | Température (K) | Densité (g/cm3) | Durée |
---|---|---|---|
Fusion de l'Hydrogène | 4.107 | 5 | 7.106 ans |
Fusion de l'Hélium | 2.108 | 700 | 5.105 ans |
Fusion du Carbone | 6.108 | 2.105 | 600 ans |
Fusion de l'Oxygène | 1,5.109 | 107 | 6 mois |
Fusion du Silicium | 2,7.109 | 3.107 | 1 jour |
Effondrement du cœur | 5,4.109 | 3.109 | 1/4 seconde |
Rebond | 1,3.1010 | 4.1014 | qqs millisecondes |
Explosive | environ 109 | variable | 10 secondes |
Nous venons de voir ce qu'il advient d'une étoile massive en fin de vie : une supernova de type II. Il existe un autre type de supernovae, les supernovae de type Ia, qui ont une cause différente.
Comme nous l'avons déjà vu, une grande proportion des étoiles vivent en couple. Lorsque les deux masses sont différentes, la plus massive peut devenir une naine blanche de C/O tandis que son compagnon est encore sur la séquence principale.
Lorsque la secondaire devient géante, ses couches externes peuvent être accrétées par la naine blanche qui acquiert de la masse. Si le taux d'accrétion est suffisamment grand, la masse atteint la masse limite de Chandrasekhar (1,4 masse solaire) et l'étoile finit par exploser en fusionnant son carbone, son oxygène… jusqu 'à former des éléments du pic du fer. Contrairement à une SN II, aucun débris ne subsiste et la totalité des éléments produits vont enrichir le milieu interstellaire.
Le tableau suivant donne les caractéristiques des supernovae de types Ia et II.
Type de Supernova | Thermonucléaire (Type Ia) | Effondrement du cœur (Type II) |
Luminosité Maximum | 3.109 soleils (MB = -19.5) | quelques 108 soleils (MB = -18.5 +/- 1) |
Spectre | Pas de raies d'hydrogène, raies de nombreux métaux | raies d'hydrogène + spectre continu |
Emplacements | systèmes stellaires vieux (amas globulaires, bulbe galactique, galaxies elliptiques) | systèmes stellaires jeunes (amas ouverts jeunes, régions de formation d'étoiles, galaxies spirales) |
Étoile précurseur | Naine blanche dans un système binaire | Étoile massive |
Mécanisme déclencheur | Transfert de masse du compagnon | Effondrement du cœur de fer |
Mécanisme de l'explosion | explosion thermonucléaire du cœur carbone/oxygène qui fusionne pour former du fer | Onde de choc de rebond de la surface de l'étoile à neutrons : neutrinos |
Résidu | rien ! | étoile à neutrons ou trou noir |
Débris expulsés | éléments du pic du fer (principalement du fer) | Tous types d'éléments lourds (principalement de l'oxygène) |
Voici un tableau qui récapitule quelques propriétés des résidus stellaires.
Objet | Taille | Masse | Densité |
---|---|---|---|
Naine blanche | environ celle de la Terre | de l'ordre de celle du Soleil (mais inférieure à 1,4 fois sa masse). | 1 tonne/cm3 |
Étoile à neutrons | une dizaine de kilomètres | entre 1,4 fois et 3 fois la masse du Soleil | 109 tonnes/cm3 |
Trou noir | inconnue mais on ne peut rien « voir » à l'intérieur de l'« horizon » du trou noir qui vaut quelques kilomètres | plus grande que 3 fois la masse du Soleil | inconnue mais forcément plus grande que celle d'une étoile à neutrons en moyenne |
Voici un récapitulatif des phases d'évolution stellaire en fonction de la masse initiale de l'étoile.
La température centrale de l'étoile est inférieure à la température de fusion de l'hydrogène. L'objet est une étoile avortée : une naine brune. | ||
L'hydrogène fusionne en hélium lorsque l'étoile est sur la séquence principale mais, ensuite, la température centrale de l'étoile est inférieure à la température de fusion de l'hélium. L'étoile finit en nébuleuse planétaire avec formation au centre d'une naine blanche d'hélium. Il faut tout de même noter que le temps d'évolution sur la séquence principale est supérieur à l'âge de l'Univers et que cette évolution est hypothétique (aucune naine blanche d'hélium ne peut encore être observée). | ||
Fusion de l'hydrogène, puis de l'hélium. Ensuite la température centrale de l'étoile est inférieure à la température de fusion du carbone. L'étoile finit en nébuleuse planétaire avec formation au centre d'une naine blanche de carbone et d'oxygène. | ||
Fusion de l'hydrogène sur la séquence principale puis fusion de l'hélium, puis du carbone, puis de l'oxygène... lors de la phase de supergéante rouge. L'étoile finit par avoir une structure en pelure d'oignon avec un cœur de fer entouré d'éléments de plus en plus légers en train de fusionner. L'étoile finit par exploser en supernova de type II. | ||
si | Le résidu de la supernova donne une étoile à neutrons (éventuellement observable sous forme de pulsar) | |
si | Le résidu de la supernova donne un trou noir de masse stellaire. |
Puisque le Soleil est une étoile comme les autres, il est naturel de se demander si celles-ci sont entourées d'un cortège planétaire comme l'est notre astre du jour. Si elles existent, à quoi ressemblent ces planètes ? Sont-elles semblables aux planètes du système solaire ou bien sont-elles très différentes ? Enfin, on peut se poser la question excitante de savoir si sur certaines de ces "exoplanètes" peut se développer une forme de vie.
Nous vivons une époque extraordinaire où l'on peut commencer à donner une réponse scientifique à ces questions.
Le présent chapitre fait le point sur l'ensemble de ces questions, depuis les récentes découvertes aux perspectives futures jusque dans les années 2020 - 2030.
Une planète se distingue d'une étoile essentiellement par le fait qu'elle n'a pas de source d'énergie interne durable sur des milliards d'années. Une telle source durable d'énergie ne peut être que d'origine nucléaire. Une planète est donc un corps sans énergie nucléaire interne. Les calculs montrent que les réactions thermonucléaires ne peuvent s'amorcer qu'au-dessus environ 13 fois la masse de Jupiter. Cette valeur fixe donc la limite au-dessus de laquelle un astre ne peut plus, selon la présente définition, être appelé "planète".
Une autre différence entre une étoile et une planète est la manière dont elle se forme. Une étoile se forme par effondrement d'un nuage de gaz, alors que généralement, une planète se forme par condensation des particules de silicates ("poussières") et de glace dans un disque ("protoplanétaire") de matériaux divers qui est en orbite autour d'une étoile.
Les deux définitions précédentes conduisent à peu près au même résultat : une exoplanète est un corps de masse maximum environ 13 masses de Jupiter en orbite autour d'une étoile. Toutefois, il y a des exceptions à cette coïncidence :
Rien n'empêche que certaines planètes commencent, au cours de leur formation, par être moins massives que 13 fois Jupiter et qu'elles "grossissent" jusqu'à atteindre une masse supérieure à cette limite.
Rien n'empêche que certains astres se forment par effondrement d'un nuage de gaz et de poussières mais n'atteignent pas la masse limite de 13 Jupiter. Ce sont des planètes selon la première définition, mais elles ne sont pas en orbite autour d'une étoile. On les appelle planètes flottantes.
L'exploration du système solaire a montré à quel point les planètes de notre système planétaire diffèrent entre elles ; Il est donc intéressant de voir comment cette diversité se manifeste dans d'autres systèmes planétaires. On peut se poser de nombreuses questions à ce sujet :
De plus, il sera très intéressant de voir comment ces propriétés sont corrélées au type de l'étoile "parente", à sa position dans la Galaxie...
Une autre motivation, plus profonde, est de chercher à terme s'il peut y avoir une forme de vie dans certaines exoplanètes.
Détecter une exoplanète, beaucoup moins lumineuse que son étoile et de plus extrêment près d'elle, vu depuis la Terre, est une tâche extrêmement difficile. Plusieurs méthodes ont cependant été proposées pour réaliser cet exploit, et la plupart d'entre elles marchent ! Nous allons ici présenter les principales, en ne brossant pour chacune d'elles que les grandes lignes, en commençant par les techniques les plus "naturelles" (imagerie directe) et en allant vers les méthodes de plus en plus "tarabiscotées".
La méthode la plus naturelle à laquelle on pourrait penser a priori est celle de l'imagerie directe, à savoir essayer de détecter, sur une image, la faible lueur d'une planète à côté de son étoile parente. Cette méthode se heurte cependant à deux obstacles majeurs :
La combinaison de ces deux effets va faire que la planète risque d'être complètement noyée dans le halo de lumière de l'étoile. En raison de ces difficultés, la détection directe de planètes a longtemps été hors de portée, et c'est par d'autres méthodes que les premières exoplanètes ont été découvertes. Mais les techniques d'observation ont aujourd'hui suffisamment progressé pour rendre l'imagerie directe de planètes enfin possible. Et à ce jour, une trentaine d'exoplanètes ont été détectées par cette méthode. (voir le nombre actualisé de planètes détectées sur le site exoplanet.eu)
Nous allons dans ce chapitre voir tout d'abord plus en détail pourquoi l'observation directe est si difficile, avant de nous pencher sur les différentes techniques d'observation et les premiers résultats, spectaculaires, qui ont été obtenus.
Il y a deux régimes différents par lesquels on peut recevoir la lumière émanant d'une planète :
Sur la figure, on voit que le spectre réfléchi est prépondérant aux longueurs d'onde visibles. Aux plus grandes longueurs d'onde, l'émission thermique de la planète l'emporte sur le flux réfléchi. Plus la planète est proche de l'étoile, donc chaude, plus la transition entre les deux régimes se fait à petite longueur d'onde.
Pour ces deux régimes, le paramètre crucial pour l'observation d'une exoplanète est le rapport entre le flux lumineux et celui de son étoile. Ce rapport est toujours très petit, mais sa valeur peut cependant fortement varier en fonction de la taille de la planète et de sa distance à l'étoile, ainsi que du régime (réfléchi ou thermique) dans lequel on observe.
Pour le flux stellaire réfléchi par la planète, ce rapport vaut, pour toutes les longueurs d'onde :
où A est l'albédo (pouvoir réflecteur) de la planète et un "facteur de phase" qui indique la portion relative de la surface éclairée de la planète visible par l'observateur (analogue aux phases de la Lune ou de Vénus). est le rayon de la planète et sa distance à l'étoile.
L'albédo dépend plus ou moins de la longueur d'onde en fonction du type et des conditions physiques de la planète.
Le flux thermique dépend quant à lui de la température de la planète. Si l'on néglige les sources de chaleur interne, cette température est fournie par le flux incident de l'étoile qui chauffe la planète. Elle est donnée par :
où S est un facteur caractérisant l'effet de serre. Ce dernier mesure la proportion du rayonnement de la planète qui ne peut s'en échapper car absorbé par son atmosphère. Le flux thermique a un spectre donné par la loi de Planck qui dépend de la température.
Spectre du corps noir
Le rapport de flux thermique planète/étoile est alors très dépendant de la longueur d'onde :
On remarque que, aussi bien dans le régime thermique que dans le régime réfléchi le rapport de flux planète/étoile est extrêmement faible. Comme par ailleurs la planète est, vue par l'observateur, très proche de son étoile, ce dernier est "ébloui" par l'étoile au détriment de la planète. Ceci illustre l'extrême difficulté de l'observation directe d'exoplanètes.
La réponse à cet inconvénient consiste à amoindrir fortement le flux de l'étoile sans amoindrir celui de la planète. Il y a pour cela deux techniques : la coronographie et l'extinction interférométrique de l'étoile.
Difficulté : ☆
Quel est le rapport de flux réfléchi Terre/Soleil sachant que l'albédo de la Terre vaut 0.4 et =0.5 ?
Le cas le plus favorable pour l'observation directe est celui d'une planète loin de son étoile, pour qu'elle sorte du halo de celle-ci, et qui soit de plus de grande taille et très chaude afin que son flux thermique soit élevé. Ce cas idéal est malheureusement difficile à trouver, car en principe plus une planète est loin de son étoile, plus elle est froide. Par exemple, Jupiter, qui a une surface 100 fois plus grande que celle de la Terre, n'a pas un flux 100 fois plus grand du fait de sa température de surface beaucoup plus faible.
Il existe cependant un type de systèmes planétaires pour lesquels on peut trouver ce cas idéal d'une planète lointaine et chaude, à savoir les systèmes jeunes, pour lesquels les planètes conservent encore une grande partie de l'énergie thermique emmagasinée lors de leur formation. On pense ainsi que Jupiter, lorsqu'il était âgé de seulement 100 millions d'années, était beaucoup plus chaud qu'aujourd'hui et environ 1000 fois plus lumineux ! C'est donc vers l'observation de tels systèmes jeunes que se sont tournés les efforts de détection directe... et ces efforts ont enfin payé. Après la première image directe obtenue en 2004, plusieurs dizaines de détections ont eu lieu depuis. Les deux résultats les plus spectaculaires étant sans doute le système autour de l'étoile HR8799, avec pas moins de 4 planètes détectées, et la découverte de la planète autour de β Pictoris, dont l'existence avait été prévue depuis plus de 10 ans par l'observation du disque de poussière autour de cette étoile.
Il faut souligner que, même pour ces cas idéaux de planètes externes et chaudes, la détection directe relève toujours de la prouesse technique, tout le problème étant de faire ressortir la faible luminosité de la planète juste à côté de son éblouissante étoile hôte.
Pour résoudre le problème majeur de l'imagerie directe, à savoir faire ressortir la faible lumière de la planète à côté d'une étoile infiniment plus brillante, il faut arriver à masquer la lumière de l'étoile sans toucher à celle de la planète. Pour celà, on utilise 2 techniques : la choronographie et l'extinction interférométrique.
Cette technique est sans doute la plus intuitive. Schématiquement, elle consiste à cacher l'étoile par une pastille (masque coronographique) dans le plan de l'image produite par le télescope. Elle a permis, dès les années 1980, de détecter des disques de poussières autour de nombreuses étoiles, et elle est aujourd'hui utilisée avec succès pour la détection d'exoplanètes (voir page précédente).
Une technique plus sophistiquée pour amoindrir le flux d'une étoile est d'utiliser un interféromètre constitué d'au moins 2 miroirs. On fait interférer "négativement" le flux stellaire passant par l'un des miroirs avec celui passant par un autre miroir. Cette interférence destructive éteint l'étoile, et on peut arranger la configuration de l'interféromètre pour que le flux issu de la planète ne soit pas éteint. En effet, comme les rayons lumineux issus de la planète viennent d'une direction légèrement différente de celle de l'étoile, le chemin parcouru par ces rayons n'est pas le même.
Au vu de la difficulté d'observer directement une exoplanète, d'autres méthodes peuvent être envisagées, qui vont chercher à observer le mouvement induit par la planète sur son étoile.
On présente souvent les lois de Kepler en disant que l'orbite d'une planète est une ellipse dont son étoile occupe l'un des foyers. Mais l'on pourrait tout aussi bien dire que le couple étoile-planète tourne autour du centre de gravité de ce système. Certes, la masse de l'étoile étant beaucoup plus grande que celle de la planète, ce centre de gravité sera très proche du centre de l'étoile, mais pas tout à fait. Et ce "pas tout à fait" a ici une importance cruciale, car il fait que l'étoile a elle aussi un mouvement, décrivant une petite orbite autour du centre de gravité de son système.
Ainsi, pour une planète de masse Mpl dont l'orbite autour de son étoile de masse M* est une ellipse de demi-grand axe a, le mouvement de l'étoile autour du centre de gravité du système est une ellipse de demi-grand axe a* :
Dans le cas simplifié où la planète est sur orbite circulaire, est constant et il en est donc de même de a* de sorte que l'étoile suit une trajectoire circulaire autour du centre de masse.
La période orbitale de l'étoile sera la même que celle de la planète et est donnée par la 3ème loi de Kepler :
où est la constante de la gravitation,
Du fait de la faible masse de la planète, le mouvement de l'étoile est très limité, mais il peut cependant s'observer, et ce de trois manières différentes :
Cette méthode, même si elle n'est pas la plus simple dans son principe, est la première à avoir permis la découverte d'une exoplanète autour d'une étoile de type solaire en 1995. Elle a été pendant plusieurs années la méthode par laquelle la quasi-totalité des exoplanètes était trouvée. Même si aujourd'hui beaucoup d'autres méthodes moissonnent avec succès de nouvelles planètes, il n'en reste pas moins que plus de 2/3 des exoplanètes découvertes à ce jour l'ont été par la méthode des vitesses radiales.
Le principe de cette méthode est de détecter le mouvement d'une étoile en observant l'effet Doppler sur la lumière qui nous en provient. Quand l'étoile a un mouvement qui la fait se rapprocher de nous, sa lumière est décalée vers le bleu, alors qu'elle est décalée vers le rouge quand elle s'éloigne. L'amplitude de ces décalages est proportionnelle à la vitesse de l'étoile. Dans le cas simplifié où l'orbite de l'étoile (due à une planète) est parfaitement circulaire, la vitesse VR à laquelle elle s'éloigne ou se rapproche de nous varie en fonction du temps suivant :
où K est l'amplitude de la variation de , donnée par :
où i est l'angle entre la ligne de visée de l'observateur et la perpendiculaire au plan de l'orbite de la planète. L'effet Doppler est maximum quand cet angle est égal à 90°, c'est-à-dire quand on regarde l'orbite "par la tranche". Quand i est nul, la vitesse de l'étoile n'a pas de composante radiale. Dans ce cas, même si une planète est présente, cette méthode ne permet pas de la détecter.
L'amplitude de l'effet Doppler induit par le mouvement de l'étoile est de l'ordre de K/c, où c est la vitesse de la lumière, c'est-à-dire de quelques m/s (la vitesse d'un homme qui court !) divisés par 300 000 km/s ! (voir ce petit exercice, pour calculer cet effet pour la Terre et pour Jupiter). Il s'agit donc de mesurer des effets extrêmements fins. A l'heure actuelle, on peut détecter des vitesses radiales de l'ordre de ∼0.5 m/s, c'est-à-dire qu'une "exo Terre" est presque à notre portée.
On voit que cette méthode favorise la détection de planètes massives et proches de leur étoile, car l'amplitude K est directement proportionnelle à Mpl et inversement proportionnelle à . Et de fait, les premières planètes détectées par effet Doppler étaient des "Jupiter chaud", c'est-à-dire des planètes de la masse de Jupiter mais situées extrêmement près de leur étoile (plus près que Mercure). Le plus célèbre de ces Jupiter chaud est la planète 51 Pégase b, la toute première à avoir été détectée.
Depuis 1995, quantité d'autres exoplanètes ont été découvertes par cette méthode. Et si initiallement la plupart d'entre elles étaient des Jupiter chaud (car ce sont les plus faciles à détecter), celles découvertes aujourd'hui sont de tout type : "Jupiter froid", "Neptune-chaud", "super-Terre", etc. Voir l'Encyclopédie des planètes extrasolaires pour une liste actualisée de toutes les exoplanètes découvertes par effet Doppler.
Difficulté : ☆☆☆
Sachant que l'Unité Astronomique (UA) vaut m, et que la masse du Soleil est de kg, quelle est l'amplitude K de variation de la vitesse d'une étoile de 1 masse solaire pour :
L'astrométrie consiste à mesurer un autre effet induit par la planète sur son étoile, non plus ses variations de vitesse (comme pour la méthode Doppler), mais les variations de sa position apparente sur le fond du ciel par rapport aux autres étoiles.
Cette méthode relève vraiment du défi, car par exemple, le mouvement induit par Jupiter sur le Soleil vu depuis l'étoile la plus proche (4 années-lumière) n'est que de 0.004" (environ 0.000001 degré !), soit beaucoup moins que la résolution des télescopes au sol les plus performants. La seule solution est de réaliser des observations ultra-précises sur des intervales de temps très longs, ou bien d'utiliser des télescopes spatiaux.
Cette méthode n'a, pour l'instant, pas encore porté ses fruits : elle a permis l'observation de planètes déjà détectées par d'autres méthodes mais encore pas la découverte de nouveaux objets. Cela devrait changer avec l'observatoire spatial européen GAIA.
On peut aussi mesurer une autre conséquence indirecte de la présence d'une planète : la variation de la distance entre l'étoile et l'observateur. La meilleure méthode pour mesurer cette variation est de mesurer la variation de temps que met la lumière à nous parvenir de l'étoile. A chaque instant cette variation est donnée par :
Pour mesurer cette variation le plus simple est de mesurer les variations de temps d'arrivée d'un signal périodique. est alors le retard ou l'avance de l'instant d'arrivée du signal par rapport à un instant "nominal" (sans perturbation). Tout le problème est d'avoir à sa dispostion un système stellaire possédant un tel signal périodique. On connaît 2 types de systèmes possédants de tels signaux :
C'est la méthode qui a actuellement le "vent en poupe". Son principe est simple : si on a la chance d'observer un système étoile-planète exactement "par la tranche", alors on peut assister à un transit de la planète devant son étoile. Lors de ce transit une petite fraction de la lumière stellaire est cachée par la planète et donc le signal lumineux en provenance de l'étoile chute légèrement le temps du transit (voir Figure).
La chute de luminosité est de l'ordre de (Rpl/R*)2, où Rpl est le rayon de la planète et R* celui de l'étoile. L'effet est certes petit, mais il est bien plus important que le rapport de luminosité directe entre la planète et l'étoile, qui est lui de l'ordre de (Rpl/d)2, où d est cette fois-ci la distance de la planète à l'étoile (voir exercice page suivante).
Difficulté : ☆
Quelle est la chute de luminosité relative induite par la Terre (rayon de 6400 km) sur le Soleil (rayon de 700 000 km) si on pouvait l'observer en transit ?
Même question pour un transit de Jupiter (rayon polaire de 66 000 km et rayon équatorial de 71 000 km).
La principale difficulté de cette méthode n'est pas tant l'amplitude de l'effet à mesurer que le fait qu'il faut une situation très favorable et a priori peu probable pour voir un transit, à savoir être exactement aligné avec l'orbite planétaire (voir exercice page suivante). De ce fait, la solution est de réaliser un très grand nombre d'observations d'étoiles, pour être sûr d'avoir au moins une chance d'être dans une configuration favorable.
Le premier transit planétaire a été observé en 1999, et depuis lors, plus de 2000 planètes ont été observées par cette méthode. Le rythme de détection s'est très fortement accéléré ces dernières années, avec l'arrivée du télescope spatial français COROT et du télescope KEPLER de la NASA, tous deux dédiés à ce type d'observations.
Difficulté : ☆☆
Vous êtes sur la lointaine planète RX92 et vous cherchez des exoplanètes autour du Soleil par la méthode des transits. On suppose que les planètes sont des points sur le disque du Soleil, c’est-à-dire qu’on ne prend pas en compte leur taille. Nous allons calculer quelle est la probabilité que, vue de RX92, une planète soit détectable par transit, c’est-à-dire qu’elle passe devant le Soleil (figure du haut).
Pour cela, regardons le système vu de côté au moment où la planète est « au milieu du Soleil » (dessin du milieu). La condition pour que le transit soit visible est que, à ce moment-là, le disque de la planète se projette sur le disque du Soleil.
Dans le cas limite, c’est-à-dire quand la planète passe juste « au bord » du Soleil, on a le triangle rectangle de la figure du bas où l’hypoténuse mesure (rayon de l’orbite de la planète), et où le côté opposé mesure (rayon du Soleil). On a alors : où est l’angle entre la ligne de visée et le plan de l’orbite de la planète autour du Soleil.
Comme est très petit, , où l'angle est exprimé en radians.
Si, pour une planète donnée du Soleil, l'angle entre le plan de son orbite et la ligne de visée, appelons-le , est plus petit que , les transits sont détectables de RX92.
L'angle peut prendre toutes les valeurs entre 0 et radians, mais seules les valeurs entre 0 et donnent un transit détectable. La probabilité de transits détectables est donc égale au rapport /
Quelle est la probabilité d'observer les transits de la Terre devant le Soleil ?
Même question pour Jupiter.
C'est une application de la théorie d'Einstein de la gravitation. Celle-ci prédit que lorsqu'un corps de masse M (déflecteur) est à une distance b projetée sur le ciel ("paramètre d'impact") de la ligne de visée d'une source lointaine, l'éclat apparent de cette dernière est amplifié par un facteur . Lorsque la source et le déflecteur se déplacent l'un par rapport à l'autre sur le plan du ciel, le paramètre d'impact b varie au cours du temps. Il en est donc de même du facteur d'amplification qui devient une fonction du temps A(t).
La probabilité d'observer un tel évènement est très faible. De ce fait, cette méthode de l'extrême nécessite d'observer un large champ stellaire pendant très longtemps pour avoir une chance d'assister à un phénomène de lentille.
Cette méthode de l'extrême a porté ses fruits : plus de 80 planètes ont été ainsi détectées à ce jour.
Un peu de philosophie :
La notion de vie est fondamentalement subjective : nous déclarons vivant un "objet" (comme on dit "objet d'attention" ou "objet d'amour") avec lequel nous pouvons avoir des relations riches et intéressantes. Parmi ces relations, il y a le fait de pouvoir projeter sur lui des comportements qui nous sont propres comme l'autonomie. Il n'y a donc strictement parlant pas d'organisme vivant mais seulement des relations vivantes à des organismes.
Cela dit, c'est une constatation empirique que tout objet avec lequel nous entretenons une relation vivante a une architecture physico-chimique complexe (molécules, cellules, organes, ...). Aucune théorie philosophique, psychologique ou biochimique n'a jamais expliqué cette corrélation, on ne peut que la constater. Elle permet de faire le chemin inverse et d'attribuer, à titre d'hypothèse méthodologique, le caractère de biologiquement vivant à un objet dont l'architecture physico-chimique est complexe et présente des caractéristiques analogues à celles des organismes terriens. C'est la démarche suivie par les astronomes qui cherchent "la vie" en dehors de la Terre (exobiologie). Dans cette démarche, il s'agit alors de savoir quelles sont les caractéristiques que l'on va retenir. Ce choix est partiellement arbitraire.
Une fois admise la démarche biochimique décrite précédemment, elle permet de préciser dans quel type de planète on peut s'attendre à rencontrer une vie biologique. Pour que cette dernière puisse prospérer, un certain nombre de conditions sont requises. Ces conditions sont généralement admises par les astronomes, mais ils restent ouverts à des écarts et des variantes.
La condition principale est qu'il faut un milieu liquide car il favorise énormément le transport des matériaux nécessaires à une activité biochimique.
L'eau est un liquide à priori prometteur car c'est l'un des plus abondants de l'univers (les autres étant par exemple l'alcool ou le méthane et l'ammoniaque qui peuvent également être liquides, quoique à des températures beaucoup plus basses). De plus elle a l'avantage d'être un des meilleurs solvants ce qui favorise les réactions et échanges biochimiques. On est ainsi conduit à favoriser les circonstances permettant la présence d'eau liquide.
Une autre condition universelle est qu'il faut, dans le cadre des concepts thermodynamiques traditionnels, une source d'énergie "noble" (c'est-à-dire sous forme non thermique) à entropie très basse. Elle doit par ailleurs être permanente car son interruption conduirait à la destruction des organismes. La meilleure source d'énergie permanente, abondante et de basse entropie connue à ce jour est le rayonnement des étoiles.
Le meilleur endroit identifié à ce jour où on trouve à la fois de l'eau liquide et une source permanente et intense de lumière est une planète située à une distance de son étoile telle que sa température est d'environ 300 K. De plus elle doit être suffisamment massive pour empêcher l'eau de s'échapper de la planète, mais pas trop sinon l'eau est confinée dans des couches profondes et sans lumière d'une atmosphère d'hydrogène (ce dernier point est toutefois sujet à discussion). On est ainsi conduit à chercher en priorité une vie biologique sur une planète de 1 à quelques masses terrestres située à une distance de 0,2 UA (pour les étoiles de type M) à 1,5 UA (pour les étoiles de type F) de son étoile (bien que des satellites de planètes géantes riches en eau et chauffés par effet de marée comme Europe, satellite de Jupiter, soient envisageables). Cette distance critique, dépendant du type d'étoile, définit ce qu'on appelle la zone d'habitabilité de l'étoile.
Alors que dans le système solaire on peut envoyer des missions qui feront de l'analyse in situ voire du retour d'échantillons pour analyser la structure biochimique d'échantillons, dans le cas des exoplanètes on en est réduit à faire de la télédétection. Celle-ci peut a priori prendre plusieurs formes :
Il y a deux approches pour détecter une activité biologique dans le spectre d'une planète : l'analyse spectrale de sa surface et celle de son atmosphère.
Une approche directe consiste à chercher et à détecter directement des organismes sur la surface de la planète grâce à leurs propriétés spectrales. Un exemple est de chercher un analogue des caractéristiques spectrales d'une végétation qui révèlent un pouvoir réflecteur très renforcé au-dessus de 725 nm (ce qui fait que les plantes réfléchissent 60 fois plus de lumière dans l'infrarouge que dans le vert).
Au lieu de détecter directement le spectre de la lumière réfléchie par des organismes comme des plantes, on peut chercher à détecter des sous-produits non biologiques d'une activité biochimique. C'est le cas par exemple des gaz rejetés dans l'atmosphère comme l'oxygène (sous-produit de la photosynthèse) ou du méthane (sous-produit de la décomposition des organismes). D'ailleurs l'oxygène lui-même a comme sous-produit l'ozone que l'on peut également chercher à détecter.
Il y avait en juillet 2012 plus d'une centaine de programmes de recherche d'exoplanètes en cours ou en projet. Parmi les 90 projets qui utilisent des instruments au sol, plus de 20 ont déjà donné lieu à des détections. Parmi la vingtaine de projets spatiaux opérationnels ou en projet, 4 ont déjà donné des résultats, Corot et Kepler par la méthode des transits, le Hubble Space Telescope en astrométrie et le satellite infrarouge Spitzer qui détecte l'émission thermique de la planète en spectroscopie.
Les projets du sol privilégient aujourd'hui la technique des transits alors que la majorité des exoplanètes découvertes l'ont été par la méthode des Vitesses Radiales (VR). L'observation d'un transit aboutit à la détection de planète mais peut aussi donner des informations sur sa taille et la composition de son atmosphère. Au-delà des techniques de VR et de transit, d'autres projets recherchent l'émission directe des planètes, soit en imagerie visible, millimétrique ou sub-millimétrique, soit en détection radio, soit avec de la photométrie, de la spectroscopie ou de la spectro-polarimétrie.
Quelques projets du sol recherchent des signatures d'exoplanètes par astrométrie ou micro-lentilles gravitationelles. Les projets de l'espace privilégient l'astrométrie et les techniques des transits mais exploitent aussi les fenêtres infrarouges, inaccessibles du sol, pour faire de la photométrie, de l'imagerie et de la spectroscopie.
A ce jour (juillet 2012) on a détecté plus de 770 planètes dont 475 par la méthode des vitesses radiales. Comme on l'a vu, celle-ci ne fournit que la période orbitale (d'où l'on peut déduire le demi-grand axe de l'orbite), l'excentricité de l'orbite et le produit .
239 planètes ont été détectées par la méthode des transits dans 205 systèmes planétaires (en 2012). Cette méthode donne la période orbitale, l'inclinaison de l'orbite (forcément voisine de 90°), le rayon de la planète et, lorsqu'on lui associe des mesures de vitesse radiale, sa masse. La connaissance de la masse et du rayon donne accès à la valeur de la densité qui permet de dire si la planète est plutôt rocheuse (densité de l'ordre de 5 grammes par centimètre cube), glacée (densité de l'ordre de 1 gramme par centimètre cube) ou gazeuse (densité inférieure à 1 gramme par centimètre cube).
En outre, on peut observer le spectre de l'étoile pendant le transit de la planète. L'atmosphère de la planète produit alors des raies d'absorption dans le spectre de l'étoile d'où l'on peut déduire la composition chimique de l'atmosphère.
Mais le tournant le plus important depuis les premières détections indirectes est la détection de la lumière provenant directement d'une planète. C'est ce qui a pu être fait pour la planète très jeune (donc encore très chaude) 2M1207-3932 et pour HD 209458b et TrES-1. Ces deux dernières transitent périodiquement devant leur étoile ; il se produit donc un phénomène d'éclipse secondaire lorsque c'est l'étoile qui passe, une demi-période plus tard, devant la planète. C'est cette éclipse secondaire qui a été détectée, d'où l'on déduit par soustraction la quantité de flux (en l'occurrence thermique) émis par la planète.
Les propriétés des exoplanètes sont rassemblées dans ce catalogue régulièrement mis à jour.
De ces découvertes, on peut tirer quelques leçons intéressantes.
Un des principaux résultats de cette recherche est qu'une proportion importante d'étoiles possèdent au moins une planète, même s'il est difficile de quantifier cette proportion qui dépend de la région de la Galaxie et du type d'étoile. Entre 3 et 4.5% des étoiles de type solaire ont des planètes géantes de période inférieure à 100 jours (c'est-à-dire plus près de l'étoile que Mercure). Des planètes plus petites et plus loin de l'étoile sont beaucoup plus fréquentes et pourraient concerner 40% des étoiles dans le voisinage solaire (voir la figure). La méthode des micro-lentilles gravitationnelles, qui sonde des étoiles beaucoup plus loin dans la Galaxie, semble montrer qu'une étoile possède, en moyenne, 1.6 planètes entre 0.5 et 10 unités astronomiques. Il y aurait donc plus de planètes que d'étoiles dans la Galaxie.
Les paramètres orbitaux des exoplanètes révèlent des systèmes beaucoup plus chahutés que le système solaire, où les orbites des planètes sont bien circulaires, dans le même plan, avec une séparation claire entre les planètes terrestres situées près de l'étoile et les planètes géantes, plus éloignées du Soleil.
Une grande proportion des planètes, notamment des planètes géantes, découvertes à ce jour sont beaucoup plus près (jusqu'à 100 fois) de leur étoile que ne l'est Jupiter du Soleil. Cela a constitué une grande surprise car la théorie prévoit qu'une planète géante doit se former à au moins 5 UA de son étoile. Cette disparité s'explique maintenant par le phénomène de "migration" : une fois qu'une planète commence à se former relativement loin de son étoile dans le disque protoplanétaire, un phénomène d'interaction gravitationnelle entre le disque et la planète en formation se produit. Elle a pour effet de freiner la planète qui du coup se rapproche de son étoile, migre, jusqu'à ce que l'interaction s'arrête. Ces planètes étant très proches de leur étoile, celle-ci les porte à une température élevée (jusqu'à 1200 K).
Une autre surprise a été de constater que la majorité des orbites planétaires sont assez ou très excentriques : elles forment des ellipses plus ou moins allongées au lieu d'être quasi circulaires comme dans le système solaire. On n'est pas sûr à ce jour de connaître l'explication de ce phénomène. Une explication pourrait être que, quand deux planètes migrent, elles le font à des vitesses différentes, et doivent alors forcément se perturber ou se rencontrer. Cette interaction se traduit par une augmentation des excentricités, voire par l'éjection d'une des deux planètes.
Difficulté : ☆
Le rayon du Soleil est de 700 000 km. Est-ce qu'une planète tournant autour d'une étoile de type solaire et dont le demi grand-axe, a, est de 0,01 UA peut avoir une excentricité, e de 0,55 ? Pourquoi ? On rappelle que
Dans plusieurs systèmes planétaires, les planètes orbitent dans un même plan, comme c'est le cas dans le système solaire. Dans certains autres systèmes, les orbites des planètes sont inclinées les unes par rapport aux autres.
Les orbites de la plupart des planètes sont dans un plan perpendiculaire à l'axe de rotation de l'étoile. C'est la conséquence directe du processus de formation. Quand l'étoile se forme, le disque circumstellaire qui l'accompagne est perpendiculaire à son axe de rotation. Si les planètes se forment dans ce disque sans autre perturbation, elles vont garder une orbite perpendiculaire à l'axe de l'étoile.
La découverte de plusieurs planètes avec des orbites inclinées par rapport à l'axe de rotation de l'étoile, voire même sont rétrogrades, montre que les processus de formation ont parfois été plus agités.
Les configurations orbitales des exoplanètes sont donc très variées et nécessitent de diversifier les modèles de formation et d'évolution des systèmes planétaires.
Actuellement, à peu près la moitié des exoplanètes découvertes sont plus massives que 10 fois la masse de la Terre. Cependant, les planètes les plus massives sont évidemment les plus faciles à détecter. Avec l'augmentation de la sensibilité des instruments, il semble que les petites planètes sont beaucoup plus nombreuses que les grosses.
Plusieurs planètes rocheuses ont été découvertes. Ainsi COROT-7b a une densité largement supérieure à celle de la Terre et pourrait donc avoir un noyau métallique comme Mercure. A l'inverse, on a trouvé, pour plusieurs planètes, des rayons élevés qui se traduisent par des densités étonnamment basses que l'on ne sait pas encore expliquer.
La méthode des transits permet de séparer la lumière de l'étoile+planète de la lumière de l'étoile seule, obtenue quand la planète est derrière l'étoile. En faisant la différence entre ces deux flux, on obtient la lumière de la planète qui peut être étudiée en spectroscopie. C'est ainsi qu'on a trouvé de l'hydrogène, de l'oxygène, du sodium, de la vapeur d'eau et du dioxyde de carbone dans diverses planètes.
Une observation intéressante est que les étoiles pour lesquelles on a trouvé une ou des planètes géantes, sont plus riches en éléments lourds (carbone, oxygène, fer, ...) que la moyenne des étoiles. Par contre les planètes plus petites ne semblent pas montrer de préférence pour les étoiles métalliques. On hésite encore sur l'explication à donner à cette corrélation. Elle peut être due soit au fait que l'étoile et son cortège planétaire sont issus d'un nuage moléculaire riche en éléments lourds, soit au fait que l'étoile a été enrichie en éléments lourds par la chute de planètes.
Dans ce cours, nous ferons de la planétologie comparée.
Nous explorerons les propriétés physiques et chimiques des corps du Système Solaire et montrerons qu'elles ne sont pas le fruit du hasard mais au contraire découlent de lois physiques relativement simples.
Nous décrirons la structure et l'échelle des distances dans le Système Solaire ainsi que la carte d'identité de chaque planète. Grâce à la moisson d'images ramenée par les sondes d'exploration planétaire, nous étudierons des vues saisissantes, précises et instructives des planètes, astéroïdes et comètes.
Qu'est ce que la planétologie comparée ?
Cela consiste à comparer les propriétés des planètes telluriques (c'est-à-dire Mercure, Vénus, la Terre, Mars) et mettre en évidence leurs similitudes et leurs différences. Nous appliquerons également cette analyse aux astéroïdes et comètes qui sont les briques élémentaires (planétésimaux) ayant servi à fabriquer ces planètes.
Pourquoi faire cette comparaison ?
Pour comprendre par exemple pourquoi Vénus (de même taille et de même masse que la Terre) est le siège d'un effet de serre emballé, avec une température au sol de 460°C, pourquoi sur Mars (qui est deux fois plus petite que la Terre) on observe des structures géologiques gigantesques, ou encore pourquoi la Lune est un astre mort alors que la Terre, sa très proche voisine déborde de vie. Autant de questions pour tenter de retracer l'histoire et l'évolution des autres planètes, afin de comprendre in fine les origines de la formation de notre propre Terre, son évolution et aussi son probable devenir.
Pour commencer, nous allons explorer le Système Solaire interne et analyser les propriétés physiques et chimiques des planètes telluriques.
Commençons avant toute chose par définir le Système Solaire.
Le Système Solaire est l'ensemble de l'espace gouverné par l'attraction gravitationnelle du Soleil. Il comprend notamment :
L'unité astronomique (UA) est, par convention le demi-grand axe de l'orbite de la Terre. Sa valeur est de 149,598 millions de kilomètres. Cette unité est surtout utilisée pour mesurer les distances dans le Système Solaire.
Les orbites des planètes sont à peu près dans un même plan (le plan de l'écliptique). C'est le résultat du processus de formation du Système Solaire qui est né à partir d'un nuage de gaz et de poussière qui s'est aplati au fur et à mesure de sa contraction.
Les orbites sont des ellipses, dont le Soleil occupe l'un des foyers.
Exception à la règle : Pluton n'est pas dans le plan de l'écliptique. En fait, Pluton est un objet à part : il fait partie des objets transneptuniens et a, depuis 2006, le statut de "planète naine".
Nous définirons dans ce paragraphe les principaux paramètres qui caractérisent l'orbite d'une planète.
Ce tableau est une feuille de calcul (type excel) et permet de tracer des graphes. Amusez-vous à en faire afin de mieux comprendre les propriétés des planètes. Par exemple :
Les rayons moyens des orbites des planètes s'échelonnent entre 58 millions de kilomètres pour Mercure (la plus proche du Soleil) à près de 4500 millions de kilomètres pour Neptune (la plus lointaine).
La période de révolution s'allonge logiquement lorsqu'on s'éloigne du Soleil. En effet, l'attraction gravitationnelle du Soleil se manifeste par une force qui attire la planète vers lui. Cette force est d'autant plus grande que l'on est proche du Soleil. Dans le même temps, la planète doit parcourir son orbite assez vite pour contrebalancer cette force et rester sur son orbite. Ainsi, plus la planète est proche du Soleil, plus elle doit tourner vite, c'est-à-dire plus sa période doit être courte (0,24 année pour Mercure et 164 ans pour Neptune ! )
Les excentricités des orbites sont globalement proches de zéro, ce qui traduit des orbites quasi-circulaires. Notez cependant la forte excentricité de Mercure (0,206), ainsi que la valeur relativement élevée de celle de Mars (près de 0,1).
A y regarder de plus près, il existe une relation précise reliant le demi-grand axe (a) et la période orbitale (P), c'est la fameuse troisième loi de Kepler (1618) :
Cette relation est une conséquence de la loi de la gravitation universelle, mais elle a été établie par Kepler de façon empirique bien avant que Newton ne démontre ses fameuses lois.
Cette loi énonce que la constante est toujours la même pour un système donné (Soleil + planète, ou encore Jupiter + ses satellites). En conséquence, cette relation s'avère extrêmement utile et d'une grande simplicité d'application car elle permet, connaissant a de déterminer P (ou inversement).
La lecture des propriétés physiques des planètes (rayon, masse et densité) permet de distinguer deux classes de planètes :
Encore une fois, Pluton se distingue en ne ressemblant ni aux planètes telluriques, ni aux planètes géantes : pas assez dense, mais trop petite pour être une planète géante. Pluton fait vraiment partie d'une classe à part.
En se rappelant que l'eau a une densité de 1, on voit que Saturne, avec une masse de 95 masses terrestres pour une densité de 0,69 devrait flotter sur l'eau si l'on trouvait un océan assez grand pour la contenir !
Dans la table des paramètres orbitaux, T est la période de rotation. Là aussi, une distinction s'établit entre les planètes telluriques et les planètes géantes. Ces dernières ont des périodes de rotation autour de 10-15 heures alors que les planètes telluriques montrent une belle cacophonie de rotations. Notez ainsi la rotation extrêmement lente de Vénus, et de surcroît dans le sens inverse (-243 jours), ce qui est unique dans le Système Solaire.
Dans cette partie, nous allons vous guider à travers les propriétés étonnantes et variées des quatre planètes telluriques : Mercure, Vénus, la Terre et Mars, qui constituent ce que l'on appelle le "Système Solaire interne". Une "promenade" vous est proposée pour chaque planète. Puis, la fiche "Résumé" de chaque planète vous indique quelles sont les propriétés importantes à retenir.
Située à une distance moyenne de 58 millions de km du Soleil et avec une taille de 4900 km, Mercure est à la fois la plus proche et la plus petite des planètes internes. Son orbite très elliptique, c'est-à-dire très allongée (l'excentricité est de 0,2) mène la planète au plus près à 46 millions de km et au plus loin à 70 millions de km du Soleil. C'est un objet brillant du ciel et connu depuis l'antiquité.
Comme la Lune, Mercure n'a pas d'atmosphère. Si vous vous teniez à la surface de Mercure, vous seriez plongés dans l'obscurité de l'espace, car l'atmosphère ne diffuse pas la lumière du Soleil. En effet, c'est la diffusion de la lumière solaire par les particules de l'atmosphère (phénomène de diffusion Rayleigh) qui est responsable du bleu du ciel sur Terre. A cause de l'absence d'atmosphère qui retient la chaleur, les variations de température diurne/nocturne sont très fortes de 430°C (le jour) à -170°C (la nuit).
Toujours située au voisinage du Soleil (à une distance angulaire de moins de 27°), Mercure se présente comme un très mince croissant, difficilement observable. Mercure a une rotation lente (58 jours alors que sa période orbitale est de 88 jours), ce qui rend encore plus difficile toute observation à partir du sol. En effet, les grands télescopes au sol, avec leurs détecteurs ultra-sensibles, ne se risqueraient pas à pointer un objet si proche de notre étoile. Il aura donc fallu attendre les années 1974-1975 et le survol de la planète par la sonde NASA - Mariner 10, envoyée vers Mercure par la NASA, pour avoir les premières images de la surface.
Ces images révèlent une surface caractérisée par une intense cratérisation. Tout comme la Lune, Mercure présente une surface criblée de cratères de toutes tailles.
Caloris Basin est la plus importante structure du relief hermien (de Mercure). C'est un bassin de près de 1350 km de diamètre, créé sans doute par un impact géant au tout début de la formation de Mercure. Ce bassin a ensuite été rempli de lave.
A ce jour, deux sondes NASA ont visité la planète Mercure : Mariner 10, la pionnière, dans les années 1974-1975 et Messenger, qui a effectué son premier survol de la planète en 2008. Une des plus grandes surprises de Mariner a été de découvrir que Mercure possédait un champ magnétique similaire à celui de la Terre, bien que beaucoup plus faible. En 1991, des astronomes ont pu, grâce à des observations radar, mettre en évidence des points brillants aux pôles. Est-ce de la glace d'eau ? Comment peut-elle subsister aux températures extrêmes de Mercure ? La glace pourrait subsister au fond des cratères perpétuellement à l'ombre, donc jamais exposés aux rayons du Soleil.
Beaucoup de mystères entourent encore la planète Mercure. C'est pourquoi elle est l'enjeu de deux grosses missions spatiales. La sonde Messenger de la NASA, après son premier survol et les nouvelles images extraordinaires qu'elle a délivrées de la surface, est parvenue à destination en 2011. Sa mission s'est terminée en 2015. Par ailleurs, Bepi Colombo, mise en oeuvre par la mission l'agence spatiale européenne (ESA) et son homologue japonais (JAXA), comportera deux orbiteurs (chargés de l'étude à la fois de la planète et de la magnétosphère générée par son faible champ magnétique). Cette mission sera lancée en 2018.
Qui ne connaît pas Vénus ? Vénus est le troisième objet le plus brillant du ciel (après le Soleil et la Lune). Sa magnitude visuelle (échelle d'intensité logarithmique utilisée par les astronomes) est de -4,6 à son maximum. La planète est située à une distance angulaire maximum de 48° du Soleil.
C'est l'étoile du berger qui a fait rêver de tout temps l'homme au lever comme au coucher du Soleil. On l'a longtemps appelée la sœur jumelle de la Terre à cause de sa taille et sa masse très comparables à celles de la Terre.
Mais en fait, Vénus, c'est plutôt l'anti-Terre. Jugez-en vous-même : toujours par le pouvoir de l'imagination, transportons-nous sur la planète. La température au sol est prodigieusement élevée (730 K, soit 450°C). On est écrasé par une pression au sol de 90 fois la pression sur Terre. L'atmosphère irrespirable (96% de CO2) est tellement dense qu'elle absorbe la lumière du Soleil de telle sorte que la pénombre est perpétuelle. Évoluer dans l'atmosphère vénusienne, c'est quelque chose à mi-chemin entre voler et nager, car la densité de l'air n'est que de 1/10 fois celle de l'eau.
Pour terminer ce tableau apocalyptique, il y a des pluies sur Vénus, mais des pluies d'acide sulfurique (H2SO4). Mais ce n'est qu'un moindre mal car les pluies se vaporisent avant même d'arriver au sol ! Les vents au sol sont très faibles, sans doute à cause de la rotation extrêmement lente de la planète.
Vénus a la rotation sur elle-même la plus lente du Système Solaire (en sens inverse des autres planètes, ce qui est rare). Ce qui fait que sa période sidérale (225 jours) est plus courte que sa rotation propre (243 jours). La surface, protégée par une atmosphère opaque, a longtemps été inaccessible. Après les pionnières, la soviétique Venera 4 (en 1967) et l'américaine Mariner 5 en 1967, ce sont plus d'une vingtaine de sondes qui visiteront Vénus jusqu'à la dernière en date, Venus Express, entrée en orbite le 11 avril 2006.
L'atmosphère épaisse de Vénus rend invisible à l'oeil sa surface, mais elle est transparente aux ondes radio. Ainsi, la sonde Magellan, grâce à son radar, a permis de révéler la surface de Vénus et d'en établir une cartographie complète entre 1991 et 1994.
La Terre et Vénus sont comparables en densité et en composition chimique, et ont également des surfaces relativement jeunes. Cependant, Vénus n'a pas d'océan. La surface a été modelée par le volcanisme, les impacts et les déformations de la croûte. On n'a pas constaté sur Vénus de volcans en activité. Par contre, de grandes variations de dioxyde de soufre (SO2) dans l'atmosphère laissent à penser que les volcans sont sans doute encore actifs.
Plus de 1000 volcans de plus de 20 km de large constellent la surface de Vénus. Il y a sans doute près d'un million de volcans de plus d'un kilomètre de large. Le plus gros de la surface de Vénus est couvert de vastes coulées de lave. Ainsi, au nord une région appelé Ishtar Terra est un bassin rempli de lave, grand comme l'Europe.
L'intérieur de Vénus est probablement très similaire à celui de la Terre, avec un noyau d'environ 3000 km de rayon et un manteau rocheux en fusion recouvrant la majorité de la planète.
Vénus n'a pas de satellites, ni de champ magnétique intrinsèque. L'atmosphère très dense freine le processus de cratérisation de la surface : il n'existe pas de cratères plus petits que 1-2 km sur Vénus. La raison est que les météores brûlent dans l'atmosphère avant d'arriver au sol.
Chaque cratère est entouré d'une couche brillante et rugueuse d'éjectas qui sont les débris excavés et éjectés par l'impact. Au centre des cratères, on reconnaît le pic central caractéristique des cratères d'impacts. Ce pic matérialise le rebond élastique de la croûte suite à la collision.
La surface de Vénus est tellement chaude que très peu de chaleur supplémentaire, comme celle apportée par les impacts, suffit pour fondre les roches. Certains cratères de Vénus montrent ainsi que les éjectas retombent partiellement en fusion, comme ici, où l'on voit les éjectas, qui n'ont pas eu le temps de solidifier, s'écouler sur le sol en pente.
Les images de la Terre vue de l'espace, comme cette impressionnante photo prise par les astronautes de Apollo 17, révèlent la beauté et la fragilité de notre planète. L'atmosphère qui nous semble si épaisse de notre perspective apparaît de l'espace comme un film très fin. Les frontières disparaissent, et il apparaît clairement que notre planète existe comme une seule entité.
Ce qui frapperait l'œil d'un extraterrestre, c'est la présence de ces immenses masses océaniques, car en effet, la Terre est la seule planète qui possède de l'eau liquide à sa surface (71% de la surface). L'eau existe à l'état liquide seulement dans une gamme de température de 0 à 100°C. Cette gamme de températures est remarquablement étroite quand on la compare à la gamme complète de températures que l'on trouve dans le Système Solaire. La présence de l'eau à l'état vapeur dans l'atmosphère est responsable en grande partie de la météorologie terrestre.
L'apparition de la vie primitive dans les océans a été rendue possible grâce à la présence d'eau liquide. Une vie extraterrestre pourrait donc exister sur d'autres planètes en concomittance avec la présence de l'eau liquide
Le Lune est en rotation synchrone avec la Terre, c'est-à-dire que la Lune fait exactement un tour sur elle-même pendant le temps qu'elle met à faire le tour de la Terre. De ce fait, la Lune nous montre toujours la même face (en réalité on en voit 59%, soit plus de la moitié de sa surface est visible grâce aux petits mouvements de la Lune sur son axe de rotation)
Un lever de Terre ne peut être observé qu'en orbitant autour de la Lune ou en marchant à sa surface. On ne peut pas simplement rester sur place et attendre que la rotation fasse le travail. Pourquoi ? À cause de la rotation synchrone, la Lune expose toujours la même face à la Terre. Ainsi, un observateur sur la surface visible de la Lune, verrait la Terre telle une lanterne, éternellement suspendue à la même place dans le ciel. Chaque mois, la Terre passerait par un cycle complet de phases.
Pour en savoir plus, dirigez vous vers les éclipses de Lune .
Depuis les années soixante, les satellites artificiels nous transmettent des images de la Terre qui permettent d'étudier, les mouvement de la banquise, les températures, les phénomènes météo, etc., comme par exemple, ici l'ouragan Mitch. Même, si des phénomènes climatiques peuvent avoir des effets destructeurs, les effets de l'atmosphère sont globalement, et de très loin, protecteurs (contre les radiations, les petites météorites, rétention de la chaleur par effet de serre…)
Sur Terre, on recense relativement peu de cratères d'impact (environ 200). Le meilleur exemple conservé est celui du Meteor Crater, situé en Arizona aux Etats-Unis d'Amérique (1,2 km de diamètre). En comparaison, la Lune est complètement criblée de cratères. Pourquoi ? La réponse est : l'érosion. C'est ce phénomène seulement présent sur Terre (eau, vent, volcanisme) qui est responsable de la disparition systématique des traces de cratères d'impact.
Notre planète bouge !
La surface terrestre est constituée de plaques qui bougent les unes par rapport aux autres, s'entrechoquant pour former des montagnes, ou au contraire, se séparant pour former des mers ou des océans. Ces mouvements sont connus sous le nom de tectonique des plaques et donnent lieu aux tremblements de terre.
Le volcanisme est une autre manisfestation de l'activité interne de la Terre. Les volcans matérialisent la remontée de magma en des points précis.
Comme Vénus, l'atmosphère de Mars est composée de CO2, mais est beaucoup moins dense que celle de Vénus. On a une pression si faible (100 fois plus faible que sur Terre) que votre corps enflerait si vous vous teniez à la surface de Mars, sans une combinaison spatiale. En fait température et pression sont incompatibles avec de l'eau liquide. Le fait de voir des lits asséchés sur Mars nous enseigne que l'atmosphère a donc dû être différente dans le passé.
Ce film de la rotation complète de Mars a été réalisé avec des images de Hubble. Le jour martien (23h37mn) est sensiblement égal à celui de la Terre. Mars est autant incliné que la Terre, ce qui permet des saisons comme sur Terre, mais qui sont plus marquées à cause de l'excentricité de Mars. La couleur caractéristique de la « planète rouge » est due à l'oxydation des minéraux de fer (la rouille). Mars a deux calottes polaires bien visibles depuis la Terre à partir d'un télescope. Chaque calotte polaire a une composante permanente constituée de glace d'eau au pôle nord et d'une mixture de glace de CO2 et H2O au pôle sud. Cette composante permanente grossit au fur et à mesure de l'arrivée de l'hiver martien (la température chute à –140°C).
On a aussi une composante saisonnière constitué de glace de CO2 qui apparaît avec la venue de l'hiver et qui provient du gel de l'atmosphère.
Les conditions actuelles sur Mars ne permettent pas la présence d'eau liquide à la surface et donc de la vie. En effet la surface de Mars est complètement stérilisée (rayons UV, ...). Cependant le fait de voir des lits asséchés sur Mars nous enseigne que l'eau a coulé dans le passé, et donc que la vie a pu exister.
La surface de Mars comporte relativement peu de cratères.
Olympus Mons est un gigantesque volcan qui fait 25 km de haut et 700 km de diamètre. C'est le plus grand volcan du Système Solaire. Olympus Mons et les volcans de la région de Tharsis sont des volcans similaires aux volcans hawaiiens. Sur Terre, le plus grand d'entre eux fait 9 km de haut à partir du plancher océanique et 120 km de diamètre. Remarquez les cratères d'impact au sommet du volcan.
Les hivers, et globalement la température moyenne sur Mars, sont plus froids que sur Terre et la température peut chuter jusqu'à -140°C. En effet, Mars étant située 1,5 fois plus loin du Soleil, elle reçoit 57% d'énergie en moins. De plus, l'atmosphère peu dense empêche un effet de serre conséquent (augmentation de seulement 3°C contre 33°C pour la Terre). Toutefois, la température peut atteindre environ 20°C en plein été aux basses latitudes.
Voici quelques figures montrant l'atlas de Mars, avec ses vallées (Valle Marineris) ou probalement l'eau a coulé dans le passé, ses plaines et ses montagnes (Tharsis Montes).
Les cinq mondes de type terrestre -Mercure, Vénus, la Terre, la Lune, Mars- ont été à priori formés dans le même moule à partir de la nébuleuse primitive. Pourtant nous avons vu dans le chapitre précédent que leurs surfaces présentent une grande diversité géologique. Par exemple, Mercure et la Lune sont des mondes complètement criblés de cratères. Vénus, elle, a un relief perturbé fait de plaines volcaniques et de volcans. Mars, malgré sa taille intermédiaire, abrite les plus grands volcans du Système Solaire et est la seule planète avec la Terre où le ruisselement de l'eau a principalement modelé la surface. Enfin, la Terre a un relief reprenant un peu toutes les caractéristiques vues sur les autres surfaces planétaires avec en plus, trait non anodin, une biosphère qui recouvre quasi complètement la surface de la planète.
Notre objectif dans ce chapitre est de comprendre pourquoi et comment ces différences géologiques ont pu apparaître. En effet, prenons l'exemple de la cratérisation. Nous constatons que les surfaces des planètes sont inégalement cratérisées. Ainsi, les surfaces de Mercure et de la Lune sont criblées de cratères de toutes tailles alors que pour la Terre et Vénus, ces mêmes cratères sont rares. Mars par contre est un cas intermédiaire entre ces deux extrêmes. Pourquoi existe-t-il de telles différences ?
Prenons comme exemple le système Terre-Lune. La Lune, notre plus proche voisine a une surface complètement criblée de cratères, alors que la surface de la Terre semble relativement indemne. Pourtant les deux astres sont soumis au même environnement météoritique, au même flux d'impacteurs. La Terre aurait-elle été épargnée par rapport à la Lune par un quelconque mécanisme protecteur ?
La réponse est NON
La Terre a bel et bien subi autant d'impacts que la Lune, et ce n'est pas l'atmosphère (absente sur la Lune) qui aurait pu arrêter les plus gros bolides cosmiques. Donc si la Terre n'a pas été exempte d'impacts, où sont alors les cicatrices ? Sur Terre on ne dénombre qu'environ 200 cratères d'impacts dont la plupart sont méconnaissables, alors que la surface de la Lune arbore des milliers de cratères. L'explication c'est l'EROSION. C'est ce phénomène qui a effacé les traces d'impacts sur Terre alors qu'il est absent sur la Lune. Les acteurs de l'érosion sur Terre sont par ordre d'importance :
Ainsi donc l'érosion est responsable des disparités de cratérisation des surfaces planétaires. Mais a-t-on résolu pour autant l'origine profonde de ces disparités ? En effet, pourquoi l'action du volcanisme (qui est le mécanisme d'érosion à prendre en considération sur des échelles de temps géologiques) est-il si différent d'une planète à l'autre ? C'est l'objet de la partie suivante.
Structure interne des planètes
La composition globale des planètes telluriques est rocheuse, c'est-à-dire constituée de silicates, de fer et de nickel. Ce qui donne une densité d'environ 5 (rappel : la densité de l'eau est 1).
Les planètes telluriques se sont formées par accrétion de planétésimaux. En conséquence, durant cette phase d'accrétion initiale, les planètes sont restées :
Ensuite, à cause de la gravitation, on assiste à la chute des matériaux les plus lourds (fer, nickel) vers le centre : c'est le phénomène de la différenciation qui conduit à la formation d'un noyau plus dense. Le manteau est constitué de silicates. Le refroidissement de la surface donne ensuite lieu à la formation de la croûte solide. Pour la Terre, La densité décroît du noyau (12) jusqu'à la croûte (3) en passant par le manteau (5).
L'activité géologique d'une planète dépend de sa structure interne (manteau liquide, épaisseur de la croûte, ...) et sa structure interne dépend de sa température interne. Nous allons voir ci-après comment l'énergie est emmagasinée dans l'intérieur de la planète, et comment elle s'échappe vers l'extérieur.
Trois principales sources d'énergie contribuent à chauffer l'intérieur d'une planète : l'accrétion, la différenciation et la radioactivité. Une quatrième source appelée effet de marée, n'est pas importante pour les planètes telluriques, mais joue un rôle majeur pour les satellites galiléens (les satellites de Jupiter), en particulier pour Io.
Les intérieurs de planètes se refroidissent lentement, au fur et à mesure que leur énergie interne s'évacue. A ce jour, 4,6 milliards d'années après la formation des planètes, l'énergie initiale due à l'accrétion et à la différenciation a été presque complètement évacuée. Aujourd'hui, la majeure partie du flux de chaleur provient de la radioactivité naturelle.
La chaleur emmagasinée dans la planète s'échappe continuellement de l'intérieur. Cette évacuation se fait de l'intérieur chaud vers la surface plus froide au travers de quatre processus principaux : la conduction, la convection, le volcanisme et la tectonique des plaques.
On peut se demander quelle est notre source d'énergie principale sur Terre : le rayonnement solaire ou l'énergie interne ? A la surface, l'énergie provenant de l'intérieur est 10 000 fois moins importante que celle provenant du Soleil.
L'abondance des cratères permet de dater l'âge des surfaces et la fin du volcanisme :
Pourquoi de telles différences ?
L'énergie interne disponible est proportionnelle au volume : (R est le rayon de la planète)
Le refroidissement est proportionnel à la surface :
Il en résulte que la durée de l'activité est proportionnelle au rayon de la planète.
La taille est donc le facteur ultime qui détermine la durée pendant laquelle la planète restera chaude. Les grosses planètes resteront chaudes longtemps, tout comme une grosse pomme de terre restera chaude plus longtemps que les petites.
Bien que toutes les planètes telluriques soient de composition très similaire et qu'elles se soient formées à peu près au même moment, nous avons appris que leurs histoires géologiques ont différé, principalement à cause de leur taille.
L'atmosphère des planètes telluriques est le fluide gazeux qui entoure leur surface. Ce gaz est maintenu par l'attraction gravitationnelle et est entraîné avec la planète. On caractérise ces atmosphères par plusieurs aspects tels que leur température, leur composition, la présence de nuages et leur météorologie.
L'étude de ces différents aspects est bien évidemment couplée et permet à la fois de mieux comprendre ces atmosphères et leur interaction avec la surface (et les océans dans le cas de la Terre), ainsi que le type de climat associé et son évolution dans le temps.
De plus, l'étude des atmosphères planétaires permet de contraindre la formation des planètes et leur histoire. Finalement, la comparaison de l'histoire des atmosphères (i.e. la planétologie comparée) permet de comprendre les paramètres physico-chimiques qui sont à l'origine de leur évolution distincte.
Le Soleil est la source d'énergie principale reçue par les planètes. La température d'équilibre à la surface des planètes dépend de leur distance au Soleil. Plus on est près du Soleil plus il fait chaud (Mercure) et plus on est loin plus il fait froid (Mars). Le mécanisme physique qui permet ce chauffage est l'absorption par la surface du rayonnement solaire émis dans le domaine Ultra-Violet (UV) et visible.
En fonction des propriétés de la surface (composition, relief, océans, calotte polaire, ...) et de la latitude, le sol absorbera plus ou moins efficacement ce rayonnement, tandis que l'énergie solaire non-absorbée sera réfléchie par la surface vers l'espace. Le coefficient de réflexion, caractérisant la part d'énergie réfléchie, est appelé albédo. Il dépend aussi de la composition chimique de l'atmosphère et de la couverture nuageuse.
La surface de la planète absorbe l'énergie solaire dans le domaine UV-visible, puis elle se refroidit en émettant un rayonnement Infrarouge (IR). Ce rayonnement IR se dirige vers l'espace en traversant l'atmosphère de la planète, avec laquelle elle peut interagir. Les gaz à effet de serre tels que l'eau (H2O), le dioxyde de carbone ou gaz carbonique (CO2), et le méthane (CH4) présents dans une atmosphère absorbent le rayonnement IR et le re-émettent dans toutes les directions, et notamment vers la surface, favorisant ainsi une accumulation de l'énergie thermique, et par conséquent une augmentation de la chaleur.
Ainsi, la température moyenne à la surface peut être supérieure à la température d'équilibre de la planète (cas de Vénus et de la Terre). L'effet de serre est notablement présent lorsque l'on a une atmosphère relativement transparente dans le domaine UV-visible et opaque dans l'infrarouge. On notera que la présence de nuages peut aussi augmenter l'effet de serre (par exemple les nuages d'acide sulfurique sur Vénus). L'effet de serre augmente la température à la surface de Vénus, la Terre et Mars, respectivement de 500, 35 et 5°C.
L'inertie thermique du sol, la période de rotation et l'atmosphère sont les paramètres principaux qui contrôlent le contraste de température entre le jour et la nuit d'une planète. Lorsqu'une planète a une période de rotation lente (comme Mercure et la Lune), la température du jour est beaucoup plus élevée que celle de la nuit, tandis qu'une rotation rapide permettrait une plus grande homogénéité de température entre le jour et la nuit. L'inertie thermique du sol joue un rôle équivalent à la période de rotation (comme pour Mars). En effet, plus elle est faible (c'est-à-dire que la température varie rapidement), plus il y a de contraste jour-nuit. Inversement plus l'inertie thermique est forte, moins il y a de contraste jour-nuit. En règle générale, pour les planètes sans atmosphère, la variation de température diurne est un compromis entre la période de rotation et l'inertie thermique : elle varie de 150, 300 et 600°C pour respectivement Mars, la Lune et Mercure. La basse atmosphère peut aussi intervenir dans le cas où les échanges thermiques sont importants, c'est le cas sur Vénus et la Terre (variation diurne d'environ 10°C). Dans ce cas, le pouvoir radiatif élevé et la convection vont permettre d'homogénéiser les basses couches de l'atmosphère.
Planète | Tjour (°C) | Tnuit (°C) |
---|---|---|
Mercure | 430 | -170 |
Vénus | 460 | 450 |
Terre | 15 | 5 |
Lune | 120 | -170 |
Mars | -23 | -93 |
La composition actuelle des atmosphères des planètes telluriques est très diverse. Mercure et la Lune n'ont presque pas d'atmosphère (pression < 10-15 bars). Vénus et Mars ont une composition atmosphérique proche, avec principalement du CO2 et quelques pourcents d'azote (N2). Cependant, la pression au sol de Vénus est environ 100 fois supérieure à celle de la Terre, et celle de Mars environ 100 fois inférieure. L'atmosphère de la Terre est, quand à elle, composée principalement d'un mélange d'azote (N2 ) et d'oxygène (O2) que l'on appelle l'air.
Sur Vénus, l'activité volcanique importante rejette une grande quantité de composés soufrés dans l'atmosphère, donnant naissance à des nuages d'acide sulfurique (H2SO4) qui nous empêchent de voir la surface. Une faible quantité de vapeur d'eau est encore présente dans l'atmosphère. Les vents près de la surface y sont quasiment nuls, mais augmentent considérablement avec l'altitude, avec des vitesses pouvant atteindre 300 km/h.
Sur la Terre, la vapeur d'eau est présente en quantité variable ( < 4%) en fonction des régions sèches ou humides qui dépendent fortement du climat. En s'élevant dans l'atmosphère, la vapeur d'eau se refroidit et se condense pour former des nuages (composés de goutelettes d'eau ou de cristaux de glace). La circulation des masses atmosphériques induit des vents de quelques km/h, mais pouvant atteindre des centaines de km/h lors de fortes tempêtes.
Sur Mars, on trouve aussi un peu d'oxygène, de monoxyde de carbone (CO) et des traces de vapeur d'eau dans l'atmosphère, mais les faibles pressions atmosphériques empêchent d'obtenir de l'eau liquide en surface. Néanmoins, de la glace d'eau et de dioxyde de carbone se forment en hiver sur les calottes polaires à cause des faibles températures. Pendant l'été martien, de fortes tempêtes peuvent soulever les poussières rendant la surface invisible. Des vents de quelques centaines de km/h sont fréquents en altitude.
Planète | Composition atmosphérique | Pression au sol (bars) | Vent, climat | Nuages |
---|---|---|---|---|
Mercure | Atomes de O, Na, He, K, H, Ca | 10-15 | Aucun, trop peu d'atmosphère | Aucun |
Vénus | 96.5% CO2, 3.5% N2, 0.015% SO2, <0.01% H2O, CO | 90 | Vent faible à la surface, pas de tempête violente. Fort vents en altitude | Nuages d'acide sulfurique : H2SO4 |
Terre | 78% N2, 21% O2, 0.9 % Ar, <4% H2O, 0.034% CO2 | 1 | Vents, cyclones | Nuage d'eau, pollution |
Lune | Atomes de He, Ar, Na, K | 10-15 | Aucun, trop peu d'atmosphère | Aucun |
Mars | 95.3% CO2, 2.7% N2, 1.6% Ar, 0.13% O2, 0.07% CO, <0.03% H2O | 0.006 | Vents, tempêtes de poussières | H2O et CO2, poussières |
Les saisons existent lorsqu'il y a une variation de l'ensoleillement durant l'année, qui est due à l'obliquité de l'axe de rotation de la planète sur le plan de l'écliptique (voir le tableau). C'est le cas pour la Terre et Mars pour lesquelles cet angle atteint environ 23°-25°. Par contre, sur Vénus, il n'y a pratiquement pas de saisons, puisque son obliquité n'est que de 3°. Pour en savoir plus sur les saisons sur la Terre consultez le cours sur les saisons.
Pendant la phase initiale de formation des planètes telluriques (il y a environ 4,56 milliards d'années), les planètes ont peut-être acquis une atmosphère primaire composée principalement d'hydrogène (H2) et d'hélium (He) à 99%, comme dans le Soleil ou Jupiter. Cependant cette hypothèse est très incertaine, et si c'était le cas, l'atmosphère primitive s'est probablement échappée très rapidement. Soit à cause de la faible gravité de ces planètes, soit soufflée par le vent solaire et par l'intense rayonnement UV du Soleil jeune, en même temps que la nébuleuse primitive, environ 10 millions d'années après la formation du Soleil.
Une atmosphère secondaire s'est formée ensuite par le dégazage des gaz piégés dans les roches - due à l'activité volcanique - ainsi que par des impacts de planétésimaux (astéroïdes, comètes) contenant des gaz volatils tels que H2O et CO2. Ces atmosphères secondaires étaient probablement semblables et composées principalement de H2O, CO2, N2, SO2 et à un degré moindre des gaz rares (Ar, Ne, He, Xe, Kr). La très faible abondance relative des gaz rares par rapport aux abondances solaires (10-4-10-12) est une preuve que ces atmosphères sont secondaires, puisque les gaz rares ne peuvent s'échapper que par des processus classiques. Les variations de composition initiale des roches formant ces planètes ainsi que leur faculté à absorber et dégazer les différents volatiles ont pu conduire à des atmosphères secondaires quelque peu différentes.
Pendant la formation des atmosphères secondaires (environ 10-100 millions d'années après la formation de la planète), leur composition et leur température ont été modifiées par de nombreux facteurs tels que : la chimie, l'activité biologique (Terre), l'échappement atmosphérique, l'échange entre atmosphère/surface/océan (e.g. cycle du carbone) et l'effet de serre. Chacun de ces facteurs est complexe et nous ne détaillerons dans cette partie que l'échappement atmosphérique d'origine thermique et le cycle du carbone.
C'est la gravité des planètes qui retient leur atmosphère. Si un corps ou une molécule acquiert une vitesse supérieure à une certaine vitesse appelée vitesse de libération il quitte définitivement la planète. Chaque planète a une vitesse de libération (Vlib) différente qui dépend de sa gravité (g) et de son rayon (R) : . Les vitesses de libération pour Vénus, la Terre et Mars sont respectivement de 10, 11 et 5 km/s (ou encore 36 000, 39 600 ou 18 000 km/h resp.).
A cause de l'agitation thermique, une molécule de masse molaire m, dans une atmosphère de température T, a une vitesse thermique (Vt) proportionnelle à . Si la vitesse thermique est supérieure à la vitesse de libération il y a échappement de l'atmosphère. En pratique, ce sont principalement les atomes légers présents dans la très haute atmosphère peu dense (exosphère, P~10-11 bar) qui peuvent atteindre des vitesses thermiques suffisantes pour s'échapper sans qu'il y ait de collisions avec d'autres atomes. Sur la Terre et Mars, l'hydrogène (H) présent dans l'exosphère s'échappe ainsi quotidiennement. Sur Vénus, il existe d'autres processus d'échappement non thermiques complexes qui peuvent être beaucoup plus efficaces, comme par exemple le criblage de l'atmosphère par des particules énergétiques. En effet, contrairement à la Terre, Vénus n'a pas de bouclier magnétique (plus connu sous le nom de magnétosphère) pour la protéger.
Ce qu'il faut retenir, c'est que la vitesse de libération d'une planète est le paramètre clé qui lui permet de conserver ou non son atmosphère. De plus, en règle générale, que le processus d'échappement soit d'origine thermique ou non-thermique, plus la molécule est légère et plus la température est élevée, plus elle s'échappe facilement de la planète. Par conséquent, les processus d'échappement jouent un rôle important dans la modification de la composition atmosphérique.
Planète | R (km) | g (m/s2) | Vlib (km/s) |
---|---|---|---|
Mercure | 2439 | 3,70 | 04,2 |
Vénus | 6051 | 8,83 | 10,4 |
Terre | 6378 | 9,80 | 11,2 |
Mars | 3189 | 3,72 | 05,0 |
Le gaz carbonique (CO2) présent dans l'atmosphère se dissout dans l'eau de pluie et se dépose sur le sol sous forme d'acide carbonique (H2CO3). Les minéraux contenant des silicates (tel que la wollastonite : CaSiO3) réagissent avec le CO2 dissous pour former des roches carbonatées (telle que la calcite : CaCO3) et du quartz (SiO2). Par ailleurs, le ruissellement des pluies peut aussi éroder les roches continentales carbonatées et transporter l'ion bicarbonate (HCO3-) dans les océans pour se combiner avec du calcium (Ca) et former à nouveau de la calcite. Aujourd'hui ce sont principalement certains organismes marins qui fabriquent ainsi leur squelette minéralisé et leur coquille, cependant des réactions chimiques abiotiques plus lentes le permettent aussi. Avec le temps, le calcaire se dépose dans les fonds marins et s'y accumule sous forme de sédiments. Le déplacement des plaques tectoniques enfouit ces roches carbonatées par le mécanisme de subduction. La pression et la température intense de ce mécanisme permettent de combiner le calcaire et le quartz en minéraux silicatés (tels que la wollastonique). Cette transformation produit à nouveau du gaz carbonique qui se mélange au magma et qui est réinjecté dans l'atmosphère par l'activité volcanique. Après ce cycle du carbone, on retrouve le gaz carbonique présent initialement dans l'atmosphère.
Sur Terre, le temps de résidence du CO2 atmosphérique n'est que de quelques années. Dans l'océan il est de quelques siècles (en surface) à quelques centaines de milliers d'années (fonds marins), et dans le sous-sol (lithosphère) de quelques 100 millions d'années, à cause de la tectonique qui est un phénomène géologique lent. S'il n'y avait pas de recyclage, le CO2 atmosphérique disparaîtrait en 400 000 ans. En revanche, il faudrait seulement 20 millions d'années pour injecter 1 bar de CO2 dans l'atmosphère par volcanisme. Le cycle du carbone est un mécanisme qui permet de moduler/réguler la composition atmosphérique en gaz carbonique et la température d'une atmosphère (Effet de serre).
Il y a 4,5 milliards d'années le Soleil jeune était moins lumineux de 30% environ. Depuis cette époque, l'albédo des planètes a probablement varié à cause d'une couverture nuageuse différente, de la présence de calotte polaire ou de l'activité volcanique éjectant une quantité importante de poussières dans l'atmosphère. Les variations de l'albédo, du flux solaire et de l'effet de serre ont certainement modifié les températures de surface. D'autres facteurs comme la variation temporelle de l'inclinaison et de l'excentricité de la planète (sur Terre de 40 000 à 100 000 ans – cycle de Milankovitch) modifie l'illumination des planètes par le Soleil, et ont conduit à des changements climatiques importants (âges glaciaires).
La proximité entre Vénus, la Terre et Mars nous font penser que leur composition initiale était semblable. Actuellement, Vénus et Mars ont une composition proche (CO2, N2), mais ont une énorme différence de pression et de température. La Terre, elle, a une composition différente (N2, O2).
Quelle a pu être l'évolution de la composition de leur atmosphère, ainsi que de leur surface (océans, calotte polaire) et de leur température, pouvant expliquer de telles différences ? Pourquoi l'eau est-elle abondante sur Terre, alors que Vénus est pratiquement sèche et Mars aride ? Les paragraphes suivants permettront de comprendre la succession des évènements qui semblent expliquer les différentes atmosphères actuelles.
Mercure n’a probablement pas eu une atmosphère primitive comme les autres planètes telluriques à cause de sa proximité avec le Soleil. De plus, sa faible masse et les températures élevées autorisent une vitesse de libération faible. Ainsi son atmosphère secondaire formée par le dégazage des roches s’est rapidement échappée au cours du temps, aidée aussi par l’intense flux du rayonnement UV solaire.
Il faut noter que la cratérisation intense de la surface nous indique que l'atmosphère a disparu avant la fin du bombardement tardif de planétésimaux (environs 700 millions d'années après sa formation). Par conséquent, il est difficile d’établir une chronologie plus détaillée des processus physiques qui ont permis l’échappement de son atmosphère, puisque les traces potentielles d'érosion ont dû être effacées avec le bombardement tardif.
Vénus a probablement possédé autant d'eau que sur la Terre. Avec une température probablement inférieure à 100°C (le Soleil jeune était moins intense), l'eau se trouvait sous forme liquide formant des océans. Cependant, Vénus étant plus proche du Soleil, sa température était nécessairement plus chaude que celle de la Terre, permettant progressivement une évaporation plus importante des océans. Une grande quantité de vapeur d'eau augmente l'efficacité de l'effet de serre et par conséquent la température, qui à son tour fait croître à nouveau l'évaporation. Lorsque la température dépasse celle du point critique de l'eau (374°C), l'eau se retrouve à l'état gazeux sous forme de vapeur d'eau et il n'y a plus de pluie qui permet de soustraire le gaz carbonique. Le cycle du carbone est stoppé, ce qui entraîne une augmentation irrémédiable de la quantité de CO2 par le volcanisme et par conséquent de la température de l'atmosphère. On désigne cette situation par "emballement de l'effet de serre".
D'autre part, les fortes températures de la basse atmosphère permettent à la vapeur d'eau de s'élever par convection dans la haute atmosphère. Dans cette région, des réactions photochimiques avec le rayonnement UV solaire permettent de photodissocier (ou briser) la molécule d'eau (H2O) pour séparer l'hydrogène (H) et l'oxygène (O). L'hydrogène étant léger s'échappe de l'atmosphère. L'oxygène peut aussi être éliminé soit par des processus d'échappement non-thermiques, soit par l'oxydation des sols, qui sont perpétuellement régénérés par l'activité volcanique. Au final, on obtient une atmosphère sèche, ce qui explique bien l'absence de vapeur d'eau sur Vénus.
La rupture du cycle du carbone, augmente le gaz carbonique dans l'atmosphère. Une partie du gaz carbonique est tout de même soustraite par des transformations chimiques (sans eau) avec les roches silicatées de surface, produisant des roches carbonatées. L'équilibre est atteint pour des pressions de gaz carbonique et des températures observées de 90 bar et 430°C.
Après la formation de la Terre, le faible flux solaire aurait dû geler l'eau, mais l'absence de glaciers il y a 4 milliards d'années semble indiquer que la température était bien plus clémente et qu'il y avait des océans. A cette époque, suite au dégazage, le gaz carbonique était beaucoup plus abondant qu'aujourd'hui permettant ainsi un effet de serre bien plus important. Cet effet a permis de maintenir une température moyenne proche de celle d'aujourd'hui (~ 15°C). Au fur et à mesure, l'intensité du Soleil a augmenté et le niveau de gaz carbonique a diminué à cause du cycle du carbone qui a transformé la plupart du gaz carbonique en roches carbonatées. A l'heure actuelle, on trouve uniquement des traces de gaz carbonique dans l'air. Par ailleurs, le développement intense de la vie sur Terre (il y a environ 2 milliards d'années) a favorisé l'augmentation de l'oxygène dans l'atmosphère grâce à la photosynthèse des plantes. Le cycle du carbone et le développement de la vie explique que notre atmosphère actuelle est composée principalement d'azote et d'oxygène.
Sur Terre, il y a un équilibre stable entre l'effet de serre et le cycle du carbone qui permet de réguler les températures moyennes entre 5 et 20°C évitant ainsi un effet de serre divergent comme sur Vénus. Lorsque la température augmente, l'humidité augmente à cause des pluies plus fréquentes, ce qui altère plus les sols et diminue la quantité de gaz carbonique. Par conséquent, l'effet de serre diminue et la température baisse. Inversement, si la température diminue fortement jusqu'à la congélation de l'eau ( 0°C), il s'arrête de pleuvoir et le cycle du carbone s'interrompt. Le volcanisme, lui, persiste et provoque l'augmentation de la quantité de gaz carbonique. Cette fois-ci, l'effet de serre augmente et la température avec, permettant la fonte des glaces et des calottes polaires, puis l'évaporation des océans jusqu'à réanimer le cycle de l'eau (évaporation et pluies) et par conséquent celui du carbone. Un autre paramètre important pouvant altérer cet équilibre est l'activité de l'homme (aérosols, agriculture, combustion, etc), responsable de l'augmentation artificielle du niveau de gaz carbonique et d'autres gaz à effet de serre (CH4, polluants, etc). L'activité humaine doit absolument être maîtrisée pour éviter d'atteindre la zone dangereuse du régime d'emballement de l'effet de serre comme sur Vénus, qui serait un point de non-retour.
Les traces de lits de rivières à la surface de Mars sur des terrains géologiques anciens (Tharsis) prouvent que l'eau a coulé à la surface de Mars pendant les premiers 500 millions d'années. Un océan d'environ 150 mètres de profondeur a pu exister. La température était donc supérieure à 0°C et la pression supérieure à quelques bars, ce qui implique une forte concentration de gaz à effet de serre (CO2, H2O) et surtout un climat chaud et humide. Dans ces conditions, le cycle du carbone a transformé la majeure partie du gaz carbonique en roches carbonatées, comme sur Terre.
Par la suite, le bombardement tardif de planétésimaux (environs 700 millions d'années après la formation) et la relative faible gravité de la planète a probablement éliminé une partie de l'atmosphère soufflée par des impacts. D'autre part, la datation des terrains géologiques a permis de constater que les rivières ont disparu au bout d'environ 1 à 2 milliards d'années, ce qui coïncide avec la baisse de l'activité volcanique. Mars est une petite planète qui s'est refroidie plus rapidement que la Terre et Vénus, arrêtant ainsi volcanisme et activité tectonique et empêchant la régénération du gaz carbonique atmosphérique. Il faut noter que la variation temporelle (de 100 000 ans à 1 million d'années) de l'inclinaison et de l'excentricité de la planète a accentué la formation de calottes polaires et le refroidissement à la surface.
L'arrêt du cycle du carbone, l'érosion de l'atmosphère et les changements climatiques ont contribué à des degrés différents à diminuer la quantité de gaz à effet de serre jusqu'aux pressions actuelles (7 mbar), refroidissant ainsi l'atmosphère jusqu'aux températures actuelles (-50°C). Une partie de l'eau s'est congelée sur les calottes polaires, et une autre a disparu en s'infiltrant dans les sous-sols sous forme de pergélisol. Une dernière partie s'est échappée de l'atmosphère à la suite de la photodissociation de l'eau (comme sur Vénus).
Pourquoi n'y a-t-il plus d'eau sur Vénus alors qu'il y en a sur la Terre ?
Comment peut-on augmenter l'effet de serre ?
Que se passerait-il si la température de la Terre augmentait de 100°C ?
Aucune étude de planétologie comparée ne saurait être complète sans inclure une analyse des corps les plus nombreux du Système Solaire : les astéroïdes et les comètes.
Le premier jour de l'année 1801, Giuseppe Piazzi découvrit un objet qu'il pensa d'abord être une comète. Mais après que son orbite fut mieux déterminée, il apparut évident que ce n'était pas une comète mais qu'il s'agissait plus vraisemblablement d'une petite planète. Piazzi l'appela Cérès, en l'honneur du dieu sicilien de l'agriculture. Cette découverte marqua le début de l'exploration et de la recherche sur la population astéroïdale. Mais que sont les astéroïdes, d'où viennent-ils et que nous apprennent-ils ?
Petits objets rocheux de taille n'excédant pas quelques centaines de kilomètres de diamètre, les astéroïdes ont souvent été appelés, au milieu du siècle, "les vermines du ciel". Les petites traînées qu'ils laissaient sur les plaques photographiques étaient considérées comme des nuisances. Les astéroïdes occupent principalement la région de transition, entre les planètes telluriques et les planètes géantes, c'est-à-dire entre 2,1 et 3,3 UA. Quoique les astéroïdes aient subi une substantielle évolution collisionnelle depuis leur formation, la plupart d'entre eux n'ont pas eu à souffrir d'une grande évolution géologique, thermique ou orbitale. Et c'est là que réside le principal intérêt de l'étude des astéroïdes. De par leur petitesse, ces objets ont très vite évacué la chaleur originelle de la nébuleuse protosolaire figeant ainsi la composition initiale de cette dernière. Ainsi l'étude des petits corps nous renseigne sur les conditions initiales qui ont prévalu à la naissance du Système Solaire. En particulier, les météorites, qui sont des fragments d'astéroïdes, sont les preuves fossiles des événements qui ont affecté les premiers temps de la formation du Système Solaire.
Les astéroïdes sont aussi importants parce qu'ils sont la source de la plupart des météorites. De plus, certains astéroïdes, les géocroiseurs, ou en anglais Earth Crossing Asteroids (ECA) présentent un danger pour la Terre car leurs orbites croisent celle de notre planète. On sait que la Terre, comme tous les corps du Système Solaire, a eu un passé violent. Pour preuve, la constellation de cratères dont est ornée la surface lunaire. De telles cicatrices sur Terre ont été masquées et érodées par l'activité terrestre. Il est rituel quand on parle de ce sujet, d'évoquer la chute d'un astéroïde ou d'une comète, il y a 65 millions d'années, à la frontière du Crétacé et du Tertiaire et qui fut peut-être responsable de l'extinction des dinosaures. Le cratère d'impact, retrouvé près de la côte de la péninsule du Yucatán près du village de Chicxulub (golfe du Mexique) a un diamètre estimé d'au moins 180 km.
Un troisième et dernier intérêt que l'on peut trouver à l'étude des astéroïdes est d'aspect économique. Les ressources sur Terre ne sont pas inépuisables, et on peut envisager, dans un futur proche pouvoir exploiter les ressources minières des astéroïdes. On estime qu'un kilomètre cube d'astéroïde de type M, c'est-à-dire métallique, contient 7 milliards de tonnes de fer, 1 milliard de tonne de nickel, et suffisamment de cobalt pour satisfaire la consommation mondiale pendant 3000 ans. Les astéroïdes peuvent constituer d'avantageuses bases spatiales de pré-colonisation du Système Solaire. En effet, grâce à leurs ressources minières, ils peuvent pourvoir les colons en matériaux de construction, ainsi que leurs besoins en eau, oxygène, carbone et azote. De plus, de part leur faible masse et donc faible gravité, l'énergie requise pour quitter l'astéroïde-hôte est beaucoup plus faible que celle nécessaire pour quitter la Terre.
En 2009, on recense environ 500 000 astéroïdes, dont 200 000 sont numérotés et seulement plus d'une centaine ont une dimension supérieure à 100 km. Un astéroïde obtient son numéro et son nom quand un nombre suffisant d'observations a été effectué pour déterminer ses éléments orbitaux avec précision. Le rythme annuel des découvertes est actuellement de plusieurs milliers, ceci grâce aux programmes automatiques de recherche. Il y a certainement encore des centaines de milliers d'autres astéroïdes qui sont trop petits, trop sombres ou trop distants de la Terre pour être détectés. Le plus gros astéroïde du Système Solaire, Cérès, a un diamètre de 940 km et une masse de 1,18 1021 kg. A lui seul, il représente environ un tiers de la masse totale de la ceinture principale (voir définition plus loin). Puis viennent par ordre de taille, Vesta (576 km), Pallas (538 km) et Hygiéa (429 km). Ensuite, les tailles décroissent très vite car seulement 30 astéroïdes ont un diamètre supérieur à 200 km, 200 astéroïdes ont un diamètre supérieur à 100 km et on estime à un million le nombre d'astéroïdes de taille kilométrique.
La grande majorité des astéroïdes occupe une "ceinture" située entre Mars et Jupiter, et connue sous le nom de ceinture principale, qui s'étend entre 2,1 et 3,3 UA du Soleil. Un petit nombre ont leur demi-grand axe plus grand ou plus petit, ou une excentricité telle qu'ils n'appartiennent pas à cette région (figure ci-contre). Faisons un petit tour du Système Solaire des astéroïdes en commençant par les plus proches de notre étoile.
Nous rencontrons tout d'abord le groupe des Aten (les groupes d'astéroïdes sont souvent dénommés d'après le nom du premier membre découvert, en l'occurrence ici, 2062 Aten), qui a un demi-grand axe a < 1,00 UA donc tourne autour du Soleil en moins d'une année terrestre. Il est à noter que ces objets croisent l'orbite de la Terre (distance à l'aphélie Q ≥ 0,983). Ensuite, nous avons encore deux autres groupes d'astéroïdes, le groupe des Apollo (a > 1,00 UA et distance au périhélie q ≤ 1,02) et le groupe des Amor (a > 1,00 UA et 1,02 < q ≤ 1,30). Les objets Amor ne croisent donc, actuellement, que l'orbite de Mars. L'ensemble des Objets Aten-Apollo-Amor sont souvent dénommés OAAA, ou NEAs, (acronyme des mots anglais Near Earth Asteroids) ou encore géocroiseurs. Ce sont ces objets qui présentent un danger de collision potentiel avec la Terre et qui sont étroitement surveillés. Plus loin du Soleil, nous trouvons le groupe de Hungaria entre 1,82 et 2,00 UA, bien en dehors de l'orbite de Mars (1,52 UA). A cause de l'excentricité de son orbite, Mars a « nettoyé » la région entre 1,38 et 1,66 UA. Enfin, nous atteignons la région très peuplée de la ceinture principale d'astéroïdes (CPA). Cette région est clairement entrecoupée d'espaces vides d'astéroïdes : les lacunes de Kirkwood. Nous reparlerons de ces lacunes et de leur signification un peu plus loin.
A la frontière de la ceinture principale d'astéroïdes, on trouve le groupe de Cybeles (3,2 UA), et plus détaché se trouve le groupe de Hildas à 4 UA du Soleil. Ensuite, sur la même orbite que Jupiter, aux points de Lagrange L4 et L5, une population d'objets suit et précède la planète géante d'un angle de 60° avec le Soleil : les Troyens. Plusieurs centaines d'astéroïdes de ce type sont connus ; parmi les plus gros sont 624 Hektor (222 km), 588 Achilles (147 km) et 617 Patroclus (149 km). Il existe aussi un petit nombre d'astéroïdes (appelés Centaures) dans la partie externe du Système Solaire : 2060 Chiron se situe entre Saturne et Uranus ; l'orbite de 5335 Damocles commence près de Mars, et va jusqu'au delà d'Uranus ; 5145 Pholus orbite de Jupiter jusqu'à Neptune. Il y en a probablement beaucoup d'autres, mais de telles orbites croisant celles des planètes géantes sont instables, et hautement susceptibles d'être perturbées dans le futur. La composition de ces objets est probablement plus proche de celle des comètes que de celle des astéroïdes ordinaires. En particulier, Chiron est désormais considéré comme une comète. D'ailleurs, astéroïdes et comètes, loin de former deux populations bien distinctes ont des liens très étroits.
Pour conclure ce panorama des astéroïdes, il faut signaler la présence de deux autres populations d'astéroïdes situées encore plus loin du Soleil. La première est la ceinture d'Edgeworth-Kuiper (ou objets trans-neptuniens) située au delà de l'orbite de Neptune entre 30 et 100 UA environ. Son existence a été prédite conjointement par Edgeworth (1949) et Kuiper (1951) pour expliquer l'origine des comètes à courte période. La première observation d'un objet trans-neptunien a été faite beaucoup plus tardivement (pour des raisons techniques évidentes, dues à la faible magnitude de ces objets) par Jewitt et Luu en 1992. Il s'agit de 1992 QB1 qui a un demi-grand axe de 44,2 UA. A une distance aussi lointaine, on pense que ces objets pourraient constituer un réservoir de comètes, avec une composition de glaces et de roches. L'étude de ces corps est l'objet de la mission NASA New Horizons, lancée en 2006, et qui a atteint la ceinture de Kuiper après 2015.
Aux confins du Système Solaire se trouve un vaste nuage de comètes, que l'on pense être de forme sphérique : le nuage de Oort. Composé probablement de 1012 objets, il s'étend au-delà de l'orbite de Pluton entre 30 000 UA et une année-lumière ou plus. C'est très probablement le réservoir des comètes à longue période. Il n'a encore jamais été observé directement.
La figure donnant la distribution des astéroïdes en fonction de leur demi-grand axe montre clairement que certaines régions sont vides d'astéroïdes. Ces lacunes, découvertes en 1867 par D. Kirkwood qui leur a donné son nom, représentent des périodes orbitales interdites et non des distances héliocentriques interdites. En effet, les astéroïdes, proches des lacunes de Kirkwood, possèdent une orbite suffisamment allongée pour leur permettre de traverser ces lacunes fréquemment. Ainsi, la Figure ci-contre qui est un instantané des positions des astéroïdes le 17 Mai 2005, ne révèle pas de lacunes.
Les lacunes de Kirkwood correspondent à des périodes orbitales qui sont commensurables avec la période de révolution de Jupiter. Une telle commensurabilité a lieu quand la période de révolution d'un astéroïde est un multiple p/(p+q) de la période de révolution de Jupiter, où p et q sont des entiers de l'ordre de l'unité. Traditionnellement, ces commensurabilités s'appellent résonances de moyen mouvement et se notent (p+q):p. Ainsi, la résonance 3:1 concerne les astéroïdes qui effectuent trois révolutions pour une effectuée par Jupiter.
Les résonances sont très importantes pour comprendre la dynamique des astéroïdes de la ceinture principale. En effet, les résonances sont des zones chaotiques du Système Solaire et on montre qu'elles gouvernent les mécanismes responsables du transfert des astéroïdes de la ceinture principale d'astéroïdes (CPA) vers les astéroïdes géocroiseurs. Ainsi, un astéroïde tombant dans une résonance (par le biais de collisions ou perturbations par un autre astéroïde proche de lui) est très (quelques millions d'années) vite éjecté de la CPA.
Les astéroïdes présentent une grande diversité de tailles, de formes et de couleurs. Nous avons vu que la taille des astéroïdes varie entre un millier de kilomètres pour le plus gros (Cérès) et quelques mètres de diamètre pour les plus petits.
Les masses actuellement connues pour les trois plus gros astéroïdes sont :
1 Cérès 1,18 1021 kg
2 Pallas 0,216 1021 kg
4 Vesta 0,275 1021 kg
Ce qui donne des densités de :
1 Cérès 2,12 (± 40%) g.cm-3
2 Pallas 2,62 (± 35%) g.cm-3
4 Vesta 3,16 (± 45%) g.cm-3
La connaissance des densités des petits corps apporte quelques indications sur la composition interne, par comparaison avec les densités des météorites.
Les formes des astéroïdes peuvent être plus ou moins déterminées, comme la période de rotation, à partir de la courbe de lumière. Pour les astéroïdes suffisamment grands (D > 150 km), la forme d'équilibre gravitationnelle est la sphère. Par contre, la forme des astéroïdes plus petits, issus des collisions, est certainement irrégulière. Cependant, un certain nombre de fragments peuvent se réaccumuler, sous l'effet de l'autogravitation et former un aggloméré sphérique. C'est ce qu'on appelle un « tas de gravats » ou en anglais, « rubble pile ».
C'est une question qui a longtemps accupé les esprits des scientifiques depuis les premières années de la découverte des astéroïdes. En effet, faisant écho à la fameuse loi de Titius-Bode, on s'attendait à trouver entre Mars et Jupiter (2,8 AU) une seule et unique planète au lieu des myriades de petits corps que l'on connaît aujourd'hui. La CPA serait-elle le résultat d'une planète ayant explosé en milliers de débris ? En fait, on pense plutôt aujourd'hui que la CPA est la conséquence d'une planète n'ayant jamais pu se former. Pourquoi ? Parce que la formation précoce de Jupiter a eu pour conséquence d'exciter (d'accélérer les vitesses) les planétésimaux présents entre Mars et Jupiter, empêchant ainsi tout phénomène d'accrétion. Rappelons que la formation des planètes s'est faite par accrétion (voir la figure formation), c'est-à-dire collisions constructives (coalescence), entre planétésimaux. Or, à cause de la présence de Jupiter, les collisions dans la CPA actuelle sont destructives.
Même avec les plus grands télescopes du monde, un astéroïde apparaîtra toujours comme un petit point brillant, car c'est un corps relativement petit et distant. Pour avoir une idée véritable de la surface d'un astéroïde et en avoir une image précise, il faut envoyer une sonde planétaire. Ces dernières années ont, par chance, permis à des missions spatiales de ramener des images spectaculaires de ces petits corps.
Ida est la première image (avec Gaspra) d'un astéroïde. Elle a été prise par la sonde Galileo en route vers Jupiter. Ida a pour dimensions 56x24x21 kilomètres. On peut voir que la surface de Ida est couverte de cratères, témoignant du fait qu'aucun corps du Système Solaire (même aussi petit qu'un astéroïde) n'a été épargné par les collisions.
Les images de Mathilde ont surpris en révélant des collisions intenses observées grâce aux cratères en surface. L'imageur de la sonde a trouvé au moins cinq cratères de plus de vingt kilomètres de diamètre sur le côté jour de l'astéroïde. On se demande comment Mathilde a pu rester intact après des collisions aussi violentes, et c'est pourquoi on pense que l'astéroïde a une structure en "rubble pile". La valeur de la densité autour de 1,3 semble conforter cette hypothèse.
433 Eros a une place particulière dans la population astéroïdale. Tout d'abord c'est un des plus gros géocroiseurs (33x13x13 km), d'autre part il a fait l'objet d'une mission dédiée de la NASA : la mission NEAR (Near Earth Asteroid Rendez-vous). En effet, la sonde NEAR a étudié Eros sous toutes ses coutures, passant une année en orbite autour de l'astéroïde, pour finalement y "atterrir" le 12 février 2001.
La sonde Hayabusa de l'agence spatiale japonaise (JAXA) a atteint l'astéroide Itokawa en 2005, autour duquel elle s'est mise en orbite proche (prenant des photographies à environ 10 km de d'altitude). La sonde est ensuite parvenue, de façon spectaculaire et pour la première fois, à "atterir" sur l'astéroïde le 19 novembre pour y prélever directement des échantillons ! Ayant ensuite redécollé, Hayabusa fait route vers la Terre pour y larguer sa récolte en 2010.
Les astéroïdes sont de petits rochers dont la composition consiste essentiellement en des silicates (pyroxène, olivine) et des métaux. La spectroscopie, appliquée à l'observation de ces corps, permet de décomposer la lumière qu'ils renvoient, et ainsi d'obtenir leur spectre, qui permet de caractériser la composition chimique des astéroïdes. Le pourcentage de lumière réfléchie, caractérisé par l'albédo, est un autre paramètre important qui permet d'affiner cette composition. Par exemple, savoir si on a affaire à un matériau brillant ou sombre est important. Albédo et spectres permettent de classer les astéroïdes en types taxonomiques (la taxonomie est la science qui a pour objet de décrire les corps afin de pouvoir les identifier, les nommer et les classer) :
Il existe encore une douzaine d'autres types plus rares mais qui sont des variantes de ces 3 types principaux.
Après le succès retentissant de la mission NEAR vers l'astéroïde EROS, l'exploration spatiale vers les petits corps a pris une nouvelle dimension, avec l'ambition de ramener des échantillons d'astéroïdes. Pas moins de deux missions spatiales sont en route avec cet objectif. HAYABUSA 2 de l'agence spatiale japonaise (JAXA) ramènera un échantillon de l'astéroïde primitif (162173) Ryugu en 2020, tandis que son homologue de la NASA, la mission OSIRIS-REX ira explorer le géocroiseur (101955) Bénou, pour revenir sur Terre avec sa précieuse cargaison en 2023.
Les comètes sont connues depuis l'Antiquité. Certaines sont visibles dans le ciel à de rares occasions (~10 ans). Suivant les différentes cultures, la croyance populaire associait les comètes à un symbole de bon ou de mauvais présage. Elles ont une orbite elliptique et inclinée par rapport au plan de l'écliptique. Certaines sont périodiques, c'est-à-dire qu'elles sont visibles régulièrement comme la comète de Halley (période 77 ans), d'autres non. Plus de 2000 comètes sont recensées actuellement. Les plus grandes ou celles qui s'approchent suffisamment de la Terre sont observables à l'oeil nu, mais la plupart d'entre-elles ne sont visibles qu'avec un télescope. Parmi les grandes comètes observées ces dernières décennies, on citera les comètes Hale-Bopp et Hyakutake.
Le noyau des comètes est composé d'un mélange de glace et de poussière ; de faible densité (0,1 à 1), il est poreux et friable. On peut associer ce noyau à une "boule de neige sale" plutôt compacte, que l'on pourrait séparer facilement avec ses mains, tant le noyau est fragile. Un noyau cométaire peut avoir un diamètre de 1 à 20 km, une masse de 108 à 1012 tonnes et il tourne sur lui-même avec une période de rotation de 4 à 70 heures.
Les noyaux cométaires sont relativement petits et peu massifs comparés aux planètes. Par conséquent, leur gravité est faible. Si nous étions sur une comète, un simple saut nous éjecterait de sa surface et nous empêcherait de retomber sur celle-ci. Ce même effet explique pourquoi les comètes ne peuvent pas conserver d'atmosphère. Les noyaux cométaires sont tellement petits qu'ils sont difficilement observables depuis la Terre. Cependant, la mission spatiale ESA Giotto a permis d'observer de près le noyau de la comète de Halley en 1986.
Quand les comètes s'approchent du Soleil, le rayonnement solaire qui les atteint est plus intense et permet de sublimer les glaces. Cet échappement gazeux entraîne avec lui des poussières. On observe :
Structure d'une comète
Les poussières sont principalement constituées de silicates dont la composition ressemble à celle des olivines (Fe2SiO4, Mg2SiO4) ou des pyroxènes (FeSiO3, MgSiO3). Les glaces du noyau sont composées essentiellement d'eau avec quelques pourcents de glace de monoxyde de carbone (CO).
Des composés minoritaires moléculaires ont été observés dans les atmosphères cométaires : on citera par exemple CO, CO2, CH3OH, H2CO, CH4, NH3, HCN, H2S, CS, SO, SO2, ainsi que des nitriles et des hydrocarbures. La photodissociation et l'ionisation de ces molécules à partir du rayonnement UV solaire permet de produire d'autres molécules, ions et atomes tels que CN, NH, NH2, C2, CH, OH, CO+, H2O+, O, H.
Nos connaissances actuelles sur l'origine des comètes indiquent que celles-ci proviennent de deux grands réservoirs différents : le Nuage de Oort et la ceinture de Kuiper.
Le premier réservoir entoure notre Système Solaire et se situe entre 50 000 et 100 000 UA. C'est le nuage de Oort d'où proviennent les nouvelles comètes dont les trajectoires présentent des inclinaisons quelconques par rapport au plan de l'écliptique et ont de longues périodes (Périodes ~50-5000 ans) comme la comète de Halley (77 ans) ou Hale-Bopp (4 000 ans). Les comètes de ce réservoir se seraient formées à l'intérieur du Système Solaire en même temps qu'il se formait lui-même. Les perturbations gravitationnelles des planètes géantes nouvellement créées auraient par la suite éjecté ces comètes du Système Solaire formant ainsi le nuage de Oort. On estime qu'environ 1000 milliards de comètes pourraient être présentes dans ce réservoir. Du fait de leur grand éloignement par rapport au Soleil, on pense que les nouvelles comètes provenant du nuage de Oort ont une composition qui reflète celle des régions externes de la nébuleuse primitive. L'étude des comètes permet donc de mieux comprendre la composition et les conditions physico-chimiques de la nébuleuse primitive. N. B. : à ce jour, le nuage de Oort n'a jamais été observé directement.
La ceinture de Kuiper est le deuxième réservoir de comètes. On peut la représenter comme un tore, entourant le plan de notre Système Solaire, et qui se serait formée en même temps que celui-ci au-delà de Neptune (de 30 UA jusqu'à une distance inconnue). On pense que les comètes de la famille de Jupiter proviennent principalement de ce réservoir. Elles ont comme caractéristiques d'avoir des périodes orbitales courtes (entre 3 et 15 ans) et des inclinaisons faibles. Depuis 1992, environ 1300 objets de la ceinture de Kuiper ont été détectés (2009), confirmant ainsi l'existence de ce réservoir cométaire.
Le rayon des comètes diminue à chaque passage près du Soleil d'environ 1 mètre, en moyenne. Au bout de 1000 passages, elles perdent pratiquement toute leur masse et s'éteignent définitivement. D'autres catastrophes peuvent détruire les comètes prématurément : la rencontre et chute avec une planète (Shoemaker-Levy 9) ou le Soleil (famille Kreutz), ou encore la désintégration à cause de la proximité du Soleil (Linear S4). Une vingtaine de comètes brisées ont été observées durant le siècle passé, ce type d'évènement étant peu fréquent mais pas rare.
En 1993, la comète Shoemaker-Levy 9 (SL9) est découverte ; elle appartient à la famille de Jupiter. Des observations plus précises montrent alors que la comète s'est fragmentée en une vingtaine de morceaux. A son dernier passage au voisinage de Jupiter (juillet 1992), elle aurait atteint la limite de roche et les forces de marée de la planète ont été suffisamment fortes pour détruire sa cohésion et la briser en une vingtaine de morceaux. On calcule que cette comète entrera en collision avec Jupiter vers le 25 juillet 1994.
Pendant une semaine environ, les différents morceaux de SL9 tombent successivement sur Jupiter, entraînant des explosions d'intensités différentes. La fréquence de collisions d'une comète telle que SL9 sur Jupiter est de l'odre de une tous les 500 à 6000 ans selon différentes études. On peut donc aisément considérer la chute de la comète SL9 sur Jupiter comme l'IMPACT DU XX SIECLE ! Par ailleurs, la comète Brooks 2 en 1886 est passée à environ 70 000 km de la surface de Jupiter. Cette comète s'est brisée en 2 morceaux mais n'est pas tombée sur Jupiter comme la comète SL9.
Le groupe de comètes dont le périhélie est inférieur à 0,01 UA appartient à la famille Kreutz. Ces comètes passent tellement près du Soleil au périhélie qu'elles peuvent tomber sur le Soleil dont le rayon est d'environ 0.0023 UA. On estime à environ 50 000 comètes appartenant à la famille de Kreutz.
Le diamètre de ces comètes (difficile à mesurer) semble être assez petit (environ quelques dizaines de mètres). La comète Ikeya-Seki est un exemple d'une comète brillante de cette famille. Cependant il est assez difficile d'observer ces comètes à cause de leur proximité du Soleil. Le satellite SOHO qui étudie le Soleil, a des instruments assez adaptés pour observer ces comètes.
La comète Linear S4 était une nouvelle comète provenant du nuage de Oort. A son dernier passage en juillet 2000, son périhélie était à environ 0,76 UA du Soleil. Cette comète d'environ 500 m de diamètre a eu une augmentation de son activé entre le 18 et le 23 juillet 2000, impliquant une fragmentation progressive de son noyau en une vingtaine de petits morceaux de 50 à 120 m de diamètre.
On pense que l'augmentation de l'activité cométaire juste avant le périhélie due à la proximité du Soleil et la rotation du noyau sont à l'origine de la destruction de la comète Linear S4. Cependant, les raisons exactes de cette désintégration sont encore mal comprises. Malgré tout, il apparaît clairement que les comètes peuvent être de nature très "friable".
Une autre comète de la famille de Jupiter s'est parée d'une célébrité récente. Il s'agit de 17P Holmes, découverte par l'astronome du même nom en 1892. Cette comète est maintenant très connue pour son activité évènementielle d'octobre 2007, où sa luminosité a brutalement augmenté de 15 ordres de grandeur (soit 1 million de milliards de fois !), passant de la magnitude 17 à 2,8. Elle est ainsi devenue visible à l'oeil nu, prenant l'apparence d'une étoile jaune brillante. L'origine de cet éclat provient vraisemblablement d'un dégazage soudain lié à son passage au plus près du Soleil en mai 2007, peut-être lié à son fractionnement. La taille visible de la chevelure cométaire a ainsi augmenté considérablement pour atteindre la dimension apparente de Jupiter.
En moyenne les comètes sont-elles plus grandes que les astéroïdes ?
Y a-t-il plus de comètes répertoriées que d'astéroïdes ?
Nous avons constaté que la diversité des objets du Système Solaire est d'une grande richesse. L'étude détaillée de ces objets nous donne une vision de leur histoire, et permet aussi de mieux comprendre la formation et l'évolution de notre système planétaire. Finalement, l’étude de ces objets fournit des contraintes sur les environnements physico-chimiques qui peuvent permettre l’apparition de la vie.
Les mouvements apparents du Soleil et de la Lune rythment notre vie depuis toujours. La mesure du temps, la mise en place des calendriers reposent sur ces mouvements. Ce chapitre de cours a pour but de montrer les liens qui les unissent ainsi que ce qu'est la réalité de ces mouvements, expliqués par la mécanique céleste. Des rappels historiques seront nécessaires pour suivre l'évolution de nos connaissances depuis la constatation des mouvements apparents jusqu'à la compréhension de ce qu'est l'ensemble du système solaire.
Lorsque l'on regarde le ciel depuis le sol terrestre, nous voyons une voûte céleste constellée de points brillants (les étoiles) dont quelques uns en mouvement par rapport aux autres (les planètes), mais nous n'avons pas la sensation de nous mouvoir nous-mêmes dans l'espace. L'idée d'une Terre fixe au centre de l'univers s'impose tout naturellement, mais, à la réflexion, les choses ne sont pas si simples que cela.
Tout d'abord nous devons constater que les étoiles et les planètes ne restent pas fixes sur la voûte céleste. Leurs mouvements proviennent, d'une part du mouvement de la Terre autour de son axe (mouvement diurne), d'autre part du mouvement de la Terre autour du Soleil (mouvement apparent annuel du Soleil et des planètes), et enfin du mouvement propre de ces astres (insignifiant pour les étoiles mais régulier et très détectable pour les planètes). L'astronomie de position (ou astrométrie) et la mécanique céleste vont nous aider à déméler tous ces mouvements qui se superposent.
Tout d'abord, notre perception du ciel est celle d'une sphère : étoiles et planètes sont toutes -apparemment- à la même distance de nous. Notre perception du relief, grâce à nos deux yeux, s'arrête en effet, à quelques dizaines de mètres de nous : au-delà, nous ne percevons plus de relief, donc plus de distances mais seulement des angles.
Nous sommes donc, chacun d'entre nous, le centre d'une sphère sur laquelle nous voyons les corps célestes : on l'appelle la sphère céleste locale et on va mesurer des angles sur cette sphère, puis à partir de ces angles et d'un modèle d'univers, on va en déduire la distance de ces points brillants que nous observons.
Dans la sphère céleste locale, on donne la position d'un astre avec deux valeurs, l'angle entre l'astre et l'horizon (mesuré verticalement) et l'angle entre la direction de l'astre et une direction fixe, par exemple le Sud (mesuré horizontalement).
Plus précisément, dans ce repère local, formé du plan de l'horizon et de la direction du Sud, on donne la position de l'astre avec les deux coordonnées :
L'angle azimutal ou azimut : est mesuré dans le plan de l'horizon, de 0 à 360 degrés à partir du Sud, positivement vers l'Ouest. La direction du Sud a donc un azimut de 0°, le point cardinal Ouest a un azimut de +90°, le point cardinal Nord est à +180° et par exemple le Nord-Ouest est à 135° d'azimut. Attention, les géomètres comptent l'azimut à partir du Nord, pas les astronomes !
L'altitude angulaire : c'est la hauteur dans le ciel mesurée de 0° à partir de l'horizon jusqu'à +90° au zénith (le point à la verticale de l'observateur).
Ce repère local dépend de l'observateur et varie d'un point à l'autre sur Terre.
Mais comment s'y retrouver entre observateurs du ciel qui sont à des endroirs différents sur Terre? D'autant plus qu'au-dessus d'un lieu donné, on ne voit pas toujours les mêmes étoiles...
Il faut construire un repère commun à tous les observateurs avec un plan origine, l'équateur (on comprendra plus tard pourquoi ce nom) et un méridien d'origine. Pour cela il y a plusieurs façons d'aborder le problème.
Chaque observateur terrestre est entouré de sa sphère céleste locale dont il est le centre. Sa sphère locale est définie par le zénith du lieu, le plan horizontal et la direction Nord-Sud. Comment les observateurs de différents lieux terrestres pourront-ils comparer leurs mesures de position des astres ?
Pour déterminer un équateur dans le ciel, on remarque tout d'abord que toutes les étoiles semblent tourner sur des petits cercles autour de l'étoile polaire (c'est le mouvement diurne de la Terre). Ainsi, l'équateur terrestre se projette sur la sphère céleste et dessine un équateur céleste aisé à trouver. Ce mouvement amène à définir le repère céleste équatorial. Dans ce repère, tous les corps célestes, sauf la Lune, ont des coordonnées qui ne changent presque pas au cours de la nuit et très peu d'un jour à l'autre.
Le mouvement de rotation de la Terre autour de son axe apparaît donc de cette façon. Il faut donner ici quelques compléments sur le mouvement diurne. C'est le résultat de la rotation de la Terre autour de son axe. Cette rotation, repérée par rapport à une direction fixe (une étoile, par exemple), va durer 23h 56m 4s pour un tour complet (360°). Si on se repère par rapport à la direction du Soleil, il faudra alors 24h pour ramener celui-ci dans la même direction. En effet, durant sa rotation, la Terre s'est déplacée dans son mouvement de révolution autour du Soleil.
Au cours de l'année, les étoiles restent fixes les unes par rapport aux autres, mais les corps du système solaire, Lune, Soleil, planètes, bougent par rapport aux étoiles dans une bande du ciel autour de l'écliptique. Le plan de l'écliptique sert à définir le repère céleste écliptique.
Nous vivons et nous observons dans un espace à trois dimensions. Toute étude de mouvement dans notre environnement demande de positionner les corps par rapport à un repère de dimension trois. Le but du présent chapitre est de rappeler les notions de repère dans l'espace et les méthodes mathématiques qui permettent de changer de type de repère. On n'abordera pas dans ce chapitre la notion d'espace relativiste qui introduit le temps local comme quatrième dimension.
On remarquera que nous n'avons pas indiqué d'unité de mesure sur le dessin, l'unité de mesure est la longueur du vecteur , ce vecteur porte donc le nom de vecteur unitaire.
On peut également écrire que et que .
On remarquera également que chaque point de l'axe a une coordonnée et qu'inversement à chaque coordonnée correspond un point de l'axe. Cette propriété mathématique, appelée bijection entre le droite et l’ensemble des nombres réels, est fondamentale, car c’est elle qui permet de faire de la géométrie analytique.
Nota Bene : En mathématiques, le mot espace n'a pas le sens courant. Le 'plan' courant est un espace à 2 dimensions en mathématique et l''espace' courant est un espace à 3 dimensions en mathématiques. Il n'y a pas de mot courant pour les espaces à 4 (et plus) dimensions.
Pour pouvoir se positionner dans le plan, on doit définir un repère ayant la même dimension que le plan : la dimension deux. Pour cela on utilise deux vecteurs unitaires notés et ayant la même origine O, ces deux vecteurs ne doivent pas être co-linaires, c'est-à-dire que les droites qui les supportent ne doivent pas être confondues ou parallèles.
Pour connaître la position d'un point A dans le plan par rapport au repère défini par les deux vecteurs, on va projeter le point A sur l'axe portant le vecteur parallèlement à la droite portant le vecteur ; et sur l'axe portant le vecteur parallèlement à la droite portant le vecteur . Les coordonnées et du point A sont les coordonnées axiales des projections du point A sur les deux axes. On peut écrire : , les coordonnées sont appelées coordonnées contravariantes du vecteur (ou projections parallèles). Elles sont souvent notées (x,y).
Si les deux vecteurs sont perpendiculaires, le repère est dit orthogonal. Si les deux vecteurs ont la même longueur, on dit que le repère est normé. Et si les deux vecteurs sont perpendiculaires et s'ils ont la même longueur alors le repère est dit orthonormé. L'axe Ox porte le nom d'axe des abscisses et l'axe Oy porte le nom d'axe des ordonnées. Enfin si l'on passe de l'axe Ox à l'axe Oy par une rotation dans le sens inverse des aiguilles d'une montre (sens trigonométrique ou sens direct) on dit que le repère est direct. Dans le cas inverse, le repère est dit indirect.
L'usage de repère cartésien est très répandu, on l'utilise systématiquement lorsque l'on trace un graphique. Il est souvent intéressant de pouvoir déplacer le repère sans pour autant changer l'orientation de ses deux axes. On dit alors que le repère est en translation. Pour un point quelconque du plan, on distingue deux possibilités :
On peut également faire tourner le repère autour de son origine O, dans ce cas on peut également distinguer les points liés au repère qui vont tourner avec lui (dans ce cas leurs coordonnées ne changeront pas) et les points non liés au repère qui ne tourneront pas avec lui (dans ce cas leurs coordonnées vont changer).
On peut également utiliser un système de coordonnées polaires défini par deux coordonnées : la distance du point A au centre O du repère et l’angle entre la direction OA et l’un des axes. L'angle est compté positivement dans le sens direct (sens inverse des aiguilles d'une montre), souvent à partir de l'axe Ox
Dans ce cas on passe des coordonnées cartésiennes (x,y) aux coordonnées polaires (,) par les relations mathématiques suivantes : Les deux dernières relations peuvent être remplacées par , mais l'on doit alors choisir le bon angle et fonction des signes de et de
Et inversement on passe des coordonnées polaires aux coordonnées cartésiennes par les relations :
Soit un point A dans un repère orthonormé dont les coordonnées cartésiennes sont et .
Calculer les coordonnées polaires de ce point , l'angle sera donné en degrés ?
Pour se positionner dans l’espace, il convient d’ajouter une troisième dimension. Tout ce que nous avons dit pour les repères à deux dimensions se transpose pour les repères à trois dimensions.
La figure suivante représente un repère orthonormé direct, le troisième axe est l’axe Oz.
Le point A est projeté orthogonalement en A’ sur le plan Oxy, puis A’ est projeté en AX sur l’axe Ox et en AY sur l’axe Oy. Le point A est également projeté orthogonalement en AZ sur l’axe Oz. Les coordonnées , et du point A sont les coordonnées axiales des projections du point A sur les trois axes. On peut écrire : , les coordonnées sont appelées coordonnées contravariantes du vecteur (ou projections parallèles). Elles sont souvent notées (x,y,z).
On peut substituer à ces coordonnées un jeu de coordonnées polaires formé de deux angles (,) et une distance . L’angle est l’angle entre la projection OA’ de OA dans le plan (Oxy) et l’axe Ox. L’angle est l’angle entre OA et sa projection OA’. r est la distance entre l’origine O est le point A.
On passe des coordonnées polaires (,,) aux coordonnées cartésiennes (x,y,z) grâce aux relations suivantes :
Inversement on passe des coordonnées cartésiennes aux coordonnées polaires par les relations suivantes :
Difficulté : ☆☆☆
Le 18 janvier les coordonnées cartésiennes géocentriques de la Lune sont les suivantes : Calculer les coordonnées polaires (θ,φ,r) correspondantes, on donnera les valeurs des angles en degré, minute et seconde d'angle.
Le poids des traditions est très fort dans nos cultures, la standardisation des unités de mesure n’est pas toujours suivie d’effet et l’on trouve encore en fonction des pays et des publications des usages non standards. Ainsi les Anglo-saxons utilisent le mille terrestre international plus souvent que le mètre et les cartographes français utilisent encore le grade pour mesure les longitudes et les latitudes terrestres !
Les angles plans sont mesurés avec quatre systèmes d’unités :
Le radian. La mesure d’un angle en utilisant cette unité se fait en radian et en fraction décimale de radian. C’est l’unité que l’on doit utiliser dans les calculs, en effet lorsque l'on dérive ou intègre une fonction trigonométrique l’angle doit être exprimé en radian.
Le degré sexagésimal Cette unité est très ancienne, elle est basée sur le système sexagésimal qui permettait de faire des divisions facilement à l’époque où l’on connaissait mal les fractions. Le degré se divise en 60 minutes (symbole : ′), la minute se divise en 60 secondes (symbole : ″) etc. Dans le passé on divisait la seconde en 60 tierces (symbole : ′″) qui était elle-même divisée en 60 quatrièmes (symbole : IV). De nos jours on utilise plus les divisions inférieures à la seconde (on utilise les fractions décimales de la seconde), mais vous trouverez les anciennes notations dans les livres anciens. On remarquera que les symboles (′ - ″ - ′″ - IV ) correspondent à la numérotation romaine (I, II, III, IV) mise en exposant.
L’heure sexagésimale L’heure se divise en 60 minutes (symbole : min), la minute se divise en 60 secondes (symbole : s). Il n’y a pas de divisions inférieures à la seconde (on utilise les fractions décimales de la seconde). Cette unité est encore largement utilisée en astronomie. Attention c’est une unité angulaire et non une unité de temps. L’unité de temps est définie à partir de la définition de la seconde de temps.
Le grade centésimal Ce système est centésimal, ainsi le grade se divise en 100 minutes (symbole : ′) centésimales, la minute centésimale se divise en 100 secondes centésimales (symbole : ″) etc. On retrouve ici l’avantage du système centésimal, 23gr 35′ 25″ est égale à 23,3525 gr et si l’on prend le quadrant (angle droit) comme unité 0,233525 est directement le rapport de l’angle à l’angle droit.
On a les relations suivantes entre les différentes unités :
Convertir un radian dans les différentes autres unités.
Nous allons décrire les repères astronomiques classiques. Ces dernières années, l’amélioration croissante de la précision des observations a nécessité des réformes importantes et la création de nouveaux repères célestes et terrestres que nous aborderons que très succinctement dans les pages « pour en savoir plus ».
Historiquement, deux plans fondamentaux se sont imposés. Le premier est le plan de l’orbite apparente du Soleil vue depuis la Terre. Plus rigoureusement, il s'agit du plan de l'orbite du barycentre Terre-Lune. Ce plan est appelé écliptique, car c’est lorsque la Lune est proche de ce plan qu’il y a possibilité d’éclipse. Le Soleil, la Lune et les planètes sont toujours très proches de ce plan. Ce repère écliptique est utilisé pour étudier les mouvements des objets du système solaire.'
L’autre plan est le plan de l’équateur terrestre. Ce repère, le repère céleste équatorial est le repère principal pour les astrophysiciens (terriens!). Dans ce repère, les étoiles ont des coordonnées fixes.
Les astronomes ont construit un repère fondamental avec chacun de ces plans. Comme ces plans ne sont pas totalement fixes, ces repères sont définis pour un instant donné, par exemple pour l’instant correspondant au 1er janvier 2000 à 12h que l’on nomme époque J2000. De plus comme l’astronome observe et mesure uniquement des angles, on se limite souvent à des coordonnées polaires sur une sphère de rayon unité appelée sphère céleste.
Le repère écliptique J2000 est défini par le plan de base (Oxy) correspondant à l’orbite osculatricedu barycentre Terre-Lune autour du Soleil, la direction de l’axe Oz normale à ce plan (appelée pôle de l’écliptique) est choisie de sorte que le mouvement du barycentre Terre-Lune se fasse dans le sens direct (sens inverse des aiguilles d’une montre). Dans ce repère les coordonnées portent le nom de coordonnées écliptiques J2000. Les deux coordonnées polaires sont respectivement la longitude écliptique et la latitude écliptique. La longitude (notée ) est comptée en degrés sexagésimaux de 0° à 360° à partir de l’origine Ox du repère et la latitude (notée ) est comptée en degrés sexagésimaux de –90° à +90° à partir du plan de l’écliptique. Les grands cercles passant par les deux pôles de l’écliptique portent le nom de méridiens écliptiques, les petits cercles de la sphère céleste parallèles à l’écliptique portent le nom de parallèles écliptiques.
Sachant que toutes les planètes se trouvent, comme le Soleil, dans l'écliptique ou très proches de l'écliptique, quelles sont, dans l’hémisphère nord, les meilleures conditions pour observer les planètes extérieures (Mars, Jupiter, Saturne, Uranus et Neptune) au plus haut dans le ciel nocturne ?
Le repère équatorial J2000 est défini par le plan de base (Oxy) correspondant au plan de l’équateur céleste (plan parallèle à l’équateur terrestre passant par le centre du repère) à l’instant considéré, la direction de l’axe Oz normale à ce plan (appelée pôle céleste nord) est choisie de sorte que le mouvement de la Terre autour de cet axe se fasse dans le sens direct (sens inverse des aiguilles d’une montre – donc d’ouest en est). Dans ce repère les coordonnées portent le nom de coordonnées équatoriales J2000. Les deux coordonnées polaires sont respectivement l’ascension droite et la déclinaison. L’ascension droite (notée ) est comptée en heures sexagésimales de 0h à 24h à partir de l’origine Ox du repère et la déclinaison (notée ) est comptée en degrés sexagésimaux de –90° à +90° à partir du plan de l’équateur céleste. On utilise parfois à la place de la déclinaison l’angle entre le pôle céleste et la direction de l’astre, cet angle est compté positivement de 0° à 180° à partir du pôle céleste nord et porte le nom de distance polaire (notée ).
On remarquera que nous n’avons pas encore précisé les directions origines Ox du repère écliptique et du repère équatorial. On pourrait définir des origines quelconques pour ces deux repères, mais comme l’axe de rotation de la Terre n’est pas perpendiculaire à son orbite, le plan de l’équateur n’est pas parallèle au plan de l’écliptique. L’intersection de ces deux plans est une droite que l’on nomme droite des équinoxes. Il était donc judicieux d’utiliser cette droite commune pour définir un axe Ox commun aux deux repères. Sur cette droite, on a le choix entre deux directions pour orienter l’axe Ox, on a choisi la direction de l’équinoxe correspondant au passage du Soleil des déclinaisons négatives aux déclinaisons positives dans son mouvement apparent annuel autour de la Terre. Cet équinoxe est appelé l’équinoxe de printemps ou point vernal. Il est noté pour la lettre gamma Υ, lettre grecque proche du symboledu signe du Bélier. La direction opposée est appelée direction de l’équinoxe d’automne, elle est notée par la lettre grecque oméga majuscule Ω proche du symbole du signe de la Balance.
Attention la direction de l’équinoxe de printemps est unique, elle ne change pas en fonction de l’hémisphère terrestre où l’on se trouve comme on le lit parfois. C’est le début de la saison astronomique qui change. Dans l’hémisphère nord le printemps commence lorsque le Soleil passe par l’équinoxe de printemps, cet instant correspond au début de l’automne dans l’hémisphère sud.
Les deux repères ayant le même axe Ox, on passe d’un repère à l’autre en faisant une rotation autour de cet axe Ox. Cet angle est l’angle que fait l’écliptique céleste avec l’équateur céleste. Il porte de nom d’obliquité de l’écliptique et est noté ε. Sa valeur à l’époque J2000 est proche de 23° 26' 21". Cet angle est également l’angle que fait l’axe de rotation de la Terre avec la normale à l’écliptique (pôle de l’écliptique).
Le grand cercle de la sphère céleste passant par les pôles célestes et les équinoxes porte le nom de colure des équinoxes. La droite perpendiculaire à la droite des équinoxes contenue dans le plan de l’écliptique porte le nom de droite des solstices. De même le grand cercle de la sphère céleste qui passe par les pôles célestes et les points solsticiaux porte le nom de colure des solstices. On remarquera que le colure des solstices passe également par les pôles de l’écliptique. Les colures des solstices et des équinoxes divisent l’équateur et l’écliptique en quatre secteurs égaux de 90°.
Selon l’origine des repères on parlera de :
Les formulaires de changement de repères en coordonnées polaires font appel à la trigonométrie sphérique. Pour cela nous allons utiliser les formules de trigonométriques sphériques classiques.
Considérons un triangle sphérique ABC formé par des arcs de grands cercles de la sphère, ce triangle possède trois angles aux sommets A, B et C et trois angles « côtés » a, b, c. A, B et C sont les angles entre les arcs de grands cercles et a, b et c sont les longueurs angulaires des arcs de grands cercles. Entre ces six angles, on a les relations trigonométriques suivantes :
Il est inutile de connaître ces formules par cœur, il suffit de savoir qu’elles existent et de s’y rapporter lorsque l’on a un calcul à faire.
Si l’on trace les deux repères sur la sphère céleste et un astre quelconque en A, le pôle de l’écliptique PE, le pôle nord céleste P et la direction de l’astre A forme un triangle sphérique (PEPA).
Dans ce triangle on connait cinq des six angles :
Pour avoir par exemple les coordonnées équatoriales en fonction des coordonnées écliptiques, il suffit d’écrire les relations suivantes :
Ce qui donne après simplification :
Système (1)
La déclinaison s’obtient à l’aide de la seconde relation en prenant l’arc sinus de sin δ (car δ est compris en –90° et +90°) l’ascension droite est obtenue grâce à la première et à la troisième relation. La connaissance du sinus et du cosinus de l’ascension droite permet de connaître l’ascension droite sur l’intervalle allant de 0° à 360°. On doit ensuite mettre ces deux variables dans le bon système d’unités (heures sexagésimales pour l’ascension droite et degrés sexagésimaux pour la déclinaison).
On a des relations identiques pour passer des coordonnées équatoriales aux coordonnées écliptiques.
Système (2)
Cet exercice a pour but de vous faire calculer les coordonnées équatoriales du Soleil à partir de ces coordonnées écliptiques. Pour simplifier, le calcul on supposera que la latitude du Soleil β est nulle, ce qui implique que et que . Le système (1) est donc simplifié.
Le 1 janvier 2012 à 0h UTC, la longitude apparente λ du Soleil est de 279° 57' 30", calculer son ascension droite et sa déclinaison sachant que l'obliquité de l'écliptique ε à cet instant est de 23°26' 12,7". On exprimera l'ascension droite en heures, minutes et secondes d'angle et la déclinaison en dégres, minutes et secondes d'angle.
Position du Soleil sur l'écliptique
Cette simulation a pour but de vous montrer le mouvement du Soleil apparent sur l'écliptique.
Elle montre l'inclinaison de l'écliptique sur l'équateur céleste (noté ε), la longitude écliptique du Soleil apparent et les coordonnées équatoriales (ascension droite α et déclinaison δ). P est le pôle Nord céleste et K est le pôle Nord de l'écliptique.
Dans cette simulation, la latitude du Soleil est supposée nulle, en réalité la latitude du Soleil est très faible et varie en fonction du temps. Cet écart provient du fait que l'écliptique est construit à partir du mouvement du barycentre Terre-Lune alors que les coordonnées du Soleil sont calculées depuis le centre de la Terre.
Les coordonnées équatoriales du Soleil variant peu au court d'une journée, on peut utiliser cet applet pour calculer les coordonnées équatoriales du Soleil un jour donné.
On vérifiera deux choses importantes :
Placez-vous le 5 janvier 2012, noter la longitude. Avancez d'un jour est refaite la même mesure. En déduire la variation journalière en longitude. Refaites la même mesure pour le 5 et le 6 juillet 2012. Que peut-on en déduire?
Le jour de l'équinoxe de printemps est le jour où la longitude du Soleil passe par 0°, celui de l'équinoxe d'automne est celui où la longitude du Soleil est égale à 180°. Les jours des solstices d'été et d'hiver correspondent respectivement au jour où la longitude du Soleil passe par 90° et 270°. Calculez les dates des saisons pour une année donnée.
En fait la direction de l’axe instantané de rotation de la Terre n’est pas constante. Historiquement le mouvement de cet axe a été décomposé en deux parties : une composante circulaire appelée précession et une composante formée de multiples variations périodiques appelée nutation. La composante circulaire fait parcourir à l’axe de rotation de la Terre un cône dans le sens rétrograde à la vitesse d’environ 50″ par an (un tour en environ 26000 ans). Cette précession se traduit par un mouvement de l’axe des équinoxes à la même vitesse également dans le sens rétrograde (appeler précession des équinoxes). On peut donc définir des repères écliptiques et équatoriaux dans lesquels on corrige de la précession, pour une date donnée, la position de l’équinoxe. Dans ce cas les repères sont dits moyens de la date.
On peut aussi définir des repères écliptiques et équatoriaux dans lesquels on corrige, pour une date donnée, la position de l’équinoxe de la précession et de la nutation (qui agit également sur l’obliquité de l’écliptique). Dans ce cas les repères sont dits vrais de la date.
On voit l’importance de la connaissance du mouvement de l’axe de rotation de la Terre. On voit également que le repère écliptique dépend de la théorie du barycentre Terre-Lune et que l’usage d’une origine tournante, la direction de l’équinoxe n’est forcément judicieuse, car elle varie en fonction de la théorie de la précession utilisée.
La médiation est une notation hybride basée sur les deux repères écliptique et équatorial. Considérons le cercle horaire portant l’astre A. Ce cercle horaire coupe l’équateur céleste en H et il coupe l’écliptique en MA que l’on nomme point de médiation de l’astre A. On appelle médiation de l’astre A l’arc , sa longitude écliptique étant λ , M étant la projection de la direction de l’astre sur l’écliptique.
Parfois on donne le couple de coordonnées formé par la médiation et la déclinaison à la place des coordonnées équatoriales classiques (ascension droite et déclinaison). Ce couple de coordonnées n’est pas orthogonal, mais il est parfois utilisé notamment dans les instruments anciens (astrolabe).
Les astronomes utilisent également un repère particulier pour positionner les étoiles par rapport au plan de notre galaxie : le repère galactique.
Soit PG (α0, δ0) la direction du pôle galactique dans le repère équatorial J2000 et OG (αG, δG) la direction du centre galactique dans ce même repère. Les coordonnées géocentriques galactiques J2000, la longitude et latitude galactiques sont définies dans le repère direct construit à l’aide du plan galactique et le pôle galactique. Le méridien origine des longitudes étant défini par la direction du centre galactique. Nous noterons l0 l’angle AG (positif dans le sens rétrograde). L’ascension droite αA du point A est égale α0 + π/2 et l’inclinaison i du plan galactique sur l’équateur est égale à α0 – π/2. Le plan galactique ainsi défini est le plan passant par le centre de la Terre, normal à la direction du pôle galactique. Ce repère est un repère géocentrique J2000, car il est défini par rapport au repère fixe équatorial J2000.
Les coordonnées terrestres sont données par rapport au pôle terrestre et le plan de l’équateur terrestre. Ce système constitue un référentiel terrestre. Les coordonnées polaires terrestres portent les noms de latitude (notée φ) et longitude (notée L) terrestres. L’axe instantané de rotation de la Terre se déplace par rapport aux étoiles, mais il reste quasi fixe par rapport à la croûte terrestre.
Par contre la Terre n’étant pas parfaitement sphérique (elle est aplatie aux pôles), on doit distinguer deux types de coordonnées : des coordonnées géographiques (ou astronomiques) et des coordonnées géocentriques. En première approximation la Terre est assimilée à un ellipsoïde de révolution. Un méridien terrestre est un arc de longitude constante joignant les deux pôles terrestres.
Sur cet ellipsoïde on définit un méridien origine passant par les deux pôles géographiques. Ce méridien origine porte le nom de méridien international (méridien de Greenwich). Pour un lieu donné, on distingue une seule longitude et deux latitudes :
Historiquement les latitudes géographiques étaient obtenues à l’aide de mesures de hauteur d’astre aux dessus de l’horizon. La longitude est comptée à partir du méridien international en heures ou en degrés sexagésimaux. Historiquement les longitudes géographiques étaient obtenues à l’aide de mesures astronomiques (point astronomique). De nos jours les coordonnées géographiques sont obtenues à l’aide de systèmes satellitaires (GPS). Sur une planète on parlera de coordonnées planétographiques et de coordonnées planétocentriques.
Soit φ la latitude géographique, φ' la latitude géocentrique et h l’altitude du lieu. a est le rayon équatorial terrestre et f est l’aplatissement de l’ellipsoïde terrestre. ρ est la distance entre le centre de la Terre et le lieu exprimé en rayon terrestre équatorial. On a les relations suivantes :
La connaissance des quantités et est très importante, car elles servent à calculer le vecteur centre de la Terre – observateur, vecteur qui permet de passer des coordonnées géocentriques aux coordonnées topocentriques. Il existe de nombreux ellipsoïdes de références, voici ceux utilisés en France.
Système géodésique | Ellipsoïde associé | aen mètres | b en mètres | f |
---|---|---|---|---|
NTF | Clarke 1880 IGN | 6378249,2 | 6356515,0 | 1/293,466021 |
ED50 | ED50 Hayford 1909 | 6378388,0 | 6356911,9461 | 1/297,000000 |
WGS84 et RGF 83 | IAG GRS 1980 | 6378137,0 | 6356752,314 | 1/298,257222 |
Les coordonnées géographiques de l'Observatoire de Paris sont les suivantes :Latitude géographique : 48° 50' 11,2" N, longitude géographique : 2° 20' 13,8" E, altitude : 67m.
Calculer les coordonnées géocentriques de l’Observatoire de Paris en utilisant le système géodésique WGS84.
Les deux repères écliptique et équatorial sont fixes pour une époque donnée, même centrés au centre de la Terre, ils ne tiennent pas compte du mouvement de l’observateur, ni de sa position. Nous allons décrire deux nouveaux repères qui vont être liés à un observateur sur la Terre. Ces repère vont donc tourner avec notre planète. Nous devons donc, dans un premier temps, exprimer la rotation de la Terre par rapport au répère équatorial terrestre.
Ce système est un système intermédiaire dans lequel le repère équatorial est lié à la Terre, c’est-à-dire qu’il tourne avec elle. Il est caractérisé par un méridien origine (le méridien du lieu) et un angle qui donne la position du point vernal (direction de l’équinoxe de printemps) par rapport à ce méridien. Cet angle s’appelle le temps sidéral local (noté TL). Cet angle est exprimé en heures sexagésimales, il est compté positivement vers l’ouest (sens des aiguilles d’une montre) à partir du méridien local. Ainsi l’angle temps sidéral local croît avec le temps.
Le système de coordonnées équatoriales horaires est un système polaire dont le plan de base (Oxy) est l’équateur céleste, Ox est la direction du méridien local, Oy est dans le sens indirect (90° vers l’ouest) et Oz est l’axe du pôle céleste. Le premier angle est l’angle horaire (noté H), compté positivement en heures sexagésimales de 0h à 24h vers l’ouest à partir du méridien du lieu, le second angle est la déclinaison (le même angle que celui du repère équatorial). L’angle horaire, comme le temps sidéral, croît avec le temps.
Les petits cercles parallèles à l’équateur portent le nom de parallèles célestes et les demi-grands cercles joignant les pôles célestes portent le nom de cercles horaires. Tous les astres qui ont une déclinaison constante décrivent dans le mouvement diurne un parallèle céleste. En particulier, l'étoile Polaire décrit actuellement un petit cercle dont le rayon est inférieur à 1° autour du pôle céleste, ce qui nous permet de situer le pôle céleste à un degré près. Cela n’a pas toujours été le cas. Ainsi au XIIIe siècle d’étoile polaire était à 4° du pôle céleste cela en raison de la précession des équinoxes.
On a une relation simple entre l’ascension droite, l’angle horaire et le temps sidéral local :
Attention dans les formules ces angles doivent être dans le même système d’unités. On remarquera que l’angle horaire d’un astre est le même pour tous les lieux situés sur un même méridien terrestre. Compte tenu de la définition de l’angle horaire, le temps sidéral local est l’angle horaire du point vernal.
Quelle est l'ascension droite α d'une étoile passant au méridien d'un lieu donné à un instant donné ?
Si l’on change de méridien, à un instant donné, le temps sidéral local du nouveau méridien est égal au temps sidéral de l’ancien méridien augmenté de la différence de longitude si le nouveau méridien est à l’est de l’ancien ou diminué de la différence de longitude si le nouveau méridien est à l’ouest de l’ancien. Attention les longitudes doivent être dans le même système d’unités que le temps sidéral (généralement en heures sexagésimales). Attention également aux conventions pour la notation des longitudes : dans le passé les longitudes étaient comptées négativement vers l’est (de 0° à -180° ou 0h à -12h) et positivement vers l’ouest (de 0° à 180° ou 0h 12h) à partir du méridien de Greenwich. La formule donnant le temps sidéral local TL en un lieu de longitude L par rapport au temps sidéral à Greenwich TG était donc :
De nos jours les conventions sur la longitude ont changé, la longitude est comptée positivement vers l’est à partir du méridien de Greenwich de 0° à 360° (ou de 0h à 24h) la formule précédente se transforme donc en :
On trouve donc les deux formules dans la littérature et cela est la source de nombreuses erreurs de calcul. Pour les éviter, il suffit de se souvenir que le temps sidéral croît par rapport à Greenwich lorsque la longitude est vers l’est et décroit lorsque la longitude est vers l’ouest. N’oubliez pas non plus que certaines cartes donnent la longitude par rapport au méridien de Paris en grade !
Le temps sidéral est l’angle horaire de la direction de l’équinoxe de printemps (le point gamma), il varie (en moyenne) de 24h (ou 360°) en 23h 56min 4s de temps moyen.
Cela permet de calculer le temps sidéral local en tout point de la Terre à un instant t à partir de la connaissance du temps sidéral au méridien de Greenwich à 0h. Le calcul se fait en deux étapes : on calcule le temps sidéral à Greenwich à l’instant t, puis le temps sidéral au lieu considéré en ajoutant ou en retranchant la longitude du lieu.
Relations entre la variation du temps moyen et la variation du temps sidéral :
Nous sommes capables de construire une horloge de temps sidéral local. Sur ces horloges, l’aiguille des heures fait deux tours en 23h 56min 4s de notre échelle de temps. La connaissance du temps sidéral est importante, car elle permet de calculer l’angle horaire d’un astre (angle qu’il fait avec la direction du sud, lorsque l’on connaît son ascension droite. Inversement lorsque l’on connait le temps sidéral local d’un événement on peut en déduire :
Remarque : Comme ce repère local ne dépend que de la longitude, on peut le placer au centre de la Terre ou sur un lieu quelconque situé sur le méridien. Nous verrons que ce changement d’origine modifie la valeur des coordonnées pour des astres proches (parallaxe diurne).
Difficulté : ☆☆☆
Déterminer le temps sidéral local à Paris le 30 mars 2010 à 18h 3m 42s UTC (l’heure UTC est le temps moyen de Greenwich) à Paris (longitude : 9min 21s est). Le temps sidéral à Greenwich à 0hUTC étant de 12h 29min 7s.
En un lieu donné, de latitude géographique φ et de longitude géographique L on peut définir un repère local dont le plan Oxy est par le plan horizontal tangent à l’ellipsoïde au lieu considéré et dont l’axe Oz est la normale à ce plan (direction du zénith). Comme dans le cas des coordonnées horaires, l’axe Ox est l’intersection du plan du méridien et du plan horizontal (direction du sud) et l’axe Oy est à 90° compté vers l’ouest dans le sens indirect (direction de l’ouest). On appelle premier vertical ouest le demi-plan vertical passant par la verticale du lieu et la direction de l’ouest. On définit de même le premier vertical est comme le demi-plan vertical passant par la direction de l’est.
Le premier angle est compté positivement à partir du sud vers l’ouest (sens indirect – sens des aiguilles d’une montre) de 0° à 360° et s’appelle l’azimut des astronomes (noté a). On a donc les relations suivantes : sud ⇔ azimut = 0°, ouest ⇔ azimut = 90°, nord ⇔ azimut = 180° et est ⇔ azimut = 270°. La direction de la vertical, vers le haut, d'un lieu porte le nom de zénith, sa direction opposée, vers le bas, porte le nom de nadir. Le second angle est compté positivement vers le zénith de 0° à 90°et négativement vers le nadir de 0° à –90°, il porte le nom de hauteur (noté h). À la place de la hauteur, on utilise parfois l’angle entre la direction du zénith et la direction de l’astre, cet angle est compté de 0° à 180° à partir du zénith et porte de nom de distance zénithale (notée z).
Lors du lever d’un astre, sa hauteur apparente est nulle (h = 0), on donne parfois l’angle entre la direction de l’est et la direction de l’astre à son lever, cet angle porte le nom d’amplitude ortive. De même lors du coucher d’un astre, on donne parfois l’angle entre la direction de l’ouest et la direction de l’astre à son coucher, cet angle porte le nom d’amplitude occase.
Enfin les cercles de hauteurs égales, petits cercles de la sphère céleste parallèles à l’horizon, portent le nom almicantarat.
Pour un lieu de l’hémisphère nord, l’angle entre le zénith et le pôle céleste nord est égal au complémentaire de la latitude du lieu (π/2 – φ). Le complémentaire de la latitude porte le nom de colatitude. C’est aussi l’angle entre le plan équatorial céleste et le plan horizontal.
Le triangle sphérique construit avec le pôle céleste nord, le zénith du lieu et la direction d’un astre est le suivant :
En utilisant les relations de trigonométrie sphérique sur les cinq angles connus, on démontre les relations suivantes :
et inversement
Le sixième angle, formé par les directions du zénith et du pôle céleste vues depuis l’astre porte le nom d’angle à l’astre (noté S).
Les géographes et les marins utilisent un azimut compté également dans le sens indirect, mais à partir du nord. L’azimut d’un astre pour un lieu de l’hémisphère nord croît avec le temps ainsi le Soleil se déplace d’est en ouest en passant vers le sud.
Inversement dans l’hémisphère sud l’azimut décroit avec le temps, ainsi le Soleil se déplace d’est en ouest en passant vers le nord.
Les montres ayant été inventées dans l’hémisphère nord, les aiguilles de la montre suivent le mouvement de l’ombre des cadrans solaires de l’hémisphère nord donc est-sud-ouest.
Dans l’hémisphère nord la hauteur du pôle céleste est égale à la latitude du lieu (en fait ce n’est pas tout à fait vrai en raison de la réfraction atmosphérique).
Pour bien comprendre les systèmes de coordonnées, on peut utiliser les simulations suivantes.
Coordonnées équatoriales et horizontales
La première simulation affiche la position d'un astre sur la sphère céleste, en coordonnées équatoriales (α, δ) et en coordonnées horizontales (a, h). On y voit aussi le point vernal γ et l'angle horaire H. Z est le zénith et P est le pôle céleste.
Les paramètres de la simulation sont les suivants :
En bas de la simulation, on trouve les données calculées à partir des paramètres : angle horaire H, hauteur h et azimut a.
On peut trouver les coordonnées et le fuseau horaire d'une ville sur le web.
Position du Soleil sur l'écliptique
La deuxième simulation montre la position du Soleil sur l'écliptique à une date donnée. Cette simulation montre l'inclinaison de l'écliptique par rapport à l'équateur ε, la longitude écliptique λ, l'ascension droite α et la déclinaison δ. P est le pôle Nord céleste et K est le pôle Nord de l'écliptique. Les quantités calculées par rapport à la date et affichées en bas sont λ, α et δ.
Les coordonnées équatoriales du Soleil variant peu au court d'une journée, on peut les obtenir à partir de cette simulation pour une date donnée, et les utiliser dans la première simulation pour voir la position du Soleil en coordonnées horizontales pendant la journée.
Vous pouvez utiliser les 2 simulations de la page précédente pour répondre aux questions.
Difficulté : ☆☆
Difficulté : ☆☆
Cet exercice propose d'utiliser l'applet Coordonnées équatoriales et horizontales pour déterminer la visibilité d'étoiles en différents endroits sur Terre.
A l'aide de l'applet, trouver les mois de l'année où Sirius est visible à minuit en France (à Paris), en Afrique du Sud (Cape Town) et au Japon (Tokyo).
Même question pour l'étoile Dubhe (α UMa).
Expliquer les résultats.
Tout ce que nous observons depuis la Terre se fait dans le repère local. Habitant dans l'hémisphère nord, nous sommes habitués à voir un ciel et des phénomènes liés à notre hémisphère. Nous allons dans les rubriques suivantes décrire des phénomènes pour un lieu quelconque de la Terre.
Un demi-cercle de la sphère céleste joignant le zénith au nadir porte le nom de demi-cercle d’égal azimut.
Le demi-cercle de la sphère céleste joignant le pôle céleste nord au pôle céleste sud et contenant le zénith porte le nom de méridien supérieur, par définition tous les points de ce demi-cercle ont un angle horaire nul (H = 0h = 0°), ce demi-cercle est toujours l’origine des angles horaires.
Le demi-cercle de la sphère céleste joignant le pôle céleste nord au pôle céleste sud et contenant le nadir porte le nom de méridien inférieur, par définition tous les points de ce demi-cercle ont un angle horaire de 12h (H = 12h = 180°).
Le demi-cercle d’égal azimut contenant le pôle céleste sud est souvent appelé méridien sud, c’est un abus de langage on devrait parler de demi-cercle d’azimut nul (a = 0°) ou d’azimut sud, ce demi-cercle est toujours l’origine des azimuts.
Le demi-cercle d’égal azimut contenant le pôle céleste nord est souvent appelé méridien nord, c’est également un abus de langage on devrait parler de demi-cercle d’azimut 180° (a = 180°) ou d’azimut nord.
Suite à la rotation de la Terre autour de son axe, tous les astres passent au méridien inférieur et au méridien supérieur.
Par observable on entend que le passage serait visible en absence de Soleil c’est-à-dire qu’il n’aurait pas lieu sous l’horizon.
Par contre, tous les astres ne passent pas tous au méridien nord et au méridien sud, en effet certains astres passent deux fois dans le méridien nord (a = 180°) ou deux fois dans le méridien sud (a = 0°). Pour un lieu de l’hémisphère nord, ce sont les astres qui passent entre le zénith et le pôle céleste nord (observable) ou entre le nadir et le pôle céleste sud (inobservable, car toujours sous l’horizon). Comme l’azimut ne varie plus de 0° à 360°, il présente deux valeurs extrêmes (une entre 0° et 180° et l’autre entre 180° et 360°). C’est deux valeurs extrêmes correspondent aux plus grandes digressions ouest et est de l’astre.
On voit très souvent une représentation de la sphère céleste locale pour un lieu de l’hémisphère nord, il est intéressant de tracer également la sphère céleste locale pour un lieu de l’hémisphère sud.
On remarque bien que l’angle horaire H d’un astre est croissant avec le temps que l’on soit dans l’hémisphère nord ou dans l’hémisphère sud, par contre l’azimut de l’astre (a) décroit avec le temps dans l’hémisphère sud alors qu’il croît avec le temps dans l’hémisphère nord. Ce choix de variables croissantes avec le temps est volontaire, il s'oppose à la logique mathématique qui favorise des repères directs.
Il y a deux méthodes pour étudier les conditions d’un passage au méridien supérieur, soit faire des dessins de chaque cas de figure en fonction de la latitude du lieu et déterminer les résultats par des raisonnements purement géométriques, soit utiliser une méthode analytique en regardant les résultats sur l’azimut obtenus en fixant la valeur de l’angle horaire lorsque l’astre est dans le méridien. C'est cette seconde méthode que nous allons utiliser.
Les équations ci-dessous montrent qu'on a alors deux solutions :
Avec la condition supplémentaire liée à la définition de la hauteur : . On remarque qu’il y a toujours une seule solution qui réponde à ce système, en effet : La hauteur issue de l’équation (1) est inférieure à 90° si donc si . Dans ce cas le passage au méridien supérieur se fait au sud (a = 0°). La hauteur issue de l’équation (2) est inférieure à 90° si donc si . Dans ce cas le passage au méridien supérieur se fait au nord (a = 180°). Cas particulier, si la hauteur est de 90°, donc si le corps passe au zénith, alors . Dans ce cas l’azimut n’est pas défini.
Sur la figure, on a fait une coupe méridienne de la sphère céleste. Le méridien supérieur est représenté en rouge c’est le demi-cercle PZP’. L’étoile notée (2) passe au méridien supérieur avec un azimut nord (elle est sur l’arc ZPN), sa hauteur est comptée à partir de la direction nord de l’horizon. Les autres étoiles, notées (1), passent au méridien supérieur avec un azimut sud (elles sont sur l’arc ZP’N) leurs hauteurs sont comptées à partir de la direction sud de l’horizon ; deux passent au-dessus de l’horizon, la troisième passe sous l’horizon, car une partie du méridien supérieur est sous l’horizon (sud-P’).
On remarquera aussi que la médiation de l’astre correspond à la longitude de l’écliptique qui passe au méridien en même temps que l’astre.
Par définition, à l’instant du passage au méridien supérieur, l’angle horaire est nul () les équations de transformations de coordonnées donnent :
si alors ou , si alors et si alors .
Difficulté : ☆☆☆
La déclinaison du Soleil varie au cours de l’année de –23° 26' 21" (au solstice d’hiver) à 23° 26' 21" (au solstice d’été) en passant par 0° (aux équinoxes).
Quelles sont les hauteurs du Soleil à son passage au méridien supérieur à Paris (latitude géographique : 48° 50' 11,2" N) au début de chaque saison astronomique.
Quelles sont les hauteurs du Soleil à son passage au méridien supérieur au Cap (latitude géographique : 33° 56' 0,0" S) au début de chaque saison.
Quelle est la latitude des lieux où le Soleil passe au zénith le jour du solstice d’été ? Quel est le nom de ce parallèle terrestre ?
Quelle est la latitude des lieux où le Soleil passe au zénith le jour du solstice d’hiver ? Quel est le nom de ce parallèle terrestre ?
Quelle est la latitude des lieux où le Soleil passe au zénith le jour des équinoxes ? Quel est le nom de ce parallèle terrestre ?
Par définition, à l'instant du passage au méridien inférieur, l'angle horaire est égale à 180° (H = 180°).
Les équations ci-dessous montrent qu'on a donc deux solutions :
Avec toujours la condition supplémentaire : . On remarque qu’il y a toujours une seule solution qui réponde à ce système. La hauteur issue de l’équation (3) est supérieure à –90° si donc si . Dans ce cas le passage au méridien inférieur se fait au sud (a = 0°). La hauteur issue de l’équation (4) est supérieure à –90° si donc si . Dans ce cas le passage au méridien inférieur se fait au nord (a = 180°). Cas particulier, si la hauteur est de –90°, donc si le corps passe au nadir, alors . Dans ce cas l’azimut n’est pas défini.
Sur la figure, on a fait une coupe méridienne de la sphère céleste. Le méridien inférieur est représenté en bleu c’est le demi-cercle PNP’. L’étoile notée (3) passe au méridien inférieur avec un azimut nord (elle est sur l’arc ZP’N), sa hauteur est comptée à partir de la direction sud de l’horizon. Les autres étoiles, notées (4), passent au méridien inférieur avec un azimut nord (elles sont sur l’arc ZPN) leurs hauteurs sont comptées à partir de la direction nord de l’horizon ; une passe au dessus de l’horizon, car une partie du méridien inférieur est au-dessus de l’horizon (nord -P), les deux autres passent sous l’horizon.
Les équations de transformation de coordonnées donnent :
si alors ou . Si alors et si alors .
On voit donc que la hauteur h est une fonction des deux paramètres φ (latitude du lieu) et δ (déclinaison de l'astre) et qu’elle doit être toujours comprise entre –90° et 90°. On est donc toujours ramené à résoudre les quatre équations et à conserver les solutions qui donnent une hauteur comprise entre –90° et 90°. Le tableau suivant résume ces quatre possibilités.
Passage au méridien supérieur | équation (1) | ||
équation (2) | |||
Passage au méridien inférieur | équation (3) | ||
équation (4) |
À l’aide de ces formules, on peut, soit se placer en un lieu donné (en fixant φ) et étudier les passages au méridien des corps en fonction de leurs déclinaisons, soit choisir un corps donné (en fixant δ) et étudier son passage au méridien en fonction des latitudes.
Pour connaître l'angle entre le plan équatorial et le plan horizontal, on doit calculer l’intersection entre le plan équatorial et le méridien supérieur du lieu. Ce qui se traduit par une déclinaison nulle () et le méridien supérieur => équation (1) ou (2) avec h positif.
La hauteur h obtenue avec l’équation (1) est positive (comprise entre 0° et 90°) si la latitude φ est comprise entre 0° et 90° donc dans l’hémisphère nord, la hauteur h de l’équateur sur l’horizon est égale à (colatitude du lieu) et la direction de l’intersection de l’équateur avec le méridien est orientée au sud (a = 0°).
La hauteur h obtenue avec l’équation (2) est positive ou nulle (comprise entre 0° et 90°) si la latitude φ est comprise entre –90° et 0° donc dans l’hémisphère sud, la hauteur h de l’équateur sur l’horizon est égale à et la direction de l’intersection de l’équateur avec le méridien est orientée au nord (a = 180°).
On vérifie donc que la hauteur de l’équateur est bien le complémentaire de la latitude du lieu si le complémentaire est égal à 90° moins la valeur absolue de la latitude. De même la hauteur du pôle au-dessous de l’horizon, qui est le complémentaire de cet angle est égale à la valeur absolue de la latitude.
Calculer la hauteur de l’équateur au méridien à Paris (latitude géographique : 48° 50' 11,2" N) et au Cap (latitude géographique : 33° 56' 0,0" S).
Pour connaître l'angle entre l’équateur et le plan horizontal, on doit calculer l’intersection entre le plan équatorial et le méridien inférieur du lieu. Ce qui se traduit par une déclinaison nulle (φ = 0°) et le méridien inférieur => équation (3) ou (4) avec h négatif.
La hauteur h obtenue avec l’équation (3) est négative et comprise entre –90° et 0° si la latitude δ est comprise entre –90° et 0° donc dans l’hémisphère sud, la hauteur h de l’équateur sous l’horizon est égale à et la direction de l’intersection de l’équateur avec le méridien est orientée au sud (a = 0°).
La hauteur h obtenue avec l’équation (4) est négative et comprise entre -90° et 0° si la latitude δ est comprise entre 0° et 90° donc dans l’hémisphère nord, la hauteur h de l’équateur sous l’horizon est égale à et la direction de l’intersection de l’équateur avec le méridien est orientée au nord (a = 180°). On vérifie bien que la hauteur de l’équateur sous l’horizon et l’opposée de la hauteur de l’équateur sur l’horizon.
Calculer la hauteur de l’équateur au dessous de l’horizon au méridien à Paris (latitude géographique : 48° 50' 11,2" N) et au Cap (latitude géographique : 33° 56' 0,0" S).
Le passage au zénith est par définition un passage supérieur. Entre les tropiques la latitude du lieu est comprise entre -ε et +ε la déclinaison du Soleil varie également entre ces deux bornes (rappel : ε est l'obliquité de l'écliptique sur l'équateur), donc les hauteurs des passages au méridien supérieur sont données par les équations (1) ou (2) :
Le Soleil passe au zénith deux fois par an lorsque , alors a n’est plus défini, et :
Le Soleil passe au zénith les jours où sa déclinaison est égale à la latitude du lieu soit deux fois par an. Sauf sur les tropiques où l’on a qu’une solution par an : pour le tropique du Cancer, la solution est , donc le Soleil passe au zénith le jour du solstice d’été de juin. Un raisonnement identique pour le tropique du Capricorne montre que le Soleil passe au zénith uniquement le jour du solstice d’été de l’hémisphère sud. Sur l’équateur le Soleil passe au zénith deux fois par an lorsque sa déclinaison est nulle, c’est-à-dire aux équinoxes.
En dehors des tropiques, la latitude est supérieure à ε ou inférieure à -ε, les équations n'ont plus de solution et le Soleil ne passe jamais au zénith.
La direction du pôle Nord et l'équateur céleste nous fournissent des directions fixes pour toutes les sphères célestes liées aux observateurs individuels. Dans ce système de repérage, chaque étoile a sa propre déclinaison. Si, à un instant donné on voit une étoile au zénith d'un lieu particulier de latitude , quelle sera la déclinaison de cette étoile ?
Pour un lieu quelconque de latitude φ, les étoiles qui ne se lèvent pas sont celles dont la hauteur du passage au méridien supérieur est toujours négative ou nulle.
De plus la déclinaison doit toujours être comprise entre –90° et +90° donc la première inéquation a des solutions que pour les latitudes positives, donc dans l’hémisphère nord. On en conclut que dans l’hémisphère nord les étoiles qui ne se lèvent pas doivent avoir une déclinaison vérifiant . De même la seconde inéquation a des solutions que pour les latitudes négatives, donc dans l’hémisphère sud. On en conclut que dans l’hémisphère sud les étoiles qui ne se lèvent pas doivent avoir une déclinaison vérifiant . Cas particulier à l’équateur aucune étoile ne se couche jamais, seules les étoiles qui ont une déclinaison de +/–90°, donc exactement aux pôles, sont en permanence sur l’horizon. Au pôle Nord on ne voit aucune des étoiles ayant une déclinaison négative et au pôle Sud on ne voit aucune des étoiles ayant une déclinaison positive. Ces remarques ne sont rigoureuses exactes qui si l’on néglige la réfraction atmosphérique.
À Paris (latitude géographique : 48° 50' 11,2" N) quelles sont les déclinaisons limites des étoiles qui ne se lèvent pas ?
Au Cap, en Afrique du sud (latitude géographique : 33° 56' 0,0" S) quelles sont les déclinaisons limites des étoiles qui ne se lèvent pas ?
Pour qu'une étoile ne se couche pas, il faut que sa hauteur au passage au méridien inférieur soit positive ou nulle. On utilise donc les équations (3) et (4).
De nouveau, la déclinaison doit toujours être comprise entre –90° et +90° donc la première inéquation a des solutions que pour les latitudes négatives, donc dans l’hémisphère sud. On en conclut que dans l’hémisphère sud les étoiles circumpolaires doivent avoir une déclinaison vérifiant . De même la seconde inéquation a des solutions que pour les latitudes positives, donc dans l’hémisphère nord. On en conclut que dans l’hémisphère nord les étoiles circumpolaires doivent avoir une déclinaison vérifiant .
Cas particuliers : À l’équateur il n’y a aucune étoile circumpolaire. Au pôle Nord toutes les étoiles de déclinaisons positives sont circumpolaires et au pôle Sud toutes les étoiles de déclinaisons négatives sont circumpolaires.
À Paris (latitude géographique : 48° 50' 11,2" N) quelles sont les déclinaisons limites des étoiles circumpolaires ?
Au Cap (Afrique du sud) (Latitude géographique : 33° 56' 0,0" S) quelles sont les déclinaisons limites des étoiles circumpolaires ?
Quelle est la latitude des lieux où le Soleil ne couche pas le jour du solstice d’été ? Quel est le nom de ce parallèle terrestre ? Montrer qu’en ces lieux le Soleil ne se lève pas le jour du solstice d’hiver.
Quels sont les lieux sur Terre où l’on voit, au cours de l’année, le plus d’étoiles ?
Quels sont les lieux sur Terre où l’on voit au cours de l’année le moins d’étoiles ?
On a vu que les étoiles qui ont une plus grande digression orientale ou occidentale sont les étoiles qui passent au méridien supérieur entre le zénith et le pôle.
Dans l’hémisphère nord : le passage au méridien supérieur doit se faire au nord () donc doit être inférieur à 90° donc .
Dans l’hémisphère sud : le passage au méridien supérieur doit se faire au sud () donc doit être inférieur à 90° donc .
À Paris (latitude géographique : 48° 50' 11,2" N) quelles sont les déclinaisons limites des étoiles qui ont une plus grande digression ?
Au Cap (Afrique du sud) (Latitude géographique : 33° 56' 0,0" S) quelles sont les déclinaisons limites des étoiles qui ont une plus grande digression ?
Il ne faut confondre étoiles circumpolaires et étoiles présentant une plus grande digression, c’est deux notions ne sont pas identiques. Par exemple dans l’hémisphère nord on a :
Si la latitude est supérieure à 45° la relation (2) implique (1), donc toutes les étoiles ayant une plus grande digression sont circumpolaires. Par contre, l’inverse n’est pas vrai (1) n’implique pas (2), donc toutes les circumpolaires n’ont pas forcément une plus grande digression. Par exemple pour une latitude de 50° nord, les étoiles ayant une déclinaison de 43° vérifient (1) (43°>40°), mais ne vérifient pas (2) (43°<50°). Si la latitude est inférieure à 45°, c’est l’inverse : (1) implique (2), donc toutes les étoiles circumpolaires ont une plus grande digression, mais (2) n’implique pas (1) c’est-à-dire que toutes les étoiles ayant une plus grande digression ne sont pas forcément circumpolaires, par exemple pour une latitude de 30°, les étoiles ayant une déclinaison de 40° vérifient (2) (40°>30°), mais ne vérifient pas (1) (40°<60°). Il y a identité entre les types d’étoiles que pour la latitude 45°.
Pour bien comprendre les notions que nous venons de voir, on peut utliser la simulation suivante :
Coordonnées équatoriales et horizontales
Cette simulation affiche la sphère locale et la sphère équatoriale locale pour une latitude géographique φ et une longitude géographique L que l'on peut faire varier.
On peut choisir une position quelconque sur la sphère équatoriale (ascension droite α et déclinaison δ) et l'on peut faire évoluer la date et l'heure en temps universel (cela revient à faire tourner la Terre).
En bas de la simulation, on trouve les coordonnées calculées à partir des coordonnées équatoriales : angle horaire H, la hauteur h et l'azimut a.
Je vous propose de vérifier les points suivants :
Nous venons de voir que le repère terrestre et le repère céleste sont liés, car on détermine les latitudes et longitudes géographiques à l’aide de mesures astronomiques (hauteur des astres et passage au méridien). Les deux repères ne sont donc pas indépendants. De plus le repère céleste écliptique dépend de la théorie du barycentre Terre-Lune et le repère équatorial dépend des théories de la précession et de la nutation. D’où l’idée de construire de nouveaux repères indépendants. Dans la construction de ces repères on distingue le concept et sa réalisation.
L’International Celestial Reference System (ICRS) est le concept du système de référence céleste. Ce système contient l'ensemble des prescriptions et des conventions avec les modélisations nécessaires pour définir à tout moment un repère triaxial. L’International Celestial Reference Frame (ICRF) est une réalisation de ce concept basée sur l’orientation depuis le barycentre du système solaire d’un grand nombre de radios sources extragalactiques.
L’International Terrestrial Reference System (ITRS) constitue un ensemble de prescriptions et de conventions avec les modélisations nécessaires pour définir l'origine, échelle, l'orientation et l'évolution dans le temps d’un système de référence terrestre conventionnel (CTRS). L'ITRS est un système de référence idéal, défini par la résolution n°2 UGCI (adoptée à Vienne en 1991).
L’ITRF (repère terrestre international) est une réalisation du système de référence terrestre international (ITRF), obtenu à l’aide des estimations des coordonnées et des vitesses d'un ensemble de stations terrestres observées par radio interférométrie à longue base (VLBI), télémétrie laser sur la Lune (LLR), mesure GPS, télémétrie laser sur satellites (SLR) et mesures Doppler de positionnement satellitaire (DORIS).
Pour l’élaboration des éphémérides terrestres des astres, on est contraint de passer des coordonnées du repère céleste (ICRF) dans des coordonnées liées à la Terre (ITRF). Ce passage se fait en deux étapes :
On passe, à l’aide de transformations relativistes strictes, dans un système céleste géocentrique sans rotation (GCRS). Puis on passe du système céleste géocentrique au système terrestre (ITRS).
Nous avons vu que l'astronome observe essentiellement des angles sur un ciel que l'on appelle la sphère céleste. Pourtant, tous les astres ne sont pas à la même distance de l'observateur. La Terre paraît plate et immobile. Comment, à partir de simples mesures d'angles, va-t-on pouvoir mesurer la taille de la Terre, la distance qui la sépare des astres du ciel et son mouvement dans l'espace?
Pour cela, deux notions vont être nécessaires.
La première est la notion de parallaxe : si deux observateurs voient un même objet sous deux angles différents, c'est que l'objet n'est pas à l'infini. La différence de vue ne dépend que de la position des observateurs et de la distance de l'objet observé. C'est le phénomène de relief, créé par notre cerveau à partir des images différentes reçues par nos deux yeux. Plus la distance de l'objet est grande, plus la distance entre les deux observateurs (entre les deux "yeux" qui observent) doit être grande.
La deuxième notion est celle d'un modèle théorique d'univers. On va supposer a priori des ordres de grandeur des quantités à mesurer et vérifier par l'observation et des mouvements des corps célestes. La vérification par l'observation ne sera pas une preuve que notre modèle est bon, mais qu'il colle momentanément avec l'observation. L'amélioration des mesures entraînera un écart entre l'observation et le modèle : il faudra remettre en cause celui-ci.
Commençons par essayer de mesurer la distance d'un objet situé sur la Terre. C'est ainsi que l'on pourra cartographier la surface terrestre de proche en proche.
La méthode pour mesurer une distance est celle de la triangulation : on voit un objet dans une certaine direction (visée n°1) et si on se déplace d'une distance appelée "base", on voit l'objet dans une direction différente (visée n°2). Dans le triangle "objet - visée n°1 - visée n°2", on connaît un côté et deux angles : on peut calculer les autres côtés et déterminer la distance de l'objet. Cet effet est appelé "parallaxe" en astronomie.
Pour calculer la distance d'un corps céleste à la Terre, on procédera de la même façon. Depuis deux lieux sur Terre, on va mesurer l'angle de vue d'un astre et, connaissant la base, calculer la distance.
On conçoit bien que cette méthode a ses limites : si l'astre est très loin, la plus grande base terrestre ne pouvant dépasser 12000 kilomètres (le diamètre terrestre), il faut que la différence d'angle de visée entre les deux observateurs soit mesurable avec l'instrumentation dont les astronomes disposent. Jusqu'au XVIIème siècle, même la distance de la Lune n'était pas accessible par cette méthode.
On désire mesurer la distance CH entre un bâtiment C et une route ABH de direction Nord-Sud sur laquelle se déplace un observateur qui ne peut mesurer que des angles ou des distances sur la route. D'une position A, l'observateur mesure un angle d'azimuth 30° entre le bâtiment C et la direction du Sud. D'une position B située un kilomètre plus loin sur la route, l'observateur va mesurer un azimuth de 45°.
L'image ci-contre montre le principe de détermination de la distance Terre-Lune par la parallaxe (on connaît D et le rayon terrestre et on mesure α et β). Comme nous l'avons vu précédemment, il est impératif de disposer d'instruments capables de mesurer une différence entre les angles α et β. Cela limite la distance à la Terre mesurable.
On a vu précédemment que triangulation ou parallaxe utilisait le même principe pour déterminer la distance d'un objet éloigné sans avoir à y aller et sans mesurer directement la distance à l'objet. On remarque que la précision de la mesure dépend de la longueur de la base. Il faut pouvoir mesurer les angles avec suffisamment de précision. Pour un astre pas trop éloigné, il suffit de se déplacer sur la surface de la Terre -ou mieux de faire deux observations simultanées à partir de deux lieux éloignés sur la surface de la Terre- pour en déterminer la distance. C'est tout à fait faisable pour la Lune qui est proche avec nos instruments de mesure actuels.
On remarque alors que le mouvement diurne de rotation de la Terre autour de son axe déplace chaque observateur au cours de la journée. Ce déplacement va modifier l'angle sous lequel on voit un astre à distance finie par rapport à l'angle de vue depuis le centre de la Terre qui ne bouge pas. C'est la parallaxe diurne. La distance séparant deux positions d'un observateur peut servir de "base" pour mesurer une distance. Cependant, une telle base a une valeur limite maximale : c'est le diamètre terrestre.
On appellera "parallaxe horizontale d'un astre", la valeur maximale de la parallaxe diurne de cet astre. Elle sera atteinte pour un astre observé à l'horizon. Cette valeur est donc l'angle sous lequel un observateur situé sur l'astre en question voit le rayon terrestre.
On verra plus loin que le déplacement de la Terre autour du Soleil va servir de base pour la parallaxe annuelle.
La méthode de triangulation précédente devrait pouvoir être appliquée à tous les corps du système solaire. Mais pour le Soleil, c'est très difficile : il n'est pas facile à observer et il est beaucoup plus loin que la Lune (400 fois, voir figure). Pour le Soleil et les objets du système solaire éloignés, on ne peut pas appliquer simplement la méthode des parallaxes car les mesures précises d'angles ont des limites : il faut prendre en compte la réalisation des mesures pour laquelle la grandeur de la base n'est pas forcément suffisante. Le principe de la parallaxe et du calcul de triangulation est simple mais il n'est pas applicable aux astres éloignés. Nous verrons que nous aurons besoin d'un nouveau modèle théorique pour mesurer certaines distances et en déduire celles qui ne sont pas accessibles directement à la mesure. Les lois de Kepler et la mécanique céleste seront nécessaires pour la détermination des distances dans le système solaire.
Le principe de mesure de distance présenté dans la section précédente n'est pas suffisant pour connaître toutes les distances dans le système solaire, loin de là. En effet, ce principe appliqué naïvement au Soleil en supposant que la Terre est plate, nous donne une distance du Soleil à la Terre de 6500 kilomètres !
Ce type de mesure a probablement été réalisé dans l'antiquité. Anaxagore (4ème siècle avant J.-C.) calcule une taille d'environ 60 kilomètres pour le Soleil, ce qui le met à 6500 kilomètres de la Terre. Il a donc fait un calcul sur une base fausse. Pour calculer les distances dans le système solaire, il faut donc avoir de bonnes hypothèses, c'est-à-dire un modèle théorique de ce que l'on cherche à mesurer.
Premier modèle indispensable : la Terre est ronde et le Soleil est loin...
Expliquer en détail le raisonnement supposé d'Anaxagore qui lui fait dire que le Soleil est à 6500km et qu'il mesure environ 60 kilomètres de diamètre.
Comment mesurer la Terre et constater qu'elle est ronde ? Sa rotondité est facilement compréhensible et deux faits avaient amené les astronomes de l'antiquité à admettre cette rotondité. D'abord, lors de l'observation des éclipses de Lune, l'ombre de la Terre est circulaire. Mais cette constatation pouvait aussi bien signifier que la Terre était plate avec une forme de disque. C'est la disparition progressive des navires sous l'horizon qui suggère bien que la Terre est ronde. Comment maintenant mesurer le rayon de la Terre ?
La première mesure a été celle d'Eratosthène (vers 285-194 avant J.C.) durant l'antiquité grecque. Il avait constaté que les rayons du Soleil étaient parallèles, du moins que le Soleil était très loin sinon à l'infini. Il avait constaté que le jour du solstice, à midi, les objets n'avaient pas d'ombre à Syène (aujourd'hui Assouan) et que l'on pouvait observer le Soleil au fond d'un puits. Ce phénomène n'avait pas lieu à Alexandrie 800 km plus au Nord. Eratosthène mesura donc l'ombre portée d'un bâton à Alexandrie le jour du solstice . Il lui fallait aussi mesurer la distance Alexandrie-Syène (5000 stades) ce qui n'allait pas de soi à cette époque. Cette mesure n'était pas interprétée comme un calcul de triangulation prouvant que le Soleil était proche car il fallait se déplacer dans la direction Nord-Sud pour constater un changement de direction du Soleil. Une mesure à la même heure solaire locale (la seule disponible à l'époque) pour des lieux situés sur une ligne Est-Ouest n'aurait rien donnée (d'où la supposition que les rayons du Soleil étaient parallèles). Eratosthène ne se trompa que d'un centième sur la taille de la Terre.
Si les deux angles α1 et α2 sont égaux, peut-on en déduire que la dimension de la Lune et celle de la tête du deuxième personnage est la même ?
Non, bien sûr...
Par contre, si α1=α2, alors distances et tailles sont liées entre elles grâce au théorème de Thalès.
La Lune et le Soleil ont à peu près le même diamètre apparent. Sachant que la Lune a un diamètre de 3475 km et se trouve à 384400 km de la Terre, quel est le diamètre du Soleil sachant qu'il se trouve à 149 600 000 km de la Terre.
La première mesure de la taille de la Lune et de la distance Terre-Lune a été réalisée dans l'antiquité au moyen de l'observation des éclipses. L'observation des éclipses de Lune montre la largeur de l'ombre de la Terre sur la Lune et on voit que le diamètre de l'ombre de la Terre est de 2,5 diamètres lunaires au niveau de la Lune. Or, lors d'une éclipse de Soleil, la surface terrestre est au sommet du cône d'ombre puisque la zone de la Terre dans l'ombre est petite (les diamètres apparents de la Lune et du Soleil sont quasi-identiques). L'ombre de la Lune s'est donc rétrécie d'un diamètre lunaire après la distance Terre-Lune.
Il doit en être de même pour l'ombre de la Terre sur la Lune. Donc la Terre fait 2,5+1=3,5 diamètres lunaires. Connaissant le diamètre terrestre on en déduit le diamètre lunaire en kilomètres. L'angle selon lequel on voit la Lune étant d'un demi-degré (1/110 radian), la distance Terre-Lune est donc de 110 diamètres lunaires soit 60 rayons terrestres soit 384 000 km.
L'observation du ciel n'est pas suffisante pour bien appréhender les distances des astres et comprendre le mécanisme de leur mouvement. L'observation va permettre de valider les principes théoriques qui ne seront tout d'abord que des suppositions. Les lois que Kepler va énoncer seront validées par l'observation.
Jusqu'à Copernic et Galilée, on suppose la Terre immobile au centre de l'univers. Effectivement, aucune observation ne peut mettre en évidence un mouvement de la Terre dans l'espace. Copernic et Galilée vont supposer le mouvement des planètes autour du Soleil. Kepler va énoncer des lois pour ce mouvement, lois qui ne découlent que de l'observation du mouvement des astres. Ces lois ne représentent qu'une description cinématique de ce mouvement sans faire d'hypothèses sur la nature des forces en jeu.
Kepler (1571-1630) est le disciple de Tycho Brahe (1546-1601) auquel il succède comme astronome de l'empereur d'Allemagne Rodolphe II. Tycho Brahe est principalement un observateur de positions précises mais s'il effectue de très bonnes observations, en revanche, il n'est pas convaincu par les théories héliocentriques de Copernic (1473-1543). Il pense toujours que la Terre est au centre du système solaire. Kepler va utiliser les observations de Tycho Brahe pour énoncer ses lois. Kepler est convaincu que Copernic a raison, ce qui sera définitivement admis après Galilée (1564-1642) en 1610 grâce à l'utilisation d'une lunette astronomique et à l'observation des satellites de Jupiter.
Kepler énonce ses deux premières lois en 1609 et sa troisième loi en 1619.
Il a fallu plus de deux mille ans pour comprendre que les planètes avaient des orbites elliptiques autour du Soleil. La progression des connaissances ne fut pas régulière, loin de là !
On doit la première démarche scientifique de recherche d'une représentation de l'univers à Thalès (625-547 avant J.-C.). Il fonda, au 6ème siècle avant notre ère, l'école des philosophes ioniens à Milet. La Terre était alors supposée de forme géométrique plate. L'un des disciples de Thalès, Anaximandre (610-547 avant J.-C.), supposa une Terre cylindrique habitée sur sa partie supérieure plane. C'est à cette époque que la notion de sphères célestes supportant les corps célestes apparaît : cette notion perdurera jusqu'au Moyen Âge.
Vers la même époque, à l'école de Pythagore (570-480 avant J.-C.) on affirma la sphéricité de la Terre, celle du Soleil et de la Lune en étant un indice. Toutes les formes et les mouvements célestes se devaient d'être parfaits, donc sphériques ou circulaires : le philosophe pythagoricien Parménide (543-449 avant J.-C.) fut le premier à exprimer la sphéricité de la Terre ainsi que le fait que la Lune était éclairée par le Soleil..
Aristote (384-322 avant J.-C.), disciple de Platon, précepteur d'Alexandre le Grand, peut sans doute être considéré comme le plus grand savant de l'Antiquité. Son oeuvre colossale, composée de plusieurs dizaines de volumes, abordera aussi bien l'astronomie, la physique que la botanique ou la médecine. Aristote va en particulier développer un modèle physique, fondé sur l'observation et la perception intuitive des phénomènes, dont l'influence sera déterminante pour les siècles à venir. Sa conception de l'Univers est basée sur 3 dogmes fondamentaux :
La Terre immobile est faite des quatre éléments eau, air, terre et feu. Aristote pense même avoir "démontré" l'immobilité de la Terre avec un argument basé sur le fait que si la Terre était en mouvement nous devrions en ressentir directement les effets. Pour ce qui est de la mécanique céleste, Aristote considérera un système de sphères centrées sur la Terre. La sphère extérieure est celle des fixes. Ce système présentait cependant un défaut majeur, qui sera mis en évidence au siècle suivant. S'il rendait en effet compte à peu près correctement des mouvements des planètes, il ne pouvait expliquer leurs variations d'éclat au cours de l'année, car dans ce modèle les planètes étaient supposées à une distance constante de la Terre. Certes, Aristote aurait pu invoquer une variation intrinsèque de l'éclat des planètes, mais cela était incompatible avec son dogme sur la perfection et l'immuabilité des cieux.
Il semble qu'au 4ème siècle avant notre ère, Héraclide du Pont (388-310 avant J.-C.) envisagea que la sphère des fixes était immobile et que la Terre tournait autour de son axe, ce qui expliquerait le mouvement diurne des étoiles (mais les sources écrites sont ici très ténues et incertaines).
Au 3ème siècle avant notre ère Eratosthène (284-192 avant J.-C.) fit la première mesure précise du rayon terrestre : il utilisa le fait que l'ombre portée d'un bâton à midi faisait 7° 10' le jour du solstice à Alexandrie alors qu'elle était nulle (le Soleil était au zénith) 800 kilomètres plus au sud à Syène sur le tropique du Cancer. Ce fut le premier calcul mathématique de mesure dans le système solaire. Il trouva ainsi 6500 kilomètres pour le rayon terrestre, soit une valeur remarquablement correcte.
A la même époque vécut Aristarque de Samos (310-230 avant J.-C.), dont l'œuvre est attestée par très peu de traces écrites. Il fut sans doute un des premiers à estimer (avec une remarquable précision) la distance Terre-Lune. Aristarque est par ailleurs crédité pour avoir proposé un modèle héliocentrique du monde (mais le seul témoignage écrit est une phrase d'un manuscrit d'Archimède).
Au 2ème siècle avant notre ère vécut Hipparque (190-120 avant J.-C.), peut-être le plus grand astronome de l'Antiquité. Hipparque fut avant tout un grand observateur. Il mis en évidence le phénomène de précession des équinoxes, qu'il estima être de 36 secondes d'arc par an (la vraie valeur est de 50 secondes). Hipparque calcula également assez précisément la longueur de l'année tropique : 365 jours 5 heures 55 minutes 12 secondes (la vraie valeur était 365 jours 5 heures 48 minutes 46 secondes).
L'astronomie grecque va connaître son apogée au 2ème siècle de notre ère avec l'astronome alexandrin Claude Ptolémée (100-170). Ptolémée va faire la synthèse de tous les travaux de ses prédécesseurs (en particulier Hipparque) et va les parachever en proposant un système physique et mathématique du ciel qui restera incontesté pendant près de 14 siècles. Tous les travaux astronomiques de Ptolémée sont quasiment regroupés dans un seul ouvrage majeur, la "grande syntaxe mathématique", plus connu sous le nom que lui donnèrent les Arabes : l'Almageste. L'Almageste reprend dans ses grandes lignes la vision aristotélicienne du monde physique, avec les mêmes dogmes et principes : dichotomie Terre/Univers, immobilité de la Terre, etc.
Nicolas Copernic (1473-1543), un chanoine et astronome polonais, va remettre en cause le modèle géocentrique du monde de Ptolémée et d'Aristote dans un ouvrage publié l'année de sa mort : le "De Revolutionibus orbium caelestium". Cet ouvrage propose un modèle héliocentrique du monde, dans lequel tous les mouvements planétaires sont centrés sur le Soleil. Mais surtout, ce que Copernic va affirmer c'est que la Terre n'est ni immobile, ni au centre du monde. Elle est en effet animée de 2 mouvements : l'un sur elle-même en 24h (qui remplace le mouvement de la sphère des fixes des Grecs anciens) et l'autre autour du Soleil en un an, faisant de la Terre une planète comme les autres. Contrairement à ce que l'on croit parfois, Copernic ne va pas démontrer l'héliocentrisme, car il faudra attendre plus de 150 ans pour avoir une preuve du mouvement de la Terre. L'argument de Copernic est que son modèle est plus simple, plus logique et plus "harmonieux" que celui de Ptolémée (même si dans le détail le fonctionnement mathématique du système copernicien est assez complexe).
Le De Revolutionibus, malgré son côté fondamentalement révolutionnaire, fut reçu avec relativement d'indifférence par les savants de l'époque.
Tycho Brahe (1546-1601) fut avant tout un observateur hors pair. Il construisit ses instruments lui permettant d'atteindre une précision de mesure inégalée (2 minutes de degré). Il effectua des observations continues du Soleil, de la Lune, des planètes et des étoiles pendant trente ans et constata les erreurs des tables d'éphémérides de l'époque. Il observa la supernova de 1572 ce qui sera le point de départ de la remise en cause de l'immuabilité de la sphère des fixes d'Aristote et de Ptolémée. Il observa une comète en 1577 et, là aussi, il prit en défaut les théories d'Aristote : la comète n'appartenait pas au monde sublunaire et son orbite coupait celles des autres planètes. Il ne put mesurer de parallaxe annuelle des étoiles, ce qui lui fit adopter le système géohéliocentrique.
Giordano Bruno (1548-1600) était plus un philosophe qu'un astronome mais il introduisit une vision du monde fondée sur un univers infini qui tranchait avec les idées admises alors. Il défendit aussi l'idée de la pluralité des mondes habités autour des étoiles et celle que la Terre n'était pas le centre de l'univers, pas plus que le Soleil. Il se heurta à l'Inquisition, ce qui n'était pas prudent à l'époque.
Johannes Kepler (1571-1630), très grand calculateur et mathématicien, eut la chance de prendre la suite de Tycho Brahe dont il analysa les observations. Kepler fut capable d'en déduire les orbites des planètes et d'énoncer les lois qui portent son nom et qui caractérisent ces orbites. Il introduisit pour la première fois la notion d'orbite elliptique, rompant avec les sacro-saints mouvements circulaires uniformes érigés en dogme par les Grecs. Kepler montra par ailleurs que les plans des orbites planétaires passaient par le Soleil et non par la Terre, ce qui contredisait un des postulats du géocentrisme.
Galilée (1564-1642) était d'abord un physicien et il étudia la mécanique et la dynamique des corps en mouvement. Galilée établit la loi de l'inertie (tout corps non soumis à une force extérieure est animé d'un mouvement rectiligne uniforme et se trouve dans un référentiel que l'on nomme aujourd'hui "galiléen"). C'est à la fin de l'année 1609 et au début de 1610 qu'il a l'idée de braquer une lunette d'approche récemment inventée et qu'il a construit lui-même vers le ciel. Ses découvertes seront nombreuses et vont bouleverser la vision de l'univers de l'époque. Il observa des taches sur le Soleil, des cratères sur la Lune, les phases de Vénus, une multitude d'étoiles dans la Voie lactée et des satellites autour de Jupiter. Cette dernière découverte donnait le coup de grâce au géocentrisme. Il adhéra aux idées de Copernic et à l'héliocentrisme sans pouvoir le démontrer et ne considéra pas le géohéliocentrisme qui nous semble aujourd'hui être une étape incontournable dans l'élaboration d'un modèle d'univers.
Ainsi, au début du XVIIème siècle, on avait une vision de l'univers assez proche de la réalité. Cependant, on ignorait complètement comment les mouvements observés pouvaient se faire. Il faudra attendre Newton et la gravitation universelle et la mécanique céleste pour pouvoir décrire tous ces mouvements par des théories dynamiques et non plus de simples modèles cinématiques.
Chaque planète décrit, dans le sens direct, une ellipse dont le Soleil occupe l'un des foyers.
Jusqu'alors, on n'avait considéré que le cercle comme trajectoire possible des corps célestes. Ce sont les observations précises de Tycho Brahe qui ont permis de revenir sur ce postulat. L'ellipticité des orbites des planètes est très faible. La différence entre le cercle et l'orbite de la Terre est infime : si on veut la représenter sur une feuille de papier, la différence entre le cercle et l'ellipse tient dans l'épaisseur du trait de crayon ! Heureusement le Soleil n'est pas au centre de l'ellipse, mais au foyer qui est décentré.
Les aires décrites par le rayon vecteur planète-Soleil sont proportionnelles aux temps employés pour les décrire.
La signification de cette loi est claire : les planètes ne tournent pas avec une vitesse uniforme ; elles vont plus vite quand elles sont près du Soleil et plus lentement quand elles en sont loin. Cela est particulièrement observable pour les comètes dont les orbites sont, contrairement à celles des planètes, très excentriques (très allongées).
Le cube du demi grand axe "a" d'une orbite d'une planète, divisé par le carré de la période de révolution sidérale "T" est une constante pour toutes les planètes du système solaire.
C'est-à-dire :
a3/T2 = constante ou bien n2 a3 = constante
(n étant le moyen mouvement = 2π/T)
Cette loi relie les planètes entre elles. En fait, cette loi provient de la masse prépondérante du Soleil dans le système solaire. On verra que la loi de la gravitation engendre une force proportionnelle aux masses en jeu. Dans le cas du système solaire, les masses des planètes sont négligeables devant celle du Soleil et la constante ci-dessus est le produit de la masse solaire et de la constante de la gravitation.
Kepler ne pouvait pas démontrer ses lois : il lui manquait les principes fondamentaux de la mécanique ainsi que la loi de Newton, c'est-à-dire les fondements de la dynamique, qui, appliqués aux astres, forment la mécanique céleste. Kepler introduit la notion de trajectoire elliptique qui va complètement modifier la modélisation du système solaire.
Calculer le demi-grand axe de l'orbite d'Uranus connaissant les paramètres de l'orbite terrestre et sachant que la période de révolution d'Uranus autour du Soleil est de 84 ans.
Calculez la distance minimale Terre-Saturne connaissant la période orbitale de Saturne (29,5 ans). On supposera les orbites dans le système solaire circulaires.
Pour définir une trajectoire elliptique, on a besoin de six paramètres :
On a vu précédemment que triangulation ou parallaxe utilisait le même principe pour déterminer la distance d'un objet éloigné sans avoir à y aller et sans mesurer directement la distance à l'objet. On remarque que la précision de la mesure dépend de la longueur de la base. Il faut pouvoir mesurer les angles avec suffisamment de précision. Pour un astre pas trop éloigné, il suffit de se déplacer sur la surface de la Terre -ou mieux de faire deux observations simultanées à partir de deux lieux éloignés sur la surface de la Terre- pour en déterminer la distance.
La parallaxe diurne a une valeur maximale : c'est la "parallaxe horizontale" pour un astre donné (quand l'observateur est en A). Elle sera atteinte pour un astre observé à l'horizon. Cette valeur est donc l'angle sous lequel un observateur situé sur l'astre P en question voit le rayon terrestre RT. La parallaxe diurne est nulle lorsque l'astre observé est au zénith (observateur en Z, sur la droite OP).
Ayant vu comment les astronomes mesurent les distances aux astres lointains -mais pas trop-, comment va-t-on concrètement mesurer le système solaire tout entier ? Le Soleil est bien trop loin pour qu'une mesure de parallaxe nous en donne sa distance. Les lois de Kepler vont nous donner les rapports des distances des planètes au Soleil et il suffira de connaître une seule distance entre les planètes pour les connaître toutes.
La première loi de Kepler énonce que les orbites des planètes autour du Soleil sont des ellipses.
La deuxième loi de Kepler est la loi des aires. Plus simplement, elle indique les planètes vont plus vite sur leur orbite quand elles sont près du Soleil. Nous utiliserons cette loi pour l'analyse des observations de passage qui nécessite de connaître la vitesse angulaire apparente de Vénus sur le disque solaire.
La troisième loi de Kepler nous fournit les rapports entre les distances au Soleil de toutes les planètes et il suffit ainsi de connaître une seule distance dans le système solaire pour connaître toutes les autres. Elle s'énonce ainsi :
le rapport a3/T2 est constant pour toutes les planètes du système solaire où a est le demi grand axe de l'orbite et T la période de révolution autour du Soleil. La figure ci-dessous montre ce qui se passe si les orbites sont des cercles, connaissant la distance Δ et les périodes t1 et t2.
La première loi de Kepler énonce le fait que les orbites sont des ellipses et on ne pourra donc pas assimiler les distances Soleil-Terre et Soleil-Vénus aux demi-grands axes aT et aV des orbites de la Terre et de Vénus. On passe du demi grand axe "a" à la distance Soleil-planète (rayon vecteur) "rP" par la formule :
rP = a (1 - e cos E) où e est l'excentricité de l'ellipse et E caractérise l'emplacement de la planète sur son orbite elliptique (E est appelé "anomalie excentrique").
Pour mesurer le système solaire, il nous suffit donc de mesurer une distance entre la Terre et la planète la plus proche. Dès le XVIIème siècle, on s'est tourné vers Mars et Vénus qui passent régulièrement à une distance pas trop grande de la Terre.
Pour comprendre comment mesurer leur distance à la Terre, voyons concrètement comment en déterminer la parallaxe.
On a vu qu'il fallait mesurer un angle de visée d'un astre par rapport à une direction fixe, connue des deux observateurs, même éloignés et sans contact. Cette direction fixe va être fournie par un astre situé à proximité de l'astre dont on veut mesurer la distance, mais situé suffisamment loin pour pouvoir être considéré comme étant à l'infini. Cela revient à dire que sa parallaxe est nulle : quel que soit le lieu de la Terre d'où on l'observe, on le voit toujours dans la même direction. On va donc utiliser les étoiles pour lesquelles la parallaxe diurne est négligeable. On a appliqué cette méthode à la planète Mars dès le XVIIème siècle mais la visée des étoiles était difficile et on a cherché un autre astre et une méthode plus facile.
Pour la planète Mars, seul le principe de la parallaxe avec un calcul utilisant une base connue (dépendant des lieux d'observation sur Terre) va nous permettre de calculer la distance Terre Mars.
La planète Vénus, passant régulièrement devant le Soleil, a apporté une bonne solution. Lors d'un tel passage, le disque solaire est un repère sur lequel la planète Vénus va apparaître à des endroits différents pour des observateurs différents. C'est le principe de la parallaxe.
Pour Vénus, on se sert du Soleil comme référence pour calculer la parallaxe. A la différence du calcul de la parallaxe pour la planète Mars, le Soleil n'est pas à l'infini : il a lui aussi une parallaxe et il nous faut connaître le rapport des distances du Soleil à Vénus et à la Terre. Cela nous est fourni par les lois de Kepler. On connaît la distance AB, l'angle en V (par l'observation) ainsi que le rapport VA/VA' (par la troisième loi de Kepler), on en déduit VT, VS et TS, d'où la distance Terre-Soleil et l'unité astronomique. Le problème se complique du fait que A et B bouge (rotation de la Terre autour de son axe), ainsi que T et V (révolution de la Terre et de Vénus autour du Soleil). Dès le XVIIIème siècle, la distance Terre-Soleil était connue assez précisément : 150 millions de kilomètres environ que l’on nommera l’unité astronomique, unité de mesure du système solaire.
Les lois de Kepler ne sont qu'une description empirique cinématique de ce que l'on observe. En fait, le mouvement des astres est régi par des principes plus fondamentaux qui vont permettre d'expliquer de nombreux phénomènes: ce sont les principes de la mécanique céleste.
Le principe fondamental de la dynamique est un outil développé dans le cadre de la mécanique classique, qui permet de faire le lien entre les forces appliquées à un corps et l'évolution cinématique de ce corps. Appliqué à un solide de masse m dont le mouvement est défini dans un référentiel dit galiléen, le principe s'énonce :
F = m γ = m dv / dt
F représente l'ensemble des forces appliquées à l'objet, et γ son accélération. dv / dt est la dérivée de la vitesse par rapport au temps (soit l'accélération).
Appliquée à un point matériel (un solide de dimension négligeable devant les distances mises en jeu) ou à un ensemble de points matériels, cette loi peut se réécrire de diverses manières, toutes équivalentes :
Notons que du théorème du moment cinétique découle directement la deuxième loi de Kepler (lois des aires), résultant du seul fait que l'interaction gravitationnelle est une force "centrale".
On doit ces principes à Galilée et Huygens, mais ils ont été affinés par la suite par Clairaut, Descartes, Euler et D'Alembert.
Galilée (1564-1642) était d'abord un physicien et il étudia la mécanique et la dynamique des corps en mouvement. Il démontra l'invariance de l'accélération dans le champ de pesanteur terrestre à la surface du globe et établit la loi de l'inertie (tout corps non soumis à une force extérieure est animé d'un mouvement rectiligne uniforme et se trouve dans un référentiel que l'on nomme aujourd'hui "galiléen").
Christian Huygens (1629-1695), hollandais, développa une théorie ondulatoire de la lumière. En 1673, il publia la loi sur l'accélération centrifuge des corps en mouvement circulaire. Il séjourna quinze ans en France sur l'invitation de Colbert.
René Descartes (1596-1650) apporta alors une vision complètement nouvelle de l'univers. L'univers évolue seul : il n'est point besoin d'un dieu intervenant à tout moment. Descartes étudia l'optique et fit une théorie de la réflexion et de la réfraction. Il introduisit les concepts mathématiques en physique, en particulier un système de coordonnées aujourd'hui dites cartésiennes facilitant les calculs.
Alexis Clairaut (1713-1765) fut l'un des membres de l'expédition en Laponie. Il s'attaqua à des problèmes de mécanique céleste comme celui des 3 corps appliqué au système Terre-Lune perturbé par le Soleil. Il appliqua la théorie de la gravitation universelle aux comètes, en particulier aux perturbations de Jupiter et Saturne sur la trajectoire de la comète de Halley.
Leonhard Euler (1707-1783), mathématicien suisse, étudia les perturbations mutuelles de Jupiter et de Saturne ainsi que les orbites paraboliques des comètes. On lui doit la définition des "angles d'Euler" permettant la détermination de la position d'un solide en mouvement dans un trièdre trirectangle.
Jean-Baptiste Le Rond d'Alembert (1717-1783) publia un traité de dynamique contenant le théorème sur les forces d'inertie connu aujourd'hui sous le nom de théorème de d'Alembert. Il établit également les équations du mouvement de la Terre autour de son axe et réalisa la première théorie mathématique de la précession.
Le caractère universel de la gravitation a été mis en évidence par Newton (1642-1727) dans son œuvre "Principes mathématiques de philosophie naturelle". Newton a été le premier à comprendre que la pomme qui tombe d'un arbre et la Lune qui tourne autour de la Terre obéissent à une même loi et que leurs mouvements sont en fait de même nature.
La loi de la gravitation universelle s'énonce ainsi : "deux points matériels de masse m et m' exercent l'un sur l'autre une force attractive directement proportionnelle aux masses et inversement proportionnelle au carré de la distance r les séparant". Le module F de cette force vaut :
où G est la constante gravitationnelle.
Cette loi suppose la transmission instantanée des forces dans l'espace.
La mécanique céleste est alors l'application de la mécanique newtonienne et des principes fondamentaux de la mécanique aux corps du système solaire. C'est Laplace qui a mis en place les fondements de la mécanique céleste qui va (presque) tout expliquer :
En première approximation, la mécanique newtonienne explique donc parfaitement les mouvements dans le système solaire. Mais avant d'aborder un cas aussi complexe, on s'intéresse d'abord au problème restreint à 2 corps.
Le problème à 2 corps s'intéresse à 2 solides, assimilés à leur centre de masse, seuls à interagir. Ce problème est soluble analytiquement, relativement simplement, en travaillant dans le référentiel du centre de masse du système ; le reste de l'Univers étant oublié, le centre de masse est isolé et fournit un bon référentiel galiléen pour l'étude du mouvement.
C'est dans le cadre de plusieurs problèmes à deux corps (pour chaque couple planète-Soleil) que s'appliquent les lois de Kepler.
Dans le système solaire on trouve plus de deux corps et pour obtenir les mouvements des planètes avec une très bonne précision, il faut envisager un problème de N corps s'attirant mutuellement.
Mais si on regarde d'un peu plus près, on se rend compte qu'on est en présence d'un très gros corps, le Soleil, mille fois plus massif que la plus grosse des planètes, Jupiter, entouré de petits corps tournant autour de lui. Chaque couple Soleil-planète est un problème à deux corps. On peut considérer en première approximation la masse m de la planète comme négligeable devant celle du Soleil (notée M) et la force subie par la planète est alors :
Le coefficient GM, produit de la constante gravitationnelle et de la masse du Soleil, est alors le même pour toutes les planètes, ce que Kepler (1571-1630) avait remarqué sans le démontrer.
Dans le cas de N corps, on considérera que l'on a toujours des mouvements de deux corps deux à deux avec une perturbation par les autres corps entraînant une variation des paramètres de l'orbite elliptique du petit corps tournant autour du plus gros. C'est Lagrange (1736-1813) qui introduisit les équations décrivant ces mouvements perturbés.
Lorsque l'on veut quitter un corps céleste -la Terre par exemple- et échapper à son attraction, il faut vaincre les forces de gravitation et surtout éviter de retomber sur le sol. Deux cas se présentent :
En première approximation, la trajectoire d'une pierre lancée depuis le sol est une parabole si on suppose la Terre plate et le centre d'attraction à l'infini. En réalité, la trajectoire est une ellipse dont le centre de la Terre est le foyer. Il faut circulariser l'orbite pour éviter que la trajectoire heurte la surface terrestre. Notons que l'altitude minimum pour satelliser un objet est de 300 km pour éviter le freinage par l'atmosphère terrestre.
Sur l'orbite décrite par un corps autour d'une masse centrale, on va trouver des points d'équilibre utiles pour les satellites artificiels d'observation : les points de Lagrange.
Pour obtenir une modélisation des mouvements dans le système solaire, on va partir du problème simplifié dans lequel les trajectoires des planètes sont des ellipses mais les éléments de ces ellipses vont varier au cours du temps. Cette ellipse de base est appelée ellipse osculatrice. Pour chaque planète on va considérer un problème à deux corps perturbé par les autres planètes. C'est Lagrange (1736-1813) au XVIIIème siècle qui a posé les équations du problème. Lagrange a aussi noté que dans un système à deux corps, il existait des positions d'équilibre où des corps supplémentaires pouvaient rester captifs. Ces positions sont appelées aujourd'hui les points de Lagrange du système à deux corps. La figure ci-dessous montrent l'emplacement des 5 points L1, L2, L3, L4, L5. Seuls les points L4 et L5 sont des points d'équilibre stables. Des astéroïdes sont piégés sur ces points de l'orbite de Jupiter et de celle de Mars. Les points L1 et L2 de la Terre permettent d'installer des télescopes d'observation (SOHO, un satellite d'observation du Soleil en L1 et bientôt GAIA, un satellite d'observation astrométrique de la galaxie en projet en L2). Les points L1 et L2 sont à 1,5 millions de kilomètres de la Terre.
Un satellite géostationnaire est vu immobile depuis la surface de la Terre : pourquoi ? Non pas parce qu'il est réellement immobile par rapport à la Terre, mais parce qu'il tourne à la même vitesse que la Terre autour de son axe. Il doit faire une révolution en 24 heures ! (en fait en 23 heures 56 minutes 4 secondes qui est la période de rotation sidérale autour de la Terre).
Un satellite artificiel de la Terre tourne d'autant moins vite qu'il est loin de la Terre pour respecter la 3ème loi de Kepler qui dit que a3/T2 est une constante pour les objets tournant autour d'un même corps, où a est le demi-grand axe de l'orbite et T la période de révolution.
Cette constante est, pour la Terre : GM/4π2 où G est la constante de la gravitation et M la masse de la Terre soit :
G=6,67259x10-11 m3kg-1s-2 et M=5,9736x1024 kg et donc GM/4π2 = 1,00965x1013
En supposant les orbites circulaires, un satellite situé à 300 km d'altitude (orbite basse) aura une période de révolution de T :
a = 300 km + 6378 km = 6,678x106 m ; donc a3 = 297,81x1018 m3
Appliquons la formule a3/T2 = GM/4π2 = 1,00965.1013
donc T2 = a3/1,00965x1013 = 297,81x1018/1,00965x1013 = 29496358 secondes, soit T = 5431,055 secondes, c'est-à-dire, environ une heure et demie.
Calculons la distance a au centre de la Terre à laquelle doit se trouver un satellite artificiel pour être géostationnaire.
T doit être égal à 23 heures 56 minutes 4 secondes, soit 86164 secondes ; on a T2 = 7424234896 s2 donc a3 = T2x1,00965x1013 = 74,95878763x1021 (voir ci-dessus) et ainsi a = 4,21639 x 107 mètres soit 42 163 km. En retranchant le rayon terrestre, on obtient l'altitude d'un satellite géostationnaire : environ 36 000 kilomètres.
On peut faire le même calcul avec des satellites plus éloignés et on verra que la durée de révolution augmente et atteint 28 jours pour un corps situé à 300 000 kilomètres de la Terre : c'est la Lune !
Les sondes spatiales utilisent le "rebond" gravitationnel pour aller plus loin et plus vite, en économisant du carburant, nécessaire pour échapper à l'attraction terrestre. On utilise pour cela les lois de Kepler et le mouvement des deux corps : la sonde va suivre un mouvement képlérien par rapport à un corps central A, la Terre, par exemple. Le corps A est prépondérant et on va mettre la sonde sur une orbite elliptique dont l'apogée est proche d'un autre corps que l'on va utiliser. A l'apogée (point de l'orbite le plus éloigné du corps A), la présence prépondérante du corps B va modifier la trajectoire de la sonde. Des petites manoeuvres vont permettre de mettre la sonde sur une nouvelle orbite elliptique centrée sur le corps B pour lui permettre d'avoir une nouvelle trajectoire.
Les planètes géantes présentent la particularité d'être entourées d'anneaux. Saturne possède le plus spectaculaire. La formation d'un anneau est le résultat des collisions entre une mutlitude de petits cailloux en orbite autour de la planète. Ces petites particules de roche et de glace étant en rotation autour de la planète, elles s'organisent sous forme d'un disque plat.
Les divisions - espaces vides - qui apparaissent à l'intérieur d'un même anneau, sont longtemps restées inexpliquées. C'est la découverte de petits satellites orbitant dans ces espaces vides qui nous ont fournis l'explication.
Ci-contre, on a représenté un satellite orbitant dans une des divisions d'un anneau.
Ainsi, on a l'impression que le satellite repousse les cailloux hors de la division. Il n'y a pas d'effet de répulsion : tout est conforme aux lois de la gravitation universelle.
Le mouvement des planètes autour du Soleil est un cas particulier du problème des N corps pour lequel on n'a pas de solution exacte pour N supérieur à 2. Tous les corps s'attirent les uns les autres conformément à la loi de la gravitation mais on considère que les planètes ont une masse faible devant celle du corps central, le Soleil. On recherche des solutions approchées du problème fondées sur la théorie des perturbations, où les coordonnées sont des fonctions du temps t, des masses des corps en présence et des constantes d'intégration. On obtient ces solutions en construisant des théories analytiques ou en effectuant des intégrations numériques.
Dans les théories analytiques, les coordonnées sont obtenues sous forme de combinaisons de fonctions algébriques et trigonométriques analytiques du temps t et des paramètres du problème, masses et constantes d'intégration. Calculer une position avec de telles théories est long mais relativement simple puisqu'il suffit de substituer le paramètre "temps" dans les séries. Jusqu'à l'apparition des ordinateurs, il était nécessaire de construire des tables intermédiaires à partir desquelles on pouvait fabriquer des éphémérides.
Les intégrations numériques donnent les valeurs numériques des coordonnées et des vitesses pour des valeurs t0, t0+h, t0+2h, etc., t0 étant le temps initial et h étant le pas d'intégration. Les méthodes d'intégration numérique sont bien adaptées aux calculs par ordinateur et elles ont été particulièrement utilisées aux Etats-Unis. Cependant, pour calculer une position, il est indispensable de construire des tables intermédiaires à l'aide de l'intégration numérique. Ces tables seront utilisées pour la fabrication des éphémérides.
La mécanique céleste allait prouver sa force en permettant de découvrir une nouvelle planète dans le système solaire, par le calcul et non pas seulement par l'observation du ciel.
Le Verrier avait établi un modèle de mouvement d'Uranus à partir des lois de la dynamique et de la gravitation universelle. Mais la comparaison aux observations ne donnait pas satisfaction : Uranus se trouvait trop loin, par rapport à son orbite calculée. La différence ne pouvait pas être expliquée par l'imprécision des observations: elle était bien plus grande. Le Verrier supposa qu'un corps massif attirait Uranus hors de son orbite. Mais où pouvait bien se trouver ce corps ? Quel était-il ? L'étude des observations d'Uranus réalisées entre 1800 et 1850 permit d'en calculer la masse et la distance. L'orbite ainsi calculée montrait qu'il s'agissait d'une nouvelle planète, au-delà d'Uranus. Le même calcul fut fait par Adams en Angleterre mais c'est Le Verrier qui fit observer par Galle à Berlin en 1846 la nouvelle planète. En fait, l'orbite de Neptune était un peu différente de celle calculée, mais les observations d'Uranus disponibles ne permettaient pas une meilleure précision. La découverte de Pluton au XXème siècle ne s'est pas faite ainsi, la masse de Pluton étant trop faible pour perturber neptune.
Il convient de dire maintenant quelques mots sur l'argument "temps" des éphémérides. En effet, pour connaître une position à un instant donné, quel instant chercher dans les éphémérides ? Jusqu'en 1834, on a utilisé le temps solaire vrai de Paris. Ensuite, du fait de l'existence d'horloges plus fiables, on a utilisé le temps moyen de Paris. En 1916, suite à une convention internationale, on a utilisé le temps moyen de Greenwich. Ces temps étaient jusque là liés à la rotation de la Terre considérée comme suffisamment uniforme. La mise en évidence d'irrégularités dans cette rotation (ralentissement) amena les astronomes à introduire une échelle de temps uniforme pour le calcul des éphémérides, échelle de temps basée sur la révolution de la Terre autour du Soleil. On utilisa le Temps des éphémérides défini à partir de la théorie du Soleil de Newcomb, ou encore, comme dans la Connaissance des temps, le Temps uniforme de Le Verrier tiré de sa théorie du Soleil et donc très proche du précédent. A partir de 1984 on introduisit le Temps terrestre, temps uniforme construit à partir des horloges atomiques beaucoup plus stables que les mouvements célestes pour construire une échelle de temps.
Ainsi, si on utilise le Temps Universel comme argument des éphémérides, on verra les planètes accélérer... C'est en fait la Terre qui ralentit...
La mécanique céleste permet également d'obtenir, à une précision plus faible que celle des éphémérides valables sur quelques siècles, l'évolution des orbites planétaires sur de très longues durées de l'ordre de plusieurs millions d'années. On constate ainsi que l'excentricité de l'orbite terrestre subit de larges variations formées de nombreux termes périodiques dont les plus importants ont des périodes voisines de 100 000 ans, et pour l'un d'eux, une période de 400 000 ans. Les travaux de l'Institut de mécanique céleste, depuis les années 1970, ont permis de confirmer définitivement l'hypothèse astronomique des variations climatiques de la Terre au cours de l'ère quaternaire. Les paléoclimatologues montrent en effet la corrélation entre les variations des éléments de l'orbite terrestre et les grandes glaciations du quaternaire. L'orbite circulaire de la Terre correspond à une glaciation et une orbite elliptique à une période chaude. La grande précision de la mécanique céleste offre ainsi une horloge à la paléoclimatologie en lui donnant les dates des glaciations et des périodes interglaciaires.
La gravitation universelle a expliqué beaucoup de choses mais reste en elle-même inexpliquée. Une nouvelle approche de la description de l'univers va permettre d'expliquer certaines choses que la gravitation universelle de Newton n'expliquait pas.
Rappelons la loi de Newton : F = -Gmm'/r2 où F est la force exercée l'un sur l'autre par deux corps de masses respectives m et m' séparés d'une distance r. G est appelée constante de la gravitation. D'autre part, le principe d'inertie découvert par Galilée stipule qu'un corps qui se déplace sans interaction avec l'extérieur, continuera sur une trajectoire rectiligne indéfiniment. Newton ajoutera que le seul moyen de modifier cette trajectoire est d'utiliser une force : un objet subissant une force accélère d'une quantité inversement proportionnelle à la masse de l'objet dans la direction de la force.
Tous ces principes vont nous permettre de décrire les mouvements dans le système solaire mais, avouons-le, ils n'expliquent pas grand-chose. On est en présence d'une action à distance. Pourquoi les corps s'attirent-ils ? Nul ne le sait. Avant Newton, on pensait que des anges poussaient les planètes sur leurs orbites ; après Newton, on sait que les anges ne poussent pas les planètes mais les tirent vers le corps central pour contrecarrer le principe d'inertie ! Aucun mécanisme n'a été mis en évidence pour expliquer l'action de cette force.
La théorie de Newton explique aussi l'aplatissement du globe terrestre et permet de décrire correctement les marées. On avait bien pensé auparavant que la Lune pouvait attirer l'eau des mers mais alors la marée aurait dû n'être haute que du côté de la Lune. Newton l'explique : la Terre tourne autour du Soleil, elle n'est pas dans un repère galiléen et subit l'attraction de la Lune. Rien ne maintient la Terre pendant que l'eau monte vers la Lune. Le différentiel des forces explique bien les marées hautes de part et d'autre de la Terre. Enfin la gravitation universelle ne s'applique pas qu'au système solaire mais à l'univers tout entier.
Elle n'explique pas l'excès d'avance du périhélie de Mercure.
Pour expliquer ce dernier point, il est nécessaire de faire appel à la théorie de la relativité générale pour laquelle :
Le système Soleil Mercure n'est pas isolé dans l'espace et subit des perturbations gravitationnelles qui peuvent faire varier l'angle θ qui donne la position du périhélie de Mercure. Ainsi θ va varier et le périhélie va sembler "avancer" au cours du temps. la mécanique newtonnienne permet de calculer cette avance mais les observations ont montré que le périhélie avance plus rapidement que prévu. Le Verrier a cherché une planète inconnue dont les perturbations expliqueraient cet excès d'avance mais ne l'a pas trouvé. Il faudra attendre Einstein et la théorie de la relativité générale pour l'expliquer.
Dans la formule de Newton ci-dessus, on remarque l'existence d'une constante G. A quoi correspond-elle ? Quelle est sa valeur ? En fait, la mesure des distances et des périodes dans le système solaire ne nous fournit que le produit Gm de la constante G avec la masse du corps central. On connaît donc G x (masse solaire) en mesurant les positions des planètes, G x (masse terrestre) en mesurant le mouvement de la Lune, G x (masse de Jupiter) en mesurant les positions des satellites de Jupiter, etc. La mesure absolue de G a été faite par Cavendish (1731-1810) en 1798. Pour cela il réalise une expérience désormais célèbre : il mesure l'attraction de deux boules de plomb de 150 kg chacune sur de petites billes par l'intermédiaire d'un pendule de torsion. Il pourra dire : j'ai pesé la Terre ! La valeur de cette constante est 6,672 59 x 10-11 m3 kg-1 s-2.
Une question se pose aussi : la constante de la gravitation est-elle vraiment constante ou se modifie-t-elle au cours du temps ? Il a été impossible de mesurer une variation de cette constante mais cette variation, si elle existe, ne peut être que faible. En effet, en supposant que cette constante ait varié de 10% au cours du dernier milliard d'années, les conditions de rayonnement du Soleil auraient été telles que la vie aurait été impossible sur Terre à cette époque. La variation de cette constante ne peut donc être que beaucoup plus faible que cela.
Cette détermination nous permet de connaître la masse des corps du système solaire et de résoudre des problèmes tels que :
quelle serait la durée de révolution d'une bille de masse négligeable autour d'une masse d'un kilogramme situé à un mètre dans l'espace ?
Après avoir vu la gravitation universelle au sens de Newton, venons-en au principe de relativité. Ce principe n'est pas récent. Dès les prémices de la mécanique, la question qui s'est posée est : les lois de la physique que l'on met à jour restent-elles invariantes dans n'importe quel référentiel ? Y-a-t-il un référentiel absolu ? C'est à cette question fondamentale que les théories de la relativité vont tenter de répondre.
En 1905, A. Einstein (1879-1955) publie sa théorie de la relativité restreinte et, en 1916, celle de la relativité générale.
Avant même la découverte de la gravitation universelle par Newton, Galilée énonce le principe de l'inertie : tout corps abandonné à lui-même et ne subissant aucune force extérieure, est animé d'un mouvement rectiligne uniforme. On appellera "référentiels galiléens" des systèmes de référence en mouvement de translation rectiligne uniforme les uns par rapport aux autres. Pour passer d'un référentiel R à un référentiel R' animé d'une vitesse v parallèle à l'axe des abscisses, le changement de variable est de la forme :
Dans cette transformation dite "galiléenne", les lois de la mécanique et de la physique sont supposées être invariantes. Les vitesses s'additionnent. Afin de respecter le principe d'inertie, Newton sera amené à introduire un temps absolu et un espace absolu universel.
Ce système simple va vivre pendant plus d'un siècle et la mécanique céleste va décrire merveilleusement la dynamique du système solaire jusqu'à ce que deux grains de sable se glissent dans la machine. L'un sera l'inexplicable excès de l'avance du périhélie de Mercure. La mécanique classique sera impuissante devant ce problème. L'autre viendra de la découverte de l'électromagnétisme. En 1873, J. Maxwell (1831-1879), physicien écossais, publie les équations générales des champs électromagnétiques, dites "équations de Maxwell". On constate alors que ces équations ne sont pas invariantes. Effectivement, la composition des vitesses ne fonctionnent pas avec la vitesse de la lumière qui ne dépend pas de la vitesse de la source (cela se remarquerait lors de l'observation des étoiles doubles) et ne peut être composée avec une autre vitesse. Serait-ce dû à l'existence d'un "éther" dans lequel la lumière se déplace par vibration ? On chercha alors à déceler un mouvement par rapport à l'éther. En particulier, on devait pouvoir mesurer la vitesse d'un mobile en mesurant les modifications des lois physiques entraînées par le déplacement. Ce fut alors la célèbre expérience de Michelson qui consiste à mesurer la vitesse de la lumière dans deux directions perpendiculaires. Cette expérience fut faite en divers lieux, à 6 mois d'intervalle (la vitesse de la Terre change de sens) pendant des dizaines d'années et jamais on ne trouva un changement dans la vitesse de la lumière. Le mouvement de la Terre était indétectable avec cette méthode. Les équations de Maxwell étaient-elles fausses ? En fait non, c'était la transformation galiléenne qui n'était pas correcte. H. Poincaré montra que les équations de Maxwell étaient invariantes si on leur appliquait une transformation particulière, dite "transformation de Lorentz".
Einstein va réussir à étendre le principe de relativité de la mécanique à la physique à partir de deux postulats :
Ces deux postulats étaient bien sûr incompatibles avec la transformation galiléenne qui postule qu'il existe un temps absolu et que la mesure d'une longueur est indépendante du mouvement du système de référence. Einstein va montrer les erreurs de ces postulats. En particulier, il montre la relativité de la notion de simultanéité qui n'a de signification que dans un système galiléen déterminé, ce qui entraîne la relativité de la notion de longueur. Longueur et temps sont liés. La transformation galiléenne doit, comme prévu, être remplacée par la transformation de Lorentz :
pour deux repères ayant leurs axes parallèles et en déplacement relatif selon l'axe x.
La loi de composition des vitesses n'est plus celle du système galiléen.
Cette transformation va entraîner la contraction des longueurs et la dilatation des durées pour les corps en mouvement. On remarquera que pour des vitesses relatives petites devant c (i.e. v/c petit), la transformation de Lorentz se réduit à la transformation de Galilée.
Les lois de la dynamique newtonnienne sont aussi à modifier : elles doivent être invariantes dans une transformation de Lorentz.
La quantité de mouvement p = mv devient :
Dans la mécanique newtonnienne, la notion de masse a deux sens : sa détection par son poids (masse gravifique) et sa détection par sa résistance au mouvement (masse inerte). Ces masses sont proportionnelles et on choisit les unités de façon à ce qu'elles soient identiques. En identifiant l'expression ci-dessus avec p=m(v).v, on en déduit que :
où m0 est la masse au repos.
La relativité d'Einstein introduit donc la notion de masse au repos et induit une augmentation de la masse avec la vitesse.
Quant à la loi de conservation de l'énergie, elle devient :
soit en développant :
La théorie d'Einstein introduit un terme nouveau :
qui correspond à l' "énergie interne" en plus de l'énergie cinétique et il y a ainsi équivalence entre masse et énergie. Tous ces faits nouveaux ont été vérifiés par la physique des particules qui permet d'obtenir de très grandes vitesses. Aux basses vitesses, on retrouve les lois de la dynamique newtonnienne.
La relativité restreinte n'a cependant pas résolu tous les problèmes. Elle s'est montrée incapable d'incorporer la gravitation de manière satisfaisante et certaines expériences semblent toujours prouver qu'il existe un référentiel absolu. Par exemple, l'expérience du pendule de Foucault semble indiquer que l'on peut mesurer le mouvement de la Terre par rapport à un référentiel absolu. Où donc se trouve la contradiction ? Einstein va étendre pour cela la relativité restreinte à la gravitation. Pour cela Einstein va énoncer le principe d'équivalence. L'identité entre la masse gravifique et la masse inertielle devient un postulat de base de la théorie. Ainsi, il n'est pas possible, localement, de distinguer une force créée par une accélération d'une force créée par la gravitation. Cette identité a conduit Einstein à penser qu'un laboratoire en chute libre dans un champ gravitationnel constitue en quelque sorte l'extension naturelle du concept de système de référence inertiel de l'ancienne mécanique. On est ainsi amené à postuler que "tous les systèmes de référence en chute libre sont équivalents pour l'expression des lois physiques non gravitationnelles, quel que soit leur état de mouvement et leur localisation". Cet énoncé constitue ce qu'on appelle aujourd'hui le principe d'équivalence d'Einstein.
Il faut souligner à ce propos que ce principe n'édicte rien sur la description des phénomènes gravitationnels eux-mêmes. Ainsi, il ne postule pas que deux laboratoires en chute libre situés en des endroits différents vont trouver la même valeur pour la constante de la gravitation G (étant admis qu'ils sont munis d'horloges et de mètres de même fabrication). Autrement dit, le principe d'équivalence d'Einstein ne rejette pas a priori que la "vraie théorie relativiste de la gravitation" puisse prédire que G varie avec le temps et le lieu. Ce principe permet donc des généralisations de la relativité générale, généralisations dont les vérifications font l'objet de nombreuses recherches actuelles.
L'idée qu'en présence d'un champ gravitationnel, ce sont les référentiels en chute libre qui doivent remplacer les référentiels inertiels en amène très naturellement une autre : les référentiels en chute libre ne peuvent être que locaux, car un vrai champ de gravitation (celui de la Terre par exemple) n'est pas uniforme. En effet, la non uniformité entraîne qu'aucun mouvement global du système de référence ne peut supprimer partout le champ de la Terre. D'où l'idée que le principe d'équivalence d'Einstein, qui est purement local, n'interdit pas à la géométrie de l'espace-temps de changer d'un point à un autre. Au contraire, un tel changement de géométrie permet de résoudre le problème de la gravitation avec une extrême élégance conceptuelle. Le principe d'inertie galiléen nous dit qu'en l'absence de tout champ de force, un point matériel a un mouvement rectiligne uniforme dans tout référentiel galiléen. Or, une droite est une géodésique de l'espace euclidien. Il est dès lors naturel de considérer le mouvement d'une particule en chute libre dans un champ gravitationnel comme défini par une géodésique d'une métrique plus complexe qu'une métrique euclidienne. En fait, Einstein a introduit une généralisation dite "pseudo-riemanienne" de la métrique spatio-temporelle de la relativité restreinte.
Nous donnons ci-dessous une analogie qui permet de comprendre pourquoi une métrique non euclidienne peut rendre compte de façon simple d'une force de gravitation.
La théorie de la relativité générale a permis d'expliquer plusieurs phénomènes importants :
Nos méthodes de mesure du temps reposent sur ce que l'on a d'abord cru parfait et immuable : le mouvement de la Terre. Très tôt, les civilisations ont eu besoin de mesurer le temps qui s'écoule : les êtres humains ont besoin de repères communs temporels pour se rencontrer. Il est donc nécessaire de mesurer les durées par rapport à un étalon de base et de dater les événements se produisant au cours de l'écoulement du temps. L'utilisation des mouvements célestes comme horloge a été l'idée la plus naturelle, ces mouvements paraissant de prime abord immuables, réguliers et uniformes. L'augmentation de la précision de mesure du temps va montrer qu'il n'en est rien et la recherche d'un temps vraiment uniforme va rendre obsolètes les vieilles définitions. Notre rythme de vie lié aux jours et aux saisons va nous faire conserver nos unités et échelles de temps anciennes.
Les mouvements de la Terre autour de son axe ou autour du Soleil semblent immuables, réguliers, uniformes et paraissent parfaits pour concrétiser une échelle de temps qui doit être, elle-aussi, immuable, régulière et uniforme. Ainsi, la rotation de la Terre autour de son axe définit le jour et la révolution de la Terre autour du Soleil définit l'année.
Pour définir parfaitement le mouvement de la Terre, il faut connaître :
Si on considère une direction fixe dans l'espace, il faudra 23h 56m 4s à un observateur pour se retrouver dans la même direction après un tour complet de la Terre autour de son axe. Mais ce n'est pas cette durée qui est la plus facile à percevoir. On aura beaucoup plus l'impression que la Terre a accompli un tour si c'est le Soleil qui revient à la même position. C'est ce retour du Soleil dans la même direction qui définit le jour qui lui, dure en moyenne, 24 heures. En effet, la Terre s'est déplacée et le Soleil ne correspond pas à une direction fixe.
Le jour n'est pas, a priori, une simple unité de temps pour compter des durées, mais c'est plutôt un intervalle de temps centré sur une période de "jour" et encadré par des périodes de "nuit". Nous allons donc définir le jour comme la durée qui sépare deux passages consécutifs du Soleil à son point culminant, c'est-à-dire au "méridien" du lieu. Mais une telle durée est variable : pourquoi ?
Tout d'abord, et nous le verrons plus loin (lois de Kepler), l'orbite apparente du Soleil autour de la Terre (en fait, l'orbite réelle de la Terre autour du Soleil) n'est pas un cercle mais une ellipse : ainsi la vitesse apparente du Soleil sur la sphère céleste va varier selon sa position sur sa trajectoire. Le Soleil passera donc au méridien soit en avance quand il va plus vite, soit en retard quand il ralentit, par rapport à une position moyenne. Pour que nos jours aient la même durée et donc que nos heures soient régulières (et que midi n'arrive pas un peu en avance ou un peu en retard), on construit une position moyenne théorique du Soleil sur l'année (le Soleil moyen, par opposition au Soleil vrai) qui définira le Temps moyen, échelle de temps qui a été en usage jusque dans les années 1970. La définition officielle de cette échelle de temps était : "l'heure légale en France est le temps moyen de Paris retardé de 9m 21s et augmenté de douze heures (c'est la définition du Temps Universel internationalement reconnu) et aussi augmenté de deux heures en été et d'une heure en hiver (c'est l'heure d'été ou l'heure d'hiver)". Le retard de 9m 21s sert à nous mettre à l'heure du méridien international (Greenwich). L'avance de douze heures sert à faire commencer le jour à minuit (c'est plus pratique car le temps moyen fait débuter le jour à midi au moment du passage du Soleil au méridien). Enfin le décalage d'une heure ou de deux heures nous donne l'heure d'été ou l'heure d'hiver. Les fuseaux horaires sont là pour permettre un décalage similaire pour les pays situés loin du méridien international.
C'est cette différence entre le Soleil moyen et le Soleil vrai qui nous fait dire en janvier : "tiens, les jours rallongent plus le soir que le matin". En fait, c'est le midi vrai qui se déplace et arrive de plus en plus tard par rapport au midi moyen. Cet écart entre le midi moyen et le midi vrai est évidemment fondamental lorsque l'on construit un cadran solaire qui lui, va donner le temps vrai du lieu. Cette différence est appelée "équation du temps". Elle atteint 16 minutes au maximum fin octobre.
L'équation du temps est en fait la résultante de deux effets :
Plus simplement, disons que la Terre tourne autour de son axe dans le plan de l'équateur et autour du Soleil dans le plan de l'écliptique. C'est l'avance (ou le retard) du Soleil, par rapport à un mouvement uniforme dans l'écliptique, qui doit se projeter sur l'équateur.
Du fait de l'augmentation de la précision dans la mesure du temps, les échelles utilisées ont rapidement évolué.
La rotation diurne de la Terre autour de son axe a longtemps semblé suffisamment uniforme pour servir de base à l'échelle de temps utilisée par les astronomes et appelée Temps universel. Dans cette échelle de temps, la seconde est définie comme étant égale à 1/86400 jour solaire moyen. Mais on s'est aperçu que la Terre ralentissait en constatant, par exemple, que la Lune s'éloignait de la Terre d'une manière qui n'était pas en accord avec les calculs théoriques. L'erreur ne provenait pas de ces calculs, mais du fait que le Temps universel n'était pas une échelle de temps uniforme.
Cela a conduit les astronomes à construire une autre échelle de temps fondée sur le mouvement orbital (révolution) de la Terre autour du Soleil. Cette nouvelle échelle de temps légalement en usage entre 1960 et 1967 s'appelle le temps des éphémérides. Elle est fondée sur l'observation de la longitude du Soleil dans le ciel au cours de l'année. L'équation qui définit numériquement la longitude du Soleil a été donnée par Newcomb et a été adoptée officiellement en 1952 par l'Union astronomique internationale. C'est un polynôme du second degré du temps. Si donc on observe la longitude du Soleil on en déduit aisément l'instant correspondant dans l'échelle de temps des éphémérides. En 1960 la onzième conférence générale des poids et mesures décida que la seconde est la fraction 1/31556925.9747 de l'année tropique pour le 0 janvier 1900 à 12 heures du temps des éphémérides.
La durée de l'année n'est cependant pas vraiment stable non plus et on a été amené à nouveau à changer d'échelle de temps. On utilise actuellement depuis 1967 une échelle de temps construite différemment, une échelle physique et non plus astronomique : on fabrique, à l'aide d'horloges atomiques (mesurant les fréquences des atomes), une "seconde" particulièrement stable. On va alors ajouter ces secondes les unes derrière les autres pour fabriquer une échelle de temps uniforme : le Temps atomique international, indépendant des mouvements célestes. Le Temps atomique international est une moyenne des horloges atomiques réparties dans le monde. Les effets relativistes montrent que cette seconde dépend du repère où l'on se place mais on arrive là à un niveau de précision très élevé et les solutions pour utiliser ces échelles de temps sont complexes.
L'utilisation du Temps atomique international, très stable, va entraîner un décalage avec la rotation de la Terre et il faudra recaler cette échelle de temps régulièrement pour que midi reste à midi... C'est pour cela que l'on annonce régulièrement qu'une seconde va être ajoutée de temps en temps le 31 décembre ou le 31 juillet, selon les variations de la rotation de la Terre, pour que l'échelle de temps atomique utilisée ne s'écarte pas de plus d'une seconde du temps astronomique qu'est le Temps universel. Cette échelle de temps atomique modifiée par l'ajout régulier d'une seconde s'appelle le Temps universel coordonné. L'échelle de temps stable et uniforme employée pour les calculs astronomiques est maintenant le Temps terrestre, échelle de temps dont la réalisation pratique est liée au Temps atomique international, et qui prolonge le Temps des éphémérides.
Le ralentissement de la rotation terrestre nous a montré le caractère irrégulier de cette rotation. De plus, l'axe de rotation ne reste pas fixe au cours du temps : les perturbations gravitationnelles de la Lune, du Soleil et des planètes entraînent différents mouvements de cet axe. D'abord un mouvement oscillant "périodique" rapide de petite amplitude autour d'une position moyenne, c'est la nutation. Ensuite, un mouvement lent, "séculaire" : tout en restant incliné à peu près de 23° 26' sur l'écliptique (le plan orbital de la Terre), l'axe va effectuer une rotation complète en 26 000 ans. C'est la précession : dans 13 000 ans, l'étoile polaire aura changée. C'est l'étoile Véga vers laquelle pointera l'axe de rotation de la Terre et 13 000 ans plus tard il sera à nouveau dirigé vers notre étoile polaire. La précession entraîne le déplacement rétrograde du point γ (équinoxe) le long de l'équateur céleste : il fera un tour en 26 000 ans. Les constellations vont donc sembler changer de place le long du zodiaque. Pour conserver les saisons à leur place chaque année nous devons donc considérer un équinoxe mobile.
L'axe de rotation de la Terre subit de petites variations périodiques de sa direction : c'est la nutation.
Ce mouvement de précession implique ainsi que l'équinoxe ou point vernal, va effectuer une rotation sur notre sphère céleste en 26 000 ans, c'est-à-dire que l'origine des ascensions droites que nous avons choisie sur notre sphère céleste est mobile ! Il ne sera guère pratique ainsi de mesurer les mouvements des étoiles sur notre sphère céleste... Le problème est résolu par le choix d'un équinoxe à une date donnée. Ainsi, aujourd'hui, le point vernal origine est celui du début de l'année 2000 : tous les catalogues d'étoiles utilisent cette référence et l'utiliseront encore pendant des années. Il est à noter que les observations sur le ciel peuvent, dans certains cas, se faire par rapport au point vernal du jour de l'observation et qu'une correction sera faite pour se ramener à un repère commun, celui de 2000.
Les positions dans un repère de la date sont dites coordonnées "vraies de la date" et celle dans un repère 2000 sont dites "moyennes J2000". Dans le premier cas, on utilise un axe affecté de la nutation et de la précession et dans le deuxième cas, on élimine la nutation (coordonnées moyennes) en prenant l'axe "moyen" du début de l'année 2000.
La précession va aussi compliquer la définition de l'année par rapport à "un tour" effectué par la Terre autour du Soleil.
L'année semble être facile à définir : c'est la durée nécessaire à la Terre pour faire un tour complet autour du Soleil. En fait ce n'est pas si simple. L'année intervient dans notre calendrier et le fait que la Terre ait accompli un tour complet (360°) n'est pas un critère fondamental.
On voit que l'on a le choix pour définir une année. Ce choix sera dicté par des considérations sociales, culturelles et religieuses. Notre calendrier (grégorien) a adopté l'année tropique parce qu'elle fait revenir les saisons à la même date chaque année (calendrier solaire). Le calendrier chinois utilise l'année sidérale parce qu'il se cale sur le mouvement des astres dans le zodiaque (par rapport aux étoiles fixes). L'année draconitique ne sert que pour déterminer la périodicité des éclipses de Soleil. Les calendriers lunaires (comme le calendrier musulman) privilégient une bonne approximation des mois sur les lunaisons. Ils sont indépendants du mouvement de la Terre autour du Soleil.
L'heure nous permet de mesurer l'écoulement du temps au cours de la journée. Elle mesure une durée depuis le début du jour contrairement aux numéros des jours, des mois, des années, des siècles, des millénaires, qui indiquent un numéro d'ordre dans une chronologie.
La seule heure naturelle que nous pouvons percevoir est l'heure donnée par le Soleil liée à l'alternance jour-nuit : le Soleil nous indique le midi (c'est le moment où il est au plus haut dans le ciel) d'où nous déduisons le" minuit". Par convention, nous décomptons 24 heures au cours d'une journée de midi à midi ou de minuit à minuit. Pendant des siècles, l'heure du Soleil fut la seule accessible grâce aux cadrans solaires. On définit ainsi le temps solaire vrai en un lieu comme l'angle horaire du Soleil en ce lieu pour un instant donné. C'est une notion hybride qui traduit a la fois le mouvement de la Terre autour de son axe et son mouvement de révolution autour du Soleil et qui ne permet pas de déterminer des heures de longueur fixe.
Dès l'aube de l'humanité l'homme a cherché à mesurer le temps pour prévoir le retour des saisons froides ou chaudes afin, par exemple, d'assurer sa subsistance. C'est l'alternance des jours et des nuits, donc le mouvement apparent du Soleil dans le ciel, qui va, entre autre, s'imposer à lui. Ce sont donc des considérations pratiques qui ont guidé les premières recherches sur le temps. Mais le concept de temps est aussi une question scientifique et philosophique de la plus haute importance. Cette quête fondamentale de connaissances conduit aujourd'hui les scientifiques à des recherches en physique de très haut niveau.
Historiquement on peut dire que la mesure du temps est essentiellement de nature astronomique. Elle ne deviendra l'affaire des physiciens que beaucoup plus tard, dans le courant du vingtième siècle.
Tous les phénomènes périodiques peuvent être utilisés pour définir une échelle de temps. Une idée vient donc naturellement en regardant le ciel : utiliser l'alternance des jours et des nuits, donc le mouvement du Soleil, comme phénomène de base pour construire une échelle de temps. L'utilisation du mouvement du Soleil est le principe de base de fonctionnement des cadrans solaires. Un des premiers cadrans qui nous soit parvenu est un cadran solaire égyptien qui date d'environ 1500 ans avant Jésus-Christ mais l'art des cadrans solaires, la gnomonique, ne connaîtra son apogée que vers les XVIème et XVIIème siècles.
Le temps donné par les cadrans solaires est ce que l'on appelle en astronomie le temps solaire vrai d'un lieu. Ce temps est donc un temps local qui n'est pas uniforme à cause de la non uniformité du mouvement du Soleil dans le ciel. Cela tient au fait que le Soleil vrai se déplace sur une orbite elliptique suivant les lois de Kepler, dans le plan de l'écliptique. Ce temps fût d'un usage très courant jusqu'au XVIIIème siècle. Le développement rapide des moyens de communication rendit cependant obligatoire l'adoption d'un temps solaire moyen. Ce temps solaire moyen est donné par un soleil moyen (fictif) se déplacant sur une orbite circulaire, à vitesse constante, dans le plan de l'équateur céleste. Ce temps solaire moyen est à l'origine de la première définition astronomique de la seconde jusqu'en 1960 : c'était la 86400ème partie du jour solaire moyen. La différence entre temps solaire moyen et temps solaire vrai s'appelle l'équation du temps.
Les variations du temps solaire vrai par rapport au temps solaire moyen sont de nature essentiellement géométrique. Newton est probablement le premier à avoir pensé à la non uniformité du mouvement de la Terre puisqu'il mentionne explicitement dans son livre des Principes (1686) que les astromomes doivent corriger le temps vrai fourni par l'observation du Soleil de l'équation du temps. Il ajoute également : "il se peut qu'il n'existe aucun mouvement uniforme par lequel le temps puisse être mesuré avec précision". Kant en 1754 puis Lalande en 1771 émettront des doutes quant à l'uniformité du mouvement de rotation de la Terre, et par voie de conséquence de celui du Soleil dans le ciel. On sait aujourd'hui que la rotation de la Terre n'est pas uniforme : le frottement des marées océaniques sur l'écorce terrestre, les variations saisonnières d'origine météorologique sont des causes maintenant bien connues de non uniformité de la rotation terrestre.
L'heure solaire présente cependant plusieurs inconvénients : tout d'abord elle est locale, c'est-à-dire qu'elle dépend du lieu où on se trouve. Ensuite, elle n'est pas uniforme du fait de l'excentricité de l'orbite terrestre. Ce dernier inconvénient a été résolu en utilisant un temps moyen résultant d'une moyenne sur une année dont on connait l'écart au temps solaire vrai par l'équation du temps. Il reste encore le problème d'une heure qui dépend du lieu où on se trouve. Ce problème a été résolu au XIXème siècle sous l'impulsion des compagnies de chemins de fer. On a trouvé préférable d'utiliser la même heure partout, l'heure de Paris définie par le temps civil de Paris, défini lui, comme étant le temps moyen de Paris augmenté de 12 heures. Cette stipulation vient du fait que le temps moyen fait commencer le jour à midi (c'est le seul instant observable), ce qui n'est pas pratique dans la vie de tous les jours...
Selon la loi du 9 mars 1911 en vigueur jusqu'en 1978, l'heure légale en France était l'heure du temps moyen de Paris retardée de 9 minutes 21 secondes. Cette définition voulait signifier en fait que l'heure en France était le temps universel. La loi de 1911 a été remplacée par le décret du 9 août 1978 qui stipule que "le temps légal est obtenu en ajoutant ou en retranchant un nombre entier d'heures au temps universel coordonné". Un décret fixe ce nombre pour chaque partie du territoire de la République Française en fonction des fuseaux horaires. Il peut l'accroitre ou le diminuer pendant une partie de l'année. Ce nouveau décret prévoit donc l'usage d'une heure d'été, apparue pour la première fois en 1916. C'est cette heure qui est diffusée par l'horloge parlante que l'on peut appeler par téléphone au 36 99.
Le principe d'un temps unique pour un pays, réglé sur le temps moyen de l'une des villes, pose à nouveau le problème de coordonner une heure dans le monde entier. Mais s'il est possible d'imposer l'heure de Paris dans toute la France (l'écart au temps solaire vrai ne dépasse pas 30 minutes environ), il sera plus difficile de l'imposer au reste du monde du fait du décalage au temps solaire vrai qui ira grandissant en s'éloignant du lieu de référence. Cela a amené les états à se mettre d'accord pour définir un temps universel, référence pour tous, et des temps locaux qui ne différeraient que d'un nombre entier d'heures, par la création de "fuseaux horaires".
Le temps universel est donc une échelle de temps universelle, comme son nom l'indique. Par convention internationale, le temps universel est le temps moyen de Greenwich, augmenté de 12 heures (pour faire commencer le jour à minuit et non pas à midi).
Le Temps atomique international TAI est une échelle scientifique que les astronomes utilisent pour l’interprétation dynamique des mouvements des astres naturels et artificiels. Aucun signal horaire ne le diffuse directement. Mais on verra plus loin, à propos du temps universel coordonné, comment on peut dater les observations en TAI, l’exactitude relative étant de 10 à 20 nanosecondes ;
Le Temps universel UT1 est nécessaire pour fixer la position de la Terre dans son mouvement de rotation. Il sert pour la navigation et la géodésie astronomiques, pour la navigation spatiale. En astronomie, il faut le connaître pour interpréter les éclipses, les occultations, les mesures de périodes de pulsars. En géophysique, il est, par comparaison au TAI, un témoin des irrégularités de la rotation terrestre. La précision ultime avec laquelle on peut l’obtenir actuellement est de 0,01 ms. Mais ceci demande d’avoir accès au TAI avec une précision au moins aussi bonne et aux publications du Service International de la rotation terrestre (IERS)(1). On verra cependant qu’on l’obtient directement à 0,1 s près par les signaux horaires du système UTC ;
Le Temps universel coordonné(2) UTC n’est autre que le TAI, mais décalé d’un nombre entier de secondes, de façon à se conformer approximativement au UT1. Les signaux horaires radio émis en haute fréquence, essentiellement destinés aux navigateurs, diffusent UTC ; si l’on tient compte du temps de propagation, les incertitudes peuvent être réduites à 1 ms environ. Mais il est maintenant bien plus pratique de faire appel aux émissions des satellites du « Global Positioning System » (GPS) ; avec des récepteurs appropriés on obtient en permanence et sans aucune correction UTC à 1 μs près environ. Si l’on a besoin d’une exactitude encore supérieure, il faut faire appel aux publications du Bureau international des poids et mesures (BIPM)(1) qui fournissent des corrections au temps du GPS. Les incertitudes sont alors réduites à 10 ou 20 ns. Ces méthodes donnent accès au TAI, après correction d’un nombre entier de secondes qu’il faut connaître. D’après les accords internationaux en vigueur, UTC ne doit pas s’écarter de plus de 0,9 s de UT1. Le tableau suivant donne la différence entre TAI et UTC depuis 1983.
Intervalle de validité | TAI -UTC | TT - UTC |
---|---|---|
1 juillet 1983 - 1 juillet 1985 | 22 s | 54,184 s |
1 juillet 1985 - 1 janvier 1988 | 23 s | 55,184 s |
1 janvier 1988 - 1 janvier 1990 | 24 s | 56,184 s |
1 janvier 1990 - 1 janvier 1991 | 25 s | 57,184 s |
1 janvier 1991 - 1 juillet 1992 | 26 s | 58,184 s |
1 juillet 1992 - 1 juillet 1993 | 27 s | 59,184 s |
1 juillet 1993 - 1 juillet 1994 | 28 s | 60,184 s |
1 juillet 1994 - 1 janvier 1996 | 29 s | 61,184 s |
1 janvier 1996 - 1 juillet 1997 | 30 s | 62,184 s |
1 juillet 1997 - 1 janvier 1999 | 31 s | 63,184 s |
1 janvier 1999 - 1 janvier 2006 | 32 s | 64,184 s |
1 janvier 2006 - 1 janvier 2009 | 33 s | 65,184 s |
1 janvier 2009 - 1 janvier 2012 | 34 s | 66,184s |
1 janvier 2012 - 1 janvier 2015 | 35 s | 67,184s |
1 janvier 2015 - 1 janvier 2017 | 36 s | 68,184s |
1 janvier 2017 - | 37 s | 69,184s |
Les temps en usage, transmis par exemple par les horloges parlantes et les stations de radiodiffusion des divers pays, dérivent de UTC par addition d’un nombre entier d’heures. UTC est donc la seule échelle de temps mondiale directement accessible aux observateurs et c’est celle dans laquelle doivent être datés les évènements scientifiques, en particulier les observations astronomiques. La plupart des émissions de signaux horaires radio diffusent suivant un code simple, uniformisé et audible une correction appelée DUT1 qui permet de corriger UTC pour avoir UT1 avec une erreur maximale de 0,1 s. Les utilisateurs qui veulent connaître UT1 avec une précision encore meilleure doivent faire appel aux circulaires de l’IERS qui donnent des tables des valeurs de UT1 – UTC. Pour avoir plus de détails, on peut consulter le Service international de la rotation tesrrestre ;
Le Temps des éphémérides TE fut la meilleure répresentation du temps uniforme avant l’apparition du temps atomique. Il reste, de ce fait, indispensable pour interpréter les observations anciennes. Pour les travaux sur les données récentes, il est remplacé par des échelles de temps liées au temps atomique dont la définition prend en compte les effets de la relativité générale. Ainsi les éphémérides géocentriques sont exprimées dans une échelle qui est en pratique TAI + 32,184 s. Cette échelle qui prolonge le TE, depuis le 1 janvier 1977, a reçu le nom de Temps terrestre, TT. En 2018, on a approximativement TT – UTC = 69,2 s. C’est cette valeur qui a été utilisée pour les calculs de cette édition de le "Guide des Données Astronomiques" . La figure 8 de l'ouvrage donne sous forme graphique les différences des échelles de temps par rapport au TAI. La figure 9 de l'ouvrage montre deux extraits détaillés ;
Le Temps dynamique barycentrique TDB est une échelle de temps-coordonnée recommandée par l’UAI en 1976 pour les éphémérides et les théories dynamiques rapportées au barycentre du système solaire. TDB diffère du temps terrestre TT par des termes périodiques et des termes de Poisson. En 1991, l’UAI a recommandé de remplacer TDB par le temps coordonnée barycentrique TCB.
------------------------------------------------------
(1) IERS central bureau, Richard-Strauss Allee 11, D 60598 Frankfurt/main, Allemagne. IERS-EOC, Observatoire de Paris, 61 avenue de l’observatoire, 75014 Paris.
(2) Lorsqu’il n’y a pas lieu de distinguer entre UTC et UT1, c’est-à-dire lorsqu’une précision d’une seconde suffit, la notation abrégée UT est admise. L’usage des initiales GMT (ou TMG) qui prête à confusion est fautif ; l’Union Astronomique Internationale a instamment demandé qu GMT soit remplacé par les désignations appropriées, UT1, UTC, UT. Cette Union a aussi recommandé les désignations TAI, UT1, UTC, UT dans toutes les langues.
Chaque pays va définir son heure par l'écart au temps universel. Cet écart étant déterminé de façon à ce que l'heure adoptée respecte le cycle journalier lié au lever du Soleil, au midi, et au coucher du Soleil. Cependant, pour faciliter les changements d'heure pour les voyageurs, les accords internationaux prévoient d'adopter un écart au temps universel égal à un nombre entier d'heures. Pour cela, on définit 24 zones autour du globe appelées "fuseaux horaires". Chaque pays se rattache ainsi au fuseau le mieux adapté et définit son heure légale ou standard comme TU (temps universel) + ou - N heures (où N est un nombre entier). Cela ne l'empêche pas d'ajouter ou de retrancher une heure pour définir une heure d'été ou autre. Les pays très étendus en longitude adoptent plusieurs heures légales (par exemple aux USA, il y a 7 heures légales : Atlantique, Est, Central, Montagne, Ouest, Alaska et Hawaï, avec deux variantes : l'heure standard applicable en hiver et l'heure "de la lumière du jour" qui correspond à notre heure d'été puisqu'on l'applique en été en ajoutant une heure à l'heure standard).
On trouvera ci-dessous la répartition des heures légales selon les fuseaux horaires sur tous les continents. Remarquons que certains territoires comme le Groenland ou l'Antarctique n'ont pas d'heure légale propre : le Temps Universel y est donc utilisé. Remarquons aussi que tous les pays n'ont pas adopté un décalage d'un nombre entier d'heures avec le Temps Universel comme l'Inde qui a adopté 5h 30m. Les pays adoptant une heure d'été ajoutent une heure au décalage ci-dessous pour leur période d'été.
L'existence de fuseaux horaires va entraîner l'existence d'une "ligne de changement de date". Examinons en effet l'écart des heures locales au temps universel. En allant vers l'Est, le Soleil va se lever plus tôt et donc, pour obtenir les heures locales on va ajouter une heure, puis deux, puis trois au temps universel en se déplacant vers l'Est. En allant vers l'Ouest ce sera le contraire : on retirera des heures au temps universel pour que midi reste à 12 heures... En effet, s'il est midi en France, les pays situés à l'Est de la France sur une même latitude verront le Soleil vers la France, c'est-à-dire vers l'Ouest, c'est donc que ce sera l'après-midi et qu'il sera plus tard qu'en France et qu'on ajoutera une ou plusieurs heures à l'heure française pour obtenir l'heure locale.
Donc en allant vers l'Est on ajoute des heures : on arrive à la ligne de changement de date quand on a ajouté douze heures. S'il est midi en temps universel, il sera minuit le soir du même jour sur le dernier fuseau vers l'Est que l'on notera FE. En allant vers l'Ouest, on retranchera des heures et il sera 0 heure du même jour en arrivant sur le dernier fuseau vers l'ouest que l'on notera FO. Les deux fuseaux concernés sont en fait côte à côte et une heure plus tard, il sera 1 heure du même jour sur le fuseau FO et une heure du lendemain sur le fuseau FE qui vient de passer minuit. Le passage de la ligne de changement de date fait donc effectivement passer d'un jour à l'autre à une même heure ou plutôt à un même moment de la journée. Notons cependant que tout le monde est à la même heure et à la même date en temps universel, ce qui permet de s'y retrouver.
C'est en 1955 que le premier étalon de fréquence fut construit par L. Essen et J. Parry qui travaillaient au National Physical Laboratory de Londres. Ces premiers travaux ouvrirent la voie à une nouvelle définition de la seconde qui vit le jour en 1967 lors de la treizième conférence générale des poids et mesures. La seconde est la durée de 9192631770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins F=3 et F=4 de l'état fondamental 6S1/2 de l'atome de césium 133. Malgré une complexité apparente au moins aussi grande que celle de la définition de la seconde de temps des éphémérides, cette définition offre l'avantage d'une bien meilleure accessibilité.
La mécanique quantique nous apprend que les atomes peuvent se trouver dans différents états ou niveaux d'énergie qui sont quantifiés. Autrement dit les valeurs de l'énergie des atomes prennent des valeurs discrètes et non continues. Le niveau d'énergie la plus basse sera appelé le niveau fondamental. Le niveau fondamental se décompose lui même en deux niveaux hyperfins notés respectivement F=3 et F=4. On sait également, depuis Max Planck, que pour faire passer un atome d'un niveau d'énergie à un autre, il faut lui apporter une énergie, sous forme de rayonnement électromagnétique, correpondant à la différence d'énergie des deux niveaux considérés. Des mesures réalisées entre 1955 et 1958 ont montré que l'atome de césium 133 pouvait passer du niveau hyperfin noté F=3 au niveau hyperfin noté F=4 lorsqu'il était soumis à un rayonnement micro-onde de fréquence 9192631770 Hz. C'est cette valeur qui est à la base de la définition de la seconde atomique. Un appareil électronique, un compteur de cycle, va donc compter 9192631770 cycles pendant une durée d'une seconde. L'appareil qui réalise ainsi la définition de la seconde atomique s'appelle un étalon primaire de fréquence. Il en existe actuellement différent types : les étalons primaires de fréquence à déflexion magnétique, à pompage optique et les fontaines atomiques. L'appareil qui compte les secondes et qui les accumule au cours du temps est une horloge atomique.
Les fontaines atomiques sont les derniers développements de la technique des étalons de fréquence. Ils utilisent la technique du refroidissement des atomes qui a valu son prix Nobel à C. Cohen-Tannoudji en 1997. En effet, et quel que soit l'étalon considéré, le nombre d'atomes qui subit l'interaction micro-onde est d'autant mieux déterminé que la durée d'interaction de ces derniers dans la cavité est plus important. Afin d'augmenter ce temps d'interaction les atomes sont piégés, confinés, dans six faisceaux lasers concourants afin de réduire le plus possible leur vitesse d'agitation thermique. La physique statistique nous enseigne en effet que la température d'un gaz est proportionnelle à la vitesse d'agitation des particules qui le compose. Si la vitesse est très faible la température correspondante sera très basse d'où le nom de la technique utilisée. Une fois les atomes confinés, ils vont être lancés en direction de la cavité micro-onde, comme dans les étalons classiques, à la seule différence que la cavité est cette fois verticale. La verticalité de la cavité s'impose à cause de la faible vitesse des atomes qui, s'ils effectuaient un vol balistique horizontal, "tomberaient vers le bas". Pour des raisons techniques (homogénéïté du champ magnétique...) la cavité micro-onde n'est pas réalisée en un seul morceau de longueur D à l'intérieur duquel aurait lieu, de façon continue, l'interaction. Dans le cas des étalons à déflexion ou à pompage une cavité dite de Ramsey est utilisée dans laquelle l'interaction a lieu en chacune de ses extrémités qui sont séparées par une distance D. Dans le cas de la fontaine atomique la cavité est encore un peu différente : il n'y a qu'une seule zone dans laquelle l'interaction micro-onde a lieu, mais deux fois de suite, une fois lorsque les atomes vont vers le haut et une fois lorsqu'ils vont vers le bas. La préparation et la détection des atomes de césium se fait comme dans le cas d'un étalon à pompage optique classique. La meilleure fontaine atomique actuellement en fonctionnement dans le monde, FO1, se trouve au Laboratoire primaire du temps et des fréquences, labaratoire du Bureau national de métrologie à l'observatoire de Paris.
Les horloges atomiques à césium sont des étalons primaires de fréquence très particuliers. Ils génèrent la seconde du système international comme dans le cas d'un étalon classique mais les accumulent également de façon à produire des minutes et des heures. La finalité de ces instruments est différente de celle des étalons. Alors que ces derniers doivent avoir une très bonne exactitude, une différence la plus faible possible entre la définition de la seconde du SI et la seconde réalisée par l'instrument, les horloges doivent avoir une excellente stabilité à long terme c'est à dire que les variations de la seconde produite doivent être les plus faibles possibles autour d'une valeur moyenne (qui n'est pas forcément très proche de la seconde du SI). Les principales horloges atomiques commerciales à césium sont du premier type étudié : ce sont des instruments à déflexion magnétique. D'autres horloges atomiques existent qui n'utilisent pas l'atome de césium. Il existe des horloges à rubidium, des horloges à quartz, des masers à hydrogène... C'est ce dernier type d'horloge, avec les horloges à césium, qui est le plus utilisé dans le calcul du temps atomique international. La 14ème Conférence générale des poids et mesures (CGPM) a décidé que le Temps atomique international est la coordonnée de repérage temporel établie sur la base des indications d'horloges atomiques fonctionnant dans divers établissements conformément à la définition de la seconde, unité de temps du Système international d'unités. C'est actuellement le Bureau international des poids et mesures qui est en charge du calcul du TAI. Cet organisme collecte les données d'environ 500 horloges (en 2016) réparties dans plus de 70 laboratoires. Le calcul du TAI est effectué à l'aide d'un algorithme, ALGOS, qui effectue une moyenne pondérée des lectures des horloges, la finalité étant d'obtenir une très bonne stabilité à long terme. L'exactitude de l'échelle de temps est assurée par des comparaisons régulières entre son intervalle unitaire et l'intervalle unitaire obtenu par les différents étalons primaires de fréquence répartis dans le monde. Ce mode de calcul permet d'obtenir une autre des propriétés attendues des échelles de temps : la pérennité. Une horloge qui cesse de fonctionner peut très facilement être remplacée par une autre sans que le comportement global du TAI en soit affecté. Actuellement l'instabilité du TAI est estimée à environ 4.10-15 à 10 jours, 4,3.10-15 à 40 jours, 4,5.10-15 à 160 jours et 10-14 au delà de 3 ans. Ces estimations sont effectuées à l'aide d'un estimateur statistique dénommé variance de Allan.
Il existe de nombreux organismes dans le monde qui possèdent des horloges atomiques ou des étalons primaires de fréquence. Bien sûr chacun de ces organismes souhaite comparer ses propres instruments à ceux des autres, à des fins d'évaluation et d'amélioration de leurs qualités métrologiques, ou simplement pour participer au calcul du temps atomique international, TAI . La méthode la plus classique pour comparer des horloges distantes consiste à employer les satellites du Global Positioning System, GPS.
Le GPS est un système militaire de radio-navigation constitué d'un ensemble de satellites en orbite à 20000 km autour de la Terre. Chaque station équipée d'une des horloges à comparer reçoit les signaux d'un satellite du GPS. Les temps d'arrivée des signaux sont datés grâce à l'horloge de la station réceptrice alors que les temps d'émission de ces signaux par un satellite quelconque sont datés dans l'échelle de temps de l'horloge embarquée par ce satellite. Un algorithme permet de faire la correspondance entre l'échelle de temps du satellite et le temps du GPS. En faisant une simple différence des observations effectuées aux mêmes instants dans les deux stations le temps du GPS disparaît et il est ainsi possible d'obtenir la différence de lecture des horloges des deux stations.
Toutes les études entreprises en métrologie du temps ont bien sûr des applications. Dans le domaine de la recherche fondamentale on peut citer les tentatives de raccordement des unités du SI à la définition de la seconde car c'est l'unité qu'on sait, de loin, le mieux réaliser (incertitude relative de l'ordre de 10-15). Certaines constantes de la physique peuvent être déterminées par la seule mesure de la fréquence de phénomènes physiques, on peut alors obtenir leur valeur avec une très faible incertitude : la constante de Rydberg, le facteur de Landé de l'électron et la constante de structure fine en sont quelques exemples. La métrologie du temps a également un impact sur la physique atomique par le biais de la vérification de la linéarité de la mécanique quantique (équation de Schrödinger) et par sa contribution à la connaissance de certaines propriétés atomiques et moléculaires. La mesure du temps intervient également dans les tests des modèles de structure de l'espace-temps et de la gravitation par l'utilisation directe ou indirecte des étalons atomiques de temps. La finalité de ces tests est la discrimination des différentes théories de la gravitation, la relativité générale d'Einstein n'étant qu'une théorie parmi d'autres. La métrologie du temps trouve aussi sa place dans bon nombre d'applications de positionnement, de géodésie ou de navigation : le système GPS en est un exemple, le GLObal NAvigation Satellite System (GLONASS) ainsi que les systèmes DORIS (Détermination d'Orbite et Radio-positionnement Intégrés par Satellites) et PRARE (Precise Range Rate Equipment) en sont d'autres. La technique de radio-interférométrie à très longue base dite VLBI (Very Long Baseline Interferometry) trouve des applications dans l'étude de la rotation de la Terre et dans la formation des systèmes de référence céleste et terrestre.
Les mesures VLBI font appel à la stabilité de fréquence des masers à hydrogène présents dans les stations d'observation : c'est le domaine de la métrologie du temps. Les pulsars millisecondes sont des objets dont l'observation a démontré que leur stabilité de fréquence pouvait peut-être rivaliser avec la stabilité des meilleures échelles de temps atomique (TAI, TT(BIPM),...). Des études de très longue haleine sont en cours pour connaître la réponse à cette question. La métrologie du temps est doublement présente dans ces recherches. Premièrement parce que les temps d'arrivée des impulsions radio émises par ces astres sont datés par rapport à une horloge atomique présente dans la station d'observation. Deuxièmement parce qu'il faut raccorder cette horloge aux meilleures échelles de temps atomique à des fins de comparaison.
Le repérage des instants exige la définition d'échelles de temps, mais indépendamment du choix d'une échelle, il faut définir un système de numérotation des jours (il est aisé de constater un changement de jour, il est plus difficile de constater un changement d'année ; ainsi le jour est l'unité naturelle). Ce système de numérotation a pour but de situer une date quelconque sans ambiguïté : c'est le problème de la chronologie.
La solution la plus simple, en principe, consiste à choisir arbitrairement un jour origine et à énumérer sans autre artifice les jours ultérieurs. Les époques antérieures peuvent être éventuellement repérées en énumérant vers le passé des jours que l'on dira être avant l'origine mais il est plus simple d'introduire un jour zéro et des nombres négatifs pour les jours situés avant l'origine. C'est en suivant ce principe que l'on a défini la période julienne.
Pour des raisons de tradition, mais aussi de commodité, on a été conduit à compliquer le système par un découpage en années et en mois. Les règles adoptées, qui constituent les divers calendriers, diffèrent d'une civilisation à une autre.
Pour les historiens, depuis le XVIIIème siècle, l'année qui précède l'an 1 de l'ère chrétienne est notée " 1 avant J.-C. " : elle est bissextile. Les années bissextiles se succédant tous les 4 ans, ce sont donc les années 1, 5, 9, ... avant J.-.C ; la règle de divisibilité par 4 ne peut plus s'appliquer.
Les astronomes, depuis J. Cassini (1740), utilisent une notation algébrique. Ils appellent année 0 l'an 1 avant J.-C. et comptent négativement les années antérieures. Ainsi :
... ... ...
2 après J.-C. = année 2
1 après J.-C. = année 1
1 avant J.-C. = année 0 (bissextile)
2 avant J.-C. = année -1
3 avant J.-C. = année -2
4 avant J.-C. = année -3
5 avant J.-C. = année -4 (bissextile)
6 avant J.-C. = année -5
... ... ...
C'est la notation des astronomes qui est utilisée dans les calculs d'éphémérides. Par rapport à la notation des historiens elle présente deux avantages :
Ainsi le nombre d'années écoulées entre le 1 janvier -44 et le 1 janvier 1991 est égal à : 1991 - (-44) = 2035.
Ce système de numérotation des années ne dépend pas du calendrier. Pour l'ère chrétienne, c'est le calendrier julien qui est utilisé par les historiens pour les dates anciennes et, aussi, pour celles qui sont antérieures à sa création (-44).
Dans ce cas, ils utilisent un calendrier fictif ayant les mêmes règles de construction.
De même que l'on numérote les années, on numérote les siècles et les millénaires. Le siècle représente une période de 100 ans, le millénaire une période de 1000 ans. Le premier siècle commence le 1 janvier de l'an 1 et se termine le 31 décembre de l'an 100. Le XXème siècle commence le 1 janvier 1901 et s'achève le 31 décembre 2000. Le XXIème siècle a commencé le 1 janvier 2001.
Le premier millénaire se termine le 31 décembre de l'an 1000. Le deuxième millénaire commence le 1 janvier 1001, le troisième millénaire commence le 1 janvier 2001.
Les calendriers sont fondés sur des considérations de caractère astronomique.
Le mois est la durée approximative d'une lunaison, intervalle de temps entre deux nouvelles lunes.
L'année est une approximation de l'année tropique, intervalle de temps qui sépare deux passages consécutifs du Soleil à l'équinoxe de printemps.
Un calendrier est de type lunaire ou solaire selon que l'on privilégie l'approximation du mois ou de l'année. Dans un calendrier lunaire la durée moyenne du mois doit être une bonne approximation de la lunaison (29,530589 jours), alors que dans un calendrier solaire la durée moyenne de l'année doit être une bonne approximation de l'année tropique (365,242190 jours) qui suit les saisons
Ainsi, le calendrier grégorien qui est notre calendrier usuel est solaire. Il en est de même pour les calendriers julien et copte. Par contre, le calendrier musulman est lunaire et le calendrier israélite luni-solaire.
Chaque calendrier se définit une origine à partir de laquelle on va compter, en général, les années. Cela correspondra à une ère.
Indépendamment de l'organisation des jours en mois et en années, chaque calendrier a besoin d'une origine pour compter en général des années (ce peut être des jours dans le cas de la période julienne) ou des groupes de plusieurs années comme les olympiades helléniques qui comptent 4 ans. Une telle origine définit une Ère.
L'ère chrétienne a débuté le 25 décembre de l'an 753 de la fondation de Rome (d'après Varron) mais le début de l'année sera le premier janvier pour concorder avec le calendrier de l'époque. Les calendriers grégoriens et juliens se situent actuellement dans l'ère chrétienne. Le calendrier julien a été en vigueur du premier janvier de l'an 45 avant J.-C. (an 709 de l'ère de la fondation de Rome, année bissextile) à l'an 1582 de l'ère chrétienne et le calendrier grégorien est en vigueur depuis l'an 1582 de l'ère chrétienne. L'usage de l'ère chrétienne a été introduite en 532 sur une proposition du moine Denys le Petit. C'est lui qui proposa, en 525, au pape l'expression "Anno Domini" (AD). Cet usage se répandra rapidement dans les textes et documents liturgiques, mais il faudra attendre plusieurs siècles (le règne de Pépin le Bref et celui de Charlemagne) pour que cet usage devienne courant dans la société.
L'ère de Dioclétien a débuté le 29 août 284 (julien). C'est l'origine du calendrier copte encore en usage dans la communauté copte d'Egypte.
L'Hégire a débuté le vendredi 16 juillet 622 (julien) qui est donc l'origine du calendrier musulman.
L'ère judaïque a débuté le 7 octobre -3760 (julien) qui est l'origine du calendrier israélite.
L'ère des Français a débuté le 22 septembre 1792 et s'est terminé le 1 janvier 1806 et a été utilisée par le calendrier républicain.
L'ère de la période julienne commence le 1 janvier 4713 avant J.-C. à midi (calendrier julien).
L'ère hellénistique compte une succession d'olympiades qui correspondent à quatre années. Elle a commencé avec le solstice d'été de l'an 776 avant J.-C. En l'an 1 de l'ère chrétienne, la 195ème olympiade hellénique a débuté en été.
D'autres calendriers se réfèrent à des ères plus incertaines quant à leurs origines. C'est le cas des calendriers :
La période julienne est une échelle de temps qui numérote, sans discontinuité, les jours depuis le lundi 1 janvier -4712 à 12 heures. Cette période julienne a été introduite par l'astronome Scaliger en 1583. Il nomme "julienne" cette numérotation en hommage à son père qui se prénomait Julien.
Date julienne : c'est la durée écoulée depuis le 1 janvier -4712 à 12 heures. On l'exprime en jour et fraction décimale de jour.
Jour julien : c'est la partie entière de la date julienne.
Le jour julien 0 commence le 1 janvier -4712 à 12h, le jour julien 1 commence le 2 janvier -4712 à 12h, le jour julien 2451911 commence le 1 janvier 2001 à 12h.
La continuité des jours dans la période julienne permet de calculer un intervalle de temps sans risque d'erreur même s'il couvre plusieurs calendriers. Ainsi le 1 janvier 1001 à 0h (calendrier julien) correspond à la date julienne 2086673,5; le 1 janvier 2001 à 0h (calendrier grégorien) correspond à la date julienne 2451910,5. Il s'est donc écoulé entre ces deux dates :
2451910,5 - 2086673,5 = 365237 jours.
Le calendrier julien est, dans ses principales dispositions, conforme au calendrier romain réformé par Jules César. Dans l'usage moderne, on l'emploie avec l'ère chrétienne dont l'an 1 fut la 47e de cette réforme julienne. Ce calendrier est de type solaire. Il comporte deux sortes d'années, les années communes de 365 jours, divisées en 12 mois de 31, 28, 31, 30, 31, 30, 31, 31, 30, 31, 30 et 31 jours, et les années bissextiles de 366 jours dans lesquelles le deuxième mois est de 29 jours. Les années bissextiles sont celles dont le millésime est divisible par 4 ; une année sur 4 est donc bissextile.
La durée moyenne de l'année julienne (365,25 jours) est une approximation médiocre de celle de l'année tropique (365,242190 jours). Il en résulte que les dates des saisons se décalent d'environ 3 jours tous les 400 ans, soit d'un mois tous les 4000 ans.
Le calendrier julien a été en usage dans la plupart des nations d'Europe jusqu'au XVIème siècle. Il a été remplacé ensuite par le calendrier grégorien mais il est encore utilisé de nos jours pour déterminer les fêtes religieuses orthodoxes.
C'est notre calendrier usuel.
Le calendrier grégorien est de type solaire. Il a été créé en 1582 par le pape Grégoire XIII pour corriger le retard que prenait le calendrier julien sur le Soleil, retard qui atteignait 10 jours au moment de cette réforme.
Ce calendrier est défini par rapport au calendrier julien de la manière suivante : le lendemain du jeudi 4 octobre 1582 (julien) fut le vendredi 15 octobre 1582 (grégorien), la succession des jours de la semaine étant respectée.
Le calendrier grégorien ne diffère du calendrier julien que par la répartition entre années communes (365 jours) et années bissextiles (366 jours).
Les années bissextiles sont les mêmes que celles du calendrier julien (année dont le millésime est divisible par 4) sauf trois années séculaires sur quatre, celles dont le millésime est multiple de 100 sans l'être de 400. Ainsi, les années 1700, 1800, 1900 sont communes alors que l'année 2000 est bissextile.
La durée moyenne de l'année est de 365, 2425 jours. Elle est très voisine de celle de l'année tropique (365,242190 jours).
Le calendrier grégorien a été adopté dès 1582 en Italie, en Espagne, au Portugal et dans les Pays-Bas catholiques. En France la réforme a été appliquée en décembre 1582, le lundi 20 décembre succédant au dimanche 9 décembre. En Grande-Bretagne, c'est seulement en 1752 que le 14 septembre a succédé au 2 septembre et que le calendrier grégorien a été adopté.
Adopté progressivement jusqu'au début du XXème siècle par tous les pays, ce calendrier est maintenant en usage dans le monde entier.
Ce calendrier est de type solaire. L'année se compose de douze mois de 30 jours, suivis, trois années de suite, de 5 jours complémentaires dits épagomènes et la 4ème année de 6 jours épagomènes. La durée moyenne de l'année (365,25 jours) est donc la même que dans le calendrier julien.
Ce calendrier définit l'ère de Dioclétien dont l'origine (1 Tout de l'an 1) correspond au 29 août 284 julien. Les années de 366 jours correspondent à celles dont le millésime plus 1 est multiple de 4. L'année copte commence le 29 ou le 30 août julien.
Ce calendrier est encore utilisé de nos jours en Egypte.
1 | Tout |
2 | Bâbah |
3 | Hâtour |
4 | Keihak |
5 | Toubah |
6 | Amchîr |
7 | Barmahât |
8 | Barmoudah |
9 | Bachnas |
10 | Bou'nah |
11 | Abib |
12 | Masarî |
Le calendrier musulman a été adopté, sous sa forme actuelle, vers 632 après J.-C. Il définit l'ère musulmane dont l'origine, 1er jour de l'an 1 (Hégire), correspond au vendredi 16 juillet 622 julien.
C'est un calendrier de type lunaire. Les années sont de 12 mois. Le cycle lunaire des musulmans est de 30 ans.
Il comporte 19 années communes de 354 jours et 11 années abondantes de 355 jours. D'une année à l'autre le début de l'année musulmane se décale donc de 10 à 12 jours par rapport aux saisons (en moyenne de 10.875523... jours par an). A l'intérieur d'un cycle les années abondantes sont les années numérotées 2, 5, 7, 10, 13, 16, 18, 21, 24, 26, 29.
Le cycle actuel a commencé le 1 Mouharram de l'an 1411 de l'ère musulmane qui correspond au mardi 24 juillet 1990. Les mois sont d'une durée de 30 et 29 jours alternativement, le premier mois de l'année étant de 30 jours et le dernier de 29 jours (année commune) ou 30 jours (année abondante). La durée moyenne du mois (29,530556 jours) est voisine de celle de la lunaison.
Nom des mois | Nombre de jours | |
---|---|---|
1 | Mouharram | 30 jours |
2 | Safar | 29 jours |
3 | Rabi'-oul-Aououal | 30 jours |
4 | Rabi'-out-Tani | 29 jours |
5 | Djoumada-l-Oula | 30 jours |
6 | Djoumada-t-Tania | 29 jours |
7 | Radjab | 30 jours |
8 | Cha'ban | 29 jours |
9 | Ramadam | 30 jours |
10 | Chaououal | 29 jours |
11 | Dou-l-Qa'da | 30 jours |
12 | Dou-l-Hidjja | 29 ou 30 jours |
Le calendrier musulman présenté ici est théorique.
Il existe d'autres variantes utilisant une chronologie différente. La date origine est parfois fixée au 15 juillet 622 ; selon certains auteurs la 15ème année du cycle lunaire est abondante et la 16ème commune.
Il arrive aussi que pour la détermination des fêtes religieuses, le début du mois soit défini par l'observation du premier croissant de lune suivant la nouvelle lune. Les calendriers sont alors locaux et dépendent des conditions d'observation.
Le calendrier israélite remonte, sous sa forme actuelle, au IVème siècle après J.-C.
Il est de type luni-solaire. Il assure une durée moyenne du mois (29,530594 jours) très voisine de celle de la lunaison en utilisant des mois d'une durée de 29 ou 30 jours.
Il assure aussi une durée moyenne de l'année (365,2468 jours) voisine de celle de l'année tropique en faisant alterner 12 années communes de 12 mois et 7 années embolismiques de 13 mois à l'intérieur d'un cycle de 19 ans.
Dans chaque cycle les années embolismiques sont celles numérotées 3, 6, 8, 11, 14, 17 et 19. Le cycle actuel a commencé le 1 Tisseri de l'an 5739 qui correspond au lundi 2 octobre 1978.
Les années communes peuvent durer 353, 354, ou 355 jours et les années embolismiques, 383, 384, ou 385 jours. Les trois espèces d'années ainsi définies sont dites, respectivement, défectives, régulières ou abondantes.
La date origine du calendrier israélite est le 1 Tisseri de l'an 1. Elle correspond au 7 octobre -3760 julien.
Nom des mois | Nombre de jours | |
---|---|---|
1 | Tisseri | 30 jours |
2 | Hesvan | 29 ou 30 jours |
3 | Kislev | 29 ou 30 jours |
4 | Tébeth | 29 jours |
5 | Schébat | 30 jours |
6 | Adar | 29 ou 30 jours |
7 | Nissan | 30 jours |
8 | Iyar | 29 jours |
9 | Sivan | 30 jours |
10 | Tamouz | 29 jours |
11 | Ab | 30 jours |
12 | Elloul | 29 jours |
Dans les années embolistiques, on intercale le mois de Véadar de 29 jours entre les mois d'Adar et de Nissan.
L'ère des Français et le calendrier républicain ont été adoptés par la Convention Nationale lors de la séance du 5 octobre 1793 :
" L'ère des Français ... [ commence ] le 22 septembre 1792 de l'ère vulgaire, jour où le Soleil est arrivé à l'équinoxe vrai d'automne, ... à 9 heures 18 minutes 30 secondes du matin pour l'observatoire de Paris "
La définition du calendrier républicain adoptée est la suivante (décret du 5 octobre 1793) :
" Le commencement de chaque année est fixé à minuit, commençant le jour où tombe l'équinoxe vrai d'automne pour l'observatoire de Paris ".
" La première année de la République française a commencé à minuit 22 septembre 1792, et a fini à minuit séparant le 21 du 22 septembre 1793 ".
" L'année est divisée en douze mois égaux de trente jours chacun, après lesquels suivent cinq jours pour compléter l'année ordinaire, et qui n'appartiennent à aucun mois; ils sont appelés les jours complémentaires. "
" Chaque mois est divisé en trois parties égales de dix jours chacune, et qui sont appelées décades... "
" En mémoire de la révolution qui, après quatre ans, a conduit la France au gouvernement républicain, la période bissextile de 4 ans est appelée "la Franciade."
" Le jour intercalaire qui doit terminer cette période, est appelé jour de la Révolution. Ce jour est placé après les 5 jours complémentaires... "
Les 5 jours complémentaires sont appelés jours des sanculottides.
Les années bissextiles sont appelées années sextiles.
Malheureusement, la définition de ce calendrier comporte une contradiction : l'année commence le jour de l'équinoxe d'automne, et l'année sextile est intercalée tous les quatre ans.
Cette erreur ne sera jamais corrigée et sera un des arguments utilisés pour le retour au calendrier grégorien, le 1 janvier 1806 (11 nivôse an 14).
Cette incohérence ne pose pas de problème sur la période d'utilisation du calendrier républicain : la première contradiction serait apparue en l'an 19.
Noms des mois proposés par Fabre d'Eglantine à la séance de la Convention Nationale du 24 octobre 1793.
Automne : Vendémiaire, Brumaire, Frimaire
Hiver : Nivôse, Pluviôse, Ventôse
Printemps : Germinal, Floreal, Prairial
Ete : Messidor, Thermidor, Fructidor.
Les jours de la décade prennent les noms suivants :
Primidi, duodi, tridi, quartidi, quintidi, sextidi, septidi, octodi, nonidi et décadi.
Le calendrier national actuellement en usage en Inde est celui défini par le Comité de réforme du Calendrier (Calendar Reform Committee). Il est officiellement appliqué depuis le 22 mars 1957 (1 Chaitra 1879 de l'ère Saka). La numérotation des années se fait dans l'ère Saka. Les mois du calendrier indien comptent 30 ou 31 jours. Ils sont donnés ci après :
Mois du calendrier indien | Date grégorienne du premier mois |
---|---|
Chaitra (30 ou 31(*) jours) | 22 ou 21(*) mars |
Vaisakha (31 jours) | 21 avril |
Jyaistha (31 jours) | 22 mai |
Asadha (31 jours) | 22 juin |
Sravana (31 jours) | 23 juillet |
Bhadra (31 jours) | 23 août |
Asvina (30 jours) | 23 septembre |
Kartika (30 jours) | 23 octobre |
Agrahayana (30 jours) | 22 novembre |
Pausa (30 jours) | 22 décembre |
Magha (30 jours) | 21 janvier |
Phalguna (30 jours) | 20 février |
(*) : pour les années bissextiles
La règle des années bissextiles est la même que pour le calendrier grégorien.
Un calendrier perpétuel permet de déterminer le jour de la semaine correspondant à une date donnée.
CALENDRIER PERPETUEL
Le tableau de la page suivante permet de déterminer le jour de la semaine correspondant à une date donnée de l'ère chrétienne, et aussi de résoudre d'autres problèmes faisant intervenir les mêmes éléments.
MODE D'EMPLOI
La première colonne, intitulée Indice, donne les indices relatifs à tous les éléments de la ligne à laquelle ils appartiennent.
Pour obtenir le jour correspondant à une date donnée, on relève les indices relatifs :
Pour les années bissextiles, on utilise les mois de janvier et de février suivis de la lettre B.
Suivant la parité du chiffre des dizaines de l'année, on utilise l'une ou l'autre des deux colonnes relatives au chiffre des unités. Pour faciliter l'opération, les chiffres des dizaines et des unités sont écrits en italique lorsque les dizaines sont impaires.
2 janvier 1975 | 12 février 1944 | |
---|---|---|
centaine | 19, indice : 1 | 19, indice : 1 |
dizaine | 7, indice : 0 | 4, indice : 5 |
unité | 5, indice : 1 | 4, indice : 0 |
mois | janv., indice : 0 | fév. B, indice : 2 |
quantième | 2, indice : 2 | 12, indice : 5 |
Total | 4 | 13 |
reste de la div. par 7 | 4 | 13 |
jour cherché | jeudi | samedi |
Dans le langage courant, l'éphéméride désigne ce qui se passe journellement ; l'éphéméride du jour est la liste des événements marquants de ce jour. Par extension, les éphémérides astronomiques désignent a priori une table journalière de positions de corps célestes mobiles (ceux du système solaire) ainsi que des phénomènes astronomiques ayant lieu ce jour telles les éclipses. Les éphémérides de positions sont donc avant tout la représentation d'un mouvement. Les éphémérides que l'on connaît sous forme de tables de nombres sont les plus courantes et les plus anciennes, mais ce n'est pas la seule forme possible et, de nos jours, ce n'est plus la forme la meilleure car il en existe maintenant d'autres beaucoup plus performantes.
Pour obtenir une éphéméride, il est nécessaire de disposer :
La qualité d'une éphéméride pour la représentation d'un mouvement dépend de deux facteurs : utiliser un petit nombre de données (éviter des tables gigantesques) et ensuite avoir une bonne précision (commettre l'erreur la plus faible possible par rapport à la position "vraie" que l'on veut décrire).
Depuis les débuts de l'astronomie, modéliser le mouvement des corps du système solaire a toujours été un défi. Il s'est agi tout d'abord d'extrapolations empiriques des observations réalisées ; les premières tables proviennent ainsi d'une analyse purement cinématique des mouvements observés. La précision de ces premières tables est évidemment médiocre et ne progresse qu'avec l'amélioration de la précision des observations.
Viennent ensuite des prédictions fondées sur des théories gravitationnelles dont les paramètres sont déduits d'observations. A partir de Newton, les lois dynamiques sont connues et il importe alors de mettre en équation et de tenir compte de tous les effets gravitationnels qui peuvent agir sur les corps. Les recherches théoriques de Lagrange relatives au problème planétaire ont conduit à modéliser l'évolution à long terme des orbites par un système différentiel linéaire qui couple les excentricités et les inclinaisons. C'est un résultat fondamental. On consultera les cours relatifs aux lois de Kepler et à la mécanique céleste pour approfondir ces notions.
Des recueils de prédictions diverses liées au calendrier, appelés almanachs ou éphémérides existaient dès le XIVème siècle. Citons :
Les premières éphémérides vraiment destinées aux astronomes pour faire progresser notre connaissance du système solaire et de la Terre apparurent avec la Connaissance des Temps dont le premier volume parut à Paris en 1679. Ce premier volume se bornait à annoncer aux astronomes les principaux phénomènes et à leur fournir les calculs nécessaires aux réductions de leurs observations journalières. On y trouvait les levers et couchers du Soleil, de la Lune et des cinq planètes connues, Mercure, Vénus, Mars, Jupiter et Saturne, leurs passages au méridien de Paris, leurs longitudes, leurs latitudes et leurs déclinaisons. Au XVIIIème siècle, Lalande construisit ensuite les tables du Soleil et des planètes qui servirent de base aux éphémérides publiées dans la Connaissance des Temps jusqu'en 1808. En 1767 paraît à Londres le Nautical Almanac and Astronomical Ephemeris, éphéméride de même nature destinée également à contribuer à l'amélioration de l'astronomie, de la Géographie et de la Navigation.
Au cours des années 1770-1825, Laplace étudie les conséquences de l'application de la loi de la gravitation de Newton sur le mouvement des corps du système solaire et résout plusieurs problèmes concernant les théories planétaires. La plupart des tables du Soleil et des planètes utilisées dans la Connaissance des Temps durant la première moitié du XIXème siècle, sont issues de ses travaux.
La représentation de ces éphémérides a évolué au cours du temps. Jusqu'à la fin du XVIIIème siècle, la Connaissance des Temps présentait les éphémérides des astres mois par mois, le Soleil de jours en jours et les planètes de six jours en six jours. A partir de 1838, les éphémérides sont publiées corps par corps. Elles sont journalières pour le Soleil, de trois jours en trois jours pour Mercure, de six jours en six jours pour Vénus et Mars, de huit jours en huit jours pour Jupiter, de dix jours en dix jours pour Saturne et de quinze jours en quinze jours pour Uranus. En 1863, les éphémérides deviennent journalières pour Mercure, Vénus, Mars, Jupiter et Saturne et de quatre jours en quatre jours pour Uranus et Neptune.
Les éphémérides ont subi de nos jours d'importantes transformations. En 1980, la présentation des éphémérides sous forme de tables interpolables a été remplacée par une représentation en polynômes de Tchebychev beaucoup plus compacte et bien adaptée au développement de la micro-informatique.
Selon la quantité à représenter dans les éphémérides, on est amené à choisir un plan fondamental et des coordonnées. Pour les éphémérides destinées à l'observateur terrestre, le plan fondamental sera l'équateur terrestre et on fournira l'ascension droite (angle compté habituellement en heures vers l'est à partir de l'équinoxe de 0 à 24 heures, le long de l'équateur terrestre) et la déclinaison (angle compté habituellement en degrés vers le nord au-dessus du plan équatorial). On donne aussi le rayon vecteur, distance du centre du repère à l'astre considéré : il ne dépend pas du repère, sauf en ce qui concerne la prise en compte du temps de lumière.
Les éphémérides de la Lune, du Soleil et des planètes principales donnent des coordonnées apparentes pour le pointage des télescopes. Pour Pluton, les astéroïdes et les comètes, on donne les coordonnées astrométriques directement comparables aux catalogues d'étoiles. Dans le cas des satellites naturels proches des planètes, on donne des coordonnées tangentielles relatives à la planète dans un plan tangent à la sphère céleste, directement comparables aux clichés photographiques ou aux images provenant des caméras CCD.
Citons aussi les coordonnées topocentriques, centrées sur un observateur situé sur la surface terrestre : ces coordonnées ne peuvent être que calculées à la demande et on passe en général des coordonnées apparentes aux coordonnées topocentriques par une petite correction si nécessaire.
Certaines positions sont données dans des coordonnées non pas sphériques mais rectangulaires, l'axe X étant dirigé vers l'équinoxe du repère et l'axe Z vers le pôle nord céleste de ce repère. Des éphémérides données ainsi sont plutôt destinées à la navigation spatiale.
Pour observer de la Terre à un instant donné des points situés à la surface d'un astre du système solaire, il faut définir les paramètres qui caractérisent la rotation de l'astre autour de son axe, donner leurs valeurs numériques et définir les systèmes de coordonnées par rapport auxquels ces points seront repérés sur cet astre (repère planétographique). On calcule ensuite les données qui permettent de connaître quels sont les points de l'astre qui sont visibles de la Terre à l'instant considéré. Il est également utile de connaître des quantités liées à l'éclairement du disque apparent. L'Union Astronomique Internationale publie régulièrement les paramètres qui permettent de définir la rotation des corps ainsi qu'un système de coordonnées pour situer le relief ou les structures de surface de ces corps.
Le pôle nord est, par définition, celui des deux pôles de l'axe de rotation qui se trouve au nord du plan invariant du système solaire (plan proche de l'écliptique). Les longitudes sont comptées à partir du méridien origine mais dans le sens opposé à la rotation. Il résulte de ceci que, pour un observateur lointain, la longitude planétographique du centre du disque apparent augmente toujours avec le temps, quel que soit le sens de rotation de l'astre. Afin de respecter une tradition historique et de pouvoir continuer à utiliser des cartes anciennes, on admet en général des exceptions à cette règle quand il s'agit de la Terre, du Soleil et de la Lune dont les rotations sont directes.
La connaissance des positions et des mouvements des astres nécessite d'avoir des notions précises des systèmes de référence de coordonnées spatiales et temporelles où l'on va situer les positions décrites par les éphémérides. Nous avons vu précédemment que l'argument temps des éphémérides ne pouvait être pris dans n'importe quelle échelle de temps. De même, nous allons voir que les coordonnées spatiales à utiliser doivent être rattachées à un système de référence grâce à un repère de référence.
On distingue les systèmes de référence célestes et terrestres.
Les systèmes de référence célestes sont soit dynamiques (basés sur l'étude dynamique des mouvements des corps du système solaire) soit cinématiques (basés sur l'étude statistique des mouvements des corps lointains tels que les étoiles, les galaxies et les quasars). Les systèmes de référence célestes dynamiques, tout d'abord construits dans la mécanique newtonienne, le sont aujourd'hui dans la mécanique relativiste qui lie l'argument temps aux variables spatiales. Pour les besoins des éphémérides actuelles, les définitions que nous avons données pour l'argument temps des éphémérides sont suffisantes. Pour rattacher les positions des corps célestes à un observateur situé sur la Terre, on a besoin de définir également un système de référence terrestre.
Les systèmes de référence terrestres nécessitent la connaissance d'un modèle de Terre, de sa forme et de ses déformations au cours du temps. La détermination d'une position topocentrique nécessite de disposer d'un tel système pour connaître la position du lieu en question par rapport aux positions que l'on a dans le système céleste. Les éphémérides étant en général géocentriques, les positions des corps célestes doivent être définies d'abord dans un système de référence céleste.
Un système de référence est un concept théorique et la construction d'éphémérides nécessite la connaissance d'un repère de référence qui est la matérialisation concrète d'un système de référence. Un repère de référence céleste sera donc associé à des théories dynamiques, à des constantes et à des catalogues d'étoiles.
Un repère de référence se définit par un plan de référence et par une direction privilégiée. Pour les éphémérides publiées actuellement, le plan de référence est l'équateur de la Terre (repère équatorial) ou l'écliptique, plan de l'orbite de la Terre autour du Soleil (repère écliptique). La direction de référence est celle de l'équinoxe, nœud ascendant de l'écliptique sur l'équateur, intersection des deux plans. Ces plans et cette direction sont liés à la Terre et nous allons définir différents repères de référence selon les théories et les constantes utilisées pour les construire, puis, pour chaque repère ainsi construit, nous allons fixer les plans et la direction de référence pour obtenir un repère parfaitement défini.
Ces repères sont définis par les positions et les mouvements propres des étoiles. Citons les catalogues FK4 et FK5 qui utilisent 1535 étoiles. Des repères utilisant par exemple les étoiles du catalogue Hipparcos et des radiosources très lointaines sont utilisés comme catalogue pour l’astronométrie. Ils seront supplantés par le catalogue issu de la mission GAIA en cours de construction. Deux versions de ce catalogue existent déjà (2018).
Les modèles dynamiques des corps du système solaire ajustés sur les observations radar ou laser sont indépendantes des étoiles des catalogues et définissent un plan et une direction de référence. Associés à une théorie de la précession - nutation, ils définissent un repère. Citons le repère lié aux intégrations numériques « DE430/DE431 du Jet Propulsion Laboratory ou encore INPOP de l’IMCCE et celui lié aux théories analytiques ELP2000/VSOP87 de la Lune et des planètes du Bureau des longitudes.
Une fois défini un repère de référence, il faut choisir les coordonnées à utiliser pour fournir des positions dans les éphémérides.
A un repère de référence donné, on associe une théorie de la précession - nutation et on définit :
Dans le repère ainsi défini, les coordonnées peuvent être :
Les coordonnées sont en général données sous forme sphériques, c'est-à-dire sous forme d'ascension droite et de déclinaison dans le repère équatorial ou sous forme de longitude et de latitude dans le repère écliptique. Elles peuvent être données sous forme d'angle horaire à la place de l'ascension droite pour un instant donné dans un repère local. Enfin, toujours dans un repère local, on peut donner l'azimut et la hauteur d'un astre à un instant donné. On consultera le cours sur la sphère céleste et les repères en astronomie pour plus de détails sur ces coordonnées.
Les coordonnées géométriques sont fournies sous forme cartésiennes X, Y, Z dans un repère équatorial, l'axe X étant dirigé vers le point vernal et l'axe Z vers le pôle Nord.
Enfin des coordonnées tangentielles ou différentielles peuvent être données pour des corps proches relativement l'un à l'autre sur un plan tangent à la sphère céleste.
La plus ancienne forme sous laquelle les éphémérides fournissent les positions des astres est une table de positions dont l'intervalle (une heure, un jour, un mois, ...) dépend de la vitesse de variation des valeurs de ces positions. Plus cette variation est rapide, plus petit doit être l'intervalle de temps séparant deux données successives. La simple lecture d'une table, accompagnée d'une interpolation à vue, suffit pour fournir une position permettant de repérer l'astre dans le ciel. Cependant, si l'on souhaite une précision plus grande, il faut effectuer une interpolation qui n'est plus linéaire, ce qui demande des calculs plus complexes à partir des valeurs publiées si celles-ci le permettent. Pour une précision plus grande, il faut diminuer l'intervalle entre deux positions et donc augmenter le volume de données publiées. L'Astronomical Almanac et le Guide des données astronomiques encore aujourd'hui, et la Connaissance des Temps jusqu'en 1979, contiennent des éphémérides sous forme de telles tables.
Citons le cas de la Lune : pour une précision de 0.01 seconde de degré, l'intervalle entre deux positions doit être de 3 heures ce qui conduit à la publication de 2920 valeurs annuellement par coordonnée. Citons aussi le cas des satellites galiléens de Jupiter qui ont un mouvement extrêmement rapide autour de Jupiter. Une éphéméride tabulée aurait nécessité un pas toutes les 20 minutes soit près de 30 000 valeurs pour une année! Cela conduit à un volume de données trop important pour être publié tel quel dans une éphéméride imprimée. D'autres solutions doivent être trouvées.
Une éphéméride est une table qui fournit, pour des dates particuières en principe équidistantes, les valeurs d'une ou de plusieurs fonctions qui décrivent l'évolution des positions des astres concernés, ou d'autres grandeurs relatives à ces astres. On appelle interpolation la technique de calcul qui permet d'évaluer les valeurs de ces fonctions pour des dates intermédiaires autres que celles qui figurent dans l'éphéméride.
Le cas le plus simple est celui où la fonction considérée varie assez lentement, ou est donnée avec assez peu de précision pour qu'aucun calcul ne soit nécessaire. On se contente alors d'une interpolation à vue (par exemple, magnitude de la planète Jupiter : aucun calcul n'est nécessaire, quand on examine l'éphéméride du chapitre 5, pour estimer que sa valeur est -1,8 le 2 juillet 2002).
Plus souvent, on devra employer l'interpolation linéaire et procéder comme suit. Soit :
t, l'instant pour lequel on veut calculer le fonction f ;
t1, l'instant immédiatement inférieur ou égal à t et figurant dans l'éphéméride, la valeur correspondante de f étant f1 ;
t2, l'instant immédiatement supérieur à t et figurant dans l'éphéméride, la valeur correspondante de f étant f2.
Alors, on calculera f par la formule :
où
et
s'appellent respectivement facteur d'interpolation et différence première.
Dans certains cas, l'interpolation linéaire fournit un résultat trop imprécis. Pour s'en rendre compte, on forme le tableau suivant :
où t0, t1, t2, t3, etc sont des instants figurant dans l'éphéméride, et f0, f1, f2, f3, etc les valeurs correspondantes de la fonction f données par cette éphéméride. Les quantités :
{k=0,1,2,...}
s'appellent respectivement différences premières, différences secondes, différences troisièmes, etc. L'interpolation linéaire est suffisante si les différences secondes sont inférieures à 4 unités du dernier ordre envisagé. Sinon (et à condition que les différences troisièmes n'excèdent pas 62 unités du dernier ordre envisagé, ce qui sera toujours le cas dans cet ouvrage), on emploie la formule de Bessel :
où n est le même facteur d'interpolation que plus haut, et, compte tenu des expressions ci-dessus :
Comme nous l'avons vu, les corps rapides comme les satellites de Jupiter ne peuvent avoir des éphémérides précises publiées annuellement. Une première solution consiste alors à offrir au lecteur une représentation graphique dont la lecture conduit à une précision de quelques dizaines de secondes de degré, précision bien faible mais suffisante pour identifier les corps lors d'une observation. On trouvera ci-dessous les configurations des satellites de Jupiter publiées par la Connaissance des temps. A gauche pour un mois de l'année 1808 et à droite pour 2000.
L'usage très répandu aujourd'hui des calculatrices de poche et des micro-ordinateurs permet d'utiliser une formulation plus complexe pour les éphémérides et on va chercher plutôt à conserver une précision de représentation optimale sur la période de temps couverte par l'éphéméride. Ainsi, au lieu d'évaluer une fonction f(t) sous la forme d'un tableau de valeurs calculées à des intervalles rapprochés du temps, on va établir des fonctions d'approximation de f(t) valables sur de grands intervalles de temps, en minimisant les erreurs et le volume global des données.
L'éphéméride veut donc représenter une fonction f(t) constituée, soit par le résultat d'une intégration numérique, soit par une fonction analytique du temps qui traduit le mouvement d'un corps ou l'évolution temporelle d'un phénomène. Or, on sait que toute fonction peut être approchée sur un intervalle de temps donné par un polynôme dont le degré et le nombre de termes sont d'autant plus élevés que l'intervalle de temps est grand. Une telle approximation n'est pas optimisée et le volume de données à publier est important mais l'utilisation d'une telle éphéméride est très simple puisqu'il suffit de substituer le temps dans les polynômes ainsi construits. D'autres représentations sont cependant bien meilleures.
Les fonctions que nous voulons approcher sont toujours définies pour toutes les valeurs de la variable temps. L'approximation lagrangienne par des polynômes consiste à faire passer, pour un intervalle donné, un polynôme de degré n par n+1 valeurs, alors qu'il serait préférable de tenir compte de toutes les valeurs de la fonction sur cet intervalle. L'approximation de Tchebychev s'impose pour cela, car elle est celle de plus bas degré dont l'erreur ne dépasse pas une valeur donnée a priori, et son erreur est régulièrement distribuée sur l'intervalle considéré.
La fonction d'approximation va se présenter comme une suite de développements en polynômes de Tchebychev sur une succession d'intervalles de temps. Ainsi le volume de données est réduit et le calcul des positions est rapide. Cette représentation est donc bien adaptée aux besoins des astronomes (amateurs, professionnels, théoriciens, astrométristes, ...).
Les éphémérides Tchebychev se présentent sous la forme d'une suite de coefficients a0, a1, ...an pour une coordonnée donnée sur un intervalle [t1, t2]. L'utilisation de ces éphémérides se fait de la manière suivante. Le calcul de la valeur de la coordonnée à l'instant t de l'intervalle [t1, t2] se fait en effectuant le changement de variable :
x=-1+{2(t-t1)}/{t2-t1}, donc x appartient à l'intervalle [-1, +1]
Les polynômes de Tchebychev de première espèce Tn(x) sont donnés par la relation :
On peut aussi les calculer à l'aide de la relation de récurrence :
avec et
La coordonnée est alors égale à :
Dans la majorité des éphémérides -Soleil, Lune, planètes-, on a choisi des polynômes de Tchebychev pour la réalisation des éphémérides. Voyons maintenant comment calculer une position à partir de cette représentation.
Ci-contre, un extrait de la Connaissance des Temps pour l'année 2000 : l'ascension droite et la déclinaison sont fournies sous forme de coefficients : il faut programmer un petit formulaire simple pour calculer les valeurs pour tout instant de l'intervalle de validité. Les données à publier sont peu importantes et la précision des valeurs obtenues est la meilleure.
Soit t une date julienne appartenant à l'intervalle de temps t0, t0 + DT et y une coordonnée d'un astre. On calcule par la formule :
Où
Les éphémérides de l'année sont publiées corps par corps. Pour chaque corps, on compte un certain nombre de variables qui pour des intervalles de temps donnés, sont représentées par des tableaux donnant les coefficients de leurs développements en polynômes de Tchebychev ou sous forme de fonctions mixtes.
En haut de chaque page, on trouve :
En bas de chaque page, on trouve les unités utilisées.
Les coefficients d'un tableau sont publiés en colonne. Pour chaque tableau, on précise :
La valeur de contrôle permet de vérifier que les coefficients ont été correctement entrés en mémoire sur une calculette ou un calculateur. De plus, l'ensemble des valeurs de contrôle des tableaux d'une même variable donne une idée de l'évolution de cette variable au cours de l'année.
Pour calculer la valeur d'une coordonnée d'un astre pour une date t exprimée en UTC, on commence par :
Le calcul se poursuit de la manière suivante :
Exemple 1. Calculer le rayon vecteur héliocentrique de Mars le 5 Novembre 2003 à 16h 51m 42s UTC.
On effectue d'abord une correction pour se ramener à l'argument des éphémérides. Pour 2003, la valeur de TT - UTC n'est pas encore connue, mais on peut la prendre égale à 65 s. La date t est donc le 5 novembre 2003 à 16h 52m 47s argument des éphémérides.
On utilise les coefficients de la page B36 valables du 0 juillet 0h au 33 décembre 0h. Le calendrier des pages B148 et B149 donne les numéros JDA des jours de l'année correspondant au 0 juillet (JDA = 181) et au 5 novembre (JDA = 309). On a :
DT = 186 ;
t - t0 = 309 - 181 + 16h 52m 47s = 128.703 321 759 jours
On en déduit par la formule (2) :
On peut calculer les polynômes de Tchebychev par l'un des deux algorithmes suivants :
Les polynômes de Tchebychev sont calculés par la relation (3) :
où
On a : θ = 67°.424 117 27. On en déduit :
T1(x)= cos (θ) = x = 0.383 906 686
T2(x)= cos 2(θ) = -0.705 231 314
T4(x)= cos 4(θ) = -0.005 297 589
T6(x)= cos 6(θ) = 0.712 703 365
T8(x)= cos 8(θ) = -0.999 943 871
Les polynômes sont calculés par la relation de récurrence (4) :
avec : ;
On en déduit :
,
, etc
Les polynômes de Tchebychev étant déterminés, le rayon vecteur R de Mars se déduit de la formule (1) :
,
Où les coefficients de a0, a1, ..., a9 sont ceux du tableau de la page B36 valables du 0 juillet 0h au 33 décembre 0h. On a donc :
R = 1.415 514 22 + 0.035 889 20 T1 + ... + 0.000 000 04 T9,
Soit finalement :
R = 1.412 255 01 ua.
Comme nous l'avons vu, l'approximation polynomiale n'est pas la seule possible pour représenter une éphéméride. L'introduction des fonctions mixtes, permet de prendre en compte le caractère quasi-périodique des fonctions qui apparaissent dans les éphémérides. En effet, une fonction quasi-périodique à variations faibles sur un intervalle donné peut être approchée par un développement en polynômes de degré n peu élevé mais on n'a pas utilisé le fait que la fonction soit quasi-périodique sur l'intervalle considéré, ce qui est le cas du mouvement des corps du système solaire.
Voyons par un exemple comment en tirer parti.
Soit la fonction paire f(x) = cos x + cos 2x
Elle est beaucoup mieux représentée avec la base de fonctions 1, cos x, cos 2x, cos 3x,... qu'avec la suite de polynômes 1, x2, x4, x6,... , ou toute autre base de polynômes pairs.
Si une éphéméride n'est jamais aussi simple dans la réalité, on peut toujours l'approcher par une combinaison de fonctions périodiques dont les périodes proviennent de la nature physique du phénomène (par exemple la périodede révolution d'un corps céleste), et de termes séculaires (polynômes du temps) qui témoignent du caractère non rigoureusement périodique du phénomène ou du mouvement décrit.
Le mode de représentation à l'aide des fonctions mixtes est très bien adapté à la représentation des mouvements des satellites naturels des planètes et des corps à période courte qui s'écartent peu, sur quelques périodes, d'un mouvement périodique, avec des variations d'amplitude et de fréquence lente par rapport à la période principale du corps et de ses multiples entiers.
Dans la Connaissance des Temps on trouve en particulier l'expression des coordonnées différentielles des satellites naturels des planètes sur des intervalles de temps couvrant une à quelques révolutions, avec des formules faciles à mettre en œuvre directement par l'utilisateur et qui se présentent ainsi :
.
où est une période proche de la période de révolution du corps ; les aj, bj, cj, sont les amplitudes, ; les φj et Ψj sont les phases (j = 0, 1, 2). Cette formule découle du choix de la base. Les termes mixtes sont de la forme : A tksin(p nu t + Ψ) (k et p entiers A : amplitude ; Ψ : phase). Sur un intervalle de temps donné les valeurs maximales de k et p sont ajustées en fonction de la précision recherchée. Si l'intervalle de représentation est élargi, il faudra enrichir la base de termes mixtes en puissance du temps et en multiples de la fréquence de base. Mais si l'intervalle de temps se rétrécit, il faut également modifier la base sous peine de perdre de la précision (ce n'est pas le cas avec la représentation à l'aide de polynômes dont la précision augmente quand l'intervalle diminue.
Voyons maintenant l'application des fonctions mixtes pour la représentation du mouvement d'un satellite de planète en révolution rapide.
Soit t une date julienne appartenant à l'intervalle de temps t0, t0 + DT. On calcule les coodonnées X et Y d'un satellite pour la date t par la formule (Chapront et Vu, 1984) :
(5),
où :
Les éphémérides de l'année sont publiées corps par corps. Pour chaque corps, on compte un certain nombre de variables qui, pour des intervalles de temps donnés, sont représentées par des tableaux donnant les coefficients de leurs développements en polynômes de Tchebychev ou sous formes de fonctions mixtes.
En haut de chaque page, on trouve :
En bas de chaque page, on trouve les unités utilisées.
Les coefficients d'un tableau sont publiés en colonne. Pour chaque tableau, on précise :
Pour calculer la valeur d'une coordonnée d'un astre pour une date t exprimée en UTC, on commence par :
Le calcul se poursuit de la manière suivante :
On applique la formule (5) avec (u est compté en jours).
Exemple 2. Calculer les coordonnées tangentielles de Téthys (troisième satellite de Saturne) par rapport à la planète, le 4 janvier 2003 à 23h 29m 57s UTC.
On effectue la même correction de 65s que dans l'exemple 1 pour se ramener à l'argument des éphémérides. La date t est donc le 4 janvier 2003 à 23h 31m 02s argument des éphémérides.
On utilise les coefficients de la page B120 valables du 0 janvier 0h au 16 janvier 0h. On a, pour X :
A0 = -0.001 000, A1 = 0.0
B0 = 50.188 200, F0 = 2.518 466, etc.
et, pour Y :
A0 = 0.002 100, A1 = 0.000 010,
B0 = 23.773 900, F0 = 1.092 443, etc.
On applique ensuite la formule (5) :
,
où : N = 3.3280 radians/jours ;
u est le nombre de jours écoulés entre le 0 janvier à 0h et le 4 janvier à 23h 31m 02s, soit 4.979 884 jours. On obtient finalement :
X = 12".387, Y = -21".897.
Lorsque l'on utilise une éphéméride pour calculer la position d'un corps du système solaire, on est amené à se poser la question : quelle est la précision de la quantité calculée ? Où se trouvera le corps observé par rapport à la position calculée ? On veut donc connaître la précision de l'éphéméride ou plutôt son exactitude. La précision des éphémérides est la résultante de trois types de précisions différentes :
Aujourd'hui, la précision avec laquelle on peut positionner une planète ou un satellite de planète est la suivante :
Soleil/Terre | 0,3" | 220 km |
Mercure | 0,9" | 440 km |
Vénus | 0,3" | 70 km |
Lune | 0,008" | 15 m |
Mars | 0,4" | 60 km |
Jupiter | 0,5" | 1500 km |
Satellites galiléens de Jupiter | 0,1" | 300 km |
Saturne | 0,9" | 5400 km |
Titan | 0,2" | 1200 km |
Uranus | 0,5" | 6550 km |
Neptune | 1,0" | 20 000 km |
Pluton | 1,0" | 20 000 km |
A noter que pour les besoins de l'exploration spatiale, on est amené à construire des éphémérides de dernière minute plus précises mais se dégradant très rapidement dans le temps.
On appelle "phénomène astronomique" une configuration particulière des astres que l'on peut prévoir. Ce phénomène peut être perceptible sans instrument d'observation (éclipse de Lune ou de Soleil, lever d'un astre, ...). Les éphémérides vont donc prévoir ces phénomènes. Dans certains cas (éclipses de Soleil, lever et coucher d'un astre), la visibilité du phénomène est locale et les paramètres publiés dans l'éphéméride seront généraux. Il faudra prévoir des tables, des formules avec coefficients ou des graphiques pour savoir ce qui se passe dans un lieu précis.
Les principaux phénomènes donnés sont :
On se reportera au cours sur les éclipses pour le détail des calculs et des prédictions de ces phénomènes.
Pour calculer l'instant du lever ou du coucher d'un astre dont on suppose connues les coordonnées équatoriales approchées α et δ au moment du phénomène considéré, on calcule d'abord l'angle horaire H au moment du lever ou du coucher par la formule :
où
φ est la latitude du lieu et h0 un angle petit qui sera défini plus loin. Le temps sidéral approché du lever est alors :
(2a) ;
et celui du coucher,
(2b) .
On calcule ensuite, à partir de T, l'instant du phénomène en temps universel comme on l'a expliqué dans les paragraphes précédents.
Si l'astre se déplace rapidement sur la sphère céleste (c'est le cas pour le Soleil, certaines planètes et surtout la Lune), on calcule pour l'instant trouvé des coordonnées α et δ plus exactes en interpolant les tables et l'on recalcule H puis T, par les formules (1) et (2), d'où l'instant du phénomène en UT. Pour la Lune, on est quelquefois amené à effectuer une itération supplémentaire.
Quant à h0, son expression générale est la suivante :
,
P est la parallaxe. On la néglige pour tous les astres sauf pour la Lune pour laquelle P = 57'.
R est la réfraction à l'horizon. Les tables du présent volume utilisent la théorie de la réfraction de Radau qui conduit à R = 36'36", mais l'on pourra utiliser la valeur R = 34' adoptée dans les Ephémérides Nautiques publiées par le Bureau des longitudes et dans d'autres publications étrangères.
(1/2) d est le demi-diamètre apparent de l'astre. On l'introduit dans la formule quand on calcule le lever et le coucher du bord supérieur du Soleil et de la Lune et non pas le lever et le coucher du centre de l'astre. On prend, aussi bien pour le Soleil que pour la Lune, (1/2) d = 16'.
Si l'observateur est à une altitude A au-dessus du niveau de la mer, on introduit dans l'angle , où a est le rayon de la Terre. On prend a = 6 378 140 m. On peut utiliser la formule approchée :
,
A étant exprimé en mètres.
Si l'on cherche le lever ou le coucher d'un astre en un lieu dont l'horizon est limité par des collines ou des montagnes d'altitude situées à la distance de l'observateur, on ajoutera à l'angle tel que :
.
On ne cherchera pas à obtenir les instants du lever ou du coucher des astres avec une précision supérieure à une minute, la valeur exacte de la réfraction à l'horizon au moment du phénomène étant trop mal connue.
Coucher à Bordeaux de l'étoile Sirius le 20 Avril 2002.
Les coordonnées moyennes de l'étoile pour 2002 sont (chapitre 10, "Positions d'étoiles") :
α = 6h 45m 15s ; δ= - 16°43'11".
En faisant les corrections de précession pour le 20 avril (données à la fin de ce chapitre), on trouve :
α = 6h 45m 16s, δ = 16°43'12".
Ici P = 0, (1/2) d = 0, η1 = 0, η2 = 0 ;
d'où :
h0 = -R = -34'
Les coordonnées de Bordeaux sont :
λ = + 2m 7s φ = + 44°50'7".
On déduit de la formule (1) :
cos H = 0,28411 d'où H = 73,494° = 4h 53m 59s.
Et le temps sidéral du coucher est :
T = α + H = 11h 39m 15s.
Le temps sidéral de Greenwich est donc :
T1 = T + λ = 11h 41m 22s
Le temps sidéral de Greenwich à 0h le 20 avril 2002 est T0 = 13h 51m 38s (chapitre "Positions du Soleil et de la Lune").
d'où :
Tt = T1 - T0 = 21h 49m 44s.
En convertissant cet intervalle de temps sidéral en un intervalle de temps moyen, on trouve que Sirius se couche à Bordeaux le 20 avril 2002 à :
t = 21h 46m 9s (UT)
Les satellites galiléens présentent des phénomènes particuliers dus aux positions que prennent le Soleil, Jupiter et la Terre : les éclipses (lorsqu'un satellite passe dans l'ombre de Jupiter) ; les occultations (lorsqu'un satellite passe derrière Jupiter par rapport à la Terre) ; les passages (lorsqu'un satellite passe devant Jupiter par rapport à la Terre) et les passages d'ombre (lorsque l'ombre d'un satellite passe sur le disque de Jupiter). Les phénomènes les plus célèbres sont les éclipses car ils sont les plus faciles à observer : il s'agit de l'extinction ou de l'apparition d'un satellite isolé. Les autres phénomènes nécessitent l'observation simultanée de Jupiter ce qui dégrade beaucoup le rapport signal sur bruit.
Tous ces phénomènes ont été observés visuellement pendant des dizaines d'années et le grand nombre d'éclipses observées a constitué la base des premières éphémérides. Dès la fin du XIXème siècle, les techniques d'observation des éclipses se sont améliorées et les premières courbes photométriques ont permis d'améliorer la précision de la datation de ces phénomènes. Ensuite, les enregistreurs photoélectriques sont apparus mais, malgré le progrès qu'ils apportaient, ils ont été très peu utilisés : ils sont arrivés lorsque cessa l'intérêt des astronomes pour ce type de travaux et n'ont pas encore été repris pour des raisons de précision.
Bien que la micro-informatique soit omniprésente pour les calculs astronomiques, les éphémérides imprimées sont encore abondamment diffusées auprès des astronomes professionnels ou amateurs. Pour quelle raison ? Tout d'abord, l'observateur a souvent besoin d'une confirmation ou d'une simple position approchée. Il est alors simple d'ouvrir un livre et de lire directement une valeur tabulée. On y trouve :
Ces éphémérides sont en général de faible précision et des valeurs tabulées sont suffisantes.
Il faut également citer des éphémérides plus spécialisées dans lesquelles les positions des corps célestes sont données dans un but utilitaire : les éphémérides nautiques françaises et le Nautical Almanac anglo-américain sont publiées pour permettre aux marins de faire le point en mer et sont là pour suppléer une défaillance du système GPS. L'éphéméride imprimée garde ici toute son utilité.
Toutes les éphémérides imprimées ne fournissent pas toujours des données tabulées. Elles peuvent donner des représentations graphiques (pour les satellites de Jupiter) ou des coefficients pour polynômes, dans le cas des éphémérides de haute précision, qui nécessitent alors l'emploi d'une calculatrice de poche ou d'un micro ordinateur. C'est le cas de la Connaissance des temps depuis 1979 qui est alors utilisée pour la programmation manuelle des télescopes ou plus simplement pour les tests et les contrôles de programmation plus complexe.
On trouvera ci-dessous la liste des principales éphémérides imprimées publiées actuellement :
On trouve sur internet de nombreux sites fournissant des éphémérides. Là encore, la précision des positions calculées n'est fournie que sur les sites professionnels. Les données disponibles sont riches et abondantes. Les interfaces interactives sont en général faciles d'utilisation. Attention à l'interprétation des données obtenues !
Fabriquer ses propres éphémérides pour quelques corps du système solaire est un exercice très formateur. Pour cela, il faut consulter les explications de base nécessaires, soit sur les sites Internet fournissant des éphémérides, qui fournissent aussi souvent des outils pour fabriquer soi-même des éphémérides (par exemple pour étendre l'intervalle de temps de validité des éphémérides), soit dans des ouvrages spécialisés. Citons :
Auteur: P. Rocher IMCCE
Date de création: 3 mars 2005
Ce chapitre traite de trois phénomènes liés au système Terre Lune Soleil : Les saisons, les éclipses de Soleil et les éclipses de Lune.
Les saisons climatiques sont liées aux saisons astronomiques. Très tôt les hommes vont essayer de comprendre ce phénomène et vont l'associer à des configurations astronomiques particulières. Les saisons astronomiques, le calcul de leurs retours sont l'origine des calendriers solaires.
Le cours sur les éclipses ne traite que de l'aspect mécanique (céleste) des éclipses, les aspects physiques et astrophysiques ne sont pas traités. Ce cours va nous permettre de répondre aux cinq questions fondamentales suivantes : Comment ? Pourquoi ? Quand ? Où ? et Souvent ?
Le cours sur les éclipses est séparé en quatre parties, les trois premières parties portent sur les éclipses de Soleil et une dernière partie porte sur les éclipses de Lune, les sections sur les éclipses de Soleil sont donc beaucoup plus fournies que la partie sur les éclipses de Lune, en effet il y a de nombreux points communs aux deux types d'éclipses et ils ne sont pas repris dans la dernière partie, il est donc vivement conseillé de lire le cours sur les éclipses de Soleil avant le cours sur les éclipses de Lune.
Ces cours comportent de nombreuses cartes d'éclipses, pour des raisons purement informatiques nous avons limité la taille donc la définition de ces images, vous trouverez des cartes et des images ayant une plus grande définition sur le site de l'IMCCE dans les rubriques éclipses. Vous y trouverez également des prédictions pour les futures éclipses de Lune et de Soleil.
Les climats terrestres dépendent de trois facteurs principaux : un facteur astronomique lié aux mouvements de la Terre autour du Soleil et à la rotation de la Terre sur elle-même; un facteur dynamique lié au déplacement saisonnier des masses d'air et un facteur thermique lié à la réflexion de la surface terrestre et au bilan radiatif. Nous traiterons principalement du premier facteur que l'on appelle les saisons astronomiques.
Nous allons définir les quatre saisons astronomiques qui sont en phase avec les hauteurs du Soleil et les durées du jour. Cela nous amènera à définir quelques termes parfois complexes mais qui permettent de mieux comprendre comment sont définies les dates et les durées des saisons. Nous comparerons enfin différents calendriers à différentes époques et en différents lieux sur Terre. Le facteur astronomique dominant est la hauteur du Soleil au-dessus de l'horizon. En effet plus le Soleil est haut, plus la quantité de chaleur reçue par mètre carré est importante, plus il fait chaud. La durée du jour n'est pas le phénomène prédominant, ainsi au pôle le jour dure plus de six mois mais il ne fait pas chaud car la hauteur du Soleil ne dépasse jamais 23°. Il n'y a donc pas de causalité entre la durée du jour et le climat, par contre la durée du jour peut intervenir dans les phénomènes météorologiques locaux (rosée, brises de mer). Les autres facteurs climatiques prennent souvent le pas sur l'échauffement dû à la hauteur du Soleil. Ainsi en France les journées les plus chaudes sont souvent celles du mois d'août alors que le Soleil est le plus haut dans le ciel au voisinage du solstice d'été (21 juin). La fraîcheur de mois de juin est due à un phénomène météorologique, une mini mousson produite par la présence de l'Atlantique.
Les variations de hauteur du Soleil au cours du temps et les durées variables des jours sont dues à l'inclinaison de l'axe de rotation de la Terre sur l'orbite terrestre. Au cours de sa révolution autour du Soleil, la Terre passe par des positions particulières : les équinoxes et les solstices. Les dates et les longueurs des saisons ne sont pas toujours les mêmes mais on peut les calculer et les expliquer.
Dans cette section nous allons décrire et définir le mouvement de la Terre autour du Soleil et sa rotation sur elle-même. Nous définirons ensuite la ligne des équinoxes et des solstices, puis nous étudierons les durées du jour et la trajectoire apparente du Soleil au début de chaque saison. Cette section donne de nombreuses définitions de termes astronomiques.
En première approximation, le barycentre du système Terre-Lune parcourt, dans le sens direct (sens inverse des aiguilles d'une montre), une orbite quasi elliptique et plane autour du Soleil (première loi de Kepler). Le plan de cette orbite est appelé plan de l'écliptique. Le Soleil est situé à l'un des foyers de cette ellipse. L'excentricité de l'ellipse est tellement faible qu'elle est indécelable sur le tracé de l'orbite, le tracé ressemble à celui d'un cercle. Il est important de noter que le Soleil ne se trouve pas au centre de l'ellipse mais à l'un de ces foyers. La distance entre le barycentre Terre-Lune et le Soleil n'est donc pas constante. Il y a deux positions particulières correspondant aux valeurs extrêmes de cette distance : le périhélie (distance minimale) et l'aphélie (distance maximale). La ligne joignant ces deux positions s'appelle ligne des apsides.
La Terre tourne sur elle-même, autour de l'axe des pôles, dans le sens direct (d'ouest en est). L'axe de rotation de la Terre n'est pas normal au plan de l'orbite du barycentre Terre-Lune (plan de l'écliptique). Cette inclinaison, de 23° 26', est à l'origine des variations de la durée des jours et des nuits ainsi que des saisons. Le plan normal à l'axe de rotation terrestre coupant en deux hémisphères la sphère terrestre s'appelle plan équatorial terrestre. L'intersection de ce plan avec la Terre est l'équateur terrestre.
Comme l'axe de rotation de la Terre n'est pas normal au plan de l'écliptique, le plan équatorial terrestre n'est pas parallèle au plan de l'écliptique. Il le coupe donc suivant une droite. Cette droite s'appelle la ligne des équinoxes. Lorsque la direction du segment joignant le Soleil à la Terre est parallèle à celle ligne, la Terre se trouve aux équinoxes. Il existe une autre ligne particulière, la ligne perpendiculaire, dans le plan de l'écliptique, à la ligne des équinoxes. Cette ligne est la ligne des solstices. Lorsque la direction du segment joignant le Soleil à la Terre est parallèle à celle ligne, la Terre se trouve aux solstices.
Vu de la Terre, dans le repère équatorial géocentrique, l'équinoxe correspondant au passage du Soleil des déclinaisons négatives aux déclinaisons positives est appelé équinoxe de printemps (début du printemps dans l'hémisphère nord) ou point vernal. Cette direction est, dans le plan de l'écliptique, l'origine des longitudes célestes et elle est également, dans le plan de l'équateur, l'origine des ascensions droites.
Le printemps, dans l'hémisphère nord, correspond donc à l'instant où la longitude géocentrique apparente du centre du Soleil est égale à 0°. L'autre équinoxe, correspondant au passage du Soleil des déclinaisons positives aux déclinaisons négatives, est appelé équinoxe d'automne (début de l'automne dans l'hémisphère nord). L'automne, dans l'hémisphère nord, correspond donc à l'instant où la longitude géocentrique apparente du centre du Soleil est égale à 180°. Le solstice situé entre l'équinoxe de printemps et l'équinoxe d'automne est le solstice d'été et le solstice compris entre l'équinoxe d'automne et l'équinoxe de printemps est le solstice d'hiver. L'été, dans l'hémisphère nord, correspond donc à l'instant où la longitude géocentrique apparente du centre du Soleil est égale à 90°. De même, le solstice d'hiver, dans l'hémisphère nord, correspond à l'instant où la longitude géocentrique apparente du centre du Soleil est égale à 270°.
Les saisons dans l'hémisphère sud sont inversées par rapport aux saisons dans l'hémisphère nord. Ainsi l'été dans l'hémisphère sud correspond à l'hiver dans l'hémisphère nord, l'hiver dans l'hémisphère sud correspond à l'été dans l'hémisphère nord, le printemps dans l'hémisphère sud correspond à l'automne dans l'hémisphère nord et l'automne dans l'hémisphère sud correspond au printemps dans l'hémisphère nord.
Nous venons de voir qu'il y a inversion des saisons entre l'hémisphère nord et l'hémisphère sud. Pouvez-vous décrire en quelques lignes ce qui se passe lorsque l'on est à la limite des deux hémisphères, c'est-à-dire lorsque l'on est sur l'équateur ?
Le jour de l'équinoxe (de printemps ou d'automne), si on néglige la réfraction atmosphérique, le terminateur de la zone de nuit sur la Terre passe par les deux pôles terrestres. Le jour de l'équinoxe, si on néglige la réfraction atmosphérique, la durée du jour est égale à la durée de la nuit pour tous les lieux de la surface terrestre. De plus, toujours en négligeant l'effet de la réfraction atmosphérique, le jour des équinoxes le Soleil se lève exactement à l'est et se couche exactement à l'ouest.
Le jour du solstice d'hiver, pour l'hémisphère nord, la demi-sphère définie par le terminateur de la zone de nuit recouvre la plus grande partie de la surface de l'hémisphère nord. C'est le jour de l'année où la durée de la nuit est maximale et la durée du jour minimale. C'est également le jour où le Soleil se lève le plus au sud-est (valeur extrême de l'amplitude ortive), passe au méridien avec une hauteur minimale et se couche le plus au sud-ouest(valeur extrême de l'amplitude occase).
Le jour du solstice d'été, pour l'hémisphère nord, la demi-sphère définie par le terminateur de la zone de nuit recouvre la plus petite partie de la surface de l'hémisphère nord. C'est le jour de l'année où la durée de la nuit est minimale et la durée du jour maximale. C'est également le jour où le Soleil se lève le plus au nord-est (valeur extrême de l'amplitude ortive), passe au méridien avec une hauteur maximale et se couche le plus au nord-ouest (valeur extrême de l'amplitude occase).
Nous rappelons que dans l'hémisphère sud, les solstices et les équinoxes sont à l'opposé des solstices et des équinoxes de l'hémisphère nord.
La Terre tourne autour de son axe dans le sens direct (d'ouest en est). Sur la Terre cela se traduit par un mouvement apparent des étoiles et des corps du système solaire dans le sens rétrograde (d'est en ouest).
L'angle formé par la direction du lever du Soleil avec la direction de l'est porte le nom d'amplitude ortive, cette amplitude est nulle le jour des équinoxes et elle est maximale le jour des solstices.
De même l'angle formé par la direction du coucher du Soleil avec la direction de l'ouest s'appelle l'amplitude occase, cette amplitude est nulle le jour des équinoxes et elle est maximale le jour des solstices.
Il existe un moyen mnémotechnique pour se rappeler quelles amplitudes ortives ou occases correspond au coucher ou au lever d'un astre.
Les deux premières lettres des mots vous donnent la direction : OR pour ortive correspond à ORIENT donc à l'est donc au lever des astres (tous les astres se lèvent vers l'est), OC pour occase correspond à OCCIDENT donc à l'ouest donc au coucher des astres (tous les astres se couchent vers l'ouest).
La Terre tourne autour du Soleil en suivant une orbite elliptique, sa vitesse sur cette orbite n'est pas constante. Les débuts des saisons astronomiques correspondent à quatre points particuliers de son orbite : les solstices et les équinoxes. Les valeurs extrêmes de la durée du jour et des positions du Soleil à son lever et à son coucher ainsi que sa hauteur correspondent aux jours des solstices.
Cette section est entièrement consacrée aux dates des saisons, elle aborde les notions d'année tropique, d'année sidérale et de calendriers solaires.
La ligne des équinoxes n'est pas fixe. Elle est animée d'un mouvement de précession dans le sens rétrograde (50,288200" par an actuellement). Ce mouvement appelé précession des équinoxes est lié au mouvement de l'axe de rotation de la Terre qui décrit un cône dans le sens rétrograde en environ 26000 ans. L’année tropique moyenne ou révolution tropique est le temps que met la Terre pour faire une révolution autour du Soleil dans un repère tournant lié à la ligne des équinoxes, c’est donc la période liée à la différence entre la longitude moyenne du Soleil et la précession des équinoxes. Cette période est indépendante de l’origine choisie. Sa valeur moyenne pour l'époque J2000 est de 365,24219052 jours (soit 365 jours 5h 48m 45,26s). L'année tropique moyenne est différente du temps moyen que met la Terre pour aller d’un équinoxe de printemps à l’autre. En effet la vitesse de la Terre sur son orbite n’est pas uniforme, elle obéit, en première approximation, à la seconde loi de Kepler, donc le temps moyen mit pour aller d’un équinoxe de printemps à l’autre n’est pas égal au temps moyen qui sépare deux équinoxes d’automne et il en est de même pour les intervalles de temps séparant les solstices d’hiver et d’été. L'année tropique moyenne est est inférieure à l'année sidérale, qui correspond à l'intervalle de temps qui sépare deux passages de la Terre dans une même direction et qui est égale à 365,2563 jours (soit 365 jours 6h 9m 6s).
Cela est dû à notre calendrier, le calendrier grégorien, qui est construit de manière à avoir une longueur moyenne de l'année la plus proche possible de la révolution tropique de la Terre. Comme la révolution tropique n'a pas un nombre entier de jour, si on prend une année calendaire de 365 jours, il y a un décalage de 0,2422 jour d'une année à l'autre dans les dates des saisons et, au bout de quatre ans, ce décalage est presque de un jour. Pour compenser ce décalage on a, dans un premier temps, ajouté un jour à l'année tous les quatre ans (année bissextile de 366 jours). C'est ce que faisait le calendrier julien élaboré par Jules César en 46 avant J.-C. Mais si on ajoute un jour tous les quatre ans, la valeur moyenne de l'année calendaire est de 365,25 jours. Elle est donc un peu trop grande par rapport à l'année tropique. Donc si on se contente d'ajouter une année bissextile tous les quatre ans les saisons vont se décaler lentement par rapport au calendrier à raison de 0,0078 jour par an (11min 14s par an). Le calendrier julien suit donc mal les saisons. Il se décale d'environ 3 jours au bout de 400 ans. Pour avoir une meilleure concordance entre le calendrier et les saisons, il suffit de supprimer 3 jours sur une période de 400 ans.
C'est ce que l'on fait dans le calendrier grégorien. Comme dans le calendrier julien, on ajoute une année bissextile tous les quatre ans (ceux dont le millésime est multiple de quatre) sauf pour les années qui sont multiples de 100 sans l'être de 400. Ainsi 1600 et 2000 sont bissextiles, mais 1700, 1800, 1900 et 2100 ne sont pas bissextiles. Cette réforme du calendrier a été effectuée par le pape Grégoire XIII en 1582. De plus, pour supprimer le décalage accumulé entre les saisons et l'ancien calendrier (calendrier julien) et ramener la date de l'équinoxe de printemps au 21 mars, l'année 1582 a été raccourcie de 10 jours, le lendemain du jeudi 4 octobre 1582 devenant le vendredi 15 octobre 1582.
Nous avons vu que la période de révolution tropique moyenne de la Terre est de : 365,24219052 jours. Cette valeur est la combinaison du mouvement en longitude de la Terre dans un repère fixe et de la précession des équinoxes. La longitude moyenne de la Terre pour l'époque J2000 est donnée par la formule suivante :
La précession des équinoxes en longitude dans le même repère est donnée par la formule :
T est exprimé en jour. A partir de ces deux formules retrouver les périodes de révolutions sidérale et tropique de la Terre pour l'époque J2000.
Le programme de calcul des dates des saisons donne ces dates dans le calendrier julien pour les dates antérieures au 5 octobre 1582 et dans le calendrier grégorien pour les dates postérieures au 15 octobre 1582. Le calendrier julien a été prolongé pour les dates antérieures au début de l'ère chrétienne (calendrier proleptique). Dans l'affichage de ces dates on utilise la notation des astronomes et non pas la notation des historiens.
Comme nous l'avons vu dans un paragraphe précédent, les dates des saisons se décalent dans le calendrier julien d'environ 3 jours tous les 400 ans. On peut constater cette dérive à l'aide du programme de calcul des saisons.
Année | Printemps | Eté | Automne | Hiver |
---|---|---|---|---|
0 | 22 mars | 24 juin | 25 septembre | 22 décembre |
-1000 | 30mars | 2 juillet | 2 octobre | 29 décembre |
-2000 | 7 avril | 10 juillet | 9 octobre | 6 janvier |
-3000 | 14 avril | 18 juillet | 15 octobre | 13 janvier |
-4000 | 22 avril | 25 juillet | 22 octobre | 20 janvier |
Dérive de la date des saisons dans le calendrier julien
Nous l'avons vu, le calendrier grégorien est conçu pour éviter le décalage et la dérive des dates des saisons que nous avons constaté dans le calendrier julien. Les dates des saisons restent donc toujours au voisinage des mêmes dates dans le calendrier grégorien. L'utilisation des années bissextiles fait osciller l'instant des saisons sur trois et, exceptionnellement, quatre jours. Il ne faut pas confondre ces oscillations de la date des saisons autour de valeurs moyennes avec une dérive du calendrier.
Ces dates peuvent être vérifiées à l'aide du programme de calcul des saisons.
Les dates des saisons sont fixes dans un calendrier, c'est-à-dire ne dérivent pas avec le temps, lorsque la durée moyenne de l'année calendaire est proche de la révolution tropique moyenne de la Terre. Ces calendriers portent le nom de calendrier solaire. Notre calendrier actuel, le calendrier grégorien est un calendrier solaire.
Cette section traite de la longueur des saisons et de l'évolution de la longueur des saisons en fonction du temps.
Il suffit de consulter un calendrier pour vérifier que les longueurs des différentes saisons ne sont pas égales. Par exemple durant l'année 1998, l'hiver a duré 89 jours, le printemps 92 jours 18 heures, l'été 93 jours 15 heures et l'automne 89 jours 21 heures.
Cette variation des longueurs des saisons provient du fait que la vitesse du barycentre Terre-Lune sur son orbite autour du Soleil n'est pas un mouvement uniforme. C'est une conséquence immédiate de la seconde loi de Kepler. La vitesse orbitale n'est pas constante. Lorsque le barycentre Terre-Lune est au plus près du Soleil (à son périhélie) sa vitesse est maximale et lorsque le barycentre Terre-Lune est au plus loin du Soleil (à son aphélie) sa vitesse est minimale. Or actuellement le barycentre Terre-Lune passe au périhélie début janvier et à l'aphélie début juillet. Donc la Terre est plus rapide sur son orbite en janvier et l'hiver est la saison la plus courte, de même elle est la plus lente en juillet et l'été est la saison la plus longue.
Année | Durée de l'hiver | Durée du printemps | Durée de l'été | Durée de l'automne | Date du passage au périhélie | Date du passage à l'aphélie |
---|---|---|---|---|---|---|
130 avant J. -C. | 90 jours 5h 39m 58s | 94 jours 0h 21m 33s | 92 jours 8h 24m 42s | 88 jours 15h 25m 7s | 1 décembre à 5h 43m 23s | 2 juin à 21h 11m 54s |
2004 | 88 jours 23h 44m 49s | 92 jours 18h 8m 14s | 93 jours 15h 32m 57s | 89 jours 20h 11m 46s | 4 janvier à 17h 41m 59s | 5 juillet à 10h 53m 28s |
Comparaison de la durée des saisons entre l'an 130 avant J.-C. et l'an 2004.
Cette figure montre bien que la saison n'est pas fonction de la distance entre le Soleil et la Terre. Actuellement, dans l'hémisphère nord, la saison la plus froide (l'hiver) correspond à l'époque où le Soleil est le plus près de la Terre et la saison la plus chaude (l'été) correspond à l'époque où le Soleil est le plus loin de la Terre.
Si les positions du périhélie et de l'aphélie du barycentre Terre-Lune étaient constantes dans le temps, la durée des différentes saisons serait, elle aussi, constante. Mais l'orbite du barycentre Terre-Lune tourne dans son plan dans le sens direct à raison d'environ 12" par an (soit une révolution en environ 100 000 ans), ce mouvement est donc un mouvement direct de la ligne des apsides. La précession des équinoxes s'effectue dans le sens contraire (sens rétrograde) à raison de 50,288200" par année julienne de 365,25 jours (soit une révolution en environ 26000 ans). La combinaison de ces deux mouvements permet de calculer la période du passage du périhélie de la Terre par la direction de l'équinoxe de printemps, cette période d'environ 21 000 ans est appelée précession climatique. En effet, tous les 10500 ans (demi-période de la précession climatique) l'aphélie passe de l'été à l'hiver. Or même si la distance Terre-Soleil n'est pas le facteur prédominant dans la nature des saisons, la combinaison du passage de la Terre à l'aphélie en hiver donne des hivers plus rudes. De même la distance Terre-Soleil dépend également de la variation de l'excentricité de l'orbite terrestre. Ainsi les périodes glacières sont corrélées avec les minima de l'excentricité de l'orbite terrestre.
L'inégalité de la longueur des saisons est due à la non uniformité du mouvement orbital de la Terre autour du Soleil. La variation des longueurs des saisons est due au mouvement de la ligne des apsides de la Terre.
Cette section traite des aspects historiques et géographiques des saisons. Très tôt les astronomes ont essayé de construire des calendriers solaires, pour cela ils durent mesurer et estimer la durée de l'année tropique. En fonction des lieux géographiques, les autres facteurs climatiques jouent des rôles plus ou moins prononcés, ainsi le nombre des saisons climatiques n'est pas toujours égal aux quatre saisons astronomiques.
Le nom d'Hipparque de Nicée (env. 190 - env. 125 av. J.-C.) est lié à la découverte de la précession des équinoxes. Pour découvrir ce lent mouvement de la ligne des équinoxes, deux méthodes d'observations sont possibles. La première consiste à mesurer les variations des longitudes des étoiles au cours du temps. Cette méthode est cumulative, car chaque année la longitude croit d'une valeur faible mais constante. La deuxième méthode consiste à mesurer l'écart entre l'année tropique et l'année sidérale. Nous savons grâce à Ptolémée (IIe siècle après J.-C.) qu'Hipparque a utilisé ces deux méthodes. Et c'est vraisemblablement la première qui fut à l'origine de sa découverte de la précession des équinoxes. Pour cela il compara la distance de Spica dans l'Épi de la Vierge (l'étoile alpha Virginis) avec l'équinoxe d'automne aux dates des observations de Timocharis, observations faites entre 294 et 283 av. J.-C. et la valeur de cette même distance à son époque, et il trouva une variation dans la longitude de l'étoile de 2° sur la période de 160 ans séparant les deux mesures.
Pour la détermination des valeurs de l'année tropique et de l'année sidérale, Hipparque utilisa dans un premier temps des observations faites entre 162 et 128 av. J.-C., mais les valeurs calculées à partir de ces observations semblaient indiquer une valeur variable de l'année tropique en fonction du temps. Finalement, il se limita aux observations des solstices qu'il avait effectuées lui-même en 135 av. J.-C., aux observations faites par Aristarque en 280 av. J.-C. et aux observations faites par Méton, en 432 av. J.-C. Pour l'année tropique il trouva une valeur de 365 jours 1/4 moins 1/300 jour (soit 365 jours 5h 55m 12s) et pour l'année sidérale, il trouva une valeur de 365 jours 1/4 plus 1/144 jour (soit 365 jours 6h 10m 0s). Ces valeurs sont assez proches des valeurs actuelles.
En réalité la valeur de l'année tropique n'est pas constante, mais varie lentement en fonction du temps, sa valeur est donnée pour un instant donné par la relation suivante (P. Bretagnon, 2000) :
A =365,242 190 516 6 - 61,560 7 x 10 -6 T - 68,4 x 10 -9 T 2 + 263,0 x 10 -9 T 3+ 3,2 x 10 -9 T 4
où T = (JJD - 2 451 545,0) / 365 250
JJD étant le jour julien de l'époque considérée.
Epoque | Auteur | Valeur |
---|---|---|
141-127 av. J.-C. | Hipparque | 365j 5h 55m 12s |
45 av. J.-C. | Jules César (Sosigène) | 365j 5h 55m |
139 ap J.-C. | Ptolémée | 365j 5h 55m 12s |
499 | Aryabhata | 365j 8h 36m 30s |
882 | al-Battani | 365j 5h 48m 24s |
~1100 | Khayam | 365j 5h 49m 12s |
1252 | Tables Alphonsines | 365j 5h 49m 16s |
~1440 | Ulug Beg | 365j 5h 49m 15s |
1543 | Copernic | 365j 5h 49m 29s |
1574-1575 | Danti | 365j 5h 48m |
1582 | Calendrier Grégorien | 365j 5h 48m 20s |
2000 | Bretagnon | 365j 5h 48m 45.26s |
Le tableau suivant donne les différentes valeurs de l'année tropique en fonction de l'époque.
Le Papyrus d'Eudoxe, nous informe que Callipe (vers 370-330 av. J.-C.) fut un des premiers astronomes à déterminer avec précision la longueur des différentes saisons. Il trouva (94, 92, 89 et 90 jours) à partir de l'équinoxe de printemps. Hipparque améliora ces valeurs et trouva (94 1/2, 92 1/2, 88 1/8 et 90 1/8) toujours à partir de l'équinoxe de printemps. On remarquera que ces valeurs sont très différentes des valeurs actuelles et cela est normal. En effet, si l'on tient compte de la précession climatique, l'angle entre le périhélie et l'équinoxe de printemps était à l'époque d'Hipparque 34° plus grand qu'actuellement. Le périhélie tombait donc en automne et l'aphélie au printemps, et la saison la plus courte était effectivement l'automne et la saison la plus longue, le printemps.
Les variations de la hauteur du Soleil dans la journée est un des éléments moteurs du climat, ainsi plus on monte en latitude vers les pôles plus le Soleil reste bas sur l'horizon et plus on s'approche de l'équateur plus le Soleil monte haut dans le ciel. D'autres éléments -- la présence des mers et des océans, la présence de la végétation, la nature du relief -- interviennent localement et produisent les différents types de climats observables sur Terre. Ainsi si sous nos latitudes les quatre saisons sont relativement en phase avec les variations climatiques, dans d'autres régions les quatre saisons sont moins marquées et historiquement, leurs nombres et leurs durées sont différentes.
En Mésopotamie, l'année solaire est divisée en deux saisons de six mois chacune : l'été ou temps de chaleur, (en sumérien Emesh, en akkadien ummatum) commence à l'équinoxe de printemps, et l'hiver ou temps du froid (en sumérien Enten, en akkadien kussu) commence à l'éqinoxe d'automne. C'est plutôt le régime des pluies débutant vers le mois de septembre et la crue du Tigre et de l'Euphrate croissante de novembre à mars et maximale en avril et mai, éléments déterminant pour les travaux agricoles, qui sont à l'origine de ce découpage en deux saisons.
On retrouve une pratique identique de nos jours, chez les Nuer du Haut Nil (au Soudan) où l'année est divisée en deux saisons. Une saison des pluies de mars à septembre durant laquelle les Nuer mènent une vie sédentaire et une saison de sècheresse d'octobre à février où les Nuer reprennent une vie nomade.
Dans l'Égypte ancienne, le nombre de saisons était de trois, chaque saison comportait quatre mois. Les noms des saisons et des mois sont donnés dans le tableau suivant :
Saison | Nom des mois |
---|---|
Inondation (Aklet) | Thot-Paophi-Athyr-Choeac |
Hiver (Peret) | Tybi-Méchir-Phaminoth-Pharmouti |
Été (Shemou) | Pachon-Payni-Epiphi-Mésori |
L'année commence avec la saison de l'inondation et cela correspond au début de la crue du Nil. On lit souvent que la crue du Nil correspondait avec le lever héliaque de l'étoile Sirius (Sothis chez les égyptiens), et que le lever héliaque de Sirius a lieu le jour du solstice d'été. En réalité la crue du Nil est bien évidement liée à un phénomène saisonnier et ce phénomène a du, à une époque donnée, correspondre au lever héliaque de Sirius, mais le lever héliaque de Sirius ne se produit pas à date fixe, sa date varie avec la précession des équinoxes et dépend également de la latitude du lieu d'observation.
En Chine, l'année tropique est divisée en 24 sections de saisons - les Jié Qì - correspondant chacune à un arc de 15 degrés de longitude, on distingue quatre saisons comme sous nos latitudes, mais elles sont décalées par rapport aux nôtres d'un mois et demi. Ainsi contrairement aux conventions occidentales, les saisons débutent lorsque la longitudes du Soleil atteint 315°, 45°, 135° et 225° (pour le printemps, l'été, l'automne et l'hiver) et non pas aux équinoxes et aux solstices. Le printemps commence donc à mi-chemin entre le solstice d'hiver et l'équinoxe de printemps.
Dans les Jiè Qì les termes principaux Z sont appelés zhong qì.
Numéro | Jié Qi | Nom | Longitude du Soleil |
---|---|---|---|
J1 | Lì chun | début du printemps | 315° |
Z1 | Yu shui | pluies | 330° |
J2 | Jing zhé | réveil des insectes | 345° |
Z2 | Chun fen | équinoxe de printemps | 360° |
J3 | Qinq ming | clarté | 15° |
Z3 | Gu yu | pluies des grains | 30° |
J4 | Lì xià | début de l'été | 45° |
Z4 | Xiao man | petite abondance | 60° |
J5 | Máng zhong | grains en épi | 75° |
Z5 | Xià zhì | solstice d'été | 90° |
J6 | Xiao shu | petite chaleurs | 105° |
Z6 | Dà shu | grandes chaleurs | 120° |
J7 | Lì qiu | début de l'automne | 135° |
Z7 | Chu shu | fin des chaleurs | 150° |
J8 | Bái lù | rosée blanche | 165° |
Z8 | Qiu fen | équinoxe d'automne | 180° |
J9 | Hán lù | rosée froide | 195° |
Z9 | Shuang Jiáng | arrivée du givre | 210° |
J10 | Lì dong | début de l'hiver | 225° |
Z10 | Xiao xue | petites neiges | 240° |
J11 | Dà xue | grandes neiges | 255° |
Z11 | Dong zhì | solstice d'hiver | 270° |
J12 | Xiao hán | petits froids | 285° |
Z12 | Dà hán | grands froids | 300° |
Le tableau donne la liste des Jié Qì.
Les aborigènes de la région de Kakadu (Australie) découpent l'année solaire en cinq saisons. En Gundjeidmi, la langue des Maiili, les saisons portent les noms suivants :
Nom des saisons | Traduction |
---|---|
yegge | saison plus fraîche, mais encore humide |
wurrgeng | saison froide |
gurrung | saison chaude et sèche |
gunumeleng | saison des tempêtes d'avant la mousson |
banggereng | saison des tempêtes renverse tout |
En Inde le nombre des saisons est de six, chaque saison ayant deux mois.
Le tableau suivant donne la liste des saisons ainsi que les mois du calendrier solaire indien correspondant à ces saisons avant la réforme calendaire de 1957.
Saison | Nom des mois dans le calendrier solaire |
---|---|
Hiver (Sisira) | Pausa - Magha |
Printemps (Vasanta) | Phalguna - Chaitra |
Été (Grisma) | Vaisakha - Jyaistha |
Pluies (Varsa) | Asadha - Sravana |
Automne (Sarat) | Bhadra - Asvina |
Froid (Hermana) | Kartika - Agrahayana |
Les mois en Inde
La réforme du calendrier de 1957 a imposé un calendrier solaire identique au calendrier grégorien commençant le 1 Chaitra (22 mars). Dans ce nouveau calendrier, suite à la précession des équinoxes, les dates des saisons ont été décalées d'un mois pour compenser cet écart (qui est en réalité de six semaines).
Assez paradoxalement, c'est au nord du cercle polaire que l'on trouve une division de l'année comportant plus de six saisons. Les Inuit utilisaient un calendrier lunaire, qui était en réalité plus lié aux variations de leur l'environnement qu'à l'observation de la Lune. Ce calendrier était composé de 13 mois lunaires. Les saisons étaient au nombre de huit et étaient, elles aussi, très liées aux modifications apparentes de l'environnement. De nos jours, ce découpage calendaire n'a plus cours chez les Inuit, il a été remplacé par le calendrier grégorien.
Nom des mois lunaires | Saisons |
---|---|
Siqinnaarut (Soleil possible) | Ukiuq (hiver) |
Quangattaasan (Soleil plus haut) | Ukiuq (hiver) |
Avunniit (bébés phoques prématurés) | Upirngaksajaaq (vers le printemps) |
Naittian (bébés phoques) | Upirngaksaaq (début du printemps) |
Tirigluit (bébés phoques à barbe) | Upirngaaq (printemps) |
Nurrait (bébés caribous) | Upirngaaq (printemps) |
Manniit (oeufs) | Upirngaaq (printemps) |
Saggaruut (les caribous perdent leurs poils) | Aujaq (été) |
Akullirut (le poil des caribous épaissit) | Aujaq (été) |
Amiraijaut (les bois des caribous perdent du duvet) | Ukiatsajaaq (vers l'automne) |
Ukuitlirut (début de l'hiver) | Ukiaksaaq (automne) |
Tusartuut (écoute nouvelles des voisins) | Ukiaq (début de l'hiver) |
Tauvigjuaq (grande obscurité) | Ukiuq (hiver) |
Le tableau suivant donne la liste des treize mois lunaires et les saisons correspondantes.
Dès l'époque d'Hipparque (environ 130 avant J.-C.) les astronomes eurent une assez bonne approximation de la valeur de l'année tropique. A la date de la création de notre calendrier en 1582, la valeur utilisée était pratiquement la même que celle déterminée par Al Battani sept siècles plus tôt. Les valeurs actuelles ne sont pas mesurées mais calculées à partir des théories planétaires et du mouvement de précession des équinoxes.
Dans de très nombreux pays le nombre des saisons est différent des quatre saisons astronomiques, cela en raison de l'importance des autres facteurs climatiques prépondérants dans ces régions.
Les saisons astronomiques sont des phénomènes astronomiques simples produits par l'inclinaison l'axe de rotation de la Terre par rapport au plan de son orbite. Elles gouvernent en partie le climat sur Terre. Leurs longueurs sont différentes et évoluent avec le temps. Elles servent de repère dans la vie de tous les jours et sont à l'origine de notre calendrier.
Aucun
Nous présentons d'abord les mouvements de la Terre autour du soleil en décrivant les éléments orbitaux képlérien. Nous traitons ensuite les mouvements de la Lune autour de la Terre en définissant les éléments elliptiques, puis en décrivant différentes périodes de révolutions. Finalement nous présentons les phases de la Lune.
Les mouvements de la Terre et de la Lune seront abordés dans un premier temps, puis les phases de la Lune.
Dans la quasi-totalité des cultures anciennes et des sociétés sans écriture, les éclipses de Lune et plus encore les éclipses de Soleil, ont été attribuées à des causes surnaturelles, l'intervention d'un dieu, d'un démon ou d'un animal maléfique essayant d'éteindre ou de dévorer l'un des deux luminaires.
Ainsi en Asie, un dragon céleste essayait de dévorer la Lune et le Soleil, d'ailleurs le plus ancien mot chinois pour décrire une éclipse, shih, signifie manger. De même en Inde les deux parties décapitées du démon Vichnou, Rahu et Ketu placées aux noeuds de l'orbite lunaire cherchaient à dévorer la Lune et le Soleil. Chez les Mayas, l'éclipse de Soleil est représentée par un serpent mordant le Soleil, au Yucatán, on l'appelle Chibil Chin ce qui signifie textuellement «Morsure du Soleil», de nos jours certains Mayas, tels que les Yucatèques ou les Chols considèrent les éclipses comme une bataille entre le Soleil et la Lune, ils déconseillent aux femmes enceintes d'observer ce phénomène sous peine de mettre au monde un enfant difforme! Les Aztèques ont aussi élaboré des théories concernant les éclipses de Soleil : au cours des éclipses un monstre appelé Tzitzimine descend sur Terre pour dévorer l'humanité, seule une série de sacrifices peut conjurer ce danger. Dans la mythologie germanique, le Soleil et la Lune sont poursuivis par deux loups célestes, Moongarm et Fenris et c'est la lutte entre ces deux monstres qui provoque les éclipses. Comme on le constate toutes les représentations mythologiques des éclipses ont un aspect néfaste, on conjurait ce mauvais sort de différentes façons : en faisant du bruit, en tirant des flèches sur le monstre dévoreur, en entrant dans l'eau ou plus grave à l'aide de sacrifices.
Cette peur engendrée par les éclipses va inciter les astronomes et astrologues de l'Antiquité à prédire le retour de ces phénomènes célestes. Le concept du dragon dévoreur de Lune et de Soleil a été repris par les grecs et les romains, c'est pour cette raison que les noeuds de l'orbite lunaire portent les noms de Caput et Cauda Draconis (la tête et la queue du dragon) et que l'intervalle séparant deux passages de la Lune par un des noeuds de son orbite porte le nom de révolution draconitique.
Il faut noter que bien que ces phénomènes soient parfaitement expliqués, on trouve encore, à la fin du XXe siècle des olibrius pour prédire la fin du monde et la chute de la station MIR place de la Concorde le jour de l'éclipse de Soleil du 11 août 1999. Le plus grave n'étant pas la prédiction en elle-même mais sa diffusion massive par les médias !
Dans cette section nous allons présenter les paramètres orbitaux de la Terre dans le plan défini par sa trajectoire.
En première approximation on peut supposer que le mouvement de la Terre autour du Soleil obéit aux trois lois de Kepler. La Terre parcourt donc une orbite elliptique plane autour du Soleil, le Soleil étant situé à l'un des foyers de l'ellipse. Le plan de cette orbite s'appelle le plan de l'écliptique, car c'est lorsque la pleine Lune ou la nouvelle Lune est proche de ce plan qu'il y a une possibilité d'éclipses de Lune ou de Soleil. Ce plan sert de plan de base (Oxy) au repère de coordonnées polaires écliptiques, l'axe Oz de ce repère est normal au plan de l'écliptique et il est orienté de sorte que la trajectoire de la Terre soit dans le sens direct. Les deux coordonnées angulaires polaires écliptiques portent les noms de longitude écliptique et de latitude écliptique. Dans ce modèle keplerien du mouvement de la Terre, la latitude de la Terre est toujours nulle. Sur son orbite la Terre passe par deux positions particulières situées aux extrémités de la ligne des apsides (le grand-axe de l'ellipse) : l'aphélie correspondant à la distance maximale entre la Terre et le Soleil, et le périhélie correspondant à la distance minimale entre la Terre et le Soleil. Suite à la deuxième loi de Kepler, à l'aphélie la vitesse de la Terre est minimale et au périhélie elle est maximale. Ainsi la vitesse angulaire de la Terre progresse 7% plus vite au périhélie qu'à l'aphélie.
Dans l'étude des éclipses, on utilise le mouvement apparent du Soleil autour de la Terre. Dans ce mouvement le Soleil parcourt une orbite elliptique autour de la Terre, l'orbite a les mêmes caractéristiques que la trajectoire de la Terre autour du Soleil. Cette représentation est correcte d'un point de vue cinématique (changement d'origine du repère), mais n'a aucun sens d'un point de vue dynamique.
Le mouvement elliptique de la Terre a lieu dans le plan de l'écliptique, l'ellipse est donc définie géométriquement par la connaissance de la longitude du périastre : ω (angle formé par son demi-grand axe et l'axe Ox), de son demi-grand axe a et de son excentricité e. Le mouvement de la Terre sur l'ellipse est connu lorsque l'on connaît pour une date origine T0 sa longitude λ et son moyen mouvement n.
En réalité, suite aux perturbations planétaires l'orbite de la Terre n'est pas keplerienne et ses éléments orbitaux ne sont pas constants mais varient avec le temps.
Le tableau suivant donne les éléments moyens de l'orbite de la Terre dans le repère défini par l'équinoxe et l'écliptique moyens dynamiques inertiels de la date (J2000).
Paramètres de l'orbite | Valeurs au 1er janvier 2000 à 12h |
---|---|
demi-grand axe : a | 1,000 001 017 8 ua |
excentricité : e | 0,016 708 634 2 |
longitude du périhélie : ϖ | 102,937 348 08° |
longitude de la Terre : λ | 100,466 456 83° |
moyen mouvement : n | 1296027711,03429"/millier d'année julienne ~ 0,985 647 358°/jour |
Comme ces éléments sont donnés dans le repère moyen de la date, repère tenant compte de la précession des équinoxes, l'inclinaison de l'orbite est nulle et le rapport 360°/n donne la période de révolution tropique de la Terre autour du Soleil (365,2421904 jours). Pour avoir la révolution sidérale de la Terre (365,2563632 jours), il faut utiliser le moyen mouvement donné dans le repère fixe J2000 (n = 0,9856091125°/jour).
Sur cette figure l'excentricité de l'orbite terrestre a été fortement exagérée.
Le tracé de l'orbite de la Terre autour du Soleil en prenant a = 10 cm est un cercle. En effet la différence entre le demi-grand axe et de demi-petit axe est d'environ 14 μm, elle est donc dans l'épaisseur du trait. Par contre, sur la figure, le Soleil n'occupe pas le centre du cercle mais est excentré d'environ 1,7 mm
En utilisant les éléments orbitaux de la Terre donnés dans le supplément de cours, calculer la valeur du demi-petit axe b de l'ellipse, la distance c entre le centre de l'ellipse et son foyer. Puis calculer les distances Terre-Soleil lorsque la Terre est au périhélie et lorsque la Terre est à l'aphélie. Exprimer ces résultats en unités astronomiques, puis en kilomètres en prenant : 1 ua = 149597870 km.
En déduire les valeurs du diamètre apparent du Soleil vu du centre de la Terre, lorsque la Terre est à l'aphélie et lorsque la Terre est au périhélie, on prendra le rayon solaire égal à 696000km. Ensuite, faire un dessin à l'échelle en prenant comme demi-grand axe de l'orbite terrestre une valeur de 10 cm. Calculer les valeurs précédentes à cette échelle, calculer la valeur de a - b.
Que peut-on en conclure ?
Cette section décrit le mouvement orbital de la Lune par rapport au Soleil. Le problème qui était plan dans le cas de la Terre devient spatial car le plan de l'orbite lunaire n'est pas confondu avec le plan de l'orbite terrestre. Il convient donc d'ajouter de paramètres supplémentaires pour positionner le plan de l'orbite par rapport au repère fondamental (plan de l'écliptique ou de l'équateur).
Contrairement au mouvement de la Terre autour du Soleil, qui peut être considéré en première approximation comme keplerien (solution exacte du problème des deux corps), le mouvement de la Lune est beaucoup plus complexe. Une première approximation du mouvement de la Lune est donnée par la résolution d'un problème des trois corps (Soleil, Terre et Lune) appelé problème principal. Dans ce problème le mouvement de la Lune est obtenu en tenant compte de l'attraction du centre de masse de la Terre et des perturbations solaires dans le cadre de la mécanique newtonienne, le mouvement du barycentre Terre-Lune étant représenté par un mouvement keplerien.
La solution complète tient compte de très nombreuses perturbations et les éléments elliptiques se présentent sous la forme de séries semi-analytiques comportant plusieurs milliers de termes, environ 35000 pour la solution ELP2000 de Michèle Chapront-Touzé et Jean Chapront.
Les éléments elliptiques de l'orbite lunaire ne sont donc pas constants, mais varient rapidement avec le temps. Les valeurs du demi-grand axe, de l'excentricité et de l'inclinaison oscillent autour de valeurs moyennes ; la ligne des noeuds de l'orbite et la ligne des apsides sont animées de mouvements circulaires non uniformes.
En tenant compte de ces perturbations, la vitesse angulaire de la Lune peut progresser 29% plus vite à son périgée qu'à son apogée. La variation de distance entre le centre de la Terre et le centre de la Lune va de 56 à 63,8 rayons terrestres selon que la Lune est à son périgée ou à son apogée (la distance moyenne est de 60 rayons terrestres).
Les éléments elliptiques sont une série de six paramètres permettant de définir parfaitement une orbite elliptique keplerienne dans le repère écliptique céleste. L'orbite elliptique keplerienne étant la trajectoire d'un corps M gravitant autour d'un corps principal S pour une époque initiale donnée t0.
Trois paramètres déterminent les caractéristiques de l'ellipse et du mouvement du corps dans le plan de l'orbite :
Le dessin ci-contre donne une représentation de ces paramètres ainsi que d'autres paramètres liés au mouvement elliptique.
Les formules du problème des deux corps permettent de calculer la position de l'astre sur son orbite pour un instant t quelconque.
L'anomalie moyenne M (parfois notée l dans le cas de la Lune) est donnée par M = n.(t - t0) où n est le moyen mouvement.
Le moyen mouvement n est lié au demi-grand axe a de l'ellipse par la troisième loi de Kepler (n2 a3 = constante).
On passe de l'anomalie moyenne M à l'anomalie excentrique E en résolvant l'équation de Kepler : E - e sin E = M. Cette équation se résout par itérations successives.
et ainsi de suite.
Enfin, connaissant l'anomalie excentrique E, l'anomalie vraie v et le rayon vecteur r sont donnés par les équations suivantes :
Le plan de l'orbite n'étant pas a priori dans le plan de l'écliptique, ces deux plans se coupent suivant une droite appelée ligne des noeuds ligne des noeuds. Cette ligne des noeuds coupe l'orbite du corps en deux points : le noeud ascendant de l'orbite par lequel passe le corps lorsqu'il passe des latitudes négatives aux latitudes positives et le noeud descendant de l'orbite par lequel passe le corps lorsqu'il passe des latitudes positives aux latitudes négatives.
Trois angles permettent de positionner le plan de l'orbite dans l'espace :
Parfois on donne l'angle ϖ = Ω + ω que l'on appelle longitude du périastre.
Dans cette section nous allons définir les différentes périodes de révolution qui se rattachent au mouvement de la Lune. Les pages "pour en savoir plus" donnent les valeurs des différents paramètres orbitaux et leurs variations au cours du temps.
Le tableau suivant donne les périodes de révolutions moyennes de la Lune.
Nom de la période | Durée en jours | Définition |
---|---|---|
période sidérale | 27,321 661 547 | retour dans la même direction par rapport aux étoiles |
période anomalistique | 27,554 549 878 | retour au périgée de l'orbite |
période synodique | 29,530 588 853 | retour de la même phase lunaire |
période draconitique | 27,212 220 817 | retour par le même noeud de l'orbite |
période tropique | 27,321 582 249 | retour par la direction de l'équinoxe. |
Toutes les périodes décrites ci-dessus font intervenir la longitude moyenne de la Lune, ce sont donc des périodes de révolutions moyennes et non des périodes de révolutions vraies. Les périodes de révolutions vraies varient continuellement et ne sont pratiquement jamais égales aux périodes de révolutions moyennes. Ainsi, par exemple, l'intervalle de temps qui sépare deux nouvelles Lunes (lunaison vraie) peut présenter des écarts de plus ou moins 7h avec la valeur de la période synodique moyenne (lunaison moyenne).
Le tableau suivant donne les éléments elliptiques moyens de la Lune rapportés à l'écliptique et à l'équinoxe moyens de la date pour l'époque J2000 (1 janvier 2000 à 12h).
Éléments | Valeurs | Mouvements dus aux perturbations |
---|---|---|
Demi-grand axe a | 383 397,7916 km | |
Excentricité e | 0,055 545 526 | |
Inclinaison i | 5,156 689 83° | |
Longitude du noeud Ω | 125,044 555 04° | mouvement rétrograde : (-19.3413618°/an) |
Longitude du périgée ϖ | 83,353 242 99° | mouvement direct : (+40,690137°/an) |
Longitude moyenne L | 218,316 654 36° |
L'anomalie moyenne M de la Lune est donnée par : M = n (t - t0) où n est le moyen mouvement de la Lune.
La longitude vraie de la Lune Λ est donnée par : Λ = Ω + ω + υ = ϖ + υ où υ est l'anomalie vraie.
La longitude moyenne de la Lune L est donnée par : L = Ω + ω + M = ϖ + M = ϖ + n (t - t0). La période de révolution de la longitude moyenne est égale à la révolution sidérale de la Lune, la période sidérale est l'intervalle de temps qui s'écoule en moyenne entre deux passages de la Lune dans une même direction par rapport aux étoiles.
L'anomalie moyenne M = L - ω représente l'angle entre la direction du périgée et la longitude moyenne de la Lune, sa période de révolution s'appelle la période anomalistique, elle représente l'intervalle de temps qui s'écoule en moyenne entre deux passages de la Lune à son périgée, elle diffère de la révolution sidérale car la ligne des apsides (donc le périgée) est animée d'un mouvement de rotation dans le sens direct.
L'angle D = L - Ls est la différence entre la longitude moyenne de la Lune et la longitude moyenne du Soleil. Les phases de la Lune sont liées, non à cet angle, mais à la différence entre les longitudes vraies des deux corps. Pour la nouvelle Lune, le premier quartier, la pleine Lune et le dernier quartier cette différence vaut respectivement 0°, 90°, 180° et 270°. Par contre la période moyenne qui ramène la Lune dans une même phase que l'on appelle la période synodique ou lunaison moyenne est la période de l'angle D.
L'angle F = L - Ω est la différence entre la longitude moyenne de la Lune et la direction du noeud ascendant de son orbite. Sa période de révolution s'appelle période draconitique, elle représente l'intervalle de temps qui s'écoule en moyenne entre deux passages de la Lune au noeud ascendant de son orbite, elle diffère de la révolution sidérale car la ligne des noeuds est animée d'un mouvement de rotation dans le sens rétrograde.
Nous avons vu que, sous l'action de nombreuses perturbations, les éléments orbitaux de la Lune ne sont pas constants, mais varient avec le temps. Le tableau suivant donne les plus grosses variations de ces éléments.
Éléments | Amplitude | Période | Amplitude | Période |
---|---|---|---|---|
a | 3400,4 km | 14.76 j | -635,6 km | 31,81j |
e | 0,014217 | 31,81j | 0,008551 | 173,31j |
i | 8,105' | 173,31j | ||
ϖ | -15,448° | 31,81j | -9,642° | 205,9j |
Ω | -1,4979° | 173,31j |
On constate que ces variations présentent de très fortes amplitudes sur des périodes de temps relativement courtes. Ainsi l'excentricité varie de plus ou moins 0,014217 sur une période de 31,81 jours ce qui représente un écart de plus de 25% de la valeur moyenne !
La série suivante donne les premiers termes permettant le calcul de la longitude vraie de la Lune ainsi que leur nom et l'époque de leur découverte :
Λ = L + (6,288 8° sin M + 0,213 6° sin 2M)
équation du centre : connue depuis Hipparque (~150 av. J.-C.)
+ 1,274 0° sin (2D - M)
évection (période 31,81 jours) : découverte par Ptolémée (milieu du IIe siècle)
+ 0,658 3° sin 2D
variation (période 14,76 jours) : découverte par Tycho Brahé (XVIe siècle)
- 0,185 1° sin M'
équation annuelle (période 1 an) : découverte par Tycho Brahé (XVIe siècle)
- 0,114 3° sin 2F
réduction à l'écliptique (période 13,6 jours)
Comme on le verra par la suite, les diamètres apparents de la Lune et du Soleil vus depuis la Terre sont de l'ordre du demi-degré, donc pour prédire une éclipse du Soleil il faut obligatoirement connaître la position de ces deux corps avec une précision inférieure à ce demi-degré. Pour la Lune, il faut donc connaître l'équation du centre et l'évection, la connaissance de la variation n'est pas nécessaire car le terme sin 2D est nul à la pleine Lune et à la nouvelle Lune (D = 0° et D = 180°). Il était donc impossible de prédire la visibilité d'une éclipse de Soleil en un lieu donné avant le milieu du IIe siècle, époque de la découverte de l'évection par Claude Ptolémée.
Dans cette section nous allons étudier et décrire les phases lunaires et les différents noms qui leurs sont attribués.
Comme nous venons de le voir, la Lune tourne autour de la Terre dans un mouvement d'ouest en est (dans le sens direct). Elle effectue un tour complet autour de la Terre au cours d'une révolution sidérale de 27,321661547 jours. Au cours de sa révolution, depuis la Terre, on ne voit pas la partie éclairée de la Lune sous un même angle, cela constitue les phases de la Lune. On distingue quatre positions particulières.
Lorsque la Lune et le Soleil ont la même longitude, on dit qu'ils sont en conjonction, c'est la nouvelle Lune. Lorsque la longitude de la Lune est à 180° de la longitude du Soleil, on dit qu'ils sont en opposition, c'est la pleine Lune. À la nouvelle Lune, la Lune est devant le Soleil, elle se lève et se couche donc presque en même temps que lui. À la pleine Lune, la Lune est à l'opposée du Soleil, donc elle se lève lorsqu'il se couche et elle se couche lorsqu'il se lève. Ainsi la nouvelle Lune n'est levée que le jour et la pleine Lune n'est levée que la nuit. La pleine Lune et la nouvelle Lune portent également le nom de syzygies.
Les phases comprises entre la nouvelle Lune et la pleine Lune s'appellent phases croissantes et les phases comprises entre la pleine Lune et la nouvelle Lune s'appellent phases décroissantes. Lorsque la longitude de la Lune est à 90° vers l'est de la longitude du Soleil, on aperçoit uniquement une moitié du disque lunaire éclairé, c'est le premier quartier de Lune, on dit également que la Lune est en quadrature Est. Lorsque la longitude de la Lune est à 90° vers l'ouest (270° vers l'est) de la longitude du Soleil, on aperçoit l'autre moitié du disque lunaire éclairé, c'est le dernier quartier de Lune, on dit également que la Lune est en quadrature Ouest. Le premier quartier est donc compris entre la nouvelle Lune et la pleine Lune et le dernier quartier est compris entre la pleine Lune et la nouvelle Lune. Les aspects du premier et du dernier quartier de Lune sont inversés selon que l'on se trouve dans l'hémisphère nord ou dans l'hémisphère sud. Ainsi le premier quartier vu depuis l'hémisphère nord ressemble au dernier quartier vu depuis l'hémisphère sud et inversement. Le premier quartier se trouvant 90° à l'est du Soleil, il est visible l'après midi à l'est et dans la première partie de la nuit à l'ouest. Le dernier quartier étant à 90° à l'ouest du Soleil, il est visible la seconde moitié de la nuit à l'est et dans la matinée à l'ouest. Entre la nouvelle Lune et les quartiers de Lune, la phase lunaire a l'aspect d'un croissant, entre les quartiers et la pleine Lune, la Lune a la forme d'une bosse et on la qualifie de gibbeuse.
Il y a éclipse de Soleil lorsque la Lune passe devant le Soleil et éclipse de Lune lorsque la Lune passe dans l'ombre de la Terre. Les éclipses de Soleil ont donc toujours lieu au voisinage de la conjonction (nouvelle Lune) et les éclipses de Lune ont toujours lieu au voisinage de l'opposition (pleine Lune). Si l'orbite de la Lune était dans le plan de l'orbite du Soleil apparent autour de la Terre (écliptique) il y aurait des éclipses de Soleil à chaque nouvelle Lune et des éclipses de Lune à chaque pleine Lune. Comme les éclipses de Soleil ont lieu à la nouvelle Lune, elles ne sont visibles en un lieu donné que le jour, cela parait évident. De même comme les éclipses de Lune ont lieu à la pleine Lune, elles ne sont visibles en un lieu donné que la nuit.
La lunaison moyenne est l'intervalle de temps qui s'écoule en moyenne entre deux mêmes phases, c'est la combinaison de deux mouvements moyens : le mouvement moyen de la Lune autour de la Terre, dont la période moyenne de révolution est la révolution sidérale de la Lune SL = 27,321661547 jours (27 jours 7h 43m 11,56s), et le mouvement moyen du Soleil apparent autour de la Terre (ou de la Terre autour du Soleil), dont la période moyenne de révolution est la révolution sidérale du Soleil (ou de la Terre) SS = 365,2563632 jours. Nous avons donc deux mouvements moyens de période SS et SL dans le même sens, l'intervalle de temps L qui sépare deux nouvelles Lunes, appelée révolution synodique moyenne, est solution de l'équation suivante :
1/SL - 1/SS = 1/L
En l'on trouve L = 29,53058885 jours soit 29 jours 12h 44m 2,88s. La révolution synodique moyenne porte également les noms de lunaison moyenne et de mois lunaire moyen.
La révolution synodique moyenne de la Lune correspond à une valeur moyenne, en réalité comme nous l'avons déjà vu ni le mouvement orbital de la Lune ni le mouvement orbital de la Terre ne sont uniformes. La vitesse angulaire de la Lune est maximale au périgée et minimale à l'apogée. De même la vitesse de la Terre est maximale en janvier lorsqu'elle est au périhélie et minimale en juillet lorsqu'elle est à l'aphélie. La lunaison vraie va donc être différente de la lunaison moyenne. De plus la période séparant deux nouvelles Lunes vraies ne sera pas égale à la période séparant deux pleines Lunes vraies. Le graphique ci-contre nous donne les écarts en heures et fraction d'heure entre la lunaison vraie et la lunaison moyenne. On constate que ces écarts peuvent atteindre plus ou moins sept heures, ce qui est énorme compte tenu de la vitesse angulaire de la Lune, l'écart en longitude entre la Lune vraie et la Lune moyenne peut atteindre jusqu'à 7,5°. Cette valeur est à comparer avec les diamètres apparents de la Lune et du Soleil (0,5°).
Ce graphique fait également apparaître une période de 8,84 ans correspondant à la projection en longitude du mouvement du périgée de la Lune. En effet la ligne des apsides de la Lune tourne dans le sens direct dans le plan de l'orbite lunaire, ce mouvement projeté dans le plan de l'écliptique et combiné avec le mouvement rétrograde des noeuds de l'orbite lunaire produit un mouvement en longitude de la projection du périgée de 40,690137°/an soit une période d'environ 8,84 ans. Il est normal que l'on retrouve cette période dans la variation de la lunaison vraie car la vitesse angulaire de la Lune varie avec l'anomalie vraie.
Nous avons vu que la lunaison moyenne est la combinaison de deux mouvements : le mouvement moyen de la Lune autour de la Terre et le mouvement moyen du Soleil apparent autour de la Terre. Ces deux mouvements se font dans le même sens. Le calcul de la lunaison moyenne a été fait dans le cours à partir de la période de révolution sidérale de la Lune et de la révolution sidérale du Soleil. Refaites ce calcule à l'aide des révolutions tropiques de la Lune et du Soleil. Trouve-t-on la même valeur? Pourquoi? On donne les valeurs suivantes :
révolution tropique de la Lune : TL = 27,321 582 249 jours,
révolution tropique de la Terre ( donc du Soleil apparent) : TS = 365,242 190 04 jours.
Il est vivement conseillé de lire le cours sur les mouvements de la Terre et de la Lune.
Nous présentons d'abord les aspects géométriques des éclipses, c'est-à-dire les positions relatives des corps et leur taille apparente. Ces différents aspects géométriques permettent de définir les types d'éclipses. Puis nous décrivons les différentes phases générales et locales des éclipses, ainsi que des méthodes de calcul permettant de les obtenir. Nous terminerons cette section avec les différentes représentations cartographiques des zones de visibilité des éclipses solaires.
Les différents types d'éclipses, leur géométrie et enfin les circonstances générales et locales des éclipses solaires ainsi que leurs paramètres caractéristiques.
Dans cette section nous allons décrire les différents cas de figure qui peuvent se produire au moment de la conjonction entre la Lune et le Soleil. Nous en déduirons les différentes types d'éclipses de Soleil possibles selon que la Terre coupe ou ne coupe l'axe des cônes d'ombre ou de pénombre.
Le dessin ci-contre donne les rayons équatoriaux de la Terre, de la Lune et du Soleil, il donne également les distances moyennes entre ces corps, en kilomètres et en rayons terrestres. Comme on le constate, si l'on voulait réaliser un dessin comportant les trois corps il serait impossible de le faire à l'échelle. Ainsi si la Terre est représentée par un cercle de 2 cm de rayon, la Lune doit être représentée par un cercle de 0,55 cm situé à une distance d'environ 1,20 m de la Terre et si l'on voulait représenter le Soleil celui-ci aurait un rayon de 2,18 m et serait situé à 469 m de la Terre !
Aucun dessin représentant les trois corps n'est donc à l'échelle, et en ne respectant pas les distances et les tailles des corps, on introduit des distorsions dans les figures. Par exemple certaines droites quasi-parallèles se coupent suivant des angles qui sont beaucoup plus grands que la réalité.
La Lune, éclairée par le Soleil, donne naissance, dans la direction opposée au Soleil à deux cônes, un cône d'ombre et un cône de pénombre. La droite joignant le centre du Soleil et le centre de la Lune constitue l'axe de ces cônes. Le sommet Sp du cône de pénombre est situé sur cet axe entre le Soleil et la Lune, et le sommet So du cône d'ombre est également situé sur cet axe mais de l'autre côté par rapport à la Lune. Le cône d'ombre est construit à l'aide des tangentes extérieures aux sphères solaire et lunaire, le cône de pénombre est construit à partir des tangentes intérieures aux sphères solaire et lunaire. Pour un observateur A placé dans le cône d'ombre, avant son sommet il y a éclipse totale du Soleil, pour un observateur B situé dans le prolongement du cône d'ombre, donc après le sommet du cône d'ombre, il y a éclipse annulaire du Soleil. Lorsqu'un observateur C se trouve dans le cône de pénombre, il assiste à une éclipse partielle, donc un passage partiel de la Lune devant le Soleil. En raison des variations de distances entre la Terre et la Lune, la Terre peut passer dans le cône d'ombre ou dans le prolongement du cône d'ombre.
Souvent, au voisinage de la conjonction en longitude de la Lune et du Soleil (nouvelle Lune), au moment où la distance angulaire entre le centre de la Lune et le centre du Soleil vue depuis la Terre est minimale, la latitude de la Lune est trop grande et les cônes d'ombre et de pénombre ne rencontrent pas la surface terrestre. Alors, si la latitude de la Lune est positive, les cônes d'ombre et de pénombre passent au-dessus (au nord) de la Terre et si la latitude de la Lune est négative, les cônes d'ombre et de pénombre passent au-dessous (au sud) de la Terre. Dans ce cas il n'y a pas d'éclipse de Soleil.
Toujours au voisinage de la conjonction, lorsque l'axe des cônes d'ombre et de pénombre ne rencontrent pas la surface terrestre mais que le cône de pénombre et parfois également une partie du cône d'ombre rencontrent la Terre, il y a éclipse et l'on dit que l'éclipse est non centrale. On verra par la suite qu'une éclipse non centrale peut être totale, annulaire ou partielle.
Toujours au voisinage de la conjonction, lorsque l'axe des cônes d'ombre et de pénombre rencontre la surface terrestre, il y a éclipse et l'on dit que l'éclipse est centrale. On verra par la suite qu'une éclipse centrale peut être totale, annulaire ou mixte (annulaire-totale). L'ensemble de la surface terrestre parcourue durant une éclipse par le cône d'ombre où par son prolongement porte le nom de bande de centralité. L'intersection de l'axe des cônes d'ombre et de pénombre avec la surface terrestre, lorsqu'elle existe (éclipses centrales) porte le nom de ligne de centralité.
On remarquera que ces définitions portent uniquement sur la rencontre de l'axe des cônes d'ombre et de pénombre avec la surface terrestre.
Lorsque la surface terrestre rencontre le cône d'ombre entre la Lune et le sommet du cône d'ombre, pour un observateur situé dans ce cône d'ombre la surface du Soleil est complètement occultée par la Lune, alors l'éclipse est dite totale. Le diamètre apparent de la Lune est supérieur au diamètre apparent du Soleil. La bande de centralité porte le nom de bande de totalité. Tous les observateurs situés sur cette bande de totalité observeront d'abord une phase partielle, puis la phase totale, puis de nouveau une phase partielle. Durant la phase de totalité la couronne solaire est observable. En début et en fin de phase de totalité un point brillant, appelé point de Baily, apparaît sur le limbe lunaire, ces points brillants proviennent de la lumière solaire passant par les vallées situées sur le limbe lunaire, ils annoncent le début et la fin de la phase de totalité.
Pour un observateur situé uniquement dans le cône de pénombre, une partie seulement du Soleil est occultée par la Lune, dans ce cas l'éclipse est vue par l'observateur sous la forme d'une éclipse partielle. Le diamètre apparent du Soleil est encore inférieur au diamètre apparent de la Lune.
Il est possible que seule une petite partie du cône d'ombre rencontre la Terre sans que l'axe du cône d'ombre ne la rencontre. Dans ce cas, nous avons à faire à une éclipse totale non centrale, la bande de totalité est alors rasante à la surface de la Terre et la ligne de centralité n'existe pas. Sur la figure ci-contre, afin de la rendre plus lisible, nous avons ajouté une transparence au cône d'ombre pour voir que son axe ne rencontre pas la Terre, nous avons agrandi l'angle au sommet du cône d'ombre et nous avons supprimé le cône de pénombre.
Lorsque la surface terrestre rencontre le prolongement du cône d'ombre, pour un observateur situé dans ce prolongement du cône d'ombre la surface du Soleil n'est pas complètement occultée par la Lune et le diamètre apparent de la Lune est plus petit que le diamètre apparent du Soleil. Dans ce cas l'éclipse est dite éclipse annulaire. Tous les observateurs situés sur la bande de centralité observeront d'abord une phase partielle, puis la phase annulaire, puis de nouveau une phase partielle. Lors des éclipses annulaires la couronne solaire n'est pas visible.
Pour un observateur situé uniquement dans le cône de pénombre, une partie seulement du Soleil est occultée par la Lune. Dans ce cas l'éclipse sera vue par l'observateur sous la forme d'une éclipse partielle. Le diamètre apparent du Soleil est supérieur au diamètre apparent de la Lune.
Comme pour les éclipses totales, il est possible que seule une petite partie du prolongement du cône d'ombre rencontre la Terre sans que l'axe du cône d'ombre ne la rencontre. Dans ce cas nous avons à faire à une éclipse annulaire non centrale, la bande de centralité est alors rasante à la surface de la Terre et la ligne de centralité n'existe pas. Sur la figure ci-contre, afin de la rendre plus lisible, nous avons ajouté une transparence au cône d'ombre pour voir que son axe ne rencontre pas la Terre, nous avons agrandi l'angle au sommet du cône d'ombre et nous avons supprimé le cône de pénombre.
Soit d la distance entre la projection normale P du centre de la Terre sur l'axe du cône d'ombre et le sommet So du cône d'ombre. Si d est inférieure au rayon terrestre r et si P est situé après le sommet du cône d'ombre, alors le premier contact entre la Terre et le cône d'ombre se fait dans le prolongement du cône d'ombre et l'éclipse débute par une éclipse annulaire, puis l'intersection de la Terre et du cône d'ombre se fait au sommet du cône d'ombre puis en avant du sommet du cône d'ombre, l'éclipse est alors totale, puis de nouveau l'intersection entre la Terre et le cône d'ombre se fait au sommet du cône, puis dans le prolongement du cône d'ombre. Donc au cours de son trajet sur la surface terrestre, l'éclipse est d'abord annulaire, puis totale, puis de nouveau annulaire. Ce type d'éclipse s'appelle éclipse mixte ou éclipse annulaire-totale.
Elle est également appelée éclipse perlée, en effet, durant ces éclipses le diamètre apparent de la Lune est toujours très proche du diamètre apparent du Soleil car l'intersection reste toujours au voisinage du sommet du cône d'ombre; or le limbe lunaire n'est pas un cercle parfait car il est constitué par une succession de montagnes et de vallées, chaque vallée laisse passer la lumière solaire et parsème le limbe lunaire de nombreux points de Baily donnant au limbe l'aspect d'un collier de perles. De plus comme l'intersection du cône d'ombre et de la Terre se fait toujours au voisinage du sommet du cône d'ombre, les éclipses perlées sont caractérisées par une bande de centralité très étroite.
Enfin, lorsque la Terre rencontre uniquement le cône de pénombre de la Lune, seule une partie du Soleil est occultée et l'éclipse est dite partielle.
Dans cette section, nous allons préciser la taille et la vitesse des l'intersections des cônes d'ombre et de pénombre avec la surface de la Terre. Puis nous définirons des paramètres caractéristiques des éclipses de Soleil : la magnitude et le degré obscuration.
Le dessin ci-contre est trompeur, en effet nous avons représenté les trois corps sur la même figure et cela introduit, comme nous l'avons déjà signalé, des erreurs dans la taille des angles. Ainsi l'angle au sommet du cône de pénombre est de l'ordre du demi-degré. De même, le Soleil étant très loin, les tangentes T1 (extérieure) et T2 (intérieure) sont quasi-parallèles, donc le rayon d'une section normale au cône de pénombre au niveau de la Terre est très proche du diamètre de la Lune, donc le diamètre de la section normale du cône de pénombre au niveau de la Terre est de l'ordre de deux diamètres lunaires, soit environ 7000 km. Ainsi la pénombre ne recouvre jamais entièrement la surface terrestre, mais uniquement 16% d'un demi-hémisphère terrestre.
La taille du diamètre de la section normale au cône d'ombre au niveau de la Terre dépend des distances Terre-Lune et Soleil-Lune, on montre, à l'aide des valeurs extrêmes de ces distances que le diamètre de la section normale au cône d'ombre pour une éclipse totale est au maximum de 268 km et que le diamètre de la section normale au prolongement du cône d'ombre pour une éclipse annulaire est au maximum de 375 km. Bien évidemment l'ombre et le prolongement de l'ombre coupent la surface de la Terre suivant un ovale (intersection d'un cône et d'une sphère) dont le grand axe peut dépasser largement ces valeurs extrêmes, c'est le cas notamment pour les éclipses rasantes (proches des pôles).
La vitesse à laquelle se déplace l'ombre où le prolongement de l'ombre sur la surface de la Terre est la combinaison de deux mouvements : le mouvement de l'ombre dans l'espace qui est égal au mouvement de la Lune par rapport au Soleil vu depuis la Terre fixe et le mouvement de la surface terrestre du à la rotation de la Terre sur elle-même. Depuis la Terre, le Soleil et la Lune se déplacent par rapport aux étoiles d'ouest en est (mouvement direct), la Lune se déplace environ treize fois plus vite que le Soleil, son ombre se déplace d'environ 1 km/s par rapport à la Terre supposée fixe. La Terre tourne sur elle-même également d'ouest en est. La vitesse de l'ombre par rapport au sol est donc égale à la différence de la vitesse de l'ombre de la Lune et de la vitesse du sol. À l'équateur la vitesse du sol est de l'ordre de 500 m/s, la différence des deux vitesses est de 500m/s, plus on s'écarte en latitude de l'équateur, plus la vitesse de l'ombre est grande pour atteindre 1 km/s aux pôles (vitesse du sol nulle).
En réalité, le calcul de la vitesse de l'ombre à surface du sol est plus complexe, dans l'explication précédente nous avons fait des simplifications qui ne sont vraies que lorsque les vecteurs vitesses de l'ombre et du sol sont colinéaires. Dans un premier temps, on peut supposer une Terre fixe avec une ombre de la Lune se déplaçant avec une vitesse constante V par rapport à la Terre. Sur la figure ci-contre nous avons tracé la position du cône d'ombre et de son axe à des instants T0, T1, T2 et T3 séparés par un intervalle de temps dt constant. Durant le premier intervalle l'ombre de la Lune s'est déplacée de dans l'espace et dans le plan passant par le centre de la Terre et normal à l'axe du cône d'ombre (plan de Bessel), alors que l'ombre a parcouru l'arc ac à la surface de la Terre, à la fin de l'intervalle dt suivant l'ombre se trouve en d et a parcouru l'arc cd, puis à la fin de l'intervalle dt suivant elle se trouve en e ayant parcouru l'arc de. Nous avons donc la projection d'un mouvement rectiligne uniforme sur un cercle de la sphère terrestre. Dans l'hypothèse d'une Terre fixe, ce cercle est l'intersection de la droite Soleil-Lune avec la sphère terrestre. La vitesse de l'ombre à la surface de la Terre est donnée par la formule dl/dt = V/sin(H), comme on le voit elle est très grande, proche de a (H~0°) et égale à V en e (H=90°). La vitesse de la projection de l'ombre est donc très grande après le premier et avant le dernier contact avec la surface terrestre (l'axe est tangent à la sphère terrestre).
Pour avoir la vitesse, et la trajectoire, de l'ombre par rapport au sol dans le cas d'une Terre en rotation sur elle-même, il convient de combiner les deux mouvements. Si v est le vecteur vitesse de l'ombre (par rapport à la Terre fixe) dans le plan tangent au point de contact de l'axe du cône avec la surface terrestre et u le vecteur vitesse du sol dans le même plan, alors la vitesse de l'ombre par rapport au sol est égale à la différence des deux vecteurs vitesses (). Ces deux vitesses ne sont pas colinéaires en raison de l'inclinaison de l'orbite lunaire sur l'équateur terrestre. La trajectoire de l'ombre sur le sol, donc sur une carte, est la combinaison des deux mouvements et n'est donc plus un petit cercle de la sphère terrestre. En réalité la Terre n'est pas une sphère mais un ellipsoïde de révolution. Cela complique encore un peu les calculs.
Soit P un plan normal à l'axe des cônes d'ombre et de pénombre, ρ et σ les rayons des cercles définis par les intersections du cône de d'ombre et du cône de pénombre avec ce plan. Soit Rs le rayon solaire, Rm le rayon lunaire, rs et rm les distances respectives du centre du Soleil et du centre de la Lune au plan P. Une simple application du théorème de Thalès nous donne les valeurs de ρ et σ en fonction de Rs, Rm, rs et rm.
Lorsque l'éclipse est annulaire le plan P coupe l'axe des cônes après le sommet du cône d'ombre, il coupe donc le prolongement du cône d'ombre. Les formules précédentes sont également applicables si l'on accepte que les rayons aient des valeurs négatives.
Le tableau suivant donne les valeurs extrêmes de ρ et σ en fonction des distances Terre-Soleil et Terre-Lune. Dans le tableau on se place d'abord dans le plan du centre de la Terre, puis l'on se place à la surface de la Terre avec les deux corps au zénith, les distance Terre-Lune et Terre-Soleil sont alors diminuées d'un rayon terrestre, en fait, on néglige le rayon terrestre devant la distance Terre-Soleil. Dans ce tableau le rayon solaire est pris égal à Rs = 696 000 km, le rayon lunaire est pris égal à Rm = 1738,1 km et le rayon terrestre est pris égal à Re = 6400 km. Nous donnons également ρ et σ en secondes d'arcs, dans ce cas, ces valeurs représentent les rayons sélénocentriques (vu depuis le centre de la Lune) apparents des intersections des cônes d'ombre et de pénombre avec le plan P.
Périgée | Moyenne | Apogée | |
---|---|---|---|
rm | 357 200 km | 381 300 km | 407 000 km |
rs | 1,52 108 km | 1,50 108 km | 1,48 108 km |
ρ(km) | 104,9 km | -34,7 km | - 187,4 km |
ρ(") | 60,5" | -18,7 | -94,8 km |
σ(km) | 3 379 km | 3 520 km | 3 673 km |
σ(") | 1948" | 1901" | 1859" |
rm-Re | 305 800 km | 374 900 km | 400 600 km |
ρ(km) | 134,1 km | -5.0 km | -157 km |
ρ(") | 78,7" | -2,8" | -80,8" |
σ(km) | 3 350 km | 3 490 km | 3 643 km |
σ(") | 1966" | 1918" | 1873" |
Les valeurs extrêmes pour les éclipses périgées et apogées sont en italique et l'on retrouve bien les valeurs des diamètres de 268 km pour une éclipse périgée (donc totale) et de 375 km pour une éclipse apogée (donc annulaire). De même on constate que le diamètre de la pénombre qui est compris entre 6700 km et 7300 km est bien du même ordre de grandeur que deux diamètres lunaires.
Toutes les éclipses de Soleil ne sont pas identiques, il convient donc de trouver un paramètre qui les caractérise, ce paramètre est la grandeur ou la magnitude de l'éclipse, ces deux termes désignent la même quantité.
À un instant donné la grandeur g de l'éclipse est l'inverse du rapport du diamètre du Soleil sur la distance du bord du Soleil le plus rapproché du centre de la Lune au bord de la Lune le plus rapproché du centre du Soleil.
Dans la figure ci-contre, nous avons ajouté une transparence à la Lune dans le cas de l'éclipse totale, cela permet de voir la position du Soleil. Comme on le constate sur la figure, les éclipses partielles et annulaires ont une grandeur inférieure à un et les éclipses totales ont une grandeur supérieure à un. Les éclipses mixtes ont une grandeur très proche de un. Pour les éclipses annulaires, plus la grandeur s'approche de un, plus le diamètre apparent de la Lune est proche du diamètre apparent du Soleil, donc plus l'éclipse est courte. Pour les éclipses totales, plus on s'écarte de un, plus le diamètre apparent de la Lune est grand par rapport au diamètre apparent du Soleil, donc plus l'éclipse est longue.
Le degré d'obscuration est aussi un paramètre caractéristique des éclipses de Soleil. Le degré obscuration est le pourcentage de la surface du disque solaire occulté par la Lune.
Le degré d'obscuration donne une information pour les éclipses annulaires et partielles car sa valeur est inférieure à 100%, par contre toutes les éclipses totales ont un degré d'obscuration de 100% quelle que soit la grandeur de l'éclipse.
La grandeur et le degré d'obscuration sont donnés dans les circonstances générales des éclipses, ce sont alors les valeurs maximales de ces paramètres sur toute la durée de l'éclipse, elles correspondent à un instant et un lieu bien défini sur la Terre : le lieu du maximum de l'éclipse (lieu sur la Terre où la grandeur est maximale) et l'instant où la grandeur est maximale en ce lieu. Ces deux valeurs sont également données dans les circonstances locales des éclipses, dans ce cas elles sont toujours inférieures ou égales (si on est au lieu du maximum) à celles données dans les circonstances générales.
Après avoir traité de l'aspect purement géométrique des éclipses (tailles et vitesses des cônes d'ombre et de pénombre) dans les sections précédentes, nous avons commencer à faire intervenir les aspects liés aux positions des trois corps. Nous allons dans cette section répondre partiellement à la question, où se trouvent la Lune et le Soleil sur leurs orbites pour qu'une éclipse soit totale, annulaire ou mixte. Dans un premier temps nous raisonnerons sur les diamètres apparents, puis nous verrons une autre approche à partir des distances à la Terre.
En raison des mouvements orbitaux de la Terre et de la Lune, les distances Terre-Lune et Soleil-Terre ne sont pas constantes, les diamètres apparents de la Lune et du Soleil sont donc variables. Le diamètre apparent de la Lune est maximal lorsque la Lune est proche de la Terre donc à son périgée, et il est minimal lorsque la Lune est loin de la Terre donc à son apogée. De même le diamètre apparent du Soleil est maximal lorsqu'il est proche de la Terre donc lorsque le Soleil apparent est à son périgée ou la Terre est à son périhélie (actuellement vers le 4 janvier) et le diamètre apparent du Soleil est minimal lorsque le Soleil est loin de la Terre, donc lorsque le Soleil apparent est à l'apogée ou la Terre à l'aphélie (actuellement vers le 4 juillet).
Comme on le constate sur la figure ci-contre le diamètre apparent moyen de la Lune est plus petit que le diamètre apparent moyen du Soleil, on peut donc s'attendre à avoir en moyenne plus d'éclipses annulaires que d'éclipses totales.
Comme nous venons de le voir, nous pouvons calculer les valeurs extrêmes des diamètres apparents de la Lune et du Soleil vus depuis la Terre. Nous allons affiner un peu notre étude, en effet nous pouvons déterminer la portion de l'orbite lunaire sur laquelle le diamètre apparent de la Lune est toujours plus grand que le plus grand diamètre apparent du Soleil (32,5'), c'est l'arc d'orbite LJ sur la figure ci-contre. Sur cette portion d'orbite lunaire les éclipses centrales sont toujours totales, quelle que soit la position de la Terre sur son orbite. Nous pouvons également déterminer la portion de l'orbite lunaire sur laquelle la Lune a un diamètre apparent toujours plus petit que le plus petit diamètre apparent du Soleil (31,5'), c'est l'arc d'orbite IK sur la figure ci-contre. Sur cette portion d'orbite les éclipses centrales sont toujours annulaires quelle que soit la position de la Terre sur son orbite. Sur les portions d'orbites IJ et KL le diamètre apparent de la Lune varie entre 31,5' et 32,5' (valeurs extrêmes du diamètre apparent du Soleil) le type de l'éclipse centrale est donc déterminé par le diamètre apparent du Soleil donc par la position de la Terre sur son orbite. C'est sur ces portions de l'orbite de la Lune que l'on trouve les éclipses mixtes.
On remarquera que sur la figure ci-contre, les orbites de la Terre et de la Lune sont représentées par des cercles, cela est totalement justifié compte tenu des faibles excentricités des orbites lunaire et terrestre. Par contre les corps centraux ne sont pas aux centres des cercles mais sont excentrés. On notera également que l'arc LJ est centré sur le périgée de la Lune, donc les éclipses avec la Lune au périgée sont toujours des éclipses totales, de même l'arc IK est centré sur l'apogée de la Lune donc les éclipses avec la Lune en apogée sont toujours des éclipses annulaires. Enfin l'arc IK est plus grand que l'arc LJ, cela confirme le fait qu'il y ait en moyenne plus d'éclipses annulaires que d'éclipses totales.
Nous pouvons avoir une autre approche du problème en considérant les distances Soleil-Lune et Lune-Terre, en effet il y a équivalence entre les diamètres apparents et les distances des corps entre eux.
Cette figure donne les distances extrêmes de la Terre et du cône d'ombre, en fonction des positions extrêmes de la Lune, du Soleil et de la Terre. L'origine des distances est le centre de la Lune et les distances sont exprimées en rayons terrestres. La distance observateur-Lune varie de 55 à 63,8 rayons terrestres. La distance entre la Lune et le sommet du cône d'ombre varie, elle, de 57 à 59,5 rayons terrestres. Cette figure nous montre que si, au moment de l'éclipse, on est dans la position A, c'est-à-dire avec la Lune au périgée, alors quelle que soit la position de la Terre sur son orbite, l'éclipse est totale car la Terre coupe toujours le cône d'ombre avant son sommet. De même si, au moment de l'éclipse, on est en position C, c'est-à-dire avec la Lune à son apogée, alors quelle que soit la position de la Terre sur son orbite l'éclipse est annulaire car la Terre coupe toujours le prolongement de l'ombre. En faisant varier la position de la Terre (par rapport à la Lune) entre ces deux positions, on peut visualiser tous les cas intermédiaires possibles. Par exemple, lorsque la Terre est en B (distance Lune-Terre = 59 r), si la Terre est au périhélie (cône d'ombre en position 2) l'éclipse est annulaire car la Terre coupe le prolongement du cône d'ombre, si la Terre est à son l'aphélie (cône d'ombre en position 3) alors l'éclipse est totale car la Terre coupe le cône d'ombre, avec un cône d'ombre entre les positions 2 et 3 toutes les configurations sont possibles (éclipses totales, annulaires ou mixtes).
Dans cette section, nous allons décrire les circonstances générales d'une éclipse de Soleil. Ces circonstances représentent l'évolution des contacts et des trajectoires des cônes d'ombres et de pénombres avec la surfaces terrestre. Ces circonstances générales décrivent donc l'évolution de l'éclipse vue par un observateur situé dans l'espace à l'extérieure de la surface terrestre. Nous présenterons ensuite les différentes cartes d'éclipses et les différentes projections qui y sont associées.
Les circonstances générales d'une éclipse correspondent aux différentes phases de l'éclipse générale ; ces phases sont les suivantes :
Comme on le constate, ces différentes phases sont liées à l'évolution de l'ombre et de la pénombre à la surface de la Terre, les débuts et fins de chaque phase correspondent à un instant bien particulier et à un lieu unique à la surface du globe terrestre. La différence de temps entre le début et la fin de l'éclipse générale nous donne le temps mis par la pénombre pour parcourir la surface terrestre. De même la différence de temps entre le début et la fin de la phase totale ou annulaire, lorsqu'elles existent, donne le temps mis par l'ombre ou son prolongement pour parcourir la surface terrestre.
Circonstance | UT | Longitude | Latitude |
---|---|---|---|
Commencement de l'éclipse générale | le 10 à 20h 51,8m | -137° 58,5' | -2° 30,0' |
Commencement de l'éclipse annulaire | le 10 à 21h 53,9m | -120° 51,74 | +1° 16,0' |
Commencement de l'éclipse centrale | le 10 à 21h 54,5m | -120° 40,8' | +1° 19,5' |
Maximum de l'éclipse | le 10 à 23h 44,3m | +178° 36,8' | +34° 32,7' |
Éclipse centrale à midi ou minuit vrai | le 10 à 23h 48,2m | +177° 11,4' | +34° 55,3' |
Fin de l'éclipse centrale | le 11 à 1h 34,0m | +104° 49,2' | +19° 48,1' |
Fin de l'éclipse annulaire | le 11 à 1h 34,6m | +104° 59,4' | +19° 44,9' |
Fin de l'éclipse générale | le 11 à 2h 36,6m | +122° 15,8' | +16° 1,0' |
Dans ce tableau les longitudes sont comptées positivement vers l'ouest et négativement vers l'est. On remarquera que l'éclipse se déplace d'ouest en est et du sud vers le nord. On donne toujours les instants des différentes phases des éclipses en Temps universel coordonné, cela évite les problèmes liés aux heures locales. Dans notre exemple, l'éclipse est à cheval sur deux jours en temps universel coordonné, le 10 et le 11 juin 2002.
La phase annulaire débute le 10 juin à 21h 53,9m UTC en un point de longitude -120° 51,7' (est) et de latitude 1° 16,0' (nord), ce lieu se trouve à l'est en Indonésie (au nord des Célèbes), la phase annulaire se termine le 11 juin à 1h 34,6m UTC en un point de longitude +104° 59,4' (ouest) et de latitude +19° 44,9' (nord), ce lieu se trouve sur la côte ouest du Mexique. Si l'on exprime ces instants en heures locales, le début de la phase annulaire, en Indonésie est le 10 juin à 21h 53,9m + 8h = 29h 53,9m soit le 11 juin à 5h 53,9m temps légal en Indonésie, donc le 11 juin 2002 au matin, et la fin de la phase annulaire, au Mexique est le 11 juin à 1h 34,6m - 7h = -5h 25,4m = 18h 34,6m le 10 juin en temps légal au Mexique, donc le 10 juin 2002 au soir. On a donc la phase annulaire qui commence le matin du 11 juin 2002 en Indonésie et se termine le soir du 10 juin au Mexique, elle se termine donc en temps légal avant d'avoir commencé, ce qui est normal car la bande de centralité traverse la ligne de changement de date d'ouest en est donc on perd un jour en temps légal.
L'usage systématique du Temps universel évite ces paradoxes temporels pour les éclipses franchissant la ligne de changement de date, néanmoins l'observateur, lors de ses déplacements doit tenir compte des passages en heures légales s'il ne veut pas arriver un jour trop tard pour son observation !
On distingue deux types de cartes, les cartes générales et les cartes locales.
Pour chaque éclipse, on trace généralement une ou deux cartes générales de l'éclipse. Sur ces cartes on fait figurer les courbes suivantes : la bande de centralité (lorsqu'elle existe), les limites boréale et australe de l'éclipse, les courbes de commencement, de fin et de maximum au lever et au coucher du Soleil, ainsi que les courbes de commencement et fin pour des instants donnés (toutes les heures en général). Pour le tracé de ces cartes, on utilise une projection stéréographique, c'est-à-dire une projection azimutale conforme. Cette projection, qui conserve les angles mais pas les distances, déforme les continents mais permet d'avoir une représentation des pôles terrestres sur la carte. On utilise également une projection orthographique, elle permet de représenter la trajectoire de l'éclipse sur un globe terrestre vu de l'espace.
On trace également, un certain nombre de cartes locales. Sur ces cartes, on donne également les courbes de commencement, de fin et de maximum pour des instants donnés (avec un pas plus adapté à la carte), et parfois on trace aussi la projection de l'ombre pour des instants donnés. Les cartes locales sont tracées à l'aide de différentes projections en fonction des lieux représentés (projection conforme de Lambert, projection de Mercator...).
Sur cette carte on a tracé la bande de centralité (en rouge), les limites boréale et australe de l'éclipse, ce sont les limites boréale et australe du cône de pénombre durant l'éclipse. On donne également les limites du cône de pénombre toutes les heures (commencement et fin à un instant donné, courbes bleues) et les lieux des commencements, maxima et fins d'éclipse au lever et au coucher du Soleil (courbes noires et rouges joignant les extrémités des limites boréale et australe de l'éclipse). On notera la différence de taille entre la surface terrestre où l'éclipse est visible sous la forme d'une éclipse partielle (surface grisée) et la surface de la bande de centralité.
Des cartes plus grandes, et plus lisibles, sont disponibles sur le serveur de l'IMCCE.
La projection orthographique permet de représenter l'éclipse générale sur la Terre, vue depuis l'espace. Les courbes représentées sont les mêmes que dans la représentation stéréographique.
Cette carte locale en projection de Lambert donne le tracé de la ligne de centralité sur une partie de l'Indonésie, les deux îles de cette carte sont les deux seuls lieux terrestres où la phase annulaire de l'éclipse fut observable. On a également tracé l'intersection du prolongement du cône d'ombre avec la surface terrestre. Comme on est en début d'éclipse, on notera l'aspect très allongé de la projection.
On peut classer les projections géographiques en fonction des propriétés géométriques des projections des parallèles et des méridiens d'une sphère. On entend par méridiens les grands cercles passant par le pôle de projections et par parallèles les cercles intersections de la sphère et des plans normaux à la direction des pôles. Une projection est dite :
Une projection à partir d'un centre de projection sur une surface quelconque, suivie d'un développement de cette surface s'appelle une projection perspective. par exemple les projections cylindriques et coniques sont des projections perspectives.
Les projections sont également classées en fonction des propriétés qu'elles conservent. On distingue donc de projections :
Les autres projections sont dites aphylactiques.
Quelques exemples :
Dans cette section nous allons décrire les circonstances locales d'une éclipse. C'est-à-dire ce que voit un observateur à la surface de la Terre. Dans ce cas on regarde le Soleil et la Lune (et non la Terre et l'ombre de la Lune). L'observateur en fonction de sa position, verra ou ne verra pas d'éclipses. Dans le cas d'une éclipse centrale, suivant sa position, il verra la phase centrale ou non. La partie pour en savoir plus est complexe et demande une bonne connaissance du calcul numérique.
Il ne faut pas les confondre avec les circonstances générales décrites dans le paragraphe précédent. Les circonstances locales d'une éclipse décrivent, en un lieu donné, les différentes phases de l'éclipse, observables par un observateur situé en ce lieu.
Le dessin ci-contre nous montre les différentes phases observables par un observateur situé dans la bande de totalité durant une éclipse totale de Soleil, pour rendre le dessin plus lisible nous avons ajouté une transparence à la Lune durant la totalité pour permettre de voir la position du Soleil occulté par la Lune. La durée de la phase de totalité en ce lieu est égale à l'intervalle de temps séparant les second et troisième contacts. La durée de l'éclipse locale (phases partielles et phase totale) est égale à l'intervalle de temps séparant les premier et quatrième contacts. Les points de Baily apparaissent au voisinage des deuxième et troisième points de contacts.
Le dessin ci-contre nous montre les différentes phases observables par un observateur situé dans la bande de centralité d'une éclipse annulaire. La durée de la phase annulaire en ce lieu est égale à l'intervalle de temps séparant les second et troisième contacts. La durée de l'éclipse locale (phases partielles et phase annulaire) est égale à l'intervalle de temps séparant les premier et quatrième contacts.
Le dessin ci-contre nous montre les différentes phases observables par un observateur situé sur le trajet du cône de pénombre d'une éclipse. L'éclipse peut être partielle, annulaire ou totale. Dans les deux derniers cas, l'observateur n'est pas dans la bande de centralité, il observe donc l'éclipse annulaire ou totale sous la forme d'une éclipse partielle. La durée de l'éclipse locale (phase partielle) est égale à l'intervalle de temps séparant les premier et quatrième contacts.
Ces phases sont les suivantes :
Pour chacun des contacts, en plus des instants du contact, on donne à l'observateur l'angle au pôle P et l'angle au zénith Z. On remarquera que les points des contacts intérieurs des éclipses totales sont diamétralement opposés aux points des contacts intérieurs des éclipses annulaires.
L'angle au pôle P d'un contact est l'angle de la direction nord N (partie boréale du cercle horaire du centre S du Soleil) avec l'arc de grand cercle joignant les centres S et L du Soleil et de la Lune, compté positivement vers l'est, dans le sens nord-est-sud-ouest.
L'angle au zénith Z d'un contact a une définition analogue à celle de P, en remplaçant le cercle horaire du centre S du Soleil par le vertical du même point.
Sous nos latitudes (en France) et pour les latitudes positives situées au-dessus du tropique du Cancer (latitudes supérieures à 23°), le Soleil passe au méridien au sud, donc quand on regarde le Soleil, l'ouest est à droite du Soleil et l'est est à sa gauche. La Lune éclipse le Soleil d'ouest en est (donc de la droite vers la gauche lorsque l'on regarde le Soleil). Pour les latitudes négatives situées sous le tropique du Capricorne (latitudes inférieures à -23°), le Soleil passe au méridien au nord, l'aspect du phénomène est inversé, l'éclipse a, bien évidemment, toujours lieu d'ouest en est, mais elle a lieu de la gauche vers la droite car on regarde le Soleil vers le nord. Dans la zone intertropicale les deux cas de figure sont possibles, cela dépend de la date de l'éxclipse et du lieu d'observation. La connaissance des instants et positions du deuxième et du troisième point de contact est très importante pour les éclipses totales de Soleil, car elle indique quand et où vont apparaître les points de Baily.
Avec l'instant du maximum on donne également la grandeur de l'éclipse, le degré d'obscuration, la hauteur h et l'azimut a du Soleil.
La hauteur h du Soleil sur l'horizon est l'angle de la direction du Soleil et du plan horizontal, compté en degrés de -90° à +90°.
L'azimut est l'angle formé par la projection de la direction du Soleil dans le plan horizontal avec la direction du Sud, compté en degré dans le sens rétrograde (sud = 0°, ouest = 90°, nord = 180°, est = 270°).
Les circonstances locales d'une éclipse peuvent être calculées à l'aide des éléments de Bessel
Au XIXe siècle, l'astronome allemand Friedrich Bessel (1784-1846) a mis au point une méthode, toujours utilisée de nos jours, pour faciliter le calcul des circonstances locales et générales d'une éclipse de Soleil.
Pour un lieu donné il y a lieu de déterminer :
Le lieu d'observation est défini par sa longitude λ (positive à l'ouest et négative à l'est du méridien de Greenwich), sa latitude ϕ et son altitude h au-dessus du niveau de la mer.
On définit à chaque instant un système de coordonnées Oxyz de sens direct, dans lequel :
O est le centre de la Terre.
L'axe Oz est parallèle à l'axe des cônes de pénombre et d'ombre, le sens positif étant celui qui va de la Terre à la Lune.
L'axe Ox est l'intersection du plan fondamental Oxy perpendiculaire à Oz et du plan de l'équateur terrestre, le sens positif étant vers l'est.
L'axe Oy est normal à Ox dans le plan fondamental, le sens positif étant vers le nord.
En utilisant comme unité de longueur le rayon équatorial terrestre, les éléments de Bessel sont définis de la manière suivante :
x, y, z sont les coordonnées du centre de la Lune.
d et H sont la déclinaison de l'axe Oz et son angle horaire par rapport au méridien de Greenwich.
fe et fi sont les demi-angles au sommet des cônes de pénombre et d'ombre, fe étant pris par convention positif et fi négatif.
ue et ui sont les rayons des sections circulaires des cônes de pénombre et d'ombre par le plan fondamental Oxy et s'obtiennent par les formules suivantes :
où k est le rayon de la Lune exprimé en rayon équatorial terrestre.
Les coordonnées ξ, η, ζ du lieu d'observation dans le système Oxyz sont :
ξ = ρ . cos ϕ ' . sin (H - λ ),
η = ρ . sin ϕ ' . cos d - ρ . cos ϕ ' . sin d . cos ( H - λ ),
ζ = ρ . sin ϕ ' . sin d + ρ . cos ϕ ' . cos d . cos ( H - λ ),
avec :
ρ . cos ϕ ' = cos u + h/r0 . cos ϕ
ρ . sin ϕ ' = (1 - f) . sin u + h/r0 . sin ϕ
et
tan u = (1 - f) . tan ϕ
où h est l'altitude du lieu exprimée en mètres, r0 est le rayon équatorial terrestre exprimé en mètres et f l'aplatissement de l'ellipsoïde terrestre (f = 1/298,257 = 0,003 35281).
Les variations horaires ξ ', η ', ζ ' de ces coordonnées sont fournies avec une précision de l'ordre de la seconde de temps par les formules suivantes, H' étant exprimé en radians par heure.
ξ ' = H' . ρ . cos ϕ ' . cos (H - λ ),
η ' = H' . ξ . sin d,
ζ ' = - H' . ξ . cos d,
Les rayons le et li des sections circulaires des cônes de pénombre et d'ombre par le plan mené par le lieu d'observation parallèlement au plan fondamental s'obtiennent par les formules suivantes :
le =ue - ζ tan fe
li = ui - ζ tan fi
Chaque élément de Bessel que l'on pourra désigner par b est représenté sur un intervalle de temps (t0, t1) par des coefficients de développements en polynômes du temps, à l'exception de tan fe et de tan fi qui sont considérées comme constantes sur l'intervalle. Un élément de Bessel se calcule à un instant t par la formule :
b = b0 + b1 . T + b2 . T2 + b3 . T3
avec T = t - t0.
T, exprimé en heure, représente le temps écoulé depuis l'instant origine t0.
La variation horaire b' d'un élément de Bessel se calcule par la formule :
b' = b1 + 2 b2 . T + 3 b3. T2
Soient :
U = x - ξ , U' = x' - ξ',
V = y - η , V' = y' - η ',
On prend comme valeur de départ td l'époque du maximum de l'éclipse, l'instant du maximum tm se calcule en ajoutant à td la valeur Dtm donnée par :
Dtm = - (UU' + VV') / (U'2+ V'2)
On doit réitérer le calcul en prenant comme nouvelle valeur de départ la valeur de tm.
La grandeur maximale est donnée par :
g = (le - lm) / (le - li)
pour une éclipse annulaire ou totale au lieu considéré, où :
g = (le - lm) / (2 le- 0,5465) pour une éclipse partielle, avec :
lm = (U2 + V2)1/2
On prend comme valeurs de départ td du premier et du quatrième contacts (contacts extérieurs) des valeurs approchées déduites de la carte de l'éclipse et l'on prend comme valeurs de départ du second et du troisième contacts (contacts intérieurs), lorsqu'ils existent, la valeur tm du maximum calculée précédemment.
Pour chaque valeur td de départ on calcule les quantités suivantes :
β = (UU' + VV') / (U'2 + V'2),
γ = (U2 + V2 - l2) / (U'2 + V'2),
θ = ±(β2 - γ)1/2
avec l = le ou l = li et θ étant du signe de β.
Les instants du premier et du quatrième contacts se calculent par la formule :
t = td - β + θ
et les instants du second et du troisième contacts se calculent par les formules :
t = td - β - |θ| pour le second contact,
et
t = td - β + |θ| pour le troisième contact.
Comme pour le calcul du maximum on doit réitérer les calculs en prenant comme nouvelles valeurs de départ les valeurs t.
La valeur de l'angle au pôle P d'un point de contact est donnée par :
tan P = U/V ,
où sin P a le signe de U, sauf pour les second et troisième contacts (contacts intérieurs) d'une éclipse totale pour lesquels sin P est de signe contraire à U.
L'angle au zénith Z d'un point de contact est donné par :
Z = P - Γ ,
en désignant par Γ l'angle parallactique défini d'une façon approchée par :
tan Γ = ξ/η ,
sin Γ étant du signe de ξ.
Après avoir étudié la géométrie des éclipses de Soleil, nous allons répondre à la question : quand ont lieu les éclipses de Soleil? Pour cela nous allons définir la ligne des noeuds de l'orbite lunaire et nous allons étudier son mouvement.
Les éclipses de Soleil.
Dans cette section nous définissons la ligne des noeuds de l'orbite lunaire et nous étudions son déplacement angulaire moyen dans le plan de l'écliptique. Puis, nous définissons la fréquence avec laquelle le Soleil apparent passe dans la direction de la ligne des noeuds (la saison des éclipses).
Nous définissons ensuite un critère portant sur la latitude de la Lune au moment de sa conjonction avec le Soleil, pour savoir s'il y a ou non une éclipse de Soleil. Nous donnons les bornes de ce critère en fonction du type d'éclipse observable.
Enfin nous transposons ce critère sur la latitude lunaire en un critère sur la différence de longitude entre la longitude de la conjonction et la longitude du noeud lunaire.
Les parties pour en savoir plus vous montre comment calculer la valeur moyenne de la saison d'éclipse, puis nous explique le mouvement réelle de cette ligne. Nous donnons également la démonstration des critères en latitude.
Il y a éclipse de Soleil lorsque la Terre passe dans le cône d'ombre ou dans le cône de pénombre de la Lune. Le Soleil, la Lune et la Terre sont alors presque alignés, et on est au voisinage de la nouvelle Lune (conjonction). Si le plan de l'orbite de la Lune était le même que le plan de l'orbite de la Terre (écliptique), il y aurait une éclipse de Soleil à chaque nouvelle Lune, or le plan de l'orbite de la Lune est incliné d'environ 5° 17' sur le plan de l'orbite terrestre à la nouvelle Lune. À chaque instant, l'intersection de ces deux plans est une droite appelée ligne des noeuds et les intersections de cette droite avec l'orbite de la Lune sont appelées noeuds de l'orbite lunaire.
Cette ligne des noeuds n'est pas fixe, elle est animée, dans le sens rétrograde (sens des aiguilles d'une montre), d'un mouvement de précession d'une période de 18,6 ans, soit un déplacement moyen de 19,354 8° par an.
Pour qu'il y ait une éclipse il faut donc, dans le repère écliptique géocentrique, que la direction Terre-Soleil soit près de la ligne des noeuds lunaires au moment de la nouvelle Lune. Compte tenu du mouvement moyen de précession des noeuds, le Soleil apparent passe en moyenne par l'un des deux noeuds tous les 173,31 jours. Cette période porte le nom de saison des éclipses. Il passe par le même noeud tous les 346,62 jours, cette période porte le nom d'année des éclipses.
La direction Terre-Soleil est la direction du Soleil apparent vu depuis la Terre, elle fait donc 360° pendant une révolution sidérale de la Terre. La ligne des noeuds de l'orbite lunaire se déplace en moyenne de 19,3413618°/an dans le sens rétrograde. On a donc deux mouvements en sens contraire. La période T qui ramène le Soleil apparent dans la direction d'un même noeud de l'orbite lunaire est solution de l'équation suivante :
T . 360°/an + T . 19,3413618°/an = 360°
ce qui donne T = 360/(360 + 19,3413618) an = 0,9490133 an.
L'année sidérale étant égale à : an = 365,2563632 jours, T = 346,63 jours.
La saison des éclipses correspond à l'intervalle de temps mis par le Soleil apparent pour passer d'un noeud de l'orbite lunaire à l'autre, elle est donc égale à T/2 ~ 173,31 jours.
La valeur de cette période T nous permet de calculer la vitesse moyenne du Soleil apparent (ou de la Terre) dans un repère tournant lié à la ligne des noeuds de l'orbite lunaire. Par rapport à cette ligne des noeuds le Soleil apparent fait un tour de 360° en 346,63 jours, sa vitesse moyenne par rapport à la ligne des noeuds est donc de 360°/346,63j = 1,038°/jour.
En réalité, le mouvement rétrograde de la ligne des noeuds présente des inégalités importantes. À certaines époques, sa vitesse est le double de la moyenne. À d'autres moments, sa vitesse est presque nulle, les noeuds sont alors quasi stationnaires. Cela se produit aux voisinages du passage du Soleil dans la direction de la ligne des noeuds, donc au voisinage des éclipses de Soleil (et aussi de Lune). On peut expliquer ce phénomène de la manière suivante, lorsque le Soleil est sur la ligne des noeuds, il se trouve dans le plan de l'orbite de la Lune, la force perturbatrice du Soleil est alors comprise dans le plan de l'orbite de la Lune, donc la composante perpendiculaire à ce plan est nulle et ne "tire" pas sur le plan de l'orbite. Le fait que les noeuds soient quasi-stationnaires au moment des éclipses est très important, en effet les positions moyennes des noeuds sont alors presque égales aux positions vraies, donc dans l'étude des éclipses on peut utiliser le mouvement moyen des noeuds.
On démontre qu'une éclipse de Soleil se produira si, au moment de la nouvelle Lune (instant où les longitudes géocentriques de la Lune et du Soleil sont égales, c'est-à-dire au moment de la conjonction en longitude), la valeur absolue de la différence b des latitudes géocentriques apparentes du centre de la Lune et du centre du Soleil est inférieure à 1,41° (1° 24' 37"), elle se produira peut-être si elle est comprise entre 1,41° (1° 24' 37") et 1,58° (1°34' 46") et elle ne se produira pas si elle est supérieure à 1,58° (1° 34' 46").
Sur la figure ci-contre, la distance minimale correspond à l'instant où pour un observateur terrestre, le centre de la Lune est le plus près possible du centre du Soleil, cela correspond si l'éclipse a lieu, au maximum de l'éclipse. Durant une éclipse de Soleil on a toujours un des deux scénarii suivants :
La géométrie de ce dessin montre également que plus la conjonction est proche du noeud, plus la distance minimale entre la Lune et le Soleil est petite et plus la magnitude de l'éclipse est grande. Ainsi, les éclipses partielles correspondent à des conjonctions situées loin des noeuds de l'orbite lunaire et les éclipses centrales (annulaires, totales ou mixtes) correspondent à des conjonctions proches des noeuds de l'orbite lunaire. On rappelle que le fait qu'une éclipse centrale soit annulaire, totale ou mixte ne dépend pas de la distance de la conjonction aux noeuds de l'orbite lunaire, mais dépend uniquement des tailles des diamètres apparents des corps, donc de leurs positions sur leur orbite.
On peut détailler le critère en latitude en déterminant pour quelle valeur de b (0,88°) on a une éclipse centrale avec certitude et pour quelle valeur de b (1,05°) on n'a pas d'éclipse centrale avec certitude (mais une éclipse partielle avec certitude), ces valeurs sont données dans le graphique ci-contre.
On peut également calculer les valeurs moyennes de ces critères en latitude. Pour avoir une éclipse de Soleil il faut que b soit inférieure à = 1,48° et pour avoir des éclipses centrales il faut que b soit inférieure à = 0,95°. Ces valeurs moyennes permettent de calculer également la proportion d'éclipses partielles (36%) et la proportion d'éclipses centrales (64%).
La démonstration du critère en latitude fait intervenir la notion de parallaxe équatoriale solaire et de parallaxe équatoriale lunaire, il convient donc de les définir.
La parallaxe équatoriale solaire est égale à l'angle sous lequel un observateur situé au centre du Soleil voit le rayon terrestre, de même la parallaxe équatoriale lunaire est l'angle sous lequel un observateur situé au centre de la Lune voit le rayon terrestre. C'est également la différence angulaire sous laquelle deux observateurs, l'un situé au centre de la Terre, l'autre situé sur la Terre et observant la Lune à l'horizon, voient le centre de la Lune.
Comme on le constate sur la figure, les deux droites D1 et D2 étant parallèles les angles AOCL et OCLCT sont des angles alternes internes, donc égaux. Ainsi, si les éphémérides donnent une direction angulaire géocentrique de la Lune b, un observateur qui regarde la Lune à l'horizon, la voit dans la direction b -.
La parallaxe se calcule par la formule : , étant la distance entre le centre de la Terre et le centre du corps, et r le rayon terrestre. On constate que plus le corps est loin de la Terre plus le sinus est petit et plus la parallaxe est faible.
Nous allons établir le critère en latitude dans le cas d'une éclipse au noeud ascendant de l'orbite lunaire, la conjonction ayant lieu avant le passage au noeud. La démonstration est identique pour un passage au noeud descendant ou avec une conjonction située après le passage au noeud, la seule chose qui change dans ce dernier cas est la position du minimum de distance entre des deux corps.
Soit M0 et S0 : les positions de la Lune et du Soleil à l'instant de la conjonction (nouvelle Lune) avant le passage de la Lune au noeud ascendant de son orbite.
M et S : les positions de la Lune et du Soleil à un instant t postérieur à la conjonction.
: l' angle S0M0S.
: la différence des latitudes entre la Lune et le Soleil à l'instant de la conjonction.
q : rapport du mouvement en longitude de la Lune sur celui du Soleil.
Le calcul du critère en latitude consiste à calculer le minimum de la distance SM (corrigé des parallaxes équatoriales lunaire et solaire) et de le comparer avec la somme des demi-diamètres apparents du Soleil et de la Lune. SM se calcule simplement en utilisant le théorème de Pythagore.
On a :
soit
avec
(1)
On introduit un angle auxiliaire i', tel que :
est minimum lorsque la dérivée de f est nulle
(2)
(3)
Cette distance correspond à une observation vue du centre de la Terre (coordonnées géocentriques), en réalité l'observation a lieu depuis la surface de la Terre avec les deux corps à l'horizon, la différence des latitudes Lune Soleil doit être diminuée de la différence des parallaxes horizontales et de la Lune et du Soleil.
(4)
Il y a éclipse lorsque SM est inférieur à la somme des demi-diamètres apparents de la Lune et du Soleil
(5)
Il suffit alors de remplacer dans cette formule les paramètres par leurs valeurs extrêmes pour en déduire les critères de la latitude. Ainsi La valeur inférieure du second membre de (5) est obtenue avec minimales et maximale, la valeur supérieure est obtenue avec maximales et minimale.
Le tableau suivant donne les valeurs extrêmes des paramètres, l'étude des séries donnant l'orbite de la Lune, montre qu'au voisinage de la nouvelle Lune (et de la pleine Lune) la valeur de l'inclinaison est maximale, il convient donc de prendre i ~ 5° 17' dans ces formules.
Paramètres | Maximum | Minimum | Moyenne |
---|---|---|---|
q | 16,2 | 10,9 | 13,5 |
1,0052 | 1,0043 | 1,00472 | |
Parallaxe de la Lune | 61' 27" | 53' 53" | 57' 2,70" |
Parallaxe du Soleil | 8,96" | 8,65" | 8,80" |
Demi-diamètres de la Lune | 16' 45" | 14' 41" | 15' 32,58" |
Demi-diamètres du Soleil | 16' 18" | 15' 46" | 15' 59,63" |
Valeurs extrêmes et moyennes des paramètres.
Le critère en latitude s'écrit donc :
si pas éclipse
si éclipse possible
si éclipse certaine
Si l'on utilise les paramètres du tableau précèdent on trouve = 1° 34' 45,69" et =1° 24' 37,31" et une valeur moyenne = 1° 28' 51" soit environ 1,48°.
Le critère pour la centralité se calcule d'une manière analogue, il suffit de remplacer la somme des demi-diamètres apparents par la différence des demi-diamètres apparents dans l'équation (5). On obtient alors = 0° 52' 55,47" (soit environ 0,88°) et = 1° 3' 14,98" (soit environ 1,05°) et la valeur moyenne = 0° 56' 42,84" (environ 0,95°).
Le critère sur la latitude du centre de la Lune, peut se traduire en un critère sur la longitude de la conjonction Lune Soleil (donc la longitude) du Soleil par rapport au noeud de l'orbite lunaire. Ainsi il y aura éclipse si au moment de la conjonction en longitude, la différence de longitude entre le noeud de l'orbite lunaire et la longitude du Soleil est inférieure à 15,665°, il n'y aura pas d'éclipse si cette différence est supérieure à 17,375°, et il y aura peut-être éclipse si elle est comprise entre ces deux valeurs. Comme on le voit le critère en longitude est beaucoup plus large en amplitude que le critère en latitude, cela s'explique par la faible valeur de l'inclinaison de l'orbite lunaire.
Maintenant que nous avons défini des critères en latitude ou en longitude pour savoir s'il y a ou non des éclipses de Soleil, nous verrons qu'il y a obligatoirement ou moins une éclipse de Soleil à chaque saison d'éclipse et qu'il en est de même pour les éclipses de Lune. Nous donnons ensuite le nombre d'éclipses possibles sur une année solaire de 365 ou 366 jours.
Enfin nous étudions l'évolution du type des éclipses qui se succèdent d'une saison d'éclipse à la suivante. Pour compléter cette étude nous donnons et commentons un graphique représentant toutes les éclipses de Lune et de Soleil sur une période de 22 ans.
En étudiant la figure ci-contre, on peut se poser la question suivante. Supposons que nous ayons une conjonction en longitude (1) juste avant le point A, la conjonction suivante (2) va-t-elle être à l'intérieur ou à l'extérieur de l'arc BB' ? Pour répondre à cette question, on doit calculer de combien avance la longitude de la Terre (ou du soleil apparent) par rapport au noeud de l'orbite lunaire durant une révolution synodique de la Lune (une lunaison). On a vu que la Terre (ou le Soleil apparent) passe par le même noeud de l'orbite lunaire tous les 346,62 jours, donc la vitesse de la Terre par rapport à la ligne des noeuds est de 360°/346,64jours = 1,0386°/jour. Or la révolution synodique moyenne de la Lune est de 29,53 jours, donc entre deux conjonctions consécutives la longitude de la Terre varie de 1,0386 x 29,53 = 30,67°.
Or cette valeur est inférieure à la valeur de l'arc qui est égale à 31,33°. Donc à chaque passage de la Terre (ou du soleil apparent) par un noeud de l'orbite lunaire il y a obligatoirement une éclipse de Soleil au voisinage de la conjonction dont la longitude est la plus proche du noeud de l'orbite lunaire.
On peut donner une information supplémentaire, comme le critère en longitude est le même pour les éclipses de Lune, une demi-lunaison avant ou après la conjonction (nouvelle Lune) la Lune est en opposition (pleine Lune) et la Terre n'a parcouru que 15,335° en longitude par rapport au noeud, ces 15,335° correspondent à l'écart angulaire entre une conjonction et une opposition. Donc si une conjonction se trouve dans l'arc BB' l'opposition suivante ou l'opposition précédente se trouve obligatoirement aussi sur cet arc et il y a une éclipse de Lune, mais à l'autre noeud de l'orbite lunaire.
À chaque saison d'éclipse, il y obligatoirement deux éclipses, une éclipse de Soleil et une éclipse de Lune.
La variation de longitude de la Terre par rapport à la ligne des noeuds durant une lunaison étant de 30,67° et l'arc BB' ayant une longueur de 31,33°, il est également possible d'avoir deux conjonctions contenues dans l'arc BB'. Dans ce cas les conjonctions sont proches des extrémités de l'arc BB' et l'opposition comprise entre ces deux conjonctions est proche du noeud de l'orbite lunaire. De même on peut avoir deux oppositions dans l'arc BB'. Dans ce cas les oppositions sont proches des extrémités de l'arc BB' et la conjonction comprise entre ces deux oppositions se trouve proche du noeud de l'orbite lunaire. De plus comme nous l'avons déjà signalé, les éclipses proches des extrémités de l'arc BB' donc loin du noeud sont des éclipses faibles, donc des éclipses partielles de Soleil ou des éclipses de Lune par la pénombre et les éclipses proches du noeud sont des éclipses fortes, donc des éclipses centrales de Soleil ou des éclipses totales de Lune.
On peut donc avoir une série de trois éclipses, au voisinage du passage de la Terre (ou du soleil apparent) par un noeud de l'orbite lunaire. Dans ce cas, on a soit une éclipse forte de Soleil (éclipse centrale) encadrée par deux éclipses faibles de Lune (éclipses par la pénombre) soit une éclipse forte de Lune (éclipse totale) encadrée par deux éclipses faibles de Soleil (éclipses partielles).
Une année civile du calendrier grégorien comporte 365 ou 366 jours. La lunaison moyenne est de 29,53 jours, une année lunaire de douze lunaisons a donc 354 jours, l'écart entre les deux années est de 11 ou 12 jours. Durant ces jours, la demi-lunaison étant supérieure à 14 jours, il ne peut pas y avoir à la fois une conjonction et une opposition. Donc une année civile ne peut jamais avoir à la fois 13 conjonctions (nouvelles Lunes) et 13 oppositions (pleines Lunes). Une seule de ces deux conjonctures est possible, dans ce cas la première conjonction ou opposition a lieu dans les 11 (ou 12) premiers jours de janvier et la dernière conjonction ou opposition a lieu dans les 11 (ou 12) derniers jours de décembre. On a donc, au maximum, soit une année civile à 13 oppositions, soit une année civile à 13 conjonctions. La saison des éclipses est égale à 173,31 jours, donc tous les 173 jours, aux conjonctions et oppositions les plus proches de ces dates il y a au moins deux éclipses (une de Soleil et une de Lune) et il y a au plus trois éclipses (deux de Lunes et une de Soleil ou deux de Soleil et une de Lune).
Une année civile peut contenir au maximum deux saisons d'éclipses entières, soit trois passages de la Terre par un des noeuds de l'orbite lunaire, le premier étant en début d'année, le second en milieu d'année et le dernier en fin d'année. À chacun de ces passages, on peut associer un couple ou un triplet d'éclipses. Mais l'on n'a jamais un triplet d'éclipses complet en début et en fin d'année, et dans le cas ou l'on a deux triplets complets à deux passages consécutifs le troisième passage ne comporte qu'une éclipse dans l'année en cours, car s'il présentait deux éclipses dans l'année en cours, il y aurait 13 oppositions et 13 conjonctions dans l'année, chose impossible. Donc dans une année civile, on a au maximum sept éclipses.
Le tableau ci-contre regroupe toutes les combinaisons possibles.
On remarque dans ce tableau que les triplets d'éclipses qui se suivent à six lunaisons d'intervalle ont la même composition. En effet, comme on l'a déjà signalé, dans chaque triplet, l'éclipse médiane se produit très près du noeud, or l'éclipse médiane du triplet suivant sera forcément une éclipse du même corps, la conjonction ou l'opposition n'ayant avancé que de 4° environ. De plus lorsque l'on a sept éclipses par an la première et la dernière éclipse sont des éclipses du même corps, la première a toujours lieu dans les 11 (ou 12) premiers jours de janvier et la dernière a toujours lieu dans les 11 (ou 12) derniers jours de décembre.
En conclusion le nombre maximal d'éclipses dans une année civile est de sept éclipses, avec obligatoirement deux éclipses de Soleil et deux éclipses de Lune, pour les trois autres toutes les combinaisons sont possibles. Le nombre minimal d'éclipses dans une année est de quatre, avec obligatoirement deux éclipses de Lune et deux éclipses de Soleil.
Nous allons nous intéresser à l'évolution des éclipses au cours du temps. Supposons que nous ayons une éclipse de Soleil à une date donnée comment sera l'éclipse suivante ?
Généralement les éclipses successives de Soleil sont séparées par six lunaisons (liées à une saison d'éclipses), donc il y a alternance de noeud lunaire (noeud ascendant et noeud descendant). Nous avons vu que durant une lunaison la Terre (ou le soleil apparent) progressait en moyenne de 30,67° en longitude par rapport à la ligne des noeuds de l'orbite lunaire, donc au bout de six lunaisons la Terre (ou le Soleil apparent) progresse de 6 x 30,67° = 184,02°, donc si dl1 est la différence de longitude entre la conjonction et le noeud de l'orbite lunaire pour la première éclipse, l'éclipse suivante a lieu au noeud suivant et la différence dl2 entre la conjonction et ce noeud est égale à dl1 - (184,02° - 180°) = dl1- 4,02°. Donc la conjonction se déplace par rapport aux noeuds successifs d'environ 4° dans le sens direct d'une éclipse à la suivante.
Les éclipses de la suite courte S1 à S8 ont lieu à chaque saison d'éclipse, alternativement au noeud ascendant puis au noeud descendant. Il y a toujours au moins 8 éclipses dans la suite car l'arc BB' contient 7 arcs de 4° donc 8 éclipses. Il peut éventuellement y avoir une neuvième éclipse S9 (dans l'arc A'B'), dans ce cas cette éclipse est la dernière éclipse d'un triplet d'éclipses : Soleil-Lune-Soleil. Dans ce cas la conjonction correspondant à la première éclipse du triplet a lieu une lunaison plus tôt et se trouve 30,67° en amont et cette éclipse est la première éclipse de la série courte suivante; nous avons donc un décrochage dans la suite des séries, la série suivante commence avant que la série en cours ne soit terminée. Ce phénomène peut également se produire lorsque la huitième éclipse de la série est très proche du point B'. On peut donc conclure que les éclipses des suites courtes sont séparées par six lunaisons et que la première éclipse d'une suite courte est séparée de la dernière éclipse de suite courte précédente par cinq lunaisons ou par une lunaison dans le cas d'un décrochage.
On remarque que les conjonctions liées aux éclipses d'une série courte parcourent l'arc BB' dans le sens direct avec un pas moyen de 4°, les premières et les dernières éclipses sont des éclipses faibles (éclipses partielles ou éclipses centrales de faible magnitude) et les éclipses du milieu de la série, proches des noeuds, sont des éclipses fortes (éclipses centrales). On rappelle que les types des éclipses centrales : annulaire, totale ou mixte ne dépendent pas de la distance entre la conjonction et le noeud mais des diamètres apparents des corps liés aux positions orbitales de la Lune et du Soleil.
Attention, il ne faut jamais oublier que ces calculs sont faits à l'aide des révolutions moyennes de la Lune, la réalité est toujours un peu différente, l'avance de la conjonction n'est donc jamais exactement égale à 4° mais varie autour de cette valeur moyenne.
Sur le diagramme ci-contre, nous avons fait figurer l'ensemble des éclipses de Lune et de Soleil comprises entre l'an 1990 et l'an 2012. Les éclipses sur ce diagramme sont représentées de la manière suivante :
On remarque que les éclipses ont bien lieu aux voisinages des passages du Soleil dans la direction des noeuds ascendant et descendant de l'orbite lunaire. De même on constate qu'à chaque saison d'éclipse on a un doublet d'éclipses Lune-Soleil ou un triplet d'éclipses Lune-Soleil-Lune (1991) ou Soleil-Lune-Soleil (2000) et que dans le cas des triplets les éclipses en première et dernière positions sont faibles et que l'éclipse médiane est forte. On observe que les éclipses de Soleil ou de Lune de début et de fin de séries courtes sont séparées par cinq ou une lunaisons. On vérifie également qu'il y a toujours au moins quatre éclipses par an, sur la période de temps représentée, il n'y a pas d'année à 7 éclipses, mais une année à 6 éclipses (2000).
La démonstration de l'existence des séries courtes de Soleil est également valable pour des séries courtes d'éclipses de Lune. Il suffit de remplacer la conjonction par l'opposition. Sur notre diagramme nous avons fait figurer les séries courtes de Soleil (en bleu) et les séries courtes de Lune (en rouge). On constate que les traits joignant les éclipses d'une même série pour chaque noeud sont parallèles et coupent les lignes des noeuds. Sur la période considérée, il n'y a pas de série courte à 9 éclipses. Mais on peut observer plusieurs décrochage de séries courtes, par exemple la série courte de Soleil Z débute avant que la série Y soit terminée (triplet d'éclipses de l'an 2000).
Nous étudions maintenant les éclipses de Soleil sur de très grandes période de temps, pour cela nous construisons des canons d'éclipses.
Les parties pour en savoir plus vous donnent les caractéristiques du canon d'éclipses construit à l'IMCCE, ainsi que les listes des éclipses totales et annulaires les plus longues et des éclipses partielles les plus courtes avec des détails et des commentaires.
Les listes d'éclipses de Lune et de Soleil sont publiées dans des livres appelés canons d'éclipses. Le plus connu est celui de Theodor Ritter von Oppolzer, sa première édition date de 1887 dans le volume 52 des Mémoires de Mathématiques et de Sciences Naturelles de l'Académie Impériale de Vienne. Ce canon, corrigé, est réédité régulièrement. Dans ce canon, on trouve 8000 éclipses de Soleil comprises entre -1207 et 2161 et 5200 éclipses de Lune comprises entre -1206 et 2132. Il faut préciser que l'on n'y trouve pas les éclipses de Lune par la pénombre.
Il convient de citer également le canon des éclipses de Soleil de Jean Meeus et Hermann Mucke (1983, Astronomisches Büro, Vienne), contenant toutes les éclipses de Soleil comprises entre -2003 et 2526.
À l'IMCCE, nous avons construit un canon d'éclipses de Lune et de Soleil. Il porte sur une période de 6000 ans (de l'an -2999 à 3000), il a été construit avec les dernières théories planétaires et lunaire élaborées à l'IMCCE.
Ces trois canons ont été construits avec des théories différentes des corps célestes et avec des constantes légèrement différentes, cela implique que certaines éclipses limites ne sont pas identiques (apparition de nouvelles éclipses limites, ou éclipses totales dans un canon qui deviennent mixtes dans l'autre).
Pour construire notre canon nous avons utilisé les théories suivantes :
Les paramètres physiques utilisés sont les suivants :
Nous avons trouvé sur cette période de 6000 ans, 14 155 éclipses de Soleil qui se répartissent de la manière suivante :
Comme on l'a prédit précédemment, on constate qu'il y a bien plus d'éclipses annulaires que d'éclipses totales.
Une éclipse totale a une durée maximale lorsque l'ombre est la plus grande possible, c'est-à-dire lorsque la Terre est à l'aphélie pour avoir le plus petit diamètre apparent du Soleil, lorsque la Lune est au périgée pour avoir le plus gros diamètre apparent de la Lune et lorsque le maximum a lieu au zénith du lieu d'observation pour avoir une distance observateur Lune minimale, donc un diamètre de l'ombre maximal. La première condition fixe la date de l'éclipse (actuellement début juillet). La troisième condition fixe le lieu d'observation proche du tropique du Cancer (latitude 23°). Avec la Lune au périgée, la vitesse synodique de l'ombre par rapport à la Terre est de 3 733 km/h (1 037 m/s) et la vitesse de l'ombre sur la surface de la Terre est de 2 196 km/h (610 m/s), le diamètre de l'ombre est alors de 262 km et la durée de l'éclipse est de 7 min 10 s. En réalité, ces paramètres ne sont pas indépendants et l'on s'aperçoit, en faisant un calcul plus rigoureux, que si l'on descend en latitude vers +5° la durée de l'éclipse croît jusqu'à environ 7 min 30 s. En effet le diamètre de l'ombre va décroître (on n'est plus au zénith, l'ombre devient ovale) mais sa vitesse décroît encore plus rapidement ce qui en fin de compte augmente sensiblement la durée de l'éclipse. Le tableau suivant porte sur l'ensemble des éclipses totales comprises entre l'an -2999 et 3000 issues du canon d'éclipses de Soleil de l'IMCCE.
Date | Durée | Date | Durée | Date | Durée |
---|---|---|---|---|---|
29 mai -2584 | 7 min 17,00 s | 10 juin - 2566 | 7 min 23,76 s | 20 juin - 2548 | 7 min 19,94 s |
25 avril - 2266 | 7 min 10,49 s | 05 avril - 2248 | 7 min 23,37 s | 16 avril - 2230 | 7 min 27,25 s |
27 mai -2212 | 7 min 21,11 s | 8 juin - 1106 | 7 min 10,61 s | 24 mai - 779 | 7 min 13,45 s |
05 juin - 761 | 7 min 28,61 s | 15 juin - 743 | 7 min 31,73 s | 26 juin -725 | 7 min 23,45 s |
11 mai - 425 | 7 min 16,51 s | 22 mai - 407 | 7 min 18,11 s | 02 juin - 389 | 7 min 10,01 s |
22 mai 114 | 7 min 10,41 s | 01 juin 132 | 7 min 19,50 s | 12 juin 150 | 7 min 17,99 s |
16 juin 345 | 7 min 21,13 s | 27 juin 363 | 7 min 28,42 s | 08 juillet 381 | 7 min 26,87 s |
19 juillet 399 | 7 min 15,75 s | 23 mai 681 | 7 min 14,32 s | 03 juin 699 | 7 min 21,62 s |
13 juin 717 | 7 min 20,47 s | 29 mai 1044 | 7 min 16,79 s | 09 juillet 1062 | 7 min 25,27 s |
20 juin 1080 | 7 min 22,83 s | 01 juillet 1098 | 7 min 10,21 s | 20 juin 1955 | 7 min 12,62 s |
25 juin 2150 | 7 min 18,77 s | 05 juillet 2168 | 7 min 30,89 s | 16 juillet 2186 | 7 min 34,14 s |
27 juillet 2204 | 7 min 26,93 s | 08 août 2222 | 7 min 10,39 s | 14 juin 2504 | 7 min 15,03s |
25 juin 2522 | 7 min 17,54 s | 23 juin 2867 | 7 min 14,67 s | 03 juillet 2885 | 7 min 15,80 s |
Liste des éclipses totales d'une durée supérieure à 7 minutes et 10 secondes
On constate que l'éclipse la plus longue sera celle du 16 juillet 2186 pour une durée de 7 min 34,14 s, valeur légèrement supérieure à celle calculée avec les valeurs moyennes.
Dans le cas d'une éclipse annulaire le raisonnement est similaire aux éclipses totales, mais inverse. Le diamètre apparent du Soleil doit être le plus grand possible donc la Terre doit être au périhélie et le diamètre apparent de la Lune doit être le plus petit possible donc la Lune doit être à l'apogée, dans ce cas la durée maximale de l'éclipse peut atteindre 12 min 30 s. Le tableau suivant porte sur l'ensemble des éclipses annulaires comprises entre l'an -2999 et 3000 issues du canon d'éclipses de Soleil de l'IMCCE .
Date | Durée | Date | Durée |
---|---|---|---|
12 décembre -1655 | 11 min 53,93 s | 10 décembre - 195 | 11 min 57,93 s |
22 décembre - 177 | 12 min 01,43 s | 25 novembre 132 | 12 min 08.01 s |
06 décembre 150 | 12 min 15,91 s | 17 décembre 168 | 12 min 07.25 s |
25 décembre 1628 | 11 min 55,47 s | 02 décembre 1937 | 11 min 53.63 s |
14 décembre 1955 | 12 min 02,49 s | 24 décembre 1973 | 11 min 55.75 s |
Liste des éclipses annulaires d'une durée supérieure à 11 minutes et 50 secondes
À l'aide du canon d'éclipses de Soleil de l'IMCCE nous avons cherché quelles sont les éclipses partielles les plus petites sur la période -2999, 3000. Nous avons trouvé les deux éclipses suivantes :
Date | Magnitude | Instant du maximum | Durée générale |
---|---|---|---|
23 juillet 651 | 0,0008272 | 08h 30 m 41,06 s UT | 9,3 min |
17 août 1327 | 0,0004937 | 16 h 58 m 33,03 s UT | 6,2 min |
Nous allons étudier ces deux éclipses.
Éphémérides de la Lune au voisinage de l'éclipse :
On constate que cette éclipse a lieu après le passage au noeud descendant de l'orbite lunaire, comme l'éclipse est très faible le passage au noeud doit être loin de la conjonction et l'instant du maximum de l'éclipse loin de l'instant de la conjonction. C'est effectivement le cas, on a un écart de temps égal à 16m 49s entre la conjonction et le maximum de l'éclipse et on a également un écart de temps maximal égal à 31h 22m 19s entre la conjonction et le passage au noeud. Ces valeurs sont presque des valeurs extrêmes car la Lune est voisine de son apogée et la Terre est proche de son aphélie, donc la Lune et le Soleil se déplacent lentement. On remarque que comme nous l'avons expliqué précédemment le maximum de l'éclipse (distance minimale entre le centre de la Lune et le centre du Soleil) a bien lieu entre le passage au noeud et la conjonction.
Éphémérides de la Lune au voisinage de l'éclipse :
Cette éclipse a lieu avant le passage au noeud ascendant, on a donc le scénario suivant, conjonction, maximum de l'éclipse et passage au noeud. L'écart de temps entre la conjonction et le maximum de l'éclipse est de 15m 29s et l'écart de temps entre la conjonction et le passage au noeud est de 28h 36m 13s.
Pour ces deux éclipses, qui sont des cas extrêmes, on voit que le maximum de l'éclipse est relativement proche de la conjonction, par contre la conjonction est très éloignée du passage au noeud (plus d'une journée).
Cette section comporte des cartes représentant les lignes de centralité des éclipses (totales, annulaires et mixtes). On donne lrs cartes des éclipses centrales sur la période 1998 à 2020, les cartes des éclipses visibles en France depuis le XVIe siècle jusqu'à la fin du XXIe siècle. Des tableaux donnent les zones de visibilité sur le pays.
La carte ci-contre donne les bandes de totalité des éclipses totales de Soleil entre l'an 1998 et l'an 2020. On remarquera la très grande dispersion des courbes à la surface terrestre. On notera la largeur des bandes de totalité des éclipses proches des pôles et l'étroitesse de la bande de totalité de l'éclipse mixte.
La carte ci-contre donne les bandes de centralité des éclipses annulaires de Soleil entre l'an 1998 et l'an 2020. On remarquera la très grande dispersion des courbes à la surface terrestre.
Vu la faible surface traversée par la bande de centralité, les éclipses visibles sur un territoire ayant la superficie de la France sont peu nombreuses et si on se limite à une ville où une région, elles deviennent exceptionnelles.
Les tableaux suivants donnent la liste des éclipses dont la bande de centralité traverse la France, il porte sur toutes les éclipses centrales allant du début du XVIe siècle jusqu'à la fin du XXIe siècle.
Date | Type d'éclipses | Remarques |
---|---|---|
24 janvier 1544 | totale* | visible dans le sud-est de la France |
12 octobre 1605 | totale | visible dans le sud ouest de la France |
10 juin 1630 | totale* | la fin de l'éclipse est visible de l'ouest au sud-est de la France |
27 janvier 1683 | annulaire | la fin de l'éclipse est visible à l'ouest et au centre de la France |
12 mai 1706 | totale | visible dans le sud-est de la France |
22 mai 1724 | totale | visible du nord-ouest au nord-est de la France , visible à Paris |
1 avril 1764 | annulaire | visible dans le nord de la France, visible à Paris |
7 septembre 1820 | annulaire | visible dans le nord-est de la France, invisible à Paris |
8 juillet 1842 | totale | visible dans le sud-est de la France |
9 octobre 1847 | annulaire | visible du nord-est au centre-est de la France |
(*) Ces deux éclipses sont données comme mixtes dans le canon de Meeus et comme totales dans le canon d'Oppolzer.
Date | Type d'éclipse | Remarques |
---|---|---|
17 avril 1912 | mixte | visible de l'ouest au nord-est de la France, visible au nord de Paris (éclipse perlée) |
15 février 1961 | totale | visible dans le sud de la France |
11 août 1999 | totale | visible dans le nord de la France d'ouest en est |
5 novembre 2059 | annulaire | visible dans le sud-ouest de la France |
13 juillet 2075 | annulaire | visible en Corse et dans l'extrême sud-est de la France |
3 septembre 2081 | totale | visible dans le centre de la France |
27 février 2082 | annulaire | visible dans le sud de la France |
23 septembre 2090 | totale | fin de l'éclipse visible dans le nord-ouest de la France |
Quelques auteurs citent, à tort, l'éclipse du 12 août 2026 comme visible en France. Camille Flammarion la donne visible à Paris (1880, L'Astronomie Populaire). Paul Couderc la dit visible sur une ligne allant de Bordeaux à Toulouse (1971, Les éclipses). En réalité, la phase de totalité de cette éclipse ne sera pas visible en France mais au nord de l'Espagne.
La carte ci-contre donne les lignes de centralité des éclipses centrales (totales, annulaires ou mixtes) visibles en France. On notera la grande diversité de largeur des bandes de centralité.
La carte ci-contre donne les lignes de centralité des éclipses centrales (totales, annulaires ou mixtes) visibles en France. L'éclipse de 1912 est une éclipse mixte, elle a été observée au nord de Paris (Saint-Germain en Laye), on notera l'étroitesse de sa ligne de centralité. On notera également que les trajectoires des lignes de centralité présentent des orientations très variées par rapport aux méridiens et aux parallèles terrestres et qu'elles sont loin d'être parallèles à l'équateur terrestre.
La carte ci-contre donne les lignes de centralité des éclipses centrales (totales et annulaires) visibles sur la France.
Cette section est très importante car elle traite des dangers liés à l'observation directe du Soleil. Donc des dangers liés à l'observation d'une phase non totale d'une éclipse.
Si on décompose la lumière solaire à l'aide d'un prisme, on aperçoit une série de couleurs allant du violet au rouge. Ces couleurs forment le spectre visible de la lumière solaire. Leurs longueurs d'onde varient de 400 nm (1 nanomètre = 1 millionième de millimètre) pour le violet à 750 nm pour le rouge. Le spectre de la lumière solaire ne se limite pas aux couleurs visibles, mais s'étend dans les basses longueurs d'onde avec les ultraviolets et les rayons X, et vers les grandes longueurs d'onde avec l'infrarouge et les ondes radio. Les rayonnements ultraviolets ont une longueur d'onde comprise entre 15 nm (Rayon X) et 400 nm (lumière visible violet).
On classe le rayonnement ultraviolet en plusieurs catégories :
Ces rayonnements sont tous nocifs pour la vue, d'où l'usage de lunettes de soleil de bonne qualité pour les journées ensoleillées.
Les rayonnements infrarouges ont une longueur d'onde comprise entre 800 nm (lumière visible rouge) et 1 mm (ondes radio). Ces rayonnements sont détectés par la chaleur à laquelle ils sont associés.
La concentration du rayonnement solaire permet d'atteindre des températures très élevées. Ainsi, il est très facile d'enflammer une feuille de papier à l'aide d'une loupe et d'un rayon de soleil.
Iriez-vous mettre votre oeil à la place de ce petit bout de papier ? Non ! Alors ne mettez jamais votre oeil derrière un instrument d'optique (lunette, jumelles, appareil photo) qui focalise la lumière solaire et qui n'est pas équipé d'un filtre spécialement conçu pour l'observation solaire.
De même, il est fortement déconseillé de regarder le Soleil à l'oeil nu, même avec des lunettes de soleil. En effet ces lunettes, si elles sont de bonne qualité, protègent du rayonnement ultraviolet mais ne sont nullement conçues pour regarder le Soleil de face car elles n'arrêtent pas le rayonnement infrarouge. On estime, que même lorsque le disque solaire est éclipsé à 99%, le rayonnement solaire peut causer des dommages irréversibles et au moment où vous êtes ébloui il est déjà trop tard.
Le seul moment, très court, où l'on peut regarder sans danger directement le Soleil durant une éclipse est la phase de totalité.
Mais attention la douleur que l'on ressent en regardant le Soleil en face provient de la pupille qui veut se fermer plus qu'elle ne le peut, c'est cette douleur qui nous fait détourner le regard. Mais un mauvais filtre peut supprimer cette douleur, et laisse passer le rayonnement infrarouge qui va brûler la rétine d'une manière indolore, le fond de l'oeil n'est pas sensible à la douleur et toute brûlure est irréversible.
Il convient donc de prendre énormément de précautions pour observer une éclipse de Soleil.
Une méthode classique consiste à observer le phénomène par projection. Pour cela munissez-vous de deux feuilles de papier cartonné. La première, percée d'un minuscule trou, est positionnée perpendiculairement à la direction du soleil, la deuxième est placée parallèlement à la première ; lorsque cette seconde feuille est suffisamment éloignée de la première (environ un demi-mètre), on peut y observer l'image du soleil. On peut également observer l'éclipse par projection avec un instrument d'optique, par exemple une petite lunette. Pour cela, il suffit d'orienter la lunette vers le Soleil, sans utiliser le chercheur de l'instrument, mais en orientant la lunette de manière à minimiser la dimension de son ombre. La première méthode est absolument sans danger, la deuxième présente le risque de voir une personne distraite ou non informée (souvent des enfants), mettre son oeil derrière l'instrument.
Il existe de nombreux types de filtres solaires, utilisés par les astronomes professionnels et amateurs pour l'observation du Soleil. Ces filtres ont deux objectifs, réduire l'intensité lumineuse et filtrer les rayonnements ultraviolets et infrarouges. Ces filtres possèdent une fine couche d'aluminium, de chrome ou d'argent sur leur surface. C'est cette couche métallique qui filtre le rayonnement infrarouge. Ces filtres, pour être efficaces, doivent être montés devant les systèmes optiques (devant la lunette où le télescope), cela explique à la fois leur grand diamètre et leur prix souvent élevé. On trouve parfois, vendus avec des lunettes astronomiques du commerce, des filtres solaires qui se placent sur l'oculaire ; ces filtres sont dangereux, en effet, la lumière solaire traverse alors tout le système optique, ce qui concentre le rayonnement ultraviolet et peut briser le filtre par échauffement. On peut utiliser un filtre solaire vissé sur l'oculaire, uniquement s'il est associé avec un hélioscope d'Herschel. Si vous possédez un instrument d'observation consultez votre revendeur qui pourra vous conseiller pour l'achat d'un filtre solaire adapté à votre instrument.
Si vous ne voulez pas investir trop d'argent dans l'achat d'un filtre solaire, vous pouvez confectionner un filtre en Mylar. Le Mylar se présente sous la forme d'une mince feuille métallique aluminée. Son pouvoir filtrant est très performant, il filtre parfaitement les rayonnements infrarouge et UV et diminue l'intensité lumineuse d'un facteur 1 000 000. Son seul défaut est sa fragilité, due à sa faible épaisseur. Il faut également se méfier d'un éventuel défaut de surface. Utilisez toujours des feuilles parfaitement planes (n'ayant subi aucun pli). Ces feuilles sont faciles à découper et peuvent donc être utilisées pour la création du filtre de votre choix. Vous pouvez en équiper une paire de lunettes. Ainsi, La revue Ciel et Espace en association avec l'ASNAV (Association Nationale pour l'Amélioration de la Vue) a distribué une paire de lunette munie de filtre en Mylar dans son numéro d'octobre 1996, pour l'observation de l'éclipse du 12 octobre 1996. De telles lunettes permettent d'observer les éclipses à " l'oeil nu ", mais, elles ne doivent pas être utilisées pour regarder à travers un instrument. De plus elles ne doivent pas être utilisées après leur date limite d'utilisation.
Le filtre, quel qu'il soit, doit toujours être placé devant l'instrument et non entre l'instrument et l'observateur.
Nous vous conseillons vivement les deux premiers, les autres, tenant plus du bricolage, ne sont pas sans risques.
En cas de doute n'hésitez pas à consulter une personne compétente, c'est-à-dire un ophtalmologiste, ou observez l'éclipse par projection.
Si vous regardez sans précaution une éclipse de Soleil, vous risquez une brûlure grave du fond de l'oeil. Au moment de la brûlure, ce traumatisme est le plus souvent indolore (d'où son danger). Il peut entraîner des cécités définitives ou partielles. Lors de la dernière éclipse visible aux États-Unis, on a dénombré plus de 1 000 cas de cécité définitive et plus de 10 000 cas de cécité temporaire. Même dans les cas de cécité temporaire le traumatise est très long à se résorber (cela peut prendre de 6 mois à un an) et il reste toujours des séquelles. Contrairement à ce que l'on pourrait penser le fait de porter des lunettes de Soleil augmente l'intensité de la brûlure, en effet l'intensité lumineuse étant filtrée par les lunettes, la pupille de l'oeil se dilate et la quantité de lumière infrarouge qui pénètre dans l'oeil est plus importante, d'où une brûlure encore plus intense.
Ce chapitre est le plus complexe des chapitres sur les éclipses. Dans ce chapitre nous étudions les périodes de récurrence des éclipses de Soleil. Nous voyons qu'il existe plusieurs périodes de récurrence, notamment le Saros. Nous expliquons pourquoi cette période est réellement une bonne période de récurrence en analysant les principales perturbations lunaires et en introduisant la notion de révolution anomalistique. Nous définissons ensuite les suites d'éclipses séparées par cette période de temps. Ce sont des séries longues de Saros. Nous commentons et expliquons leur évolution : évolution des types d'éclipses, évolution des magnitudes, évolution des zones de visibilité sur Terre.
Enfin nous étudions les éclipses anciennes et leur utilisation pour déterminer le ralentissement de la révolution terrestre.
Cette partie est le plus complexe des chapitres sur les éclipses. Dans cette partie du cours nous étudions les périodes de récurrence des éclipses de Soleil. Nous voyons qu'il existe plusieurs périodes de récurrence, notamment le Saros. Nous expliquons pourquoi cette période est réellement une bonne période de récurrence en analysant les principales perturbations lunaires et en introduisant la notion de révolution anomalistique. Nous définissons ensuite les suites d'éclipses séparées par cette période de temps. Ce sont des séries longues de Saros. Nous commentons et expliquons leur évolution : évolution des types d'éclipses, évolution des magnitudes, évolution des zones de visibilité sur Terre.
Enfin nous étudions les éclipses anciennes et leur utilisation pour déterminer le ralentissement de la révolution terrestre.
Dans cette première section, nous définissons les périodes de révolutions qui permettent de trouver les périodes de récurrence des éclipses de Soleil. Nous introduisons la notion de Saros. La partie "pour en savoir plus" décrit la méthode de décomposition d'un réel en fractions continues et comment l'on retrouve la période du Saros, elle donne également d'autres périodes de récurrence connues sous le nom de Saros chinois. Nous donnons ensuite l'origine du terme erroné de Saros et les caractéristiques des éclipses contenues dans une séries de Saros.
Nous avons vu que les éclipses de Soleil et de Lune se produisent lorsque les syzygies (la conjonction et l'opposition de la Lune) ont lieu avec le soleil apparent au voisinage de la direction de la ligne des nœuds de l'orbite lunaire. Le retour d'une même phase lunaire est lié à la révolution synodique « L » (29,5305888532 jours) de la Lune. Le retour du Soleil dans la direction de la ligne des nœuds au moment des syzygies est équivalent au retour de la Lune près de ses nœuds, ce retour est lié à la révolution draconitique « G » (27,212220817 jours) de la Lune. Une période de récurrence des éclipses doit donc être un multiple commun à ces deux périodes.
On doit donc déterminer deux nombres x et y tel que x.G=y.L ou encore tel que x/y=L/G.
Les valeurs possibles pour x et y se calculent en utilisant la méthode de décomposition des réels en fractions continues.
Le rapport L/G est égal à 1,085195841, il s'écrit sous forme réduite : (1;11,1,2,1,4,3,5,1). Ce qui donne pour x et y les solutions suivantes :
x | 1 | 12 | 13 | 38 | 51 | 242 | 777 | 4127 |
y | 1 | 11 | 12 | 35 | 47 | 223 | 716 | 3803 |
Le cycle correspondant à la solution 242/223, soit 223 lunaisons, est connu à tort sous le nom de saros. 223 lunaisons sont égales à 6585,321314 jours et 242 révolutions draconitiques sont égales à 6585,357436 jours, la différence 242L - 223L est de 0,03612 jour, soit 52 minutes.
On exprime parfois cette période en années et en jours, mais cela n'est pas recommandé, car 6 585 jours donnent 18 ans, plus 10 ou 11 ou 12 jours, cela dépend du nombre d'années bissextiles comprises dans les 18 années (5,4 ou 3), il est préférable de garder cette expression en jours.
La principale inégalité dans la longitude de la Lune, l'équation du centre, est fonction de sa distance angulaire au périgée de son orbite, cette distance angulaire porte le nom d'anomalie. L'intervalle de temps qui sépare en moyenne le passage de la Lune par la direction de son périgée, s'appelle la révolution anomalistique. Sa valeur moyenne est A = 27,554549878 jours. Il est très important de constater que le saros est également un multiple de cette révolution anomalistique, ainsi après un saros, non seulement on retrouve la même configuration Soleil Terre Lune mais la plus grosse inégalité dans la longitude de la Lune a presque la même valeur, donc on retrouve pratiquement le même écart entre la Lune vraie et la Lune moyenne. C'est principalement pour cette raison que le saros est une période de récurrence des éclipses. En effet le saros est construit à partir des révolutions synodique et draconitique moyennes de la Lune. Or l'écart entre la révolution synodique vraie et la révolution synodique moyenne de la Lune peut atteindre plus ou moins sept heures, or en sept heures la position de la Lune varie en moyenne de 3,5° en longitude (si l'on tient compte des perturbations cet écart peut atteindre 7,5°). Or comme les diamètres apparents de la Lune et du Soleil sont de l'ordre du demi-degré, il est totalement impossible de prédire une éclipse du Soleil uniquement avec la connaissance de la révolution synodique moyenne, seule la connaissance de la lunaison vraie permet cette prédiction. Donc si une période de récurrence utilise les révolutions synodique et draconitique moyennes, il faut également que cette période ramène la Lune vraie au même endroit par rapport à la Lune moyenne, donc que la période de récurrence soit aussi un multiple de la période de la plus grosse inégalité dans la longitude de la Lune.
On a 239 A = 6585,537419 jours et 1 saros = 239 A - 0,0079 A, au bout d'un saros, la Lune se retrouve donc à 2,8° en amont sur sa position orbitale.
Le saros ramène également le Soleil près des noeuds, il doit donc être aussi un multiple de l'année des éclipses E (346,62 jours) et l'on a bien 19 E = 6585,78 jours, l'écart avec le saros n'est que de 0,46 jour. Cette condition, moins stricte que le retour de la Lune à son noeud entraîne une légère évolution des éclipses d'un saros à l'autre.
Les inégalités dans le mouvement du soleil apparent sont également fonction de sa position angulaire par rapport à son périgée (périhélie de la Terre), cet angle porte le nom d'anomalie. La période de révolution qui ramène le soleil apparent à son périgée (ou la Terre à son périhélie), s'appelle révolution anomalistique ou année anomalistique et elle est égale à : a = 365,2596 jours.
Or 18 a = 6574,67 jours, l'écart avec le saros est de 10,65 jours, donc au bout d'un saros le soleil apparent ne s'est déplacé que de 10° sur son orbite par rapport à sa position un saros plus tôt, ce qui correspond à un décalage de 10° vers l'est parmi les constellations zodiacales.
La décomposition d'un réel en fractions continues a été créée par Laplace en 1768, son but était d'obtenir une approximation d'un réel positif r sous la forme d'un quotient de deux entiers. La méthode consiste à décomposer le réel en partie entière et en partie décimale : r = a0 + u1, u1 étant inférieur à 1, on prend son inverse et on continue comme précédemment en itérant avec les restes successifs :
En remplaçant les ui par leurs expressions, le réel se présente sous la forme de fractions emboîtées qui forme la fraction continue :
On obtient des approximations successives de r au moyen de rapports d'entiers en tronquant le développement de la fraction à des ordres plus ou moins élevés que l'on appelle les réduites d'ordre n :
On passe de l'ordre n et n-1 à l'ordre n+1 par la relation de récurrence du second ordre suivante :
Ces formules de récurrence permettant ce calcul furent découvertes par le mathématicien Indien Bhascara II au début du XIIIe siècle, soit 5 siècles avant que le mathématicien Anglais John Wallis ne les redécouvre en Europe.
représentation du nombre
On a = 3,141592654
Sa forme réduite d'ordre 4 s'écrit : (3;7,15,1,293)
Les approximations successives sont : 3, 22/7, 333/106, 355/113, 104348/33215.
Comme nous venons de le voir, pour qu'une période soit une période de récurrence des éclipses, il faut non seulement qu'elle soit un multiple des révolutions synodique (L) et draconitique (G) de la Lune, mais il faut également qu'elle soit un multiple de la révolution anomalistique (A) de la Lune. On doit donc trouver trois nombres x, y et z tels que x.L ~ y.G ~ z.A. Le tableau suivant donne une série de solutions.
jours | x | y | z | Durée (ans) |
---|---|---|---|---|
223 | 242 | 239 | 18,03 | |
6585+ | 0,321 | 0,357 | 0,537 | |
2148 | 2331 | 2302 | 173,7 | |
63430+ | 1,705 | 1,684 | 0,574 | |
2371 | 2573 | 2541 | 191,7 | |
70016+ | 1,026 | 1,042 | 0,112 |
La première ligne correspond au saros, les deux solutions suivantes ramènent bien la lunaison et la Lune près de son noeud, mais décalent beaucoup plus la Lune par rapport à son périgée (14,8° pour la seconde et 11,9° pour la troisième). Elles sont donc moins stables que le saros.
On peut également chercher des solutions sous la forme x.L ~ 2.y.G/2 ~ z.A. Ces solutions font intervenir la demi-révolution draconitique, cela correspond donc à des récurrences avec alternance de noeud. Le tableau suivant donne une série de solutions.
jours | x | y | z | Durée (ans) |
---|---|---|---|---|
135 | 146,5 | 145 | 10,92 | |
3986+ | 0,629 | 0,590 | 9,41 | |
1074 | 1165,5 | 1151 | 86,83 | |
31715+ | 0,852 | 0,842 | 0,287 | |
1297 | 1407,5 | 1390 | 104,86 | |
38300+ | 1,174 | 1,199 | 0,824 |
La première solution que l'on appelle «saros chinois» car elle était connue des chinois, n'est pas très stable à cause de l'écart en anomalie. La seconde et la dernière solution sont meilleures car les écarts en anomalie sont beaucoup plus faibles.
Ainsi pour la seconde solution : 1074.L - 1165,5.G = 0,009 jour = 13 minutes et 1074.L - 1151.A = 0,56 jour, au bout d'un cycle, la Lune se retrouve à 7,4° en aval sur sa position orbitale.
Et pour la dernière solution : 1297.L - 1407,5.G = -0,027 jour = -39 minutes et 1297.L - 1390.A = 0,35 jour, au bout d'un cycle, la Lune se retrouve à 4,5° en aval sur sa position orbitale.
Edmont Halley (1656 - 1742) publia en 1961 dans les Philosophical Transactions un mémoire dans lequel il proposait de corriger un passage de l'Histoire naturelle de Pline l'Ancien (23 - 79 ap. J.-C.) où il était question de la période de récurrence des éclipses (Histoire Naturelle, II, 56). Le texte est le suivant : " Il est sûr que les éclipses se reproduisent dans le même ordre au bout de 222 mois ". Sur d'autres manuscrits on trouve les valeurs de 213 et 293 mois. Halley corrige à juste titre la valeur de 222 mois en 223 mois.
En consultant une encyclopédie byzantine du Xe siècle, la Souda, il trouva la mention du mot saros dans le texte suivant " Saros, mesure et nombre chez les Chaldéens. Un saros contient 222 mois lunaires qui font 18 ans et 6 mois. 120 saros correspondent à 2222 années ". Croyant à tort que la Souda dépendait ici de Pline, Halley en conclut que les Chaldéens appelaient saros la période de 223 ans de Pline.
Le terme sar en sumérien a le sens d'univers, et en temps que nombre, il représente la quantité 3600. Dans le sens de 3 600 ans le terme saros est utilisé par Berossos (~290 avant J.-C.) et après lui par Abydenus (deux siècles avant J.-C.) puis par Synkellos en l'an 800 après J.-C.
La Souda nomme saros une période de 222 mois lunaires et dit explicitement qu'elle correspond à 18 ans et 6 mois avec une année de 12 mois lunaires. La période portant le nom de saros chez les Chaldéens n'a donc rien à voir avec les éclipses.
L'erreur de Halley a été dénoncée par l'astronome Guillaume Le Gentil de La Galaisière (1725 - 1792) dans deux articles très critiques publiés en 1756, alors que Montucla refait l'erreur d'Halley dans son Histoire des mathématiques (1758). D'autres astronomes et historiens essaieront en vain de corriger l'erreur d'Halley : Ideler en 1825, Tannery en 1893, Schiaparelli en 1908, Bigourdan en 1911 et Pannekoek en 1917.
Cette erreur sera amplifiée par la légende de Thalès de Milet (VIe siècle avant J.-C.) rapportait par Hérodote (484 à 425 avant J.-C.) dans l'Enquête (p. 174) Thalès avait prédit aux Ioniens un obscurcissement du Soleil " pour l'année dans laquelle elle se produisit ". Cette éclipse aurait permis de mettre fin à une guerre entre les Mèdes et les Lydiens.
Le saros comporte 38 saisons d'éclipses, revenant en moyenne toutes les 5 ou 6 lunaisons. À chaque saison d'éclipses il y a au moins deux éclipses et parfois trois éclipses. En moyenne un saros comprend 84 éclipses, réparties en 42 éclipses de Soleil et 42 éclipses de Lune.
Les 42 éclipses de Lune se répartissent de la manière suivante : 14 éclipses par la pénombre, 28 éclipses par l'ombre dont 14 éclipses partielles et 14 éclipses totales.
Les 42 éclipses de Soleil se répartissent de la manière suivante : 14 éclipses partielles et 28 éclipses centrales.
Ce nombre d'éclipses par saros est une valeur moyenne, en réalité il existe des saros riches pouvant atteindre jusqu'à 94 éclipses (47 de chaque) et des saros pauvres comportant 78 éclipses.
Les canons d'éclipses construits à l'IMCCE comportent 28512 éclipses sur une période de 5999 ans, soit en moyenne 4,7528 éclipses par an et 85,7 éclipses par saros (valeur que l'on peut arrondir à 86). Cette valeur est légèrement plus forte que la valeur moyenne (84). On retrouve le saros moyen du canon d'Oppolzer, construit sur une période plus courte, qui est de 86 éclipses.
Dans cette section nous définissons la notion de suite longues d'éclipses de Soleil liée au Saros. Nous regardons comment évoluent les éclipses qui se succèdent dans ces suites. Nous traitons dans la partie pour en savoir plus, l'évolution géographique des éclipses des suites longues à la surface du globe terrestre et nous donnons les limites de prédiction locale à partir de la connaissance du Saros. En fin de section nous donnons et commentons un exemple de série longue.
Nous avons vu qu'il existe une période de récurrence des éclipses, le saros, qui ramène sensiblement la même éclipse après une période de 6585,32 jours. Ces éclipses séparées par un saros sont appelées éclipses homologues. En réalité, elles ne sont pas parfaitement identiques, mais elles évoluent légèrement d'un saros à l'autre et elles forment des suites qui portent sur de grandes périodes de temps d'où leur nom de suites longues.
Nous allons regarder comment évolue la longitude de la conjonction après une période d'un saros. L'écart entre le saros de 223 lunaisons « L » et les 242 révolutions draconitiques « G » est de moins 52 minutes de temps (- 0,03612 jour).
Durant ces 52 minutes la Lune, sur son orbite, se déplace en moyenne par rapport à son noeud de -0,03612 x 360°/G = -28,67'. La Lune en conjonction se trouve donc déplacée sur son orbite de 28,67' dans le sens rétrograde par rapport au noeud. Compte tenu de l'inclinaison de l'orbite lunaire, ce décalage se traduit par un décalage de la longitude céleste Δ λ = -28,55' et par une variation de la latitude céleste de la Lune de Δ β = -2,64'.
Les conjonctions des éclipses homologues vont donc parcourir l'arc BB' dans le sens rétrograde avec un pas moyen de 28,55'. Si l'on divise l'arc BB' par 28,55', on constate qu'il peut contenir 66 éclipses et si l'on divise l'arc AA' par 28,55' on voit qu'il peut contenir 74 éclipses. Ces séries d'éclipses sont appelées suites longues. L'étude des canons d'éclipses montre qu'en moyenne ces suites comportent 72 éclipses. Ce qui correspond à une période de temps d'environ 1300 ans.
Les premières éclipses d'une suite longue sont faibles, car elles sont proches de l'arc A'B', donc loin du noeud. Ensuite, leur grandeur va croître jusqu'à ce qu'elles se produisent au voisinage du noeud, puis leur grandeur va décroître pour finir de nouveau faible au voisinage de l'arc BA. Pour une suite longue de 72 éclipses, si l'on respecte les pourcentages des éclipses partielles et des éclipses centrales (1/3 et 2/3), on aura donc successivement 12 éclipses partielles de grandeur croissante (sur 200 ans), puis 24 éclipses centrales de grandeur croissante (sur 450 ans), puis 24 éclipses centrales de grandeur décroissante (sur 240 ans) et enfin 12 éclipses partielles de grandeur décroissante (sur 200 ans). Dans la pratique, les deux ou trois éclipses du milieu de la suite longue sont maximales, elles servent de transition entre la période de croissance et de décroissance des éclipses. On remarque que toutes les éclipses d'une suite ont lieu au même noeud. Si la suite longue a lieu au noeud descendant les latitudes célestes successives de la Lune croissent des latitudes négatives aux latitudes positives, l'ombre et la pénombre vont donc se déplacer sur la Terre du sud au nord. Inversement pour une suite longue au noeud ascendant les latitudes célestes successives de la Lune décroissent des latitudes positives aux latitudes négatives, l'ombre et la pénombre vont donc se déplacer sur la Terre du nord au sud.
Nous avons vu que la période du saros n'est pas un nombre entier de jours, sa valeur est de 6585,32 jours. Donc entre deux éclipses homologues, la Terre n'a pas tourné d'un nombre entier de jour, les zones concernées par les éclipses ne sont donc pas les mêmes. En 0,32 jour la Terre tourne d'environ 120°, les zones concernées par l'éclipse se déplacent donc d'environ 120° vers l'ouest. Ce décalage est bien visible sur la carte ci-contre, où nous avons tracé les lignes de centralité des éclipses homologues à l'éclipse du 11 août 1999.
Nous avons vu que les suites longues au noeud ascendant parcourent la Terre du nord au sud et que les suites longues au noeud descendant parcourent la Terre du sud au nord. Le décalage en latitude terrestre provient du décalage en latitude céleste de la Lune d'une éclipse homologue à l'autre. Un décalage en latitude céleste Δβ de la Lune, même si le sens du décalage est conservé, ne se traduit pas directement par un même décalage de l'ombre en latitude terrestre. En effet, les latitudes célestes sont comptées à partir de l'écliptique et les latitudes terrestres sont comptées à partir de l'équateur terrestre, on doit donc tenir compte de l'obliquité de l'écliptique sur l'équateur terrestre, ainsi les variations de latitude céleste sont inclinées d'environ 23° par rapport au méridien terrestre. De plus la variation de latitude doit être projetée sur une sphère et la projection sur la sphère terrestre produit un décalage plus important près des pôles. Sur la figure ci-contre, Δβ représente la variation de latitude céleste de la Lune, à cette variation correspond une variation Δr sur l'axe normal à l'écliptique (pôle de l'écliptique) et une variation Δl sur la sphère terrestre, cette variation a deux composantes, une composante Δλ en longitude terrestre, qui produit le léger décalage en longitude vers l'est, et une composante en latitude terrestre Δϕ.
Cela explique qu'après une période de trois saros (ou Exeligmos) les lignes de centralité ne sont pas alignées en longitude, comme on pourrait si attendre après trois décalages de 120° en longitude, mais sont décalées légèrement vers l'est comme on le constate sur la carte des éclipses homologues à l'éclipse du 11 août 1999.
Nous allons essayer de quantifier un peu mieux les décalages en latitude. En moyenne, au bout de trois saros les lignes de centralité des éclipses se décalent d'environ 900 km dans le plan passant par la Terre et normal à l'axe des cônes (plan de Bessel), elles parcourent donc la Terre en environ 45 saros. On retrouve approximativement le nombre d'éclipses centrales dans une suite longue (48).
Mais il convient de noter que la variation en latitude des séries homologues ne se fait pas toujours de façon uniforme d'un pôle à l'autre. Elle peut être momentanément inversée ou accélérée. Prenons le cas d'une suite longue au noeud ascendant, les lignes de centralité parcourent la sphère terrestre du nord au sud. Après trois saros la ligne de centralité descend d'environ 900km ce qui correspond à une variation de la latitude de la Lune de 7,92' (3 x 2,64'). Or dans ce mouvement nous n'avons considéré que le déplacement en latitude de la Lune, le Soleil étant toujours dans l'écliptique.
En réalité comme l'écliptique est incliné de 23° par rapport à l'équateur terrestre, nous devons également tenir compte des variations des hauteurs du Soleil par rapport à l'équateur terrestre, donc des variations de déclinaison du Soleil, or ces variations peuvent être très grandes par rapport aux variations en latitude de la Lune. Ainsi trois saros font environ 54 ans et 34 jours, donc au bout de trois saros le Soleil se retrouve décalé d'environ 34° sur l'écliptique, cette variation de 34° sur l'écliptique, si elle est répartie de part et d'autre d'un équinoxe peut se traduire par des variations en déclinaison de plus au moins 13°, ce qui correspond à une variation de hauteur de 13° du Soleil dans le méridien, à midi, c'est-à-dire une descente (si on est de part et d'autre de l'équinoxe de d'automne) ou une remontée (si on est de part et d'autre de l'équinoxe printemps) de 1440 km environ. Une descente du Soleil en déclinaison fait remonter l'ombre donc la ligne de centralité et une montée du Soleil fait redescendre l'ombre donc la ligne de centralité. Ainsi dans une série longue, lorsque les dates des séries homologues séparées par trois saros se trouvent distribuées autour des équinoxes, les latitudes de la bande de centralité peuvent être accentuées de 1440 km (1440+900 = 2340 km) ou diminuées de 1440km (900-1440 = -540 km). Ce phénomène est localisé dans le temps et disparaît lorsqu'on s'éloigne des dates des équinoxes.
Nous rappelons que d'un saros à l'autre, le Soleil, donc l'éclipse se décale d'environ 10,5° par rapport aux constellations zodiacales. Au cours d'une suite longue le soleil apparent effectue plus de deux tours complets d'orbite et l'on rencontre toutes les configurations liées au soleil apparent. Les éclipses parcourent les quatre saisons et cela deux fois.
Nous avons vu également que suite à l'écart entre un saros et 239 révolutions anomalistiques, la distance de la Lune à son périgée varie de 2,8° d'un saros à l'autre. Au cours d'une suite longue de 72 saros, les conjonctions lunaires liées aux éclipses homologues (donc la Lune) ne vont parcourir que 202° de l'orbite lunaire, soit un peu plus que la moitié. De plus durant les 48 éclipses centrales du saros, cet arc se réduit à 134°, il convient de comparer cette valeur avec les portions de l'orbite lunaire où les éclipses sont totales ou annulaires.
Ainsi si le périgée est proche du milieu de cet arc de 134°, la suite longue est trés riche en éclipses totales, si au contraire, cet arc avoisine l'apogée la suite longue est trés riche en éclipses annulaires.
Il ne faut jamais perdre de vue que toutes les variations dans les suites longues sont calculées avec des valeurs moyennes et ne sont jamais toute à fait conformes avec la réalité. Ainsi le décalage de la conjonction par rapport au noeud de 28,55' est une valeur moyenne. En réalité, le Soleil avance plus vite en janvier (il est proche du périgée) qu'en juillet (proche de l'apogée), le calcul montre que la variation de la longitude de la conjonction par rapport au noeud est de l'ordre de 6' en janvier (au lieu de 28,55') et qu'elle atteint 48' en juillet. Les éclipses homologues d'hiver sont donc plus semblables que les éclipses homologues d'été qui évoluent sensiblement plus vite.
Il est facile de connaître la position d'une éclipse dans une suite longue d'éclipses. Les éclipses croissantes ont toujours lieu après le passage au noeud et les éclipses décroissantes ont toujours lieu avant le passage au noeud. La connaissance des instants des syzygies et du passage au noeud permet donc de positionner l'éclipse dans sa suite longue. Inversement la connaissance de la position d'une éclipse dans sa suite longue permet, sauf pour l'éclipse maximale, de savoir sa position par rapport aux noeuds. De plus dans le cas d'un doublet d'éclipses (Lune Soleil ou Soleil Lune) la première éclipse, qui a lieu avant le passage au noeud appartient à la partie décroissante de sa suite longue et la seconde éclipse appartient à la partie croissante de sa suite longue. Dans le cas d'un triplet d'éclipses, la première appartient à la fin de la partie décroissante de la suite longue qui la contient, la dernière appartient au début de la partie croissante de la suite longue qui la contient et l'éclipse médiane se trouve au voisinage du maximum de sa suite longue.
Le tableau suivant donne la liste des éclipses de la suite longue contenant l'éclipse du 31 mai 2003. On donne successivement le numéro de l'éclipse dans la suite longue, le type d'éclipse, la date de l'éclipse, sa magnitude et la durée maximale de la phase centrale lorsque cette phase existe.
n° type | date | magnitude | durée |
---|---|---|---|
1P | 12/101624 | 0.0085968 | |
2P | 23/10/1642 | 0.0548679 | |
3P | 03/11/1660 | 0.0896182 | |
4P | 14/11/1678 | 0.1146153 | |
5P | 24/11/1696 | 0.1316624 | |
6P | 07/12/1714 | 0.1419092 | |
7P | 17/12/1732 | 0.1469513 | |
8P | 28/12/1750 | 0.1505860 | |
9P | 08/01/1769 | 0.1530884 | |
10P | 19/01/1787 | 0.1591577 | |
11P | 30/01/1805 | 0.1675941 | |
12P | 11/02/1823 | 0.1857746 | |
13P | 21/02/1841 | 0.2097100 | |
14P | 04/03/1859 | 0.2462690 | |
15P | 15/03/1877 | 0.2919636 | |
16P | 26/03/1895 | 0.3533467 | |
17P | 06/04/1913 | 0.5110283 | |
18P | 17/04/1931 - 18/04/1931 | 0.5110283 | |
19P | 28/04/1949 | 0.6095708 | |
20P | 09/05/1967 | 0.7205292 | |
21P | 19/05/1985 | 0.8411277 | |
22A | 31/05/2003 | 0.9696001 | 03m34.08s |
23A | 10/06/2021 | 0.9721316 | 03m47.99s |
24A | 21/06/2039 | 0.9730915 | 04M01.45S |
25A | 01/07/2057 - 02/07/2057 | 0.9737206 | 04m40.41s |
26A | 13/07/2075 | 0.9737206 | 04m40.41s |
27A | 23/07/2093 | 0.9735538 | 05m06.77s |
28A | 04/08/2111 | 0.9731384 | 05m36.78s |
29A | 14/08/2129 - 15/08/2129 | 0.9724857 | 06m09.32s |
30A | 26/08/2147 | 0.9716470 | 06m42.98s |
31A | 05/09/2165 | 0.9706588 | 07m15.78s |
32A | 16/09/2183 - 17/09/2183 | 0.9695596 | 07m46.87s |
33A | 28/09/2201 | 0.9684309 | 08m14.61s |
34A | 09/10/2219 | 0.9672517 | 08m39.72s |
35A | 19/10/2237 | 0.9661547 | 09m00.30s |
36A | 30/10/2255 - 31/10/2255 | 0.9651065 | 09m17.21s |
37A | 10/11/2273 | 0.9642541 | 09m28.20s |
38A | 21/11/2291 | 0.9635287 | 09m34.68s |
39A | 02/12/2309 - 03/12/2309 | 0.9630803 | 09m34.31s |
40A | 14/12/2327 | 0.9628599 | 09m28.43s |
41A | 24/12/2345 | 0.9629606 | 09m15.58s |
42A | 04/01/2364 -05/01/2364 | 0;9633421 | 08m57.77s |
43A | 15/01/2382 | 0.9640683 | 08m34.41s |
44A | 26/01/2400 | 0.9651082 | 08m07.46s |
45A | 05/02/2418 - 06/02/2418 | 0.9664621 | 07m37.67s |
46A | 17/02/2454 | 0.9681073 | 07m06.45s |
47A | 27/02/2454 | 0.9700297 | 06m34.42s |
48A | 09/03/2472 - 10/03/2472 | 0.9721718 | 06m02.57s |
49A | 21/03/2490 | 0.9745093 | 05m31.07s |
50A | 01/04/2508 | 0.9769654 | 05m00.43s |
51A | 12/04/2526 -13/04/2526 | 0.9795505 | 04m29.66s |
52A | 23/04/2544 | 0.9821258 | 03m59.66s |
53A | 04/05/2562 | 0.9847154 | 03m29.01s |
54A | 14/05/2580 - 15/05/2580 | 0.9871679 | 02m58.81s |
55A | 26/05/2598 | 0.9895234 | 02m27.78s |
56A | 06/06/2616 | 0.9916211 | 01m58.16s |
57A | 17/06/2634 | 0.9935042 | 01m29.84s |
58A | 27/06/2652 - 28/06/2652 | 0.9935042 | 01m29.84s |
59A | 09/07/26700.9961687 | 0.9961687 | 00m47.26s |
60A | 19/07/2688 | 0.9961687 | 00m47.26s |
61A | 31/07/2706 -01/08/2706 | 0.9960352 | 00m36.88s |
62P | 11/08/2724 | 0.8822576 | |
63P | 22/08/2742 | 0.7560645 | |
64P | 01/09/2760 | 0.6399250 | |
65P | 13/09/2778 | 0.5318151 | |
66P | 23/09/2796 | 0.4338706 | |
67P | 04/10/2814 | 0.3469499 | |
68P | 15/10/2832 | 0.2725393 | |
69P | 26/10/2850 | 0.2098505 | |
70P | 05/11/2868 | 0.1587829 | |
71P | 17/11/2886 | 0.1194801 | |
72P | 28/11/2904 | 0.0907818 | |
73P | 09/12/2922 | 0.0696946 | |
74P | 20/12/2940 | 0.0570489 | |
75P | 31/12/2958 | 0.0487713 | |
76P | 10/01/2977 | 0.0452276 | |
77P | 22/01/2995 | 0.0403169 |
On remarque que cette suite n'est pas complète, en effet le canon d'éclipse de l'IMCCE s'arrête en 2999, il y a probablement des éclipses de la suite qui sont postérieures à cette date. Malgré cela on dépasse la valeur moyenne de 72 éclipses. Et l'on est assez loin des valeurs moyennes, ainsi le nombre d'éclipses partielles de la partie croissante est de 21, la moyenne donne 12 ! On constate également que toutes les éclipses centrales sont des éclipses annulaires, donc l'arc parcouru par les conjonctions lunaires est au voisinage de l'apogée. L'éclipse du 31 mai 2003 est la première éclipse centrale de la partie croissante de la suite, on peut donc en déduire qu'elle a lieu après le passage au noeud et relativement longtemps après ce passage. De plus elle est proche d'un des pôles terrestres. On ne peut pas savoir si la suite est au noeud ascendant ou descendant de l'orbite lunaire. Pour cela il suffit de connaître la latitude de la Lune à la conjonction pour une seule éclipse de la suite. Cette latitude est positive pour l'éclipse du 31 mai donc cette suite longue est au noeud ascendant et l'éclipse du 31 mai 2003 est proche du pôle nord terrestre et les éclipses de la suite vont parcourir le globe terrestre du nord au sud.
Les éphémérides de la Lune nous donnent les informations suivantes :
On constate que le maximum de l'éclipse a bien lieu entre le passage et la conjonction, qu'il est proche de la conjonction (11m 33s) mais éloigné du passage au noeud (19h 36m 1s). L'éclipse est proche du passage de la Lune à l'apogée elle est donc annulaire.
Cette section traite des éclipses anciennes de Soleil et explique comment on utilise ces éclipses pour déterminer le ralentissement de la révolution terrestre. Nous donnons un historique des prédictions des éclipses anciennes et nous donnons les possibilités des prédictions au fur et à mesure que les connaissances de l'orbite lunaire et de la cartographie évoluent. Ces propos sont illustrés par les cartes des lignes de visibilité des éclipses anciennes calculées avec les théories actuelles.
Aussitôt que les astronomes eurent à leur disposition des théories de la Lune et du Soleil suffisamment précises, ils essayèrent de calculer et de tracer les zones de visibilité des éclipses anciennes décrites dans les textes antiques. Ils trouvèrent bien les éclipses de Soleil aux bonnes dates, mais ils s'aperçurent que les zones de visibilité qu'ils calculaient ne correspondaient pas aux zones d'observation des l'éclipses. E. Halley en 1693, puis R. Dunthorne en 1749, avancèrent l'idée que la Lune n'était pas à sa bonne position. Pour rendre cohérents les calculs d'éclipses et les observations on introduisit une accélération séculaire dans la théorie de la longitude de la Lune. Par la suite les mécaniciens célestes essayèrent de trouver une explication théorique à ce phénomène. Mais ils trouvèrent des explications théoriques qui n'expliquaient qu'en partie la valeur de cette accélération. En 1866, W. Ferrel et Delaunay vont émettre l'hypothèse d'un ralentissement de la rotation terrestre sous l'effet des marées océaniques, ce ralentissement contrebalancerait l'accélération qui apparaît dans l'observation du mouvement de la Lune. Ce ralentissement fut mis en évidence par Spencer Jones en 1926 et 1939, mais il faudra attendre la deuxième moitié du XXe siècle pour que l'on considère le phénomène réciproque, à savoir, l'influence des marées océaniques sur l'orbite lunaire et que l'on définisse complètement le problème. En réalité, l'accélération séculaire observée dans le mouvement de la Lune est la combinaison de trois termes : une accélération séculaire gravitationnelle due aux perturbations planétaires, une accélération séculaire due aux marées océaniques et une accélération séculaire fictive due au ralentissement de la rotation terrestre. Cette dernière accélération disparaît lorsqu'on utilise une échelle de temps uniforme (non liée à la rotation de la Terre). L'accélération séculaire gravitationnelle se calcule à partir des perturbations planétaires, l'accélération séculaire due aux marées océaniques se calcule à partir des mesures lasers des distances Terre-Lune. Le ralentissement de la rotation terrestre se calcule grâce aux éclipses anciennes.
La rotation de la Terre autour de son axe a été longtemps considérée comme uniforme et a fourni une échelle de temps unique, le Temps universel (UT ou TU). La mise en évidence du ralentissement de la rotation terrestre par Spencer Jones a rendu nécessaire l'introduction à partir de 1960 d'une nouvelle échelle de temps, le Temps des éphémérides (TE). Cette échelle de temps est fonction de la révolution de la Terre autour du Soleil, cette révolution est très stable et elle fournit une meilleure réalisation d'un temps uniforme. Depuis 1967, cette échelle de temps a été remplacée par une échelle encore plus stable le Temps atomique international (TAI). Le temps civil actuel est encore basé sur la rotation de la Terre, il porte le nom de Temps universel coordonné (UTC) et n'est donc pas un temps uniforme.
Les théories des corps du système solaire, utilisent comme argument du temps, une échelle de temps uniforme liée au Temps atomique international appelée Temps Terrestre (TT). Pour connaître la portion du globe terrestre concerné par une éclipse, il faut connaître l'écart entre cette échelle de temps (TT) et l'échelle de temps non uniforme liée à la rotation de la Terre, le Temps universel (TU). Inversement lors d'une éclipse ancienne, l'écart entre la zone de visibilité calculée avec le Temps terrestre uniforme et les lieux d'observations effectifs de l'éclipse nous donne une approximation de l'écart (TT-TU) entre les deux échelles de temps. Un travail très important, portant sur de très nombreuses éclipses de Lune et de Soleil allant de l'an 763 avant J.-C. jusqu'à nos jours a été réalisé par Richard Stephenson et a permis de modéliser, pour le passé, les écarts entre le Temps Terrestre et le Temps universel.
Les éclipses anciennes, de Lune et de Soleil, proviennent de quatre sources principales : les Babyloniens de 700 avant J.-C. à 50 avant J.-C., les Chinois de 700 avant J.-C. à 1500 après J.-C., les Européens de 500 avant J.-C. à 1 600 après J.-C. et les Arabes de 800 après J.-C. à 1 300 après J.-C. Certaines sources, bien que remontant très loin dans le temps, n'ont été connues que très récemment. C'est le cas notamment des sources babyloniennes et assyriennes que l'on ne sait déchiffrer que depuis le milieu du XIXe siècle.
Un des premiers astronomes à répertorier les éclipses anciennes fut Claude Ptolémée (milieu du IIe siècle), à cette occasion il créa une chronologie, l'ère de Nabonassar (le vrai nom est Nabu-nasir) qui débute en l'an 747 avant J.-C. et qui utilise l'année vague égyptienne de 365 jours. Ptolémée cite dans l'Almageste 10 éclipses de Lune observées par les Babyloniens et aucune éclipse de Soleil, les plus vieilles éclipses de Lune datant de 721 et 720 avant J.-C. Toutes les autres éclipses de Soleil et de Lune observées par les Babyloniens ou les Assyriens proviennent de tablettes écrites en caractères cunéiformes.
La datation exacte de ces éclipses anciennes n'était pas une chose facile à réaliser avant que l'on ne connaisse le ralentissement de la rotation terrestre. En effet pour les dates indiquées, les éclipses calculées ne passaient pas par les lieux d'observations. Par exemple dans le cas de l'éclipse dite de Thalès, éclipse qui selon la légende rapportée par Hérodote dans l'Enquête, aurait été prédite aux Ioniens par Thalès, les astronomes et les historiens ont longtemps hésité entre plusieurs dates. Ainsi Eusèbe et Cicéron la plaçait en -584 (585 avant J.-C.), Scaliger en -582 (583 avant J.-C.) et Arago en -609 (610 avant J.-C.) Les astronomes anglais Airy et Fotheringham hésitèrent entre l'éclipse du 17 mai -602 (603 avant J.-C.) et celle du 28 mai -584 (585 avant J.-C.) avec une préférence pour la deuxième date. De nos jours, la bonne connaissance de l'écart entre le TT et le TU nous permet de confirmer la deuxième date, l'éclipse de -584 passant sur l'Asie Mineure.
La figure ci-contre nous montre les tracés des bandes de centralité des éclipses du 24 mai -584 et du 18 mai -602, nous avons tracé également les bandes de totalité des éclipses situées trois et six saros avant l'éclipse de -584. Certains historiens avaient émis, à tort, l'hypothèse que la prédiction de Thalès était possible car il aurait eu connaissance de l'éclipse homologue ayant eu lieu trois saros plus tôt. Comme on le constate cette éclipse passe bien plus au nord, suite au décalage en latitudes des éclipses homologues des suites longues d'éclipses.
L'éclipse du Soleil du 15 avril -135 (136 avant J.-C.) est décrite dans deux textes cunéiformes écrits sur des tablettes d'argile se trouvant au British Museum. Outre la mention de l'éclipse, un des textes atteste la visibilité des planètes Mercure, Vénus et Jupiter au moment de l'éclipse. Si l'on ne tient pas compte du ralentissement de la Terre, la bande de centralité passe sur le sud de la France et l'Afrique du Nord. Pour faire passer l'éclipse, donc la bande de centralité sur Babylone, nous avons pris une valeur de la différence Temps terrestre moins Temps universel égale à 3h 14m 23s.
Une simple observation d'éclipses permet de constater que les éclipses de Lune ont lieu uniquement à la pleine Lune et que les éclipses de Soleil ont lieu uniquement à la nouvelle Lune. La probabilité d'observer une éclipse de Lune en un lieu donné est beaucoup plus forte que la probabilité d'observer une éclipse de Soleil. On pense que les Babyloniens surent très tôt que les éclipses de Lune étaient séparées par cinq ou six lunaisons. Une des plus vieilles prédictions que l'on ait retrouvée date de 731 avant J.-C. et concerne l'éclipse de Lune du 9 avril 731 avant J.-C., le texte précise même que l'éclipse ne sera pas observable car la Lune ne sera pas levée. Des tablettes babyloniennes datant de 475 avant J.-C., contenant des éphémérides de la Lune, donnent dans une colonne un paramètre, qui correspond à la distance entre le centre de la Lune et le centre du cône d'ombre de la Terre, et qui permet de calculer la possibilité des éclipses de Lune. Sur d'autres tablettes figurent également des prédictions d'éclipses de Lune sur une période de 126 ans répartie en périodes de 223 lunaisons correspondant à la période de récurrence des éclipses. Dans chaque saros, 38 éclipses de Lune sont réparties en cinq suites courtes de 8,8,7,8 et 7 éclipses, les éclipses étant espacées entre elles dans les suites par six lunaisons et les suites courtes étant espacées entre elles par cinq lunaisons.
En Chine, on a trouvé les règles du saros chinois pour déterminer les éclipses de Lune dans des textes datant de l'époque de la période des Hans. On ne sait pas si la prédiction des éclipses de Soleil à l'aide du saros date des mêmes époques. La vérification par l'observation de la pertinence du saros pour les éclipses de Soleil étant quasi impossible en raison de la très faible probabilité d'observer une éclipse de Soleil.
Il ne faut surtout pas perdre de vue les faits suivants : le saros permet uniquement de déterminer la date d'une éclipse de Soleil, il ne permet pas de savoir où l'éclipse est observable. La détermination de la visibilité d'une éclipse de Soleil, en un lieu donné, nécessite la connaissance de la parallaxe lunaire et de la position de la Lune au demi-degré près, choses impossibles avant Ptolémée donc avant le milieu du IIe siècle.
La liste suivante contient une série de découvertes scientifiques liées aux éclipses de Soleil depuis le XIXe siècle :
Malgré la très forte évolution technologique qui permet de nos jours de suivre l'état du Soleil en temps réel, les éclipses totales de Soleil sont encore indispensables à l'étude de la basse couronne. En effet pour des raisons thermiques les coronographes qu'ils soient embarqués dans des sondes spatiales ou qu'ils soient à Terre, ont un diamètre trop important pour permettre la visualisation de la base couronne solaire.
Ce chapitre porte sur les éclipses de Lune, nous allons reprendre une étude analogue à celle faite pour les éclipses de Soleil. Une grande partie des notions nécessaires pour cette étude a donc été développée dans les chapitres sur les éclipses de Soleil : le mouvement de la Terre, le mouvement de la Lune, les révolutions tropique, synodique, draconitique et anomaslistique, la notion de saison d'éclipses et de Saros. Nous insisterons particulièrement sur les différences entre les deux types d'éclipses.
Il est vivement conseillé de lire le cours sur les mouvement de la Terre et de la Lune.
Dans cette section, nous abordons l'aspect géométrique des éclipses de Lune : la taille des cônes d'ombre et de pénombre de la Terre au niveau de l'orbite lunaire. Puis nous définissons les différents types d'éclipses de Lune, les caractéristiques des cônes d'ombres et de pénombres, les effets géométriques et lumineux de l'athmosphère terrestre. Nous donnons ensuite la définition de la grandeur d'une éclipse de Lune et nous présentons les différents paramètres figurant dans les prédictions d'éclipse de Lune (avec un exemple). Nous terminons en présentant les zones de visibilité des éclipses de Lune et leurs représentations sur une carte en projection de Mercator.
La Terre, éclairée par le Soleil, donne naissance, dans la direction opposée au Soleil à deux cônes, un cône d'ombre et un cône de pénombre. La droite joignant le centre du Soleil et le centre de la Terre constitue l'axe de ces cônes. Le sommet Sp du cône de pénombre est situé sur cet axe entre le Soleil et la Terre, et le sommet So du cône d'ombre est également situé sur cet axe mais de l'autre côté par rapport à la Terre. Le cône d'ombre est construit à l'aide des tangentes extérieures aux sphères solaire et terrestre, le cône de pénombre est construit à partir des tangentes intérieures aux sphères solaire et terrestre.
La distance entre le sommet du cône d'ombre et le centre de la Terre varie en fonction de la distance Terre-Soleil. Elle est maximale, environ 231 rayons terrestres, lorsque la Terre est à son aphélie (actuellement vers le 4 juillet). Elle est minimale, environ 221 rayons terrestres, lorsque la Terre est à son périhélie (actuellement vers le 4 janvier). La Terre étant environ quatre fois plus large que la Lune, son ombre est également quatre fois plus longue. En cas d'éclipse de Lune, la Lune traverse le cône d'ombre terrestre au quart de sa longueur depuis la Terre, car la longueur Terre-Lune est égale à la longueur du cône d'ombre de la Lune. En cet endroit la largeur de la section du cône d'ombre de la Terre est de l'ordre des trois quarts de sa base, donc des trois quarts du diamètre terrestre, soit environ trois disques lunaires comme indiqué sur la figure ci-dessus.
De même la taille de la largeur de la couronne de pénombre de la Terre, à l'endroit où elle est traversée par la Lune est simple à évaluer. En effet, comme on le voit sur la figure ci-dessous c'est la largeur de la Lune elle-même, l'angle p des tangentes sud est égal au diamètre apparent du Soleil, qui est lui-même presque égal au diamètre apparent de la Lune. Donc une éclipse de Lune par la pénombre peut être totale.
Sur cette figure les proportions ne sont pas respectées, le Soleil devrait être 400 fois plus gros que la Lune et 400 fois plus loin.
Comme nous l'avons vu précédemment, la section du cône d'ombre au niveau de l'orbite de la Lune est largement supérieure au diamètre apparent de la Lune (environ trois diamètres lunaires), la Lune peut donc être totalement éclipsée par l'ombre de la Terre, dans ce cas l'éclipse de Lune est dite totale.
Lorsqu'une partie seulement de la Lune passe dans le cône d'ombre de la Terre, la Lune n'est que partiellement éclipsée, l'éclipse est dite partielle par l'ombre.
Nous avons vu également que la taille de la couronne de pénombre était de la taille du diamètre apparent du Soleil et pouvait être supérieure au diamètre apparent de la Lune (Terre au périhélie et Lune à l'apogée). Dans ce cas la Lune peut passer entièrement dans la couronne de pénombre, dans ce cas l'éclipse de Lune est dite totale par la pénombre. Lorsque la Lune passe partiellement dans la couronne de pénombre il y a éclipse partielle de la Lune par la pénombre.
Comme nous l'avons déjà vu la distance entre le centre de la Terre et le sommet du cône d'ombre et donc sa largeur varie en fonction de la distance Terre-Soleil. Elle vaut environ 231 rayons terrestres lorsque la Terre est à l'aphélie et elle vaut 221 rayons terrestres lorsque la Terre est à son périhélie.
De même la distance entre le sommet du cône de pénombre et le centre de la Terre dépend de la distance Terre-Soleil, elle est maximale, environ 216 rayons terrestres lorsque la Terre est à son aphélie et elle est minimale, environ 209 rayons terrestres lorsque la Terre est à son périhélie.
Sur la figure ci-dessus le demi-diamètre apparent géocentrique de la section de l'ombre de la Terre par le plan normal à l'orbite lunaire est égal à l'angle ρ. L'ombre est déterminée par le cône de révolution d'axe ST et de génératrice BO, tangente extérieure au Soleil et à la Terre. Dans le triangle TOB la somme des angles intérieurs πs et πL est égale à la somme des angles extérieurs s et ρ. Or par définition πs est la parallaxe horizontale du Soleil, πL la parallaxe horizontale de la Lune et sS est le demi-diamètre apparent du Soleil. Donc ρ est égale à πs + πL - sS.
Ce demi-diamètre ρ est donc maximal lorsque la parallaxe lunaire πL est maximale et le demi-diamètre apparent πs est minimal (la parallaxe πs du Soleil étant pratiquement constante), c'est-à-dire lorsque la Lune est à son périgée et lorsque la Terre est à son aphélie. De même ce demi-diamètre ρ est minimal lorsque la parallaxe lunaire est minimale et le demi-diamètre apparent du Soleil est maximal, c'est-à-dire lorsque la Lune est à son apogée et la Terre à son périhélie.
On peut faire un raisonnement analogue pour le calcul du demi-diamètre apparent géocentrique du cône de pénombre σ. On trouve que σ est égal à πs + πL + sS. Ce demi-diamètre σ est donc maximal lorsque πL et sS sont maximales, donc lorsque la Lune est à son périgée et la Terre à son périhélie et il est minimal lorsque πL et sS sont minimales, donc lorsque la Lune est à son apogée et la Terre à son aphélie.
On remarquera que la largeur de la couronne de pénombre σ - ρ est bien égale au diamètre apparent du Soleil (2sS)
Le tableau suivant donne les valeurs extrêmes et moyennes du demi-diamètre sS apparent du Soleil, de la parallaxe lunaire πL et du demi-diamètre apparent sL de la Lune.
Terre périhélie | Moyenne | Terre aphélie | |
sS | 16'18" | 15'59.63" | 15'46" |
8.96" | 8.80" | 8.65" | |
Lune périgée | Moyenne | Lune apogée | |
61' 27" | 57' 02,7" | 53' 53" | |
sL | 16' 45" | 15' 32, 58" | 14' 41" |
Le tableau suivant donne les valeurs extrêmes et moyennes des demi-diamètres apparents géocentriques du cône d'ombre et du cône de pénombre.
Minimal | Moyen | Maximal | |
---|---|---|---|
2263,96" = 37' 43,96" = 2,57 sL | 2471,87" = 41' 11,87" = 2,65sL | 2749,66" = 45' 49,66" = 2,74 sL | |
4187,65" = 1°09' 47,65" = 4,75 sL | 4391,13" = 1° 13' 11,13" = 4,71 sL | 4673,96" = 1° 17' 53,96" = 4,65 sL |
On va voir que ces quantités doivent être augmentées de 1/73 en valeur relative pour ρ et de 1/128 en valeur relative pour σ afin de tenir compte de l'atmosphère terrestre.
Contrairement aux éclipses de Soleil où l'ombre et la pénombre sont générées par un astre sans atmosphère, dans le cas des éclipses de Lune nous devons tenir compte des effets de l'atmosphère terrestre dans les calculs des limites de l'ombre et de la pénombre de la Terre.
Le trajet géométrique des rayons lumineux est soumis à la réfraction atmosphérique. L'atmosphère terrestre n'a pas de limite déterminée, on adopte une limite supérieure pour laquelle la réfraction atmosphérique n'a plus d'effets sensibles. Notre connaissance actuelle des répartitions des densités dans l'atmosphère suivant la verticale, ainsi que des mesures effectives de l'ombre de la Terre durant des éclipses de Lune nous conduisent à prendre 75km pour valeur limite. Cela se traduit dans les calculs par une augmentation du rayon terrestre de 1/85 en valeur relative. D'autre part la parallaxe de la Lune doit être une valeur moyenne et non pas la parallaxe horizontale, on prend donc la parallaxe lunaire à 45° de latitude, donc dans les calculs cela se traduit par une diminution de la parallaxe lunaire de 1/594 en valeur relative. Si l'on tient compte de ces deux corrections la valeur de la parallaxe horizontale doit être systématiquement augmentée de 1%. Cela se traduit par une augmentation du demi-diamètre géocentrique apparent ρ de l'ombre de 1/73 et une augmentation du demi-diamètre géocentrique σ apparent de la pénombre de 1/128.
Connaissant la valeur de la réfraction à l'horizon (environ 35') on peut calculer la distance du sommet cône d'ombre minimal, dans lequel on est sûr qu'il n'y aura aucune lumière solaire réfractée. On trouve une distance géocentrique du sommet de ce cône égale à environ 40 rayons terrestres. La distance Terre-Lune variant entre 56 et 63,8 rayons terrestres on est certain que la Lune recevra toujours des rayons solaires réfractés par l'atmosphère.
Comme nous venons de le voir, en raison de la réfraction et des distances Terre-Lune, la Lune éclipsée reçoit toujours des rayons lumineux réfractés par l'atmosphère terrestre.
La réfraction est également la cause d'un phénomène d'atténuation, dans la figure ci-dessous, considérons un rayon lumineux élémentaire, d'angle d τ, issue du point S du disque solaire considéré plan (1). Ce rayon, suite à la réfraction atmosphérique, va illuminer la surface dS' située dans le plan de la Lune (2). En absence de réfraction il illuminerait la surface dS. Dans les deux cas le flux de lumière qui illumine ces deux surfaces est le même, les surfaces n'étant pas égales, la surface dS', supérieure à dS est moins éclairée.
L'atténuation est donnée par le rapport des surfaces dS/dS' = Φ-1
Le terme Φ peut s'écrire sous la forme suivante :
Cette formule comporte deux facteurs qui agissent en sens inverse, le premier diminue la surface éclairée (ds) et le deuxième élargit la surface éclairée (dS'), la combinaison des deux crée l'atténuation par réfraction. Pour imager notre propos considérons la figure suivante dans laquelle un rayon cylindrique de largeur dS est réfracté suivant une surface (ds) plus petite si on considère que la réfraction ne varie pas avec l'altitude (premier terme de la formule) et qui est réfracté suivant dS' si on considère que la réfraction décroît avec l'altitude (deuxième terme de la formule). Le premier terme fait donc bien croître l'illumination et le second la fait décroître.
Si l'on exprime les variations de Φ en fonction de l'altitude h dans l'atmosphère, on s'aperçoit que c'est dans la haute atmosphère (troposphère) que l'atténuation est la plus appréciable malgré la faible valeur de la réfraction. Elle décroît ensuite jusqu'à la valeur un, pour une altitude h d'environ 2km, puis le phénomène s'amplifie et pour la valeur i=0 il y a focalisation. De plus on peut dire que l'atténuation par la réfraction est pratiquement neutre et que l'ombre est approximativement grise.
L'absorption atmosphérique est produite par la diffusion de la lumière par les molécules et les aérosols de l'air. L'absorption atmosphérique est très sensible à la longueur d'onde (c'est une loi en 1/λ 4). La lumière bleue est donc plus absorbée que la lumière rouge, cette absorption croît avec la largeur de la couche atmosphérique traversée, ce qui explique le rougeoiement du ciel au coucher du Soleil. Dans le cas des éclipses de Lune ce sont les rayons passant à faible altitude qui traversent la plus grande largeur d'atmosphère, ce sont donc ces rayons qui ont un maximum de lumière bleue absorbée et qui sont donc les plus rouges. Comme ce sont aussi ces rayons qui sont les plus réfractés, le centre de l'ombre aura un aspect rougeâtre.
Le degré d'absorption dépend également des conditions météorologiques, donc la luminosité de la partie centrale de l'ombre est très sensible aux conditions météorologiques régnant dans les couches atmosphériques traversées.
L'intensité lumineuse au centre du cône dépend également de la distance à laquelle se trouve la Lune, et les éclipses totales proches du périgée sont toujours plus sombres que les éclipses totales proches de l'apogée.
La grandeur, ou magnitude, est un paramètre important des éclipses de Lune. Dans le cas des éclipses totales et partielles par l'ombre, elle est égale au rapport de la distance du bord de la Lune (A) le plus proche du centre du cône d'ombre au bord du cône d'ombre le plus près du centre de la Lune (B) sur le diamètre de la Lune (AC) et cela à l'instant du maximum de l'éclipse, c'est-à-dire à l'instant où la distance entre le centre de la Lune et le centre de l'ombre est minimale. Pour une éclipse par la pénombre la définition de la grandeur est identique, il suffit de remplacer le cône d'ombre par le cône de pénombre.
Dans le cas d'une éclipse par l'ombre on a :
et dans le cas d'une éclipse par la pénombre on a
où d est la distance entre le centre de la Lune et le centre de l'ombre, sL le demi-diamètre lunaire, ρ et σ étant respectivement les demi-diamètres apparents de l'ombre et de la pénombre.
Compte tenu de cette définition, plus la grandeur d'une éclipse est importante plus la Lune passe près du centre du cône d'ombre. Les éclipses totales par l'ombre ou par la pénombre ont une grandeur supérieure à un et les éclipses partielles ont une grandeur inférieure à un. La grandeur d'une éclipse totale centrale est égale à .
Sur le dessin ci-dessus, pour les éclipses par la pénombre B est l'intersection de Ox avec le bord de la pénombre. Pour les éclipses partielles et les éclipses totales B est l'intersection de Ox avec le bord de l'ombre. AC est le diamètre lunaire (2sL).
Pour chaque éclipse de Lune, on donne les instants des débuts et des fins des différentes phases. Ces instants, exprimés en Temps universel coordonné, sont les mêmes quel que soit le lieu d'observation, la visibilité des différentes phases est uniquement liée au fait que la Lune soit levée ou non aux instants considérés. On donne également la valeur de la grandeur de l'éclipse, parfois appelée magnitude.
Les différentes phases des éclipses de Lune sont les suivantes :
Pour chaque début et fin de phase on donne également l'angle au pôle des points de contacts, les points de contacts sont les points de tangences entre le disque lunaire et les cônes d'ombre et de pénombre. L'angle au pôle est l'angle formé par la direction du pôle nord céleste et la demi-droite issue du centre lunaire et passant par le point de tangence, cet angle est compté positivement vers l'ouest (donc dans le sens direct).
On fournit également avec ces valeurs les durées des différentes phases de l'éclipse.
On donne également les positions apparentes géocentriques du centre de l'ombre et du centre de la Lune pour l'instant du maximum de l'éclipse, ainsi que les valeurs de certains paramètres géométriques de l'éclipse.
Phases | Instant en UTC | Longitude* | Latitude* | Angle au pôle |
---|---|---|---|---|
Entrée dans la pénombre | le 4 à 17h 52,2m | -89° 32,4' | -15° 54,5' | 101,1° |
Entrée dans l'ombre | le 4 à 18h 48,5m | -75° 58,7' | -16° 8,1' | 95,0° |
Début de la totalité | le 4 à 19h 52,4m | -60° 36,1' | -16° 23,4' | 251,9° |
Maximum de l'éclipse | le 4 à 20h 30,1m | -51° 31,1' | -16° 32,4' | 202,8° |
Fin de la totalité | le 4 à 21h 7,9m | -42° 25,9' | -16° 41,3' | 153,6° |
Sortie de l'ombre | le 4 à 22h 11,8m | -27° 3,5' | -16° 56,4' | 310,6° |
Sortie de la pénombre | le 4 à 23h 8,0m | -13° 31,3' | -17° 9,5' | 304,4° |
(*) Dans ce tableau les longitudes et latitudes sont les coordonnées des lieux ayant la Lune au zénith à chaque phase, les longitudes sont comptées positivement vers l'ouest et négativement vers l'est.
On donne également la durée des différentes phases :
Les éphémérides de la Lune donnent les renseignements supplémentaires suivants :
On constate que la Lune est passée par le nœud descendant de son orbite avant le début de l'éclipse, c'est donc une éclipse au nœud descendant, donc logiquement le maximum de l'éclipse, correspondant à la distance minimale du centre du disque lunaire au centre de l'ombre doit avoir lieu avant l'opposition (pleine Lune). Ce qui est bien le cas le maximum a lieu à 20h 30.1m et la pleine Lune a lieu à 20h 33,6m. De plus on constate que la Lune est proche de son périgée, donc sa vitesse angulaire est forte et son diamètre apparent est proche de son maximum. Donc la durée de l'éclipse est relativement courte (proche de 5h).
Comme nous l'avons déjà dit, pour qu'une éclipse de Lune soit visible en un lieu donné, il suffit que la Lune soit levée en ce lieu durant l'éclipse. La durée totale d'une éclipse pouvant atteindre plusieurs heures il y a obligatoirement des parties du globe terrestre qui ne verront qu'une partie de l'éclipse. Pour connaître les différents endroits du globe où une éclipse de Lune est visible, il suffit de tracer sur une carte les lieux où la Lune est à l'horizon à l'instant des débuts et des fins des différentes phases de l'éclipse. Sur ces courbes, une première moitié des lieux correspond à un lever de Lune et une seconde moitié des lieux correspond à un coucher de Lune. Tous les points du globe situés à l'est de la première moitié et à l'ouest de la seconde voient la Lune et donc la phase de l'éclipse correspondant.
Au maximum, il y a trois débuts et trois fins de phase pour une éclipse, on trace donc au plus six courbes de visibilité par éclipse et l'on utilise les notations suivantes :
La lettre V indique la portion du globe terrestre où l'éclipse est visible (en totalité ou en partie) et la lettre I indique la portion du globe où l'éclipse n'est pas visible.
On utilise généralement une projection de Mercator, on s'arrange pour centrer la carte sur la zone de visibilité V de l'éclipse. Par exemple tous les lieux situés à l'intérieure de la courbe P1 contenant le symbole V voient l'entrée de la Lune dans la pénombre.
Chaque courbe est le terminateur du lieu où la Lune est au zénith pour chaque début ou fin de phase, c'est pourquoi on fournit avec chaque instant correspondant aux débuts et aux fins de phase les coordonnées géographiques du lieu ayant la Lune au zénith, ces coordonnées permettent de tracer sur les cartes les terminateurs en question, c'est-à-dire les grands cercles de la sphère terrestre ayant pour pôles ces lieux.
Sur cette carte P1 indique les lieux où la Lune est à l'horizon au début de l'éclipse (entrée dans le cône de pénombre), la partie gauche AB et extrême droite CD de la courbe correspondent au lever de la Lune et la partie centrale BC de la courbe correspond au coucher de la Lune. Les lieux situés dans la zone de visibilité, en claire sur la carte verront le début de l'éclipse, les lieux de la partie ombrée ne verront pas le début de l'éclipse. On peut faire un raisonnement identique pour chacune des cinq autres courbes.
Paris est à l'ouest des parties des courbes P1 et O1 correspondant au lever de la Lune aux instants des entrées dans la pénombre et dans l'ombre, on ne verra donc pas ces deux débuts de phase à Paris car la Lune n'y sera pas levée. Par contre Paris est à l'est de toutes les autres courbes, dont on verra toutes les autres phases de l'éclipse : ainsi la Lune se lèvera partiellement éclipsée par l'ombre de la Terre, puis on verra le début de la totalité, puis toute la phase totale puis la fin de la totalité et en fin les sorties de l'ombre et de la pénombre. On peut vérifier très simplement cette prédiction en comparant les instants des différentes phases de l'éclipse avec les heures du lever du Soleil à Paris ce jour. En effet comme nous sommes proches de la pleine Lune, la Lune se lève sensiblement lorsque le Soleil se couche vers 19h 9min UTC, or les deux premières phases qui débutent respectivement à 17h 52.2m UTC et à 18h 48.5m UTC ne seront effectivement pas visibles, par contre l'entrée dans l'ombre ayant lieu à 19h 52.4m UCT sera visible car la Lune sera levée. Les phases suivantes, jusqu'à la dernière phase (sortie de la pénombre) qui aura lieu à 23h 8m UTC donc en pleine nuit, seront visibles.
En conclusion on peut dire que pour connaître la visibilité d'une éclipse de Lune en un lieu quelconque il suffit de comparer les instants des différentes phases de l'éclipse avec les heures de nuit en ce lieu. Toutes les phases ayant lieu de nuit sont visibles.
Dans cette section nous abordons l'aspect dynamique des éclipses de Lune. Nous reparlons du mouvement de la ligne des noeuds de l'orbite lunaire et de la saison des éclipses, nous définissons de nouveau des critères en latitude et en longitude pour avoir une éclipse au voisinage de la pleine Lune. Nous étudions, comme pour les éclipses de Soleil, le nombre d'éclipses à chaque saison d'éclipse et l'évolution des éclipses saison après saison. Nous reprenons la prédiction des éclipses de Lune et de Soleil sur la période de 22 ans (1998-2020).
Il y a éclipse de Lune lorsque la Lune passe dans le cône d'ombre ou dans le cône de pénombre de la Terre. Le Soleil, la Terre et la Lune sont alors presque alignés, et on est au voisinage de la pleine Lune (opposition). Si le plan de l'orbite de la Lune était le même que le plan de l'orbite de la Terre (écliptique), il y aurait une éclipse de Lune à chaque pleine Lune, or le plan de l'orbite de la Lune est incliné d'environ 5° 17' sur le plan de l'orbite terrestre à la pleine Lune. À chaque instant, l'intersection de ces deux plans est une droite appelée ligne des nœuds et les intersections de cette droite avec l'orbite de la Lune sont appelées nœuds de l'orbite lunaire.
Cette ligne des nœuds n'est pas fixe, elle est animée, dans le sens rétrograde (sens des aiguilles d'une montre), d'un mouvement de précession d'une période de 18,6 ans, soit un déplacement de 19,354 8° par an.
Pour qu'il y ait une éclipse il faut donc, dans le repère écliptique géocentrique, que la direction Soleil-Terre soit près de la ligne des nœuds lunaires au moment de la pleine Lune. Compte tenu du mouvement de précession des nœuds, le Soleil apparent passe par l'un des deux nœuds tous les 173,31 jours. Cette période porte le nom de saison d'éclipses. Il passe par le même nœud tous les 346,32 jours, cette période porte le nom d'année des éclipses.
La direction Terre-Soleil est la direction du Soleil apparent vu depuis la Terre, elle fait donc 360° pendant une révolution sidérale de la Terre. La ligne des nœuds de l'orbite lunaire se déplace en moyenne de 19,3413618°/an dans le sens rétrograde. On a donc deux mouvements en sens contraire. La période T qui ramène le Soleil apparent dans la direction d'un même nœud de l'orbite lunaire est solution de l'équation suivante :
T . 360°/an + T . 19,3413618°/an = 360°
ce qui donne T = 360/(360 + 19,3413618) an = 0,9490133 an.
L'année sidérale étant égale à : an = 365,2563632 jours, T = 346,63 jours.
La saison des éclipses correspond à l'intervalle de temps mis par le Soleil apparent pour passer d'un nœud de l'orbite lunaire à l'autre, elle est donc égale à T/2 ~ 173,31 jours.
La valeur de cette période T nous permet de calculer la vitesse moyenne du Soleil apparent (ou de la Terre) dans un repère tournant lié à la ligne des nœuds de l'orbite lunaire. Par rapport à cette ligne des nœuds le Soleil apparent fait un tour de 360° en 346,63 jours, sa vitesse moyenne par rapport à la ligne des nœuds est donc de 360°/346,63j = 1,038°/jour.
En réalité, le mouvement rétrograde de la ligne des nœuds présente des inégalités importantes. À certaines époques, sa vitesse est le double de la moyenne. À d'autres moments, sa vitesse est nulle, les nœuds sont alors stationnaires. Cela se produit aux voisinages du passage du Soleil dans la direction de la ligne des nœuds, donc au voisinage des éclipses de Soleil (et aussi de Lune). On peut expliquer ce phénomène de la manière suivante, lorsque le Soleil est sur la ligne des nœuds, il se trouve dans le plan de l'orbite de la Lune, la force perturbatrice du Soleil est alors comprise dans le plan de l'orbite de la Lune, donc la composante perpendiculaire à ce plan est nulle et ne "tire" pas sur le plan de l'orbite. Le fait que les nœuds soient quasi-stationnaires au moment des éclipses est très important, en effet les positions moyennes des nœuds sont alors presque égales aux positions vraies, donc dans l'étude des éclipses on peut utiliser le mouvement moyen des nœuds.
On démontre qu'une éclipse de Lune se produira si, au moment de la pleine Lune (instant où la différence des longitudes géocentriques de la Lune et du Soleil est égale à 180°, c'est-à-dire au moment de l'opposition), la valeur absolue de la différence b des latitudes géocentriques apparentes du centre de la Lune et du centre du cône d'ombre est inférieure à 1,41° (1° 25' 23"), elle se produira peut-être si elle est comprise entre 1,41° (1° 25' 23") et 1,59° (1°35' 40") et elle ne se produira pas si elle est supérieure à 1,59° (1° 35' 40").
Sur la figure ci-dessus, la distance minimale correspond à l'instant où pour le centre de la Terre, le centre de la Lune est le plus près possible du centre du cône d'ombre, cela correspond si l'éclipse a lieu, au maximum de l'éclipse. Durant une éclipse de Lune on a toujours un des deux scénarios suivants :
La géométrie de ce dessin montre également que plus l'opposition est proche du nœud, plus la distance minimale entre la Lune et le centre du cône d'ombre est petite et plus la grandeur (magnitude) de l'éclipse est grande. Ainsi, les éclipses par la pénombre correspondent à des oppositions situées loin des nœuds de l'orbite lunaire et les éclipses par l'ombre (partielles ou totales) correspondent à des oppositions proches des nœuds de l'orbite lunaire.
On peut détailler le critère en latitude en déterminant pour quelle valeur de b (0,89°) on a une éclipse par l'ombre avec certitude et pour quelle valeur de b (1,06°) on n'a pas d'éclipse par l'ombre avec certitude (mais une éclipse par la pénombre avec certitude); de même on peut déterminer pour quelle valeur de b (0,36°) on a une éclipse totale avec certitude et pour quelle valeur de b (0,53°) on n'a pas d'éclipse totale avec certitude, ces valeurs sont données dans le graphique ci-dessous.
On peut également calculer les valeurs moyennes de ces critères en latitude. Pour avoir une éclipse de Lune par la pénombre il faut que b soit inférieure à βm = 1,49°, pour avoir une éclipse de Lune par l'ombre il faut que b soit inférieure à βm = 0,96° et pour avoir une éclipse totale de Lune il faut que b soit inférieure à βm = 0,44°. Ces valeurs moyennes permettent de calculer également la proportion d'éclipses par la pénombre (36%), la proportion d'éclipses par l'ombre (64%) et la proportion d'éclipses totales (30%).
Les bornes d'existence des éclipses de Lune : 1,41° (1° 25' 23") et 1,59° (1°35' 40") sont très proches des limites des éclipses de Soleil : 1,41° (1° 24' 37") et 1,59° (1°34' 46"). Les écarts sont de l'ordre de la minute de degré. Les bornes des éclipses de Lune sont un peu plus grandes que les bornes des éclipses de Soleil en raison de la réfraction atmosphérique.
La démonstration est en tout point identique à la démonstration du critère en latitude des éclipses de Soleil, il suffit de remplacer la conjonction par l'opposition et le Soleil par les cônes d'ombre et de pénombre de la Terre.
Nous allons établir le critère en latitude dans le cas d'une éclipse au nœud ascendant de l'orbite lunaire, l'opposition ayant lieu avant le passage au nœud. La démonstration est identique pour un passage au nœud descendant ou avec une opposition située après le passage au nœud, la seule chose qui change dans ce dernier cas est la position du minimum de distance entre des deux corps.
Soit M0 et S0 : les positions de la Lune et du centre du cône d'ombre à l'instant de l'opposition (pleine Lune) avant le passage de la Lune au nœud ascendant de son orbite.
M et S : les positions de la Lune et du centre du cône d'ombre à un instant t postérieur à l'opposition.
γ : l' angle S0M0S. : la différence des latitudes entre la Lune et le centre du cône d'ombre à l'instant de l'opposition.
q : le rapport du mouvement en longitude de la Lune sur celui du centre du cône d'ombre (Soleil+180°).
Le calcul du critère en latitude consiste à calculer le minimum de la distance SM et de le comparer à la somme des demi-diamètres géocentriques apparents des cônes d'ombre (et de pénombre ) et du demi-diamètre de la Lune. SM se calcule simplement en utilisant le théorème de Pythagore :
On a :
soit
avec
(1)
On introduit un angle auxiliaire i', tel que :
est minimum lorsque est nulle
(2)
Ce qui correspond à : (3)
Cette distance correspond à une observation vue du centre de la Terre (coordonnées géocentriques).
Il y a éclipse par la pénombre lorsque SM est inférieur à la somme des demi-diamètres apparents du cône de pénombre et de la Lune.
soit : (4)
Il y a éclipse par l'ombre lorsque SM est inférieur à la somme des demi-diamètres apparents du cône d'ombre et de la Lune.
soit : (5)
Il y a éclipse totale par l'ombre lorsque SM est inférieur à la différence des demi-diamètres apparents du cône d'ombre et de la Lune.
soit : (6)
Il suffit alors de remplacer dans ces formules les paramètres par leurs valeurs extrêmes pour en déduire les critères en latitude.
Le tableau suivant donne les valeurs extrêmes des paramètres, l'étude des séries donnant l'orbite de la Lune, montre qu'au voisinage de la nouvelle Lune (et de la pleine Lune) la valeur de l'inclinaison est maximale, il convient donc de prendre i ~ 5° 17' dans ces formules.
maximum | Minimum | moyenne | |
---|---|---|---|
q | 16,2 | 10,9 | 13,5 |
1,0052 | 1,0043 | 1,00472 | |
Parallaxe Lune | 61' 27" | 53' 53" | 57' 2,70" |
Parallaxe Soleil | 8,96" | 8,65" | 8,80" |
1/2 diamètre Lune sL | 16' 45" | 14' 41" | 15' 32,58" |
1/2 diamètre Soleil sS | 16' 18" | 15' 46" | 15' 59,63" |
* | 46' 27" | 38' 15" | 41' 45,73" |
* | 1° 18' 30" | 1° 10' 20" | 1° 13' 45" |
* Dans le calcul de ces valeurs on a tenu compte de la réfraction atmosphérique et de la parallaxe de la Lune à 45° de latitude en multipliant σ par (1+1/128) et ρ par (1+1/73).
Ainsi la valeur inférieure βMin du second membre de (4) est obtenue avec σ et sL minimales, la valeur supérieure βMax est obtenue avec σ et sL maximales et l'on obtient βMin=1°25'23" et βMax=1°35'40". Ce sont les limites d'existence des éclipses de Lune.
De même la valeur inférieure βMin du second membre de (5) est obtenue avec ρ et sL minimales, la valeur supérieure βMax est obtenue avec ρ et sL maximales et l'on obtient βMin=0°53'9,63" et ΔMax=1°3'28,6". Ce sont les limites d'existence des éclipses de Lune par l'ombre.
Et enfin la valeur inférieure βMin du second membre de (6) est obtenue avec ρ minimal et sL maximal, la valeur supérieure βMax est obtenue avec ρ maximal et sL minimal et l'on obtient βMin=0°21'35,52" et βMax=0°31'54,52". Ce sont les limites d'existence des éclipses totales de Lune.
Le critère sur la latitude du centre de la Lune, peut se traduire en un critère sur la longitude de l'opposition Lune Soleil donc de la longitude du centre du cône d'ombre (Soleil +180°) par rapport au nœud de l'orbite lunaire. Ainsi il y aura éclipse si au moment de l'opposition en longitude, la différence de longitude entre le nœud de l'orbite lunaire et la longitude du centre du cône d'ombre est inférieure à 15,665°, il n'y aura pas d'éclipse si cette différence est supérieure à 17,375°, et il y aura peut-être éclipse si elle est comprise entre ces deux valeurs. Comme on le voit on a repris le même critère que dans le cas des éclipses de Soleil, en effet vu la faible différence des critères en latitude, on peut considérer que les critères en longitude sont identiques, en réalité les critères en longitude pour les éclipses de Lune sont un petit peu plus larges que les critères en longitude pour les éclipses de Soleil.
La figure suivante représente le critère en longitude vu dans le repère géocentrique écliptique.
En étudiant la figure ci-dessus, on peut se poser la question suivante. Supposons que nous ayons une conjonction en longitude (1) juste avant le point A, la conjonction suivante (2) va-t-elle être à l'intérieur ou à l'extérieur de l'arc BB' ? Pour répondre à cette question, on doit calculer de combien avance la longitude de la Terre (ou du soleil apparent) par rapport au nœud de l'orbite lunaire durant une révolution synodique de la Lune (une lunaison). On a vu que la Terre (ou le soleil apparent) passe par le même nœud de l'orbite lunaire tous les 346,62 jours, donc la vitesse de la Terre par rapport à la ligne des nœuds est de 360°/346,64jours = 1,0386°/jour, or la révolution synodique moyenne de la Lune est de 29,53 jours, donc entre deux conjonctions consécutives la longitude de la Terre varie de 1,0386 x 29,53 = 30,67°.
Or cette valeur est inférieure à la valeur de l'arc qui est égale à 31,33°. Donc à chaque passage de la Terre (ou du soleil apparent) par un nœud de l'orbite lunaire il y a obligatoirement une éclipse de Soleil au voisinage de la conjonction dont la longitude est la plus proche du nœud de l'orbite lunaire.
On peut donner une information supplémentaire, comme le critère en longitude est le même pour les éclipses de Lune, une demi-lunaison avant ou après la conjonction (nouvelle Lune) la Lune est en opposition (pleine Lune) et la Terre n'a parcouru que 15,335° en longitude par rapport au nœud, ces 15,335° correspondent à l'écart angulaire entre une conjonction et une opposition. Donc si une conjonction se trouve dans l'arc BB' l'opposition suivante ou l'opposition précédente se trouve obligatoirement aussi sur cet arc et il y a une éclipse de Lune, mais à l'autre nœud de l'orbite lunaire.
À chaque saison d'éclipse, il y obligatoirement deux éclipses, une éclipse de Soleil et une éclipse de Lune.
La variation de longitude de la Terre durant une lunaison étant de 30,67° et l'arc BB' ayant une longueur de 31,33°, il est également possible d'avoir deux conjonctions contenues dans l'arc BB'. Dans ce cas les conjonctions sont proches des extrémités de l'arc BB' et l'opposition comprise entre ces deux conjonctions est proche du nœud de l'orbite lunaire. De même on peut avoir deux oppositions dans l'arc BB'. Dans ce cas les oppositions sont proches des extrémités de l'arc BB' et la conjonction comprise entre ces deux oppositions se trouve proche du nœud de l'orbite lunaire. De plus comme nous l'avons déjà signalé, les éclipses proches des extrémités de l'arc BB' donc loin du nœud sont des éclipses faibles, donc des éclipses partielles de Soleil ou des éclipses de Lune par la pénombre et les éclipses proches du nœud sont des éclipses fortes, donc des éclipses centrales de Soleil ou des éclipses totales de Lune.
On peut donc avoir une série de trois éclipses, au voisinage du passage de la Terre (ou du soleil apparent) par un nœud de l'orbite lunaire. Dans ce cas on a soit une éclipse forte de Soleil (éclipse centrale) encadrée par deux éclipses faibles de Lune (éclipses par la pénombre) ou une éclipse forte de Lune (éclipse totale) encadrée par deux éclipses faibles de Soleil (éclipses partielles).
Une année civile du calendrier grégorien comporte 365 ou 366 jours. La lunaison moyenne est de 29,53 jours, une année lunaire de douze lunaisons a donc 354 jours, l'écart entre les deux années est de 11 ou 12 jours. Durant ces jours, la demi-lunaison étant supérieure à 14 jours, il ne peut pas y avoir à la fois une conjonction et une opposition. Donc une année civile ne peut jamais avoir à la fois 13 conjonctions (nouvelles Lunes) et 13 oppositions (pleines Lunes). Une seule de ces deux conjonctures est possible, dans ce cas la première conjonction ou opposition a lieu dans les 11 (ou 12) premiers jours de janvier et la dernière conjonction ou opposition a lieu dans les 11 (ou 12) derniers jours de décembre. On a donc, au maximum, soit une année civile à 13 oppositions, soit une année civile à 13 conjonctions. La saison des éclipses est égale à 173,31 jours, donc tous les 173 jours, aux conjonctions et oppositions les plus proches de ces dates il y a au moins deux éclipses (une de Soleil et une de Lune) et il y a au plus trois éclipses (deux de Lunes et une de Soleil ou deux de Soleil et une de Lune).
Une année civile peut contenir au maximum deux saisons d'éclipses entières, soit trois passages de la Terre par un des nœuds de l'orbite lunaire, le premier étant en début d'année, le second en milieu d'année et le dernier en fin d'année. À chacun de ces passages, on peut associer un couple ou un triplet d'éclipses. Mais l'on n'a jamais un triplet d'éclipses complet en début et en fin d'année, et dans le cas ou l'on a deux triplets complets à deux passages consécutifs le troisième passage ne comporte qu'une éclipse dans l'année en cours, car s'il présentait deux éclipses dans l'année en cours, il y aurait 13 oppositions et 13 conjonctions dans l'année, chose impossible. Donc dans une année civile, on a au maximum sept éclipses. Le tableau ci-dessous regroupe toutes les combinaisons possibles.
On remarque dans ce tableau que les triplets d'éclipses qui se suivent à six lunaisons d'intervalle ont la même composition. En effet, comme on l'a déjà signalé, dans chaque triplet, l'éclipse médiane se produit très près du nœud, or l'éclipse médiane du triplet suivant sera forcement une éclipse du même corps, la conjonction ou l'opposition n'ayant avancé que de 4° environ. De plus lorsque l'on a sept éclipses par an la première et la dernière éclipses sont des éclipses du même corps, la première a toujours lieu dans les 11 (ou 12) premiers jours de janvier et la dernière a toujours lieu dans les 11 (ou 12) derniers jours de décembre.
En conclusion le nombre maximal d'éclipses dans une année civile est de sept éclipses, avec obligatoirement deux éclipses de Soleil et deux éclipses de Lune, pour les trois autres toutes les combinaisons sont possibles. Le nombre minimal d'éclipses dans une année est de quatre, avec obligatoirement deux éclipses de Lune et deux éclipses de Soleil.
Nous allons nous intéresser à l'évolution des éclipses au cours du temps. Supposons que nous ayons une éclipse de Lune à une date donnée comment sera l'éclipse suivante ?
Généralement les éclipses successives de Lune sont séparées par six lunaisons (liées à une saison d'éclipses), donc il y a alternance de nœud lunaire (nœud ascendant et nœud descendant). Nous avons vu que durant une lunaison la Terre (ou le Soleil apparent) progressait en moyenne de 30,67° en longitude par rapport à la ligne des nœuds de l'orbite lunaire, donc au bout de six lunaisons la Terre (ou le Soleil apparent) progresse de 6 x 30,67° = 184,02°, donc si dl1 est la différence de longitude entre l'opposition et le nœud de l'orbite lunaire pour la première éclipse, l'éclipse suivante a lieu au nœud suivant et la différence dl2 entre l'opposition et ce nœud est égale à dl1 - (184,02° - 180°) = dl1- 4,02°. Donc l'opposition se déplace par rapport aux nœuds successifs d'environ 4° dans le sens direct d'une éclipse à la suivante.
Les éclipses de la suite courte S1 à S8 ont lieu à chaque saison d'éclipse, alternativement au nœud ascendant puis au nœud descendant. Il y a toujours au moins 8 éclipses dans la suite car l'arc BB' contient 7 arcs de 4° donc 8 éclipses. Il peut éventuellement y avoir une neuvième éclipse S9 (dans l'arc A'B'), dans ce cas cette éclipse est la dernière éclipse d'un triplet d'éclipses : Lune-Soleil-Lune. Dans ce cas l'opposition correspondant à la première éclipse du triplet a lieu une lunaison plus tôt et se trouve 30,67° en amont et cette éclipse est la première éclipse de la série courte suivante; nous avons donc un décrochage dans la suite des séries, la série suivante commence avant que la série en cours ne soit terminée. Ce phénomène peut également se produire lorsque la huitième éclipse de la série est très proche du point B'. On peut donc conclure que les éclipses des suites courtes sont séparées par six lunaisons et que la première éclipse d'une suite courte est séparée de la dernière éclipse de suite courte précédente par cinq lunaisons ou par une lunaison (antérieure) dans le cas d'un décrochage.
On remarque que les oppositions liées aux éclipses d'une série courte parcourent l'arc BB' dans le sens direct avec un pas moyen de 4°, les premières et les dernières éclipses sont des éclipses faibles (éclipses par la pénombre) et les éclipses du milieu de la série, proches des nœuds, sont des éclipses fortes (éclipses partielles par l'ombre, puis éclipses totales).
Attention, il ne faut jamais oublier que ces calculs sont faits à l'aide des révolutions moyennes de la Lune, la réalité est toujours un peu différente, l'avance de l'opposition n'est jamais exactement égale à 4° mais varie autour de cette valeur moyenne.
Sur le diagramme ci-dessus nous avons fait figurer l'ensemble des éclipses de Lune et de Soleil comprises entre l'an 1990 et l'an 2012. Les éclipses sur ce diagramme sont représentées de la manière suivante :
On remarque que les éclipses ont bien lieu aux voisinages des passages du Soleil dans la direction des nœuds ascendant et descendant de l'orbite lunaire. Sur ce dessin nous avons signalé la nature des noeuds (ascendant ou descendant) relative au éclipses de Soleil. De même on constate qu'à chaque saison d'éclipse on a un doublet d'éclipses Lune-Soleil ou un triplet d'éclipses Lune-Soleil-Lune (1991) ou Soleil-Lune-Soleil (2000) et que dans le cas des triplets les éclipses en première et dernière positions sont faibles et que l'éclipse médiane est forte. On observe que les éclipses de Soleil ou de Lune de début et de fin de séries courtes sont séparées par cinq ou une lunaisons. On vérifie également qu'il y a toujours au moins quatre éclipses par an, sur la période de temps représentée, il n'y a pas d'année à 7 éclipses, mais une année à 6 éclipses (2000).
La démonstration de l'existence des séries courtes de Soleil est également valable pour des séries courtes d'éclipses de Lune. Il suffit de remplacer la conjonction par l'opposition. Sur notre diagramme nous avons fait figurer les séries courtes de Soleil (en bleu) et les séries courtes de Lune (en rouge). On constate que les traits joignant les éclipses d'une même série pour chaque nœud sont parallèles et coupent les lignes des nœuds. Sur la période considérée, il n'y a pas de série courte à 9 éclipses. Mais on peut observer plusieurs décrochage de séries courtes, par exemple la série courte de Soleil Z débute avant que la série Y soit terminée (triplet d'éclipses de l'an 2000).
Dans cette section nous étudions la grandeur des éclipses de Lune. Qu'elles sont les éclipses les éclipses les plus longues et les éclipses les plus grandes en fonction des positions de la Lune par rapport au périgée et à l'apogée de son orbite et par rapport au position de la Terre sur son orbite.
Nous avons vu que la taille des cônes d'ombre et de pénombre dépend de deux paramètres, la distance Soleil-Terre qui conditionne la position des sommets des cônes et la distance Terre-Lune qui conditionne la position du plan d'intersection des cônes.
Les éclipses les plus longues seront des éclipses centrales, la durée de l'éclipse est fonction de la vitesse synodique de la Lune, c'est à dire de la différence des vitesses entre la Lune et les cônes d'ombre et de pénombre car la Lune et les cônes d'ombre et de pénombre se déplacent dans le même sens par rapport à la Terre (sens direct). Le tableau suivant donne les valeurs extrêmes du demi-diamètre apparent (ρ) du cône d'ombre en tenant compte des corrections de réfraction. Pour ces valeurs on donne également les positions de la Terre et de la Lune, la valeur du demi-diamètre apparent de la pénombre (σ), la vitesse synodique de la Lune en secondes de degré par heure, la grandeur de l'éclipse et la durée totale de l'éclipse.
Demi-diamètre de l'ombre | Minimal : 2,61sL | Moyen : 2,69 sL | Maximal 2,78 sL |
Positions de la Lune et de la Terre | Lune apogée - Terre périhélie | --- | Lune périgée - Terre aphélie |
Demi-diamètre de la pénombre | 4253" = 4,82 sL | 4425" = 4,75 sL | 4678" = 4,65 sL |
Vitesse synodique de la Lune | 1626"/h | 1858"/h | 2150"/h |
Grandeur de l'éclipse | 1,805 | 1,845 | 1,890 |
Durée de l'éclipse | environ 6h 19m | environ 5h 46m | environ 5h 17m |
La grandeur maximale s'observe dans le cas des éclipses centrales périgées (avec la Terre à l'aphélie), mais la durée maximale s'observe pour les éclipses apogées (avec la Terre au périhélie) ; en effet dans ce cas le diamètre apparent de la Lune est plus petit mais son mouvement synodique est plus lent. On retrouve donc la dualité déjà observée dans le cas des éclipses de Soleil de durée maximale (éclipses annulaires à l'apogée) et les éclipses de Soleil de grandeur maximale (éclipses totales au périgée).
Les listes d'éclipses de Lune et de Soleil sont publiées dans des livres appelés canons d'éclipses. Le plus connu est celui de Theodor Ritter von Oppolzer, sa première édition date de 1887 dans le volume 52 des Mémoires de Mathématiques et de Sciences Naturelles de l'Académie Impériale de Vienne. Ce canon, corrigé, est réédité régulièrement par Dover Publications. Dans ce canon, on trouve 8000 éclipses de Soleil comprises entre -1207 et 2161 et 5200 éclipses de Lune comprises entre -1206 et 2132. Il faut préciser que l'on n'y trouve pas les éclipses de Lune par la pénombre.
Il convient de citer également le canon des éclipses de Lune de Jean Meeus et Hermann Mucke (1983, Astronomisches Büro, Vienne), contenant toutes les éclipses de Soleil comprises entre -2002 et +2526.
À l'IMCCE, nous avons construit un canon d'éclipses de Lune et de Soleil. Il porte sur une période de 6000 ans (de l'an -2999 à 3000), il a été construit avec les dernières théories planétaires et lunaire élaborées à l'IMCCE.
Ces trois canons ont été construits avec des théories différentes des corps célestes et avec des constantes légèrement différentes, cela implique que certaines éclipses limites ne sont pas identiques (apparition ou disparition d'éclipses limites par la pénombre, ou éclipses totales dans un canon qui deviennent partielles dans l'autre).
Pour construire notre canon nous avons utilisé les théories suivantes :
Les paramètres physiques utilisés sont les suivants :
Nous avons trouvé sur cette période de 6000 ans, 14357 éclipses de Lune qui se répartissent de la manière suivante :
Comme on l'a prédit précédemment, on vérifie que la proportion d'éclipses par l'ombre est bien d'environ 64% et la proportion d'éclipses par la pénombre est bien d'environ 36%.
Comme nous venons de le voir, il n'y a pas coïncidence entre les éclipses totales les plus grandes et les éclipses totales les plus longues. Les éclipses les plus longues ont lieu avec une Lune proche de l'apogée.
Le tableau suivant donne les 21 éclipses du canon de l'IMCCE dont la durée de la phase totale est supérieure à 1h46m. On remarquera que la valeur maximale de la grandeur de ces éclipses est de 1.8176336.
Date de l'éclipse | Magnitude | Durée de la phase totale |
---|---|---|
29/06-2344-30/06/-2344 | 1.7559958 | 01h46m05s |
01/06-2203 | 1.7995766 | 01h46m37s |
04/05/-2062 | 1.7921950 | 01h46m36s |
06/04-1921 | 1.8050155 | 01h46m27s |
23/06/-1646 - 24/06/-1646 | 1.7914130 | 01h46m16s |
26/05/-1505 | 1.7992139 | 01h46m30s |
27/04/-1364 | 1.8054797 | 01h46m29s |
30/03/-1223 | 1.8010124 | 01h46m15s |
16/07/-503 | 1.7999741 | 01h46m04s |
11/04/-98 | 1.8002998 | 01h46m02s |
07/08/54 | 1.8104677 | 01h46m13s |
28/06/177 | 1.7716335 | 01h46m23s |
31/05/318 | 1.7820179 | 01h46m33s |
03/05/459 | 1.8176336 | 01h46m33s |
12/06/1443 | 1.8083912 | 01h46m15s |
24/05/1584 | 1.8152958 | 01h46m06s |
13/08/1859 | 1.8150878 | 01h46m28s |
16/07/2000 | 1.7686611 | 01h46m25s |
09/06/2123 | 1.7489899 | 01h46m07s |
19/06/2141 | 1.7416402 | 01h46m07s |
11/05/2264-12/05/2264 | 1.7985597 | 01h46m14s |
Parmi cette liste, chaque éclipse appartient à un triplet d'éclipses et est encadrée par deux éclipses partielles de Soleil. En effet l'opposition étant toujours proche du noeud donc du milieu de l'intervalle BB', la conjonction précédente et la conjonction suivante tombent également à l'intérieur de l'intervalle, on a donc toujours un triplet d'éclipses. Par exemple l'éclipse du 01/06/-2203 qui a la plus longue phase totale et qui a duré au total 6h 14m 10s, est encadrée par les éclipses partielles de Soleil du 18/05/-2203 et de 16/06/-2203.
Pour cette éclipse on peut vérifier que c'est bien une éclipse apogée avec une opposition proche du passage au nœud de l'orbite :
On vérifie que conformément à ce que nous avons dit lors de la définition du critère en latitude, le maximum de l'éclipse a lieu entre l'instant du passage au nœud et l'instant de la pleine Lune lorsque le passage au nœud est antérieur à la pleine Lune.
Les éclipses totales les plus grandes correspondent à des éclipses totales périgées. Le tableau ci-dessous nous donne les 26 éclipses totales de Lune du canon de l'IMCCE dont la grandeur est supérieure à 1,86.
Date des éclipses | Grandeur | Durée de la phase totale |
---|---|---|
08/07/-2977 | 1.8775476 | 01h39m15s |
29/07/-2420 | 1.8647245 | 01h40m04s |
15/01/-2326 | 1.8620205 | 01h38m35s |
27/03/-1874 | 1.8748617 | 01h40m19s |
16/02/-1751 | 1.8621251 | 01h39m52s |
04/06/-1552 | 1.8753223 | 01h40m19s |
07/05/-1411 | 1.8661648 | 01h40m22s |
09/04/-1270 | 1.8725565 | 01h40m16s |
12/09/-1241 - 13/09/-1241 | 1.8672238 | 01h38m32s |
28/02/-1147 - 01/03/-1147 | 1.8730227 | 01h39m45s |
24/07/-1136 | 1.8776169 | 01h39m10s |
29/12/-540 | 1.8636202 | 01h38m10s |
09/01/-521 -10/01/-521 | 1.8684891 | 01h38m15s |
01/04/-51 | 1.8634609 | 01h39m44s |
10/02//54 - 11/02/54 | 1.8693552 | 01h39m16s |
17/07/83 | 1.8618347 | 01h41m49s |
06/09/564 | 1.8743438 | 01h38m54s |
30/07/687 | 1.8620946 | 01h39m18s |
24/04/1092 | 1.8737558 | 01h39m20s |
28/09/1121 | 1.8682270 | 01h38m55s |
09/08/1226 | 1.8794485 | 01h39m39s |
15/05/1631 | 1.8728523 | 01h39m48s |
30/08/1765 | 1.8631087 | 01h41m28s |
26/07/1953 | 1.8628642 | 01h40m44s |
04/11/2264 - 05/11/2264 | 1.8688193 | 01h38m37s |
05/06/2756 | 1.8799400 | 01h39m20s |
Chaque éclipse de Lune de cette liste appartient à un triplet d'éclipses et est encadrée par deux éclipses partielles de Soleil. Par exemple, l'éclipse du 05/06/2756 qui est la plus grande, dont la durée totale est de 5h 17m 31s, est encadrée par les éclipses partielles de Soleil du 21/05/2756 et du 19/06/2756.
Pour cette éclipse on peut vérifier que c'est bien une éclipse périgée avec une opposition proche du passage au nœud de l'orbite :
On vérifie de nouveau que le maximum de l'éclipse a lieu entre le passage au nœud et la pleine Lune.
Contrairement au cas des éclipses totales de Lune de grandeur maximale et des éclipses totales de Lune de durée maximale, il y a coïncidence entre les éclipses de Lune les plus courtes et les éclipses de grandeur minimale. Il s'agit d'éclipses rasantes par l'ombre dans le cas des éclipses partielles et par la pénombre dans le cas des éclipses par la pénombre. Le tableau ci-dessous nous donne les 6 éclipses partielles de Lune du canon de l'IMCCE dont la grandeur est inférieure à 0,001.
Date de l'éclipse | Grandeur | Durée de la phase partielle |
---|---|---|
14/09/-2237 | 0.0009512 | 7m36s |
08/08/-1463 | 0.0002822 | 3m39s |
02/07/-754 | 0.0004297 | 4m47s |
13/10/273 | 0.0000806 | 1m58s |
24/022157 | 0.0004892 | 5m27s |
16/06/2421 | 0.0006280 | 5m34s |
Le tableau ci-dessous nous donne les 2 éclipses de Lune par la pénombre du canon de l'IMCCE dont la grandeur est inférieure à 0,001.
Date de l'éclipse | Grandeur | Durée de l'éclipse |
---|---|---|
07/07/1571 | 0.0004848 | 5m53s |
17/01/2986 | 0.0006936 | 8m01s |
Ces deux dernières éclipses de Lune appartiennent à des triplets d'éclipses. Ainsi l'éclipse du 07/07/1571 est la première du triplet comprenant ensuite l'éclipse annulaire de Soleil des 21 et 22/07/1571 puis l'éclipse partielle de Lune du 05/08/1571. De même l'éclipse du 17/01/2986 est la première du triplet comprenant ensuite l'éclipse annulaire-totale de Soleil du 31/01/2986 puis l'éclipse de Lune par la pénombre du 15/02/2986.
Il convient de remarquer que ces éclipses sont des cas limites propres au canon de l'IMCCE, les cas limites des autres canons d'éclipses de Lune sont différents, les constantes et les éphémérides utilisées pour l'élaboration des canons étant différentes.
Dans cette section, nous reprenons la notion de Saros et du nombre moyen d'éclipses de Lune dans un Saros. Nous étudions l'évolution des éclipses dans les séries longues d'éclipses homogènes et nous donnons un exemple de série longue d'éclipses.
Le définition du saros et les démonstrations qui lui sont liées ont été traitées dans la partie relative aux éclipses de Soleil. Nous redonnons ici que les particularités propres aux nombres d'éclipses.
Le saros comporte 38 saisons d'éclipses, revenant en moyenne toutes les 5 ou 6 lunaisons. À chaque saison d'éclipses il y a au moins deux éclipses et parfois trois éclipses. En moyenne un saros comprend 84 éclipses, réparties en 42 éclipses de Soleil et 42 éclipses de Lune.
Les 42 éclipses de Lune se répartissent de la manière suivante : 14 éclipses par la pénombre, 28 éclipses par l'ombre dont 14 éclipses partielles et 14 éclipses totales.
Les 42 éclipses de Soleil se répartissent de la manière suivante : 14 éclipses partielles et 28 éclipses centrales.
Ce nombre d'éclipses par saros est une valeur moyenne, en réalité il existe des saros riches pouvant atteindre jusqu'à 94 éclipses (47 de chaque) et des saros pauvres comportant 78 éclipses.
Les canons d'éclipses construits à l'IMCCE comportent 28512 éclipses sur une période de 5999 ans, soit en moyenne 4,7528 éclipses par an et 85,7 éclipses par saros (valeur que l'on peut arrondir à 86). Cette valeur est légèrement plus forte que la valeur moyenne (84). On retrouve le saros moyen du canon d'Oppolzer, construit sur une période plus courte, qui est de 86 éclipses.
Nous avons vu qu'il existe une période de récurrence des éclipses, le saros, qui ramène sensiblement la même éclipse après une période de 6585,32 jours. Ces éclipses séparées par un saros sont appelées éclipses homologues. En réalité, elles ne sont pas parfaitement identiques, mais elles évoluent légèrement d'un saros à l'autre et elles forment des suites qui portent sur de grandes périodes de temps d'où leur nom de suites longues.
Nous allons regarder comment évolue la longitude de l'opposition après une période d'un saros. L'écart entre le saros de 223 lunaisons « L » et les 242 révolutions draconitiques « G » est de moins 52 minutes de temps (- 0,03612 jour).
Durant ces 52 minutes la Lune, sur son orbite, se déplace en moyenne par rapport à son nœud de -0,03612 x 360°/G = -28,67'. La Lune en opposition se trouve donc déplacée sur son orbite de 28,67' dans le sens rétrograde par rapport au nœud. Compte tenu de l'inclinaison de l'orbite lunaire, ce décalage se traduit par un décalage de la longitude céleste Δλ = -28,55' et par une variation de la latitude céleste de la Lune de Δβ = -2,64'.
Les oppositions des éclipses homologues vont donc parcourir l'arc BB' dans le sens rétrograde avec un pas moyen de 28,55'. Si l'on divise l'arc BB' par 28,55', on constate qu'il peut contenir 66 éclipses et si l'on divise l'arc AA' par 28,55' on voit qu'il peut contenir 74 éclipses. Ces suites d'éclipses sont appelées suites longues. L'étude des canons d'éclipses montre qu'en moyenne ces suites comportent 72 éclipses. Ce qui correspond à une période de temps d'environ 1300 ans.
Les premières éclipses d'une suite longue sont faibles, car elles sont proches de l'arc A'B', donc loin du nœud. Ensuite, leur grandeur va croître jusqu'à ce qu'elles se produisent au voisinage du nœud, puis leur grandeur va décroître pour finir de nouveau faible au voisinage de l'arc BA. Pour une suite longue de 72 éclipses, si l'on respecte les pourcentages des différents types d'éclipses (environ 1/3 de chaque), on aura donc successivement 12 éclipses par la pénombre de grandeur croissante, puis 12 éclipses partielles par l'ombre, puis 12 éclipses totales de grandeur croissante (sur 650 ans), puis de nouveau 12 éclipses totales de grandeur décroissante, puis 12 éclipses partielles par l'ombre et enfin 12 éclipses par la pénombre de grandeur décroissante (sur 650 ans). Dans la pratique, les deux ou trois éclipses du milieu de la suite longue sont maximales, elles servent de transition entre la période de croissance et de décroissance des éclipses totales. On remarque que toutes les éclipses d'une suite ont lieu au même nœud. Si la suite longue a lieu au nœud descendant les latitudes célestes successives de la Lune croissent des latitudes négatives aux latitudes positives, les positions de la Lune par rapport aux cônes d'ombre et de pénombre de la Terre vont donc se déplacer du sud au nord. Inversement pour une suite longue au nœud ascendant les latitudes célestes successives de la Lune décroissent des latitudes positives aux latitudes négatives, les positions de la Lune par rapport aux cônes d'ombre et de pénombre de la Terre vont donc se déplacer du nord au sud. En réalité, dans les propos précédents, les directions nord et sud désignent le nord et le sud par rapport à l'écliptique et non par rapport à l'équateur terrestre, il faut bien se rappeler que l'écliptique est incliné par rapport à l'équateur terrestre.
Nous avons vu que la période du saros n'est pas un nombre entier de jours, sa valeur est de 6585,32 jours. Donc entre deux éclipses homologues, la Terre n'a pas tourné d'un nombre entier de jour, les zones concernées par les éclipses ne sont donc pas les mêmes. En 0,32 jour, la Terre tourne d'environ 120°, les zones concernées par l'éclipse se déplacent donc d'environ 120° vers l'ouest. Comme une éclipse de Lune est visible, au moins durant une partie de sa durée, sur environ les deux tiers de la surface terrestre, il n'est pas surprenant que des éclipses homologues successives soient visibles d'un même lieu. Après trois saros, l'éclipse a même lieu sensiblement au même instant. Cela explique que la période de récurrence des éclipses (saros) soit plus facilement décelable, en un lieu, à travers les suites d'éclipses de Lune observées. Ce qui n'est pas le cas pour les éclipses de Soleil.
Le dessin ci-dessus nous montre l'évolution des éclipses homogènes de Lune durant une suite longue de saros au nœud ascendant. Sur cette figure nous avons figée la longitude de la pleine Lune (opposition), ce sont donc les positions du nœud ascendant qui vont variées dans le sens direct par rapport à l'opposition au cours du temps. Nous avons représenté la position du nœud ascendant environ tous les 325 ans ainsi que les maxima des éclipses correspondantes c'est-à-dire les distances minimales entre le centre de la Lune et le centre des cônes.
Au début de la suite longue d'éclipse de Lune, le nœud se trouve en position N1, à l'ouest de l'opposition, la Lune va donc passer d'ouest en est devant le bord nord du cône de pénombre, les premières éclipses de la suite seront donc des éclipses par la pénombre passant au bord nord de la pénombre (éclipsant donc le sud de la Lune). 325 ans plus tard, le nœud ascendant de l'orbite lunaire est en N2, la Lune rencontre le bord nord du cône d'ombre, les éclipses de Lune sont donc partielles par l'ombre. 325 ans plus tard, le nœud ascendant N3 est confondu avec la longitude de l'opposition, c'est le cas idéal d'une éclipse totale centrale, puis nous avons une situation symétrique par rapport à l'opposition, c'est-à-dire un nœud en N4 correspondant à des éclipses partielles par l'ombre mais au sud du cône d'ombre (éclipsant le nord de la Lune), puis des éclipses par la pénombre au sud du cône de pénombre qui prennent fin après la dernière position N5 du nœud.
On remarque que lorsque le nœud ascendant est à l'ouest de l'opposition le maximum de l'éclipse a lieu avant l'opposition, et que lorsque le nœud ascendant est à l'est de l'opposition le maximum de l'éclipse a lieu après l'opposition. Donc la connaissance de l'instant du maximum de l'éclipse, de l'instant de l'opposition et de la nature du nœud (ascendant ou descendant) permet de situer la position de l'éclipse dans la suite longue d'éclipses homogènes et la partie de la Lune éclipsée. Ou bien, inversement , la connaissance de la position d'une éclipse dans sa suite longue et la nature du nœud permet de savoir si le maximum de l'éclipse a lieu avant ou après l'opposition et de connaître la partie de la Lune éclipsée.
Nous avons vu qu'à chaque saison d'éclipse il y a soit un doublet soit un triplet d'éclipses de Lune et de Soleil. Nous allons essayer de déterminer les positions des éclipses de Lune et de Soleil dans leurs suites longues respectives en fonction de l'allure du triplet ou du doublet d'éclipses. On rappelle que lors d'une saison d'éclipse il y a inversion des nœuds avec la nature des éclipses, ainsi si l'éclipse ou les éclipses de Soleil ont lieu au nœud ascendant l'éclipse ou les éclipses de Lune de la même saison ont lieu au nœud descendant et inversement.
Dans le cas d'un doublet d'éclipses, l'opposition et la conjonction (les syzygies) sont toujours réparties de part et d'autre des nœuds. Donc l'éclipse correspondant à la syzygie à l'ouest (à droite) du nœud est dans la partie décroissante de sa suite longue et l'éclipse correspondant à la syzygie à l'est (à gauche) du nœud suivant est dans la partie croissante de sa suite longue.
Soit un doublet constitué d'une éclipse de Lune au nœud descendant suivie d'une éclipse de Soleil au nœud ascendant. Comme l'éclipse de Lune a lieu avant le passage au nœud, l'opposition est à l'ouest du nœud et l'éclipse de Lune est dans la partie décroissante de sa suite longue (au nœud descendant) et c'est donc la partie sud du disque lunaire qui est éclipsée. L'éclipse de Soleil, elle, a lieu après le passage au nœud, la conjonction est donc à l'est du nœud et l'éclipse de Soleil est dans la partie croissante de sa suite longue (au nœud ascendant), elle sera donc visible dans l'hémisphère nord.
Le tableau ci-dessous résume tous les cas possibles pour un doublet d'éclipses
Ordre du doublet | Eclipse de Lune - Eclipse de Soleil | Eclipse de Soleil - Eclipse de Lune |
Position de l'éclipse de Lune dans sa suite longue | partie déroissante | partie croissante |
Position de l'éclipse de Soleil dans sa suite longue | partie croissante | partie décroissante |
Eclipse Lune au noeud descendant Eclipse de Soleil au noeud ascendant | partie sud du disque lunaire éclipsée éclipse solaire visible au nord | partie nord du disque lunaire éclipsée éclipse solaire visible au sud |
Eclipse Lune au noeud ascendant Eclipse Soleil au noeud descendant | partie nord du disque lunaire éclipsée éclipse solaire visible au sud | partie sud du disque lunaire éclipsée éclipse solaire visible au nord |
Dans le cas d'un triplet d'éclipses, la première et la troisième éclipses sont de même nature (éclipses de Lune ou éclipses de Soleil) et la seconde éclipse est de nature opposée aux deux autres. La première éclipse appartient à la partie décroissante de sa suite longue et est proche de la fin de cette suite. La troisième appartient à la partie croissante de sa suite longue et est proche du début de cette suite. Pour l'éclipse du milieu, elle est proche du maximum dans sa suite longue, on peut la situer dans la partie croissante ou décroissante de sa suite, uniquement si l'on connaît la position de la syzygie par rapport au nœud, une syzygie à l'ouest du nœud la place dans la partie décroissante et une syzygie à l'est du nœud la place dans la partie croissante de sa suite.
Dans les explications ci-dessus, la position à l'ouest (à droite) du nœud est équivalente à une syzygie antérieure au passage au nœud et une position à l'est (à gauche) est équivalente à une syzygie postérieure au passage au nœud. De même nous avons basé nos explications sur les positions relatives des nœuds et des syzygies, nous aurions pu faire les mêmes raisonnements en remplaçant un des deux éléments par la position, ou l'instant, du maximum des éclipses.
Nous rappelons que d'un saros à l'autre, le Soleil, donc l'éclipse se décale d'environ 10,5° par rapport aux constellations zodiacales. Au cours d'une suite longue le soleil apparent effectue plus de deux tours complets d'orbite et l'on rencontre toutes les configurations liées au soleil apparent. Les éclipses parcourent les quatre saisons et cela deux fois.
Nous avons vu également que suite à l'écart entre un saros et 239 révolutions anomalistiques, la distance de la Lune à son périgée varie de 2,8° d'un saros à l'autre. Au cours d'une suite longue de 72 saros, les conjonctions lunaires liées aux éclipses homologues (donc la Lune) ne vont parcourir que 202° de l'orbite lunaire, soit un peu plus que la moitié. De plus durant les 48 éclipses centrales du saros, cet arc se réduit à 134°, il convient de comparer cette valeur avec les portions de l'orbite lunaire où les éclipses sont totales ou annulaires.
Ainsi si le périgée est proche du milieu de cet arc de 134°, la suite longue est riche en éclipses totales, si au contraire, cet arc avoisine l'apogée la suite longue est riche en éclipses annulaires.
Il ne faut jamais perdre de vu que toutes les variations dans les suites longues sont calculées avec des valeurs moyennes et ne sont jamais tout à fait conformes à la réalité. Ainsi le décalage de la conjonction par rapport au nœud de 28,55' est une valeur moyenne. En réalité le Soleil avance plus vite en janvier (il est proche du périgée) qu'en juillet (proche de l'apogée), le calcul montre que la variation de la longitude de la conjonction par rapport au nœud est de l'ordre de 6' en janvier (au lieu de 28,55') et qu'elle atteint 48' en juillet. Les éclipses homologues d'hiver sont donc plus semblables que les éclipses homologues d'été qui évoluent sensiblement plus vite.
Il est facile de connaître la position d'une éclipse dans une suite longue d'éclipses. Les éclipses croissantes ont toujours lieu après le passage au nœud et les éclipses décroissantes ont toujours lieu avant le passage au nœud. La connaissance des instants des syzygies et du passage au nœud permet donc de positionner l'éclipse dans sa suite longue. Inversement la connaissance de la position d'une éclipse dans sa suite longue permet, sauf pour l'éclipse maximale, de savoir sa position par rapport aux nœuds. De plus dans le cas d'un doublet d'éclipses (Lune Soleil ou Soleil Lune) la première éclipse, qui a lieu avant le passage au nœud appartient à la partie décroissante de sa suite longue et la seconde éclipse appartient à la partie croissante de sa suite longue. Dans le cas d'un triplet d'éclipses, la première appartient à la fin de la partie décroissante de la suite longue qui la contient, la dernière appartient au début de la partie croissante de la suite longue qui la contient et l'éclipse médiane se trouve au voisinage du maximum de sa suite longue.
Le tableau suivant donne la liste des éclipses de la suite longue contenant l'éclipse du 31 mai 2003. On donne successivement le numéro de l'éclipse dans la suite longue, le type d'éclipse, la date de l'éclipse, sa magnitude et la durée maximale de la phase centrale lorsque cette phase existe.
N° | type | date | magnitude | durée |
---|---|---|---|---|
1 | P | 12/10/1624 | 0.0085968 | |
2 | P | 23/10/1642 | 0.0548679 | |
3 | P | 03/11/1660 | 0.0896182 | |
4 | P | 14/11/1678 | 0.1146153 | |
5 | P | 24/11/1696 | 0.1316624 | |
6 | P | 07/12/1714 | 0.1419092 | |
7 | P | 17/12/1732 | 0.1469513 | |
8 | P | 28/12/1750 | 0.1505860 | |
9 | P | 08/01/1769 | 0.1530883 | |
10 | P | 19/01/1787 | 0.1591577 | |
11 | P | 30/01/1805 | 0.1675941 | |
12 | P | 11/02/1823 | 0.1857746 | |
13 | P | 21/02/1841 | 0.2097100 | |
14 | P | 04/03/1859 | 0.2462690 | |
15 | P | 15/03/1877 | 0.2919636 | |
16 | P | 26/03/1895 | 0.3533467 | |
17 | P | 06/04/1913 | 0.4246662 | |
18 | P | 17/04/1931 - 18/04/1931 | 0.5110283 | |
19 | P | 28/04/1949 | 0.6095708 | |
20 | P | 09/05/1967 | 0.7205292 | |
21 | P | 19/05/1985 | 0.8411277 | |
22 | A | 31/05/2003 | 0.9696001 | 03m34.08s |
23 | A | 10/06/2021 | 0.9721316 | 03m47.99s |
24 | A | 21/06/2039 | 0.9730915 | 04m01.45s |
25 | A | 01/07/2057 - 02/07/2057 | 0.9735738 | 04m18.67s |
26 | A | 13/07/2075 | 0.9737206 | 04m40.41s |
27 | A | 23/07/2093 | 0.9737206 | 05m06.77s |
28 | A | 04/08/2111 | 0.9731384 | 05m36.78s |
29 | A | 14/08/2129 - 15/08/2129 | 0.9724857 | 06m09.32s |
30 | A | 26/08/2147 | 0.9716470 | 06m42.98s |
31 | A | 05/09/2165 | 0.9706588 | 07m15.78s |
32 | A | 16/09/2183 - 17/09/2183 | 0.9695596 | 07m46.87s |
33 | A | 28/09/2201 | 0.9684309 | 08m14.61s |
34 | A | 09/10/2219 | 0.9672517 | 08m39.72s |
35 | A | 19/10/2237 | 0.9661547 | 09m00.30s |
36 | A | 30/10/2255 - 31/10/2255 | 0.9651065 | 09m17.21s |
37 | A | 10/11/2273 | 0.9642541 | 09m28.20s |
38 | A | 21/11/2291 | 0.9635287 | 09m34.68s |
39 | A | 02/12/2309 - 03/12/2309 | 0.9630803 | 09m34.31s |
40 | A | 14/12/2327 | 0.9628599 | 09m28.43s |
41 | A | 24/12/2345 | 0.9629606 | 09m15.58s |
42 | A | 04/01/2364 - 05/01/2364 | 0.9633421 | 08m57.77s |
43 | A | 15/01/2382 | 09640683 | 08m34.41s |
44 | A | 26/01/2400 | 0.9651082 | 08m07.46s |
45 | A | 05/02/2418 - 06/02/2418 | 0.9664621 | 07m37.67s |
46 | A | 17/02/2436 | 0.9681073 | 07m06.45s |
47 | A | 27/02/2454 | 0.9700297 | 06m34.42s |
48 | A | 09/03/2472 - 10/03/2472 | 0.9721718 | 06m02.57s |
49 | A | 21/03/2490 | 0.9745093 | 05m31.07s |
50 | A | 01/04/2508 | 0.9769654 | 05m00.43s |
51 | A | 12/04/2526 - 13/04/2526 | 0.9795505 | 04m29.66s |
52 | A | 23/04/2544 | 0.9821258 | 03m59.66s |
53 | A | 04/05/2562 | 0.9847154 | 03m29.01s |
54 | A | 14/05/2580 -15/05/2580 | 0.9871679 | 02m58.81s |
55 | A | 26/05/2598 | 0.9895234 | 02m27.78s |
56 | A | 06/06/2616 | 0.9916211 | 01m58.16s |
57 | A | 17/06/2634 | 0.9935042 | 01m29.84s |
58 | A | 27/06/2652 - 28/06/2652 | 0.9950354 | 01m05.79s |
59 | A | 09/07/2670 | 0.9961687 | 00m47.26s |
60 | A | 19/07/2688 | 0.9967399 | 00m36.25s |
61 | A | 31/07/2706 -01/08/2706 | 0.9960352 | 00m.36.88s |
62 | P | 11/08/2724 | 0.8822576 | |
63 | P | 22/08/2742 | 0.7560645 | |
64 | P | 01/09/2760 | 0.6399250 | |
65 | P | 13/09/2778 | 0.5318151 | |
66 | P | 23/09/2796 | 0.4338706 | |
67 | P | 04/102814 | 0.3469499 | |
68 | P | 15/10/2832 | 0.2725393 | |
69 | P | 26/10/2850 | 0.2098505 | |
70 | P | 05/11/2868 | 0.1587829 | |
71 | P | 17/11/2886 | 0.1194801 | |
72 | P | 28/11/2904 | 0.0907818 | |
73 | P | 09/12/2922 | 0.0696946 | |
74 | P | 20/12/2940 | 0.0570489 | |
75 | P | 31/12/2958 | 0.0487713 | |
76 | P | 10/01/2977 | 0.0452276 | |
77 | P | 22/01/2995 | 0.0403169 |
On remarque que cette suite n'est pas complète, en effet le canon d'éclipse de l'IMCCE s'arrête en 2999, il y a probablement des éclipses de la suite qui sont postérieures à cette date. Malgré cela on dépasse la valeur moyenne de 72 éclipses. Et l'on est assez loin des valeurs moyennes, ainsi le nombre d'éclipses partielles de la partie croissante est de 21, la moyenne donne 12 ! On constate également que toutes les éclipses centrales sont des éclipses annulaires, donc l'arc parcouru par les conjonctions lunaires est au voisinage de l'apogée. L'éclipse du 31 mai 2003 est la première éclipse centrale de la partie croissante de la suite, on peut donc en déduire qu'elle a lieu après le passage au nœud et relativement longtemps après ce passage. De plus elle est proche d'un des pôles terrestre. On ne peut pas savoir si la suite est au nœud ascendant ou descendant de l'orbite lunaire. Pour cela il suffit de connaître la latitude de la Lune à la conjonction pour une seule éclipse de la suite. Cette longitude est positive pour l'éclipse du 31 mai donc cette suite longue est au nœud ascendant et l'éclipse du 31 mai 2003 est proche du pôle nord terrestre et les éclipses de la suite vont parcourir le globe terrestre du nord au sud. Les éphémérides de la Lune nous donnent les informations suivantes :
On constate que le maximum de l'éclipse a bien lieu entre le passage et la conjonction, qu'il est proche de la conjonction (11m 33s) mais éloigné du passage au nœud (19h 36m 1s). L'éclipse est proche du passage de la Lune à l'apogée elle est donc annulaire.
Dans cette section nous étudions quelques éclipses anciennes de Lune ainsi que leur prédiction et observation.
L'Astronomie des Césars fut publiée par Petrus Apianus en 1540. Dédiée à Charles Quint et à son frère Ferdinand, l'Astronomie des Césars permet de déterminer les positions planétaires, ainsi que les éclipses, pour une période comprise entre 7000 av. J.-C. et 7000 apr. J.-C. ! Apianus utilise à la perfection l'usage des disques mobiles, ou " volvelles ". Des fils de soie permettent de lire les graduations sur les cadrans extérieurs. Les calculs sont effectués en utilisant les théories de Ptolémée. La figure ci-dessous nous montre une des pages dédiées au calcul des éclipses de Lune. On y voit la Lune, les cônes d'ombre et de pénombre de la Terre représentés avec des proportions assez bonnes.
Difficilement décelable à l'œil nu les éclipses de Lune par la pénombre ne seront pas observées avant l'apparition de la lunette astronomique, il convient malgré tout de signaler l'observation d'une éclipse par la pénombre par les Babyloniens le 1 août -187 (188 av. J.-C.). Une étude des observations des éclipses de Lune publiées par les chroniqueurs arabes médiévaux faite par Said et Stephenson en 1991 montre que l'on a des observations à l'œil nu d'éclipses partielles par l'ombre jusque des grandeurs de 0,28 et de 0,12.
Les Babyloniens surent prédire la date et la visibilité des éclipses de Lune relativement tôt, on dispose d'un texte datant du règne de Ukin-zer (731 av. J.-C. - 729 av. J.-C.) où figure la prédiction de l'éclipse de Lune du 9 avril -730 avec la mention de son invisibilité à Babylone. On distingue deux types de sources, les éclipses babyloniennes décrites par Ptolémée dans l'Almageste, elles sont au nombre de dix :
Date de l'éclipse | Type de l'éclipse |
---|---|
19 mars - 720* | Totale (1,49) |
8 mars - 719* | Partielle (0,08) |
1 septembre - 719 | Partielle (0,46) |
22 avril - 620 | Partielle (0,18) |
16 juillet - 522 | Partielle (0,56) |
19 novembre -501* | Partielle (0,22) |
25 avril - 490 | Partielle (0,12) |
23 décembre - 382* | Partielle (0,23) |
18 juin - 381* | Partielle (0,51) |
12 décembre - 381* | Totale (1,50) |
(*) Ces observations ont été utilisées par Ptolémée pour calculer les variations de l'anomalie de la Lune. En plus de ces observations, Ptolémée donne six autres observations d'éclipses de Lune dont cinq ont été faites à Alexandrie et une à Rhodes.
L'autre source d'observations d'éclipses de Lune par les Babyloniens est constituée de textes cunéiformes. On y dénombre une soixantaine d'éclipses réparties entre 695 av. J.-C. et 67 av. J.-C.
Les données d'observations d'éclipses de Lune par les Chinois sont plus tardives, elles sont réparties entre l'an 434 et l'an 1280, les données d'observations d'éclipses de Lune par les Arabes sont comprises entre l'an 854 et l'an 1019. La totalité de ces observations a été utilisée, avec les observations d'éclipses de Soleil, pour déterminer les écarts entre le Temps universel et le Temps terrestre durant les siècles passés.
Cette éclipse totale de Lune (m =1,23) eu lieu le 20 septembre -330 (331 av. J.-C.), à l'époque des combats entre Alexandre le Grand et les forces perses de Darius III, à Gaugamèles près d'Arbèles. La vue de cette éclipse aurait désorganisé les forces perses et permis la victoire d'Alexandre 11 jours plus tard (Plutarque,Vie d'Alexandre, Livre XXXI). Cette éclipse est également mentionnée par Pline l'Ancien (23 - 79 ap. J.-C.) dans son Histoire Naturelle (Livre II), selon Pline cette éclipse fut également visible en Sicile au lever du Soleil alors qu'elle a eu lieu la nuit à Arbèles. Pline utilise ce décalage horaire pour prouver que la Terre est ronde. L'éclipse d'Alexandre est également décrite par Arrien de Nicomédie (v. 95 - v. 175) dans L'Expédition d'Alexandre ou Anabase (Livre II) ; il situe la bataille d'Arbèles au mois de Pyaneptiôn lorsque Aristophane était Archonte d'Athènes. Une autre description intéressante de l'éclipse est celle donnée par Quinte-Curce (Ier s. apr. J.-C.) dans son Histoire d'Alexandre le Grand (Livre IV). C'est, en effet, une des plus anciennes allusions à l'aspect rougeâtre des éclipses totales de Lune.
Cette éclipse partielle de Lune (m= 0,746) eu lieu le 22 mai de l'an 1453, elle mit fin au siège de Constantinople par les troupes turques du Sultan Mohammed II. La ville est vaillamment défendue par l'empereur Constantin Dragasès (1448-1453) et le Génois Giustiniani, une ancienne prophétie affirmait que la ville ne pourrait tomber qu'à la Lune croissante, alors qu'ils avaient déjà repoussé trois assauts avec succès et confiance, le lever de la pleine Lune éclipsée démoralisa les assiégés. La ville fut prise le 29 mai, sept jours plus tard. Cette victoire des Turcs sur les forces chrétiennes marque la fin de l'empire byzantin et le début de l'empire ottoman.
Cette éclipse totale de Lune (m=1,097) eu lieu le 29 février de l'an 1504. Lors de son quatrième voyage Christophe Colomb, échoua sur les côtes de la Jamaïque. Suite à la mutinerie d'une partie de son équipage qui déroba une partie de ces réserves, Christophe Colomb se trouva à court de vivres, les indiens refusant de l'approvisionner. Christophe Colomb prédit aux indiens une éclipse totale de Lune trois jours avant sa venue et la présenta comme un signe céleste du mécontentement du Dieu des chrétiens. L'éclipse eu lieu effectivement la nuit du 29 février est fut, nous dit Christophe Colomb, d'un rouge sombre. Fortement impressionnés par ce phénomène céleste, les indiens ravitaillèrent Christophe Colomb et son équipage jusqu'à l'arrivée des secours, quatre mois plus tard. Christophe Colomb ne cite pas ses sources pour la détermination de cette éclipse. À cette époque trois sources étaient possibles : les éphémérides et Calendarium de Regiomontanus (pour Nuremberg), l'Almanach Perpetuum d'Abraham Zacuto (pour Salamanque) et enfin le Lunarium de Bernard Granollachs (pour Barcelone). Christophe Colomb a vraisemblablement utilisé le Calendarium de Regiomontanus. La Lune se lève éclipsée, C. Colomb va mesurer la durée de l'éclipse, cinq sabliers depuis le coucher du Soleil, et va en déduire la longitude du lieu. Dans le calcul de cette longitude, il va commettre une erreur importante de 37°.
Aristote (384 - 322 av. J.-C.) dans le Traité du ciel (Livre II, 13) nous informe que les Pythagoriciens, notamment Philolaos (~470 - ~390 av. J.-C.), avaient observé qu'il y avait plus d'éclipses de Lune que d'éclipses de Soleil, ils avaient expliqué ce phénomène en supposant l'existence d'une seconde Terre, l'anti-Terre, située à l'opposé de la Terre par rapport à un feu central et qui venait s'interposer entre le Soleil et la Lune. Cette anti-Terre n'était donc pas visible de la Terre et doublait le nombre d'éclipse de Lune. Cette explication, bien qu'étonnée, prouve que les Pythagoriciens avaient bien compris le mécanisme des éclipses, notamment que les corps célestes sont sphériques et que certains sont lumineux et d'autres plus ou moins opaques.
L'observation des éclipses de Lune a été utilisée par Aristote pour prouver que la Terre était ronde, ainsi dans le Traité du ciel (Livre II, 14) on peut lire "Lors des éclipses, la Lune a toujours pour limite une ligne courbe : par conséquent, comme l'éclipse est due à l'interposition de la Terre, c'est la forme de la surface de la Terre qui est cause de la forme de cette ligne". On remarquera que cette preuve n'est pas suffisante pour prouver la sphéricité de la Terre, un cylindre et un disque ont également des ombres circulaires. Le dessin ci-dessous, qui illustre la démonstration d'Aristote, est extrait de la Cosmographie de Petrus Apianus (1581).
Cette dernière section est purement mathématiques, elle présente un des calculs effectués par Aristarque de Samos dans son traité sur la grandeur et la distance du Soleil et de la Lune. Puis nous étudions les deux observations effectuées par Ptolémée et décrites dans l'Almageste, ces observations permettent de calculer le diamètre apparent de la Lune, puis les distances Terre-Lune et Terre-Soleil. On compare à cette occasion les valeurs calculées par Ptolémée avec les valeurs actuelles.
Aristarque de Samos (310 - 230 av. J.-C.) fut l'élève de Straton de Lampsaque, il est l'auteur du premier système héliocentrique, système décrit dans son livre "Les Hypothèses" (disparu) cité par Archimède dans son traité de l'Arénaire. Aristarque est également l'auteur du traité sur la grandeur et la distance du Soleil et de la Lune.
Pour le calcul des distances Terre-Lune et Terre-Soleil, il fait les hypothèses suivantes :
Comme on le constate certaines de ces hypothèses sont fausses, l'hypothèse 4 revient à donner à l'angle β la valeur de 87°. Cette erreur explique son l'erreur sur le calcul de la distance Terre-Soleil. L'hypothèse 6 donne à la Lune un diamètre de 2°, valeur quatre fois trop forte.
À partir de ces hypothèses, Aristarque va déduire que la distance Soleil-Terre est supérieure à 18 fois la distance Terre-Lune et inférieure à 20 fois la distance Terre-Lune. Il déduit de ces proportions les valeurs suivantes :
Il convient de remarquer qu'à l'époque d'Aristarque les Grecs n'avaient aucune notion de trigonométrie, les premières tables de cordes sont attribuées à Hipparque. C'est pourquoi Aristarque ne tire pas directement la valeur du rapport des distances Terre-Lune et Terre-Soleil de l'angle β, mais encadre cette proportion grâce à des considérations purement géométriques.
On trouve dans la littérature et sur le web de nombreux "exemples" de la détermination de la distance Terre-Lune par Aristarque, avec des hypothèques qui sont très variées (ombre cylindrique, ombre de trois diamètres lunaires, diamètre apparent de la Lune égal à 30'....) et utilisant des méthodes trigonométriques. C'est fort dommage car les méthodes employées par Aristarque sont remarquables et ont un intérêt pédagogique certain.
On peut consulter, sur le site Gallica (gallica.bnf.fr) de la Bibliothèque Nationale, une version française du Traité d'Aristarque de Samos Sur les grandeurs et les distances du Soleil et de la Lune traduite du grec par le Comte de Fortia d'Urban et édité en 1823. On trouve dans un passage d'Archimède qu'Aristarque a également utilisé la valeur d'une demi-degré pour le diamètre lunaire, l'usage de la valeur de 2° dans le traité Sur la grandeur et la distance du Soleil et de la Lune est parfois présenté comme une valeur hypothétique utilisée par l'auteur dans une démonstration qui se veut plus didactique que physique.
La démonstration suivante est issue de la traduction du Comte de Fortia d'Urban et se trouve dans la proposition VIII du Traité d'Aristarque. Pour rendre la démonstration plus lisible je l'ai retranscrite en termes mathématiques plus contemporains.
La proposition VIII est la suivante : La distance à laquelle le soleil se trouve de la terre est plus grande dix-huit fois, mais moindre vingt fois que celle à laquelle la lune se trouve de la terre.
Soit A le centre du Soleil, B le centre de la Terre et C le centre de la Lune. Traçons le cercle (c) de centre B et de rayon AB, le rayon BD passant par C et faisant un angle de 3° avec le rayon BE perpendiculaire à BA (l'angle CBE est la trentième partie de l'angle droit). On construit le carré ABEF, ainsi que sa diagonale BF. Soit BG la bissectrice de l'angle EBF.
L'angle CBE est la trentième partie d'un angle droit (90°/30) et l'angle GBE est le quart d'un angle droit (90°/4), donc l'angle GBE vaut les 15/2 de l'angle CBE. Le rapport de EG sur EH est plus grand que le rapport des deux angles GBE et CBE, donc plus grand que 15/2.
BF est la diagonale du carré ABEF, donc le carré de BF est le double du carré de BE. De plus le carré construit sur FG est aussi le double du carré construit sur EG.
Or comme 49 est inférieur au double de 25, le carré de FG/EG = 2 est supérieur à 49/25, le rapport FG/EG est donc supérieur à 7/5.
Donc EF/EG = (EG+GF)/EG = 1 + GF/EG est supérieur à 12/5 ou 36/15.
Ainsi EG/EH est plus grand que 15/2 et EF/EG est supérieur à 36/15, donc EF/EH est supérieur à 18. Or EF = BE, donc BE/EH est supérieur à 18, et comme BH est supérieur à BE, BH/EH est également supérieur à 18. Or les triangles ABC et EBH sont semblables, donc les rapports BH/EH et AB/BC sont égaux et l'on a bien BA supérieur à 18 BC.
La distance Terre-Soleil est supérieure à 18 fois la distance Lune-Soleil.
Reste à prouver que ce rapport est inférieur à 20. Pour cela traçons la parallèle à BE, cette parallèle coupe AB en K. Traçons le cercle passant par les points BDK et soit L le point du cercle tel que LB soit le côté d'un hexagone inscrit dans ce cercle.
L'angle DBK est égal à l'angle DBE égal à la trentième partie d'un angle droit, l'arc de cercle BK vaut le double donc la quinzième partie d'un angle droit ou encore la soixantième partie de la circonférence.
Or BL est la sixième partie de cette même circonférence; donc l'arc BL est dix fois plus grand que l'arc BK. Or le rapport des cordes BL/BK est inférieur au rapport des arcs BL/BK, donc la corde BL est inférieure à dix fois la corde BK.
Or BD est égal à deux BL, donc BD est inférieur à 20 BK. Or les triangles DKB et ABC sont semblables donc BD/BK = AB/BC, donc AB est bien inférieur à 20 BC.
Bien évidemment, si l'on connaît la trigonométrie, cette longue démonstration élégante est remplacée par une simple équation à savoir : AB/BC = 1/sin 3° d'où AB/BC = 19,10.
Ptolémée, dans l'Almageste (livre V chapitre 14), nous décrit deux méthodes permettant de calculer le diamètre apparent de la Lune, puis les distances Terre-Lune et Terre-Soleil.
Pour le calcul du diamètre apparent de la Lune, Ptolémée utilise deux éclipses de Lune observées à Babylone. La première a eu lieu l'an 5 de l'ère de Nabopolassar, qui est l'année 127 de l'ère de Nabonassar, à la fin de la onzième heure du 27 au 28 du mois égyptien Athyr (troisième mois de l'année). Cette date correspond à la nuit du 21 au 22 avril -620 (621 av. J.-C.). Ptolémée nous dit "on vit à Babylone la Lune commencer à s'éclipser; et la plus grande phase de cette éclipse fut du quart du diamètre dans la partie méridionale de l'astre". Puis il calcule la position de la Lune sur son orbite pour l'instant du maximum de l'éclipse et trouve qu'elle se trouve à 9,5° de son nœud et que la distance angulaire entre le centre de la Lune et le centre de l'axe des cônes est de 48,5'. La seconde éclipse de Lune utilisée est celle de l'an 7 de Cambyse, c'est-à-dire l'an 225 de l'ère de Nabonassar, elle s'est produite à une heure avant minuit du 17 au 18 du mois égyptien Phamenoth, ce qui correspond à l'éclipse du 16 juillet -522 (523 av. J.-C.); Ptolémée nous dit "on vit à Babylone la lune s'éclipser de la moitié de son diamètre dans la partie boréale" et il calcule qu'au maximum de l'éclipse la Lune est à 7,8° de son nœud et que la distance angulaire entre le centre de la Lune et le centre de l'axe des cônes est de 40,6'. Ptolémée calcule également que les deux éclipses ont lieu sensiblement lorsque la Lune est à une même distance angulaire de son apogée, donc que les diamètres lunaires apparents sont sensiblement identiques, alors la différence des distances à l'axe des cônes est égale au quart de diamètre lunaire, Ptolémée en déduit que le diamètre lunaire est de l'ordre de 31,3'. À partir de la deuxième éclipse, Ptolémée calcule également le rayon du cône d'ombre en fonction du rayon apparent de la Lune et il trouve que ce rayon "est un peu moindre que le double et 3/5 du rayon de la Lune".
Les tableaux suivants donnent les valeurs calculées avec les théories actuelles et les valeurs données par Ptolémée dans l'Almageste.
Valeurs calculées actuelles | Valeurs données par Ptolémée | |
Magnitude | 0,1818685 | |
Diamètre lunaire apparent | 29,51' | |
Instant du maximum | 1h56,2m UT | |
Instant du maximum en heure locale | 4h54,2m | environ 6 h |
Distance centre de la Lune axe des cônes | 48'31,91" | 48'30" |
Longitude de la Lune | 204°53'31,5" | 205°32' |
Elongation par rapport au noeud | 8,77° | 9,3° |
Longitude par rapport à l'apogée | 339°6' | 340°7' |
Valeurs calculées actuelles | Valeurs données par Ptolémée | |
Magnitude | 0,5615770 | |
Diamètre lunaire apparent | 29,63' | |
Instant du maximum | 20h28,8m UT | |
Instant du maximum en heure locale | 23h26,8m | environ 23h |
Distance centre de la Lune axe des cônes | 37'21,56" | 40'40" |
Longitude de la Lune | 287°0'41,68" | 288°14' |
Elongation par rapport au noeud | 6,75° | 7,8° |
Longitude par rapport à l'apogée | 31°55' | 28°5' |
Ptolémée garde cette valeur de 31' 20" pour le diamètre lunaire et la considère comme constante alors qu'il tient compte des variations de la distance Terre Lune. Il estime le maximum de cette distance à 64 +1/6 rayons terrestres. La valeur moyenne étant de 59 rayons terrestres et il représente le mouvement de la Lune à l'aide d'un cercle déférent de 59 rayons terrestres et d'un épicycle de 5 +1/6 rayons terrestres. En faisant l'hypothèse que le diamètre apparent du Soleil est égal au diamètre apparent de la Lune à son apogée, il déduit de ces valeurs la distance Terre-Soleil et la distance de la Terre au sommet de son cône d'ombre. Il trouve une distance Terre Soleil de 605 rayons terrestres et une distance Terre sommet du cône d'ombre de 134 rayons terrestres.
Ce chapitre regroupe tous les QCMs (exercices d'auto-évaluation classés par thèmes) correspondant à l'intégralité du chapitre Soleil Terre Lune Phénomènes, ainsi que plusieurs problèmes avec leurs rappels de cours éventuellement.
Marco et Polo décident de faire le tour du monde en ULM. Ils partent de Paris vers l'est le mercredi 27 mars 2002 à 10h du matin en temps légal français.
Ils arrivent à Paris le samedi 13 avril à 10h du matin en temps légal français. Dans les calculs, on supposera que la Terre est sphérique et que son rayon est 6378 km ; on supposera aussi qu'ils ont fait le tour de la Terre en suivant le parallèle de Paris dont la latitude sera prise égale à 49° et l'on négligera l'altitude de l'ULM.
En sachant que l'on est passé de l'heure d'hiver (UTC + 1h) à l'heure d'été (UTC +2h) la nuit du 31 mars 2002, quelle est la vitesse moyenne de leur tour du monde ?
Combien ont-ils observé de levers de Soleil durant leur voyage ?
S'ils avaient fait le tour du monde à la même vitesse mais en partant vers l'ouest, quand seraient-ils arrivés et combien de levers de Soleil auraient-ils observés ?
En l'an 1867, Marco et Polo décident de réitérer l'exploit de Christophe Colomb et de traverser l'Atlantique sur leur radeau le « Kicoolpa », ils partent des côtes françaises à la mi-février. La traversée se déroule bien, sauf vers la fin où ils sont pris dans une terrible tempête. Durant cette tempête ils perdent une grande partie de leur matériel et échouent finalement sur une île inconnue le mardi 19 mars 1867 au soir.
Or ils ont réussi à sauver de la tempête un précieux Annuaire du Bureau des longitudes pour l'année en cours. Dans cet annuaire, ils trouvent (page 12), les éphémérides du Soleil à Paris au mois de mars
1867 Mars | Lever | Coucher | Passage au méridien de Paris |
---|---|---|---|
19 mars : mardi : St Joseph | 6h 8m | 18h 9m | 12h 8m 1s |
20 mars : mercredi : St Joachim | 6h 6m | 18h 11m | 12h 7m 43s |
21 mars : jeudi : St Benoît Printemps à 1h 55m | 6h 3m | 18h 12m | 12h 7m 25s |
22 mars : vendredi : St Emile | 6h 1m | 18h 14m | 12h 7m 6s |
23 mars : samedi : St Victorien | 5h 59m | 18h 15m | 12h 6m 48s |
Seuls les instants des passages sont utiles pour notre problème.
Dans cette éphéméride les instants sont donnés en temps moyen du méridien de Paris, le Soleil apparent ne tournant pas uniformément autour de la Terre, l'instant du passage au méridien du lieu (midi au Soleil) exprimé en temps moyen diffère de 12h. Ainsi le 19 mars le Soleil passe au méridien (midi au Soleil) lorsque qu'une montre donnant l'heure en temps moyen de Paris indique 12h 8m 1s. Dans cette éphéméride, ils trouvent également (page 32) qu'une éclipse partielle de Lune aura lieu 20 mars 1867, avec les horaires suivants :
Phénomène | Instant en temps moyen de Paris |
---|---|
Entrée dans l'ombre de la Terre | 7h 25m 27s |
Maximum de l'éclipse | 8h 58m 15s |
Sortie de l'ombre de la Terre | 10h 30m 57s |
Cette éclipse n'est pas visible à Paris (il fait jour au moment de l'éclipse).
Polo a sauvé la montre gousset de son oncle Anatole, il l'avait mise à l'heure de Paris à son départ de France et a toujours pris soin de la remonter chaque jour, mais cette montre, très précise à Terre, à la fâcheuse habitude de prendre du retard lorsqu'elle est ballottée par les flots.
Dans la seconde partie de la nuit du 19 au 20 mars, ils observent le début de l'éclipse partielle de Lune, c'est-à-dire l'entrée de la Lune dans l'ombre de la Terre. La montre de l'oncle Anatole indique alors 7h 2m 17s. Ils ne peuvent observer la fin de l'éclipse, la Lune se couchant éclipsée.
Le jour suivant, ils construisent un gnomon, à l'aide d'un manche à balai planté verticalement dans le sol, à l'aide d'un cordeau, ils tracent un cercle autour du manche à balai et notent le matin et l'après-midi l'intersection de l'ombre du balai avec le cercle. La bissectrice de l'angle formé par ces deux directions leur donne la direction du méridien nord-sud du lieu.
Le lendemain, le 21 mars, jour de l'équinoxe de printemps, ils notent la longueur de l'ombre à l'instant où le Soleil passe par le méridien, à cet instant la montre de l'oncle Anatole indique 15h 57m 21s. Et le rapport de l'ombre du balai sur la longueur du balai est égal à 0,244. L'ombre est dirigée vers le nord.
Hourra ! S'écrit Marco, nous pouvons connaître notre latitude, notre longitude par rapport à Paris et je sais de combien retarde la montre de l'oncle Anatole.
Quelles sont les coordonnées de l'île et quel est le retard de la montre de l'oncle Anatole ?
On donnera la longitude par rapport au méridien de Paris et la latitude en degrés, minutes et secondes. Attention il faut donner les secondes pour que les résultats soient valables.
Le lendemain (22 mars) Marco décide de mettre sa montre à l'heure en temps moyen local de l'île au moment du passage au méridien du Soleil. Quelle heure affichera-t-il à sa montre à cet instant ?
On supposera que la montre ne prend plus de retard une fois les hommes à Terre.
Les dessins et définitions ci-dessus ont pour but de vous aider dans la résolution du problème :
On suppose la Terre sphérique, le dessin ci-dessus représente la coupe méridienne de la Terre pour un lieu situé sur le méridien et de latitude φ.
On suppose que la vitesse angulaire en longitude du Soleil apparent est constante d'un passage au méridien de Paris à l'autre.
On rappelle que le temps moyen est donné par une horloge battant la seconde et qu'un jour moyen comporte 24h (86400s). On rappelle que la différence de temps moyen entre deux lieux est égale à la différence des longitudes (exprimée en heure) entre ces deux lieux.
On rappelle qu'à l'instant des équinoxes la Terre est sur la droite définie par l'intersection de son plan orbital autour du Soleil et de l'équateur terrestre. Donc à cet instant le Soleil apparent est dans l'équateur terrestre, on suppose qu'il y reste toute la journée de l'équinoxe (en réalité il n'y est qu'au moment de l'équinoxe). Enfin on rappelle qu'une éclipse de Lune est un phénomène indépendant du lieu d'observation, il suffit que la Lune soit levée pour l'observer.
Toutes ces données sont exactes et sont issues de l'Annuaire de 1867. Seul le voyage de Marco et Polo est de la fiction !
L'astrophysique a été limitée pendant des millénaires aux astres, étoiles et planètes en très grande majorité, visibles à l'oeil nu. L'étude de notre Galaxie, la Voie Lactée, n'a vraiment commencé qu' au début du XVIIème siècle, avec Galilée. Ce dernier a en effet montré que la Voie Lactée était constituée d'étoiles. La voie était alors ouverte à l'étude des galaxies extérieures à la nôtre. Cependant, même si plusieurs astronomes et philosophes du XVIIIème siècle se sont intéressés aux "nébuleuses" ou objets diffus, il a fallu attendre les années 1920 pour que la nature des galaxies ne fasse plus l'objet d'un débat.
Depuis 80 ans, l'étude des galaxies a fait des progrès considérables, et il en est de même pour la cosmologie, ou étude de l'univers dans son ensemble. Les galaxies sont maintenant couramment utilisées pour sonder l'univers et dessiner ses grandes structures. Les moyens d'observation sont devenus extrêmement puissants et il en est de même des ordinateurs, qui permettent maintenant de réaliser des simulations numériques comprenant des millions de particules.
Si la cosmologie se heurte encore au problème de comprendre la nature de la matière noire et de l'énergie noire, les galaxies et amas de galaxies commencent à être maintenant bien compris et vont faire l'objet de ce chapitre.
Ce chapitre traite des galaxies et de l'univers extragalactique, c'est à dire au-delà de notre Galaxie, la Voie Lactée.
Après un bref historique sur les galaxies, depuis l'observation d'objets diffus dans le ciel dont on ignorait la nature jusqu'à l'astrophysique moderne, nous verrons comment les galaxies peuvent être classées selon leurs propriétés morphologiques et physiques.
Nous présenterons ensuite plusieurs méthodes permettant de déterminer les distances des galaxies, quantité indispensable à connaître pour pouvoir déterminer leurs propriétés.
Puis nous décrirons leur contenu et les méthodes d'observation ayant permis de connaître les divers types de matière composant les galaxies : étoiles, gaz, poussières et matière noire.
Nous aborderons dans la partie suivante la cinématique des galaxies, c'est à dire leurs mouvements internes, qui permettent d'estimer la masse des galaxies, et en particulier la masse de matière noire, dont on perçoit les effets gravitationnels mais qui n'émet pas de lumière, et est donc indétectable directement.
Nous décrirons ensuite les phénomènes auxquels les galaxies peuvent être soumises : interactions entre galaxies, fusions, etc.
Nous nous intéresserons enfin aux galaxies à noyau actif et quasars, qui sont le siège de phénomènes parmi les plus énergétiques de l'univers.
Un dernier chapitre concernera la formation des galaxies et leur évolution chimique et morphologique, ainsi que leur évolution en luminosité.
Si l'étude des galaxies est une science récente, parce qu'il s'agit d'objets célestes difficilement visibles à l'oeil nu, les hommes se sont intéressés dès l'antiquité à la Voie Lactée, notre Galaxie. Celle-ci est bien visible à l'oeil nu comme une traînée blanche dans le ciel.
Plusieurs interprétations liées à la mythologie ont ainsi été proposées pour expliquer la Voie Lactée: par exemple, chez les Egyptiens, il s'agissait de blé semé par Isis, chez les Romains de lait répandu par Junon. Ces interprétations n'occultaient pas des questions philosophiques plus sérieuses, comme par exemple : où est la Terre dans l'univers ? quelle est la forme de l'ensemble d'étoiles que l'on voit à l'oeil nu ? cet ensemble est-il unique ?
C'est vers 1610 que le grand astronome italien Galilée montra pour la première fois que la Voie Lactée pouvait être résolue en étoiles.
Près d'un siècle et demi plus tard apparurent indépendamment plusieurs hypothèses voisines. Thomas Wright, en Angleterre, tenta de relier l'astronomie avec la théologie en imaginant qu'il existait d'autres "Centres Sacrés", une intuition pouvant se rapprocher de celle du philosophe allemand Emmanuel Kant qui exactement à la même époque proposa l'existence de ce qu'il appela des " univers-îles", identifiés à ce que l'on appelait alors les nébuleuses elliptiques, systèmes de nombreuses étoiles à des distances immenses.
L'astronome français Charles Messier constitua ensuite, vers 1771, le premier catalogue d'objets diffus, baptisés "nébuleuses", et comprenant en fait des objets de divers types dont on ne connaissait pas les propriétés à cette époque (galaxies, nébuleuses, amas globulaires...).
A peu près en même temps, l'astronome et musicien anglais John Herschel, avec l'aide de sa soeur Caroline Herschel, se mit à construire des lunettes astronomiques, puis des télescopes. Ces instruments lui permirent de mettre en évidence l'existence de divers types de "nébuleuses" (objets diffus). Ils lui permirent aussi de compter les étoiles dans tout le ciel et de montrer que la distribution de ces étoiles (qui appartiennent toutes à notre Galaxie, la Voie Lactée), avait une forme lenticulaire (c'est à dire aplatie, avec un renflement au centre).
Lord Ross, en Angleterre encore, montra vers 1850 que la galaxie d'Andromède, notre voisine, seule galaxie visible à l'oeil nu dans l'hémisphère nord, présentait une structure spirale. Il montra ensuite qu'il en était de même pour de nombreuses autres "nébuleuses".
Il fallut attendre les années 1920 pour que la nature des galaxies soit définitivement tranchée.
Tout d'abord eut lieu à l'académie des sciences américaine le "grand débat" entre les astronomes Curtis et Shapley. Curtis soutenait que les galaxies étaient extérieures à la nôtre, tandis que Shapley pensait qu'elles faisaient partie de notre Galaxie. Chacun resta sur ses positions, mais quelques années plus tard l'astronome américain Edwin Hubble prouva définitivement grâce à ses observations que les galaxies étaient des ensembles de quelques millions à quelques milliards d'étoiles, ce qui impliquait qu'il s'agissait d'objets très grands, très massifs et très lointains. On réserva alors le terme de "nébuleuse" aux nuages de gaz de notre galaxie dans lesquels des étoiles sont en formation.
Hubble fut le premier à mesurer la distance des galaxies.
Comme nous l'avons mentionné, Andromède est la seule galaxie visible à l'oeil nu dans l'hémisphère nord. Elle est située à une distance d'environ 2,9 millions d'années lumière de nous. Dans l'hémisphère sud, on peut voir deux petites galaxies irrégulières, le grand et le petit nuage de Magellan ; elles sont situées à une distance d'environ 150.000 années lumière.
Rappel : une année-lumière est la distance parcourue par la lumière en un an, à la vitesse de 300.000 km/s. Une année lumière vaut donc environ 1016 mètres.
Difficulté : ☆ Temps : 1 minute
Si la galaxie d'Andromède est à 2,9 millions d'années-lumière de nous, combien de temps la lumière met-elle pour nous parvenir d'Andromède?
Calculer la distance d'Andromède en mètres.
Les nuages de Magellan sont deux galaxies irrégulières voisines de la nôtre.
Andromède et les deux Nuages de Magellan font partie d'un ensemble de quelques dizaines de galaxies appelé Groupe Local.
Les galaxies sont composées de plusieurs éléments dont l'importance varie selon le type de galaxie considéré. On distingue ainsi le bulbe, composante sphérique ou sphéroïdale, et le disque, de faible épaisseur par rapport à son diamètre. Des bras spiraux sont généralement visibles dans le disque.
L'importance et la forme de ces divers éléments déterminent la "séquence" de Hubble, correspondant au diagramme de Hubble dit "en diapason".
De gauche à droite, on peut voir les galaxies elliptiques, de E0 à E9 quand on passe des plus sphériques aux plus aplaties, puis les galaxies lenticulaires ou S0, puis dans la branche supérieure du diapason les galaxies dites "normales", Sa, Sb et Sc, et dans la branche inférieure les galaxies barrées, notées SBa, SBb et SBc.
D'après ce schéma, on voit que l'importance du bulbe décroît de la gauche vers la droite, alors que l'importance des bras spiraux, qui font toujours partie du disque, augmente.
Les galaxies elliptiques et lenticulaires sont souvent appelées galaxies de "type précoce" tandis que les spirales sont dites "de type tardif". Cette appellation provient de l'idée fausse (mais qui prédominait autrefois) selon laquelle les galaxies elliptiques se formaient les premières, puis évoluaient en spirales. Nous verrons dans le chapitre concernant la formation des galaxies que ce n'est pas le cas, mais les termes "précoce" et "tardif" sont restés.
Attention donc, la "séquence" de Hubble n'est pas une séquence dans le temps.
Inclassables par définition, les galaxies irrégulières (comme ci-dessus les nuages de Magellan) sont placées tout à droite de ce diagramme ; lorsqu'on se déplace de gauche à droite dans ce diagramme les galaxies renferment de plus en plus d'étoiles jeunes.
On peut remarquer que lorsqu'on se déplace de gauche à droite du diapason de Hubble, la masse totale et la concentration de masse décroissent, alors que la fraction de gaz et donc le taux de formation d'étoiles augmentent. L'enroulement des bras spiraux décroît quand on passe des Sa aux Sc, ce qui dénote une moins grande stabilité des galaxies Sc par rapport aux Sa.
Les galaxies de type précoce comprennent les galaxies elliptiques et lenticulaires. Elles sont ainsi appelées parce qu'autrefois on pensait qu'elles se formaient avant les autres. Nous verrons qu'en fait cette interprétation est erronée, puisqu'on pense maintenant que les elliptiques se forment par fusion de galaxies, spirales ou elliptiques.
Les galaxies elliptiques peuvent être sphéroïdales (c'est à dire rondes en projection sur le ciel) ou ellipsoïdales (plus ou moins aplaties). La galaxie Messier 87 est un exemple typique de galaxie elliptique.
On trouve souvent une galaxie elliptique très massive au centre des amas de galaxies. La grosseur de ces galaxies est sans doute due au fait qu'elles se trouvent généralement au fond du puits de potentiel gravitationnel des amas, et de ce fait accrètent tout au long de leur vie des galaxies plus petites, attirées par la concentration de masse au centre de l'amas.
La galaxie Centaurus A est également une elliptique, mais traversée par une grande bande de poussières qui absorbe la lumière des étoiles situées derrière elle et lui donne cet aspect inhabituel (d'habitude les galaxies elliptiques contiennent peu de poussière).
Contrairement aux elliptiques, les galaxies lenticulaires possèdent un disque dans lequel se trouvent en général les poussières, comme dans la galaxie dite du "Sombrero".
Les galaxies dites de type tardif correspondent aux galaxies spirales, de Sa à Sc (et aussi SBa à SBc, en ce qui concerne les spirales barrées). On pensait autrefois que les galaxies spirales se formaient plus tard que les elliptiques.
Les galaxies spirales barrées possèdent en proportion non négligeable une barre d'étoiles traversant leur noyau. Dans ce cas, les bras spiraux sont issus des extrémités de la barre et non directement du noyau.
Dans certains cas, il peut exister deux barres, l'une à grande échelle, et l'autre plus petite et plus près du noyau. Il s'agit là de l'un des mécanismes invoqués pour expliquer comment de la matière "tombe" vers le trou noir central des galaxies à noyau actif.
Les barres ont des propriétés dynamiques particulières. Les interactions/fusions de galaxies peuvent les créer, mais aussi les détruire. De manière générale, il semble que les barres aient une durée de vie relativement courte ; elles peuvent être créées et détruites une ou plusieurs fois durant la vie d'une galaxie spirale.
Les galaxies irrégulières ont, comme leur nom l'indique, une forme mal définie. Il s'agit de galaxies qui n'ont pas fini de se former, et elles sont encore riches en gaz et en étoiles chaudes, dont la formation est récente.
Les galaxies ne sont pas réparties selon la séquence de Hubble (diagramme en diapason) de manière uniforme.
Les galaxies ne sont pas des systèmes complètement formés, leur formation et leur évolution se poursuivant tout au long de l'âge de l'Univers. En effet, outre l'évolution des étoiles, qui modifie évidemment les propriétés des galaxies qui les contiennent, les propriétés des galaxies peuvent également être modifiées par les interactions et fusions de galaxies.
On estime que les pourcentages de galaxies des divers types sont les suivants : environ 60% de galaxies elliptiques (principalement des naines elliptiques), 30% de spirales et 10% de galaxies irrégulières ou inclassables.
Ces pourcentages sont différents dans les amas de galaxies, où les propriétés des galaxies sont modifiées par des effets d'environnement. Dans les amas, il y a une majorité de galaxies elliptiques, surtout dans les régions centrales des amas, tandis que les spirales se trouvent majoritairement dans les zones externes. Ce phénomène est appelé ségrégation morphologique.
En ce qui concerne les galaxies barrées, les barres apparaissent et disparaissent durant l'existence d'une galaxie, en particulier selon la quantité de matière disponible que la barre peut accréter.
Difficulté : ☆ Temps : 1 minute
Classer les différents types de galaxies suivants par ordre d'importance croissante du rapport bulbe/disque: S0 (lenticulaires), Sc, Sa, elliptiques, irrégulières, Sb.
Donner la même séquence pour les galaxies barrées.
Il est difficile de déterminer la forme exacte de la Voie Lactée dans la mesure où nous sommes dedans, et ne pouvons pas en sortir pour la regarder de l'extérieur. On pense cependant que c'est une galaxie spirale barrée, un peu semblable à Andromède, l'autre grosse galaxie du Groupe Local. La Voie Lactée est souvent appelée la Galaxie (avec une majuscule pour la distinguer des autres).
Le nombre de bras spiraux de la Voie Lactée a fait l'objet de nombreuses controverses. Comme les étoiles se forment dans les bras spiraux, une méthode pour tracer les bras est d'analyser la distribution spatiale des régions HII (régions de gaz ionisé par le rayonnement des étoiles jeunes qui y sont contenues) dans la Galaxie.
Le satellite infrarouge COBE a pu photographier le ciel dans diverses bandes de longueur d'onde, et l'image infrarouge présentée dans la figure ci-dessus montre que nous sommes visiblement dans une galaxie à disque, avec un petit bulbe.
Le comptage des régions HII (régions de gaz ionisé) dans notre Galaxie par Delphine Russeil a montré l'existence probable de quatre bras spiraux dans notre Galaxie.
Afin de connaître les propriétés des galaxies, il est nécessaire de pouvoir déterminer leur distance. En effet, nous pouvons seulement effectuer des mesures en pixels sur le CCD qui nous sert de récepteur. Connaissant la dimension angulaire d'un pixel en projection sur le ciel, nous pouvons alors calculer les angles correspondants, toujours en projection dans le plan du ciel. Pour transformer ces mesures angulaires en distances physiques, il est ensuite nécessaire de connaître la distance de l'objet.
Les distances des galaxies proches sont souvent exprimées en Mpc (Megaparsecs).
Le parsec est une unité de longueur correspondant à la distance à laquelle la parallaxe d'une étoile est de 1 seconde d'arc (1 seconde d'angle vaut 1/3600 ème de degré).
La correspondance entre parsec (pc) et année lumière (a-l) est : 1 pc = 3,26 al. Le kpc (kiloparsec), qui vaut 1000 pc, est une unité commode pour les distances au sein d'une galaxie, et le Mpc (mégaparsec) sert à exprimer les distances des galaxies proches (ou les dimensions des amas de galaxies).
Pour mesurer les distances des galaxies, on utilise ce que l'on appelle des indicateurs de distance. Il s'agit de propriétés qui sont les mêmes pour une catégorie d'objets donnés, et qui permettent de proche en proche d'estimer la distance des galaxies. Pour des galaxies de plus en plus lointaines, on distingue ainsi les indicateurs primaires, secondaires, et tertiaires.
La première manière de déterminer la distance d'une étoile proche est de mesurer ce que l'on appelle sa parallaxe.
Lorsque la Terre est dans une certaine position, par exemple à l'équinoxe de printemps, elle voit l'étoile proche dans une certaine direction dans le ciel (par rapport à des étoiles lointaines). Six mois plus tard, à l'équinoxe d'automne, la même étoile semblera s'être déplacée par rapport aux étoiles lointaines (qui, elles, n'auront pas bougé). Si l'on connaît les propriétés optiques de l'ensemble télescope +caméra+détecteur, on peut estimer de quel angle sur le ciel l'étoile s'est déplacée par rapport aux étoiles lointaines et fixes d’arrière plan. On peut alors mesurer de combien l'étoile proche s'est déplacée par rapport aux étoiles lointaines et fixes d'arrière-plan.
Ainsi, connaissant les propriétés optiques de l'instrument utilisé (télescope + détecteur), on peut calculer la dimension du pixel en secondes d’angle (1 second d'arc vaut la 3600ème partie d'un degré d'angle). On peut donc mesurer 2 theta, où theta est la parallaxe de l'étoile (voir schéma ci-dessus).
On peut écrire : tan θ = ST / SE, et comme θ est un angle très petit on peut l'assimiler à sa tangente, à condition de le convertir en radians. D'où: θ (rad) = ST/SE. Comme on connaît ST (distance moyenne Terre-Soleil) et que l'on peut mesurer θ, on en déduit SE = distance de l’étoile au Soleil (ou à la Terre, la différence est minime).
La difficulté d'appliquer cette méthode est due au fait que les parallaxes θ sont des angles très petits, donc difficiles à mesurer, et seulement mesurables pour les étoiles proches. Au-delà les angles deviennent trop petits et impossibles à mesurer.
Le satellite Hipparcos a mesuré les parallaxes, et donc les distances d'environ 100.000 étoiles au début des années 1990, et le futur satellite Gaia devrait en mesurer dix fois plus d'ici quelques années. Il est très important de bien connaître la distance des étoiles, car il devient alors possible d'estimer leurs propriétés intrinsèques à partir des observations.
Difficulté : ☆ Temps : 2 minutes
Une étoile est vue sous une parallaxe de 0,1 seconde d'angle. Calculer sa distance en mètres, puis en parsecs.
Comment aurait-on pu trouver ce résultat sans aucun calcul ?
Au début du XXème siècle, l'astronome américaine Henrietta Leavitt découvrit et caractérisa un nouveau type d'étoiles variables : les Céphéides, du nom de leur prototype, l'étoile delta de la constellation de Cephée.
L'éclat de ces étoiles varie de manière périodique, et la période P de ces variations est d'autant plus courte que l'éclat moyen est faible.
H. Leavitt montra qu'il existait une relation du type
où <M> est la magnitude absolue de l'étoile (par définition sa magnitude si elle était située à une distance de 10 pc), et a et b sont des constantes.
Grâce à l'observation d'étoiles Céphéides dont la distance avait été mesurée par une autre méthode (par exemple par leur parallaxe), il a été possible de calculer a et b, la valeur de M étant déduite de la magnitude apparente par la relation :
où D est la distance de l'étoile mesurée en pc.
La connaissance de a et b, la mesure de la période P et de la magnitude apparente m d'une Céphéide située à une distance inconnue, permet alors de calculer sa magnitude absolue, et donc sa distance.
Les Céphéides sont des indicateurs de distance très précieux, aussi appelés "chandelles standards".
La quantité m-M est appelée "module de distance"
Retrouver la définition de la magnitude absolue M d'après la relation
Si le module de distance d'une galaxie est 30, quelle est sa distance? (bien préciser l'unité)
On a cependant remarqué que la relation entre la magnitude apparente et la période présentait une certaine dispersion, et en étudiant de manière précise les Céphéides on a découvert qu'il en existait en fait de deux types, correspondant à deux séquences légèrement différentes. Ceci a permis d'affiner la relation période-luminosité des Céphéides, et donc d'améliorer la précision sur les distances mesurées grâce à ces étoiles.
Récemment, un grand programme d'observations a été consacré aux Céphéides par une équipe américaine avec le télescope spatial Hubble, et a conduit à une détermination plus précise de la constante de Hubble (voir plus loin).
Difficulté : ☆ Temps : 1 minute
La relation période-luminosité des étoiles Céphéides relie leur période de variation à leur magnitude absolue. Comment peut-on connaître la magnitude absolue de ces étoiles?
Pourquoi avait-on jusque récemment une assez grande dispersion dans la relation période-luminosité des Céphéides?
Une supernova est une étoile massive qui explose à la fin de son évolution. La courbe de lumière d'une supernova, représentant sa magnitude apparente en fonction du temps, consiste en une partie où l'éclat de l'étoile croît très rapidement, puis une décroissance rapide de l'éclat, suivie ensuite d'une décroissance beaucoup plus lente.
Il existe des supernovae de plusieurs types, parmi lesquels les supernovae de type Ia (SNIa) dont la magnitude absolue au maximum d'éclat est quasiment la même pour toutes ces étoiles. On peut donc les utiliser comme indicateurs de distance.
En réalité il existe une certaine dispersion entre les courbes de lumière des SNIa, que l'on peut réduire en tenant compte de diverses autres corrélations entre la magnitude absolue au maximum d'éclat et d'autres quantités, en particulier la pente de la décroissance de la courbe de lumière après le maximum. On obtient alors une relation analogue à la relation période-luminosité des Céphéides, qui sert d'indicateur de distance pour des galaxies beaucoup plus lointaines, puisque les supernovae sont des objets intrinsèquement très brillants, et que l'on peut donc voir très loin.
On a ainsi pu construire de proche en proche des échelles de distances pour mesurer les distances des galaxies, aboutissant à la loi de Hubble qui permet de calculer la distance des galaxies à partir de leur décalage spectral, comme décrit ci-dessous.
Dans les années 1920, l'astronome américain Edwin Hubble prit les premiers spectres de galaxies et découvrit que ces spectres étaient décalés vers les grandes longueurs d'onde (c'est à dire vers les longueurs d'onde rouges du spectre visible) par rapport aux spectres du Soleil ou d'étoiles de notre Galaxie.
Il interpréta ce phénomène comme l'équivalent pour la lumière de l'effet Doppler pour les ondes sonores : si la source s'éloigne de l'observateur, la fréquence de l'onde reçue devient plus basse (et donc la longueur d'onde devient plus grande) que celle de l'onde émise.
Le décalage vers le rouge des spectres des galaxies indique donc que les galaxies s'éloignent les unes des autres, et donc que l'univers est en expansion.
En mesurant le décalage spectral (redshift en Anglais) de galaxies proches dont la distance avait été déterminée par exemple grâce aux Céphéides, Hubble a montré que le décalage spectral était proportionnel à la distance de la galaxie.
Cette relation est maintenant appelée loi de Hubble.
Pour une raie de longueur d'onde λ0 mesurée à la longueur d'onde λ dans le spectre de la galaxie, le décalage spectral est par définition :
z = ( λ - λ0 ) / λ0
La vitesse à laquelle la galaxie s'éloigne de nous est alors v = c.z où c est la vitesse de la lumière. Cette formule n'est valable que pour les galaxies proches, lorsque le décalage spectral reste faible (si l'on appliquait cette formule pour un décalage spectral supérieur à 1, la vitesse de récession des galaxies deviendrait supérieure à celle de la lumière).
La distance d'une galaxie est alors simplement D = v/H0 où H0 est la constante de Hubble.
Pour des décalages spectraux plus grands, il faut appliquer des formules prenant en compte la relativité d'Einstein.
En 1929, Hubble détermina pour la première fois la valeur de la constante qui porte maintenant son nom, en observant des galaxies distantes de moins de 2 Mpc. La dispersion des points était grande et la valeur de la constante qu'il trouvait était de l'ordre de 500 km s -1 Mpc -1. Deux ans plus tard, avec Humason, Hubble étendit cette relation à des galaxies 15 fois plus lointaines. Cependant, la valeur de la constante restait à peu près identique (et donc fausse par un facteur de l'ordre de 10).
Durant le XXème siècle il y eut de nombreuses observations pour améliorer la précision sur la détermination de la constante de Hubble.
Ainsi, deux équipes s'affrontèrent pendant des années, celle autour de Gérard de Vaucouleurs prônant H0 = 100km s-1 Mpc-1 tandis qu'une autre équipe autour de Sandage et Tammann trouvait plutôt H0 = 50 km s -1 Mpc -1.
La valeur actuellement admise est 72 km s-1 Mpc-1. Elle a été déterminée à partir d'un grand programme d'observations avec le télescope spatial Hubble par l'équipe de Wendy Freeman. L'erreur sur cette valeur est de l'ordre de quelques unités.
Difficulté : ☆ Temps : 2 minutes
La longueur d'onde en laboratoire de la raie Hα de l'hydrogène ionisé est 656.28 nm. On détecte cette raie dans le spectre d'une galaxie à la longueur d'onde de 662.85 nm. Quel est le décalage spectral de la galaxie ?
Si l'on prend comme constante de Hubble 70 km s-1 Mpc-1, a quelle vitesse la galaxie s'éloigne-t-elle de nous et quelle est sa distance (on négligera les effets relativistes) ?
Les galaxies sont composées d'étoiles, de gaz, de poussières et de matière noire.
Nous allons voir comment il est possible de déterminer le contenu et les propriétés de chacune de ces composantes.
L'importance relative et les propriétés physiques de ces diverses composantes diffèrent selon les divers types de galaxies.
Par exemple, les galaxies elliptiques sont riches en étoiles vieilles, rouges, et relativement peu massives, alors que les galaxies spirales contiennent des étoiles vieilles et rouges dans leur bulbe (semblables à celles des galaxies elliptiques) mais aussi des étoiles chaudes et plus massives dans leurs bras spiraux.
Le gaz, lui, sert à former les étoiles. Dans les galaxies elliptiques, toutes les étoiles ont depuis longtemps fini de se former, et il ne reste donc quasiment plus de gaz. Au contraire, dans les spirales, il reste du gaz, et on y observe donc encore des étoiles en train de se former ou tout juste formées.
Suivant le domaine de longueur d'onde où l'on observe une galaxie, celle-ci peut prendre divers aspects. Par exemple en ultraviolet, on va voir essentiellement les étoiles jeunes et chaudes, tandis que dans le rouge on verra les étoiles plus vieilles. En infrarouge, on détectera l'émission des poussières, qui peuvent dans certains cas être chauffées par le rayonnement d'étoiles récemment formées. C'est ainsi par exemple que le satellite Spitzer a permis d'observer des galaxies à la longueur d'onde de 24 microns, et de cartographier les zones de formation d'étoiles grâce au rayonnement des poussières réémettant dans l'infrarouge le rayonnement qu'elles reçoivent des étoiles chaudes voisines.
Aux très hautes énergies, on verra des composantes complètement différentes : en rayons X, on détectera le rayonnement du noyau actif s'il y en a un (voir le chapitre Les galaxies à noyau actif), ou bien les étoiles binaires X individuelles dans les bras spiraux des galaxies proches. Certaines grosses galaxies elliptiques peuvent être entourées d'un halo de gaz très chaud et très peu dense de même nature que celui qui baigne les amas de galaxies, et qui est alors détecté en rayons X. Enfin, les régions centrales de certaines galaxies à noyau actif peuvent aussi émettre en rayons gamma.
Les étoiles peuvent être observées dans les galaxies tout d'abord grâce à l'imagerie, qui permet de caractériser leur distribution. De plus si l'on observe la même galaxie avec différents filtres, on fera apparaître des détails différents, par exemple, pour une galaxie proche, une image dans un filtre bleu ou ultraviolet montrera la distribution des étoiles chaudes tandis qu'une image dans un filtre rouge montrera celle des étoiles vieilles.
La spectroscopie des galaxies exige bien sûr des temps de pose nettement plus longs que l'imagerie mais apporte aussi des informations beaucoup plus riches. Par exemple, on peut créer des modèles de synthèse de populations stellaires en additionnant les spectres de divers types d'étoiles, et voir quelle combinaison d'étoiles permet le mieux d'ajuster le spectre d'une galaxie donnée. Cette méthode permet d'évaluer l'âge moyen des étoiles et leur métallicité (abondance en éléments plus lourds que l'hydrogène et l'hélium).
La figure ci-contre montre les spectres de quatre galaxies de types très différents. Si l'on compare leur forme, on voit que le spectre qui commence le plus haut vers la gauche et décline fortement vers le rouge correspond à une galaxie très riche en étoiles jeunes. A l'autre extrême, en descendant selon l'axe des abscisses à faible longueur d'onde, le quatrième spectre n'est quasiment pas détecté dans le filtre UV lointain, mais est très intense au-dessus de la bande u : c'est un spectre de galaxie elliptique.
La figure ci-dessus illustre bien la méthode dite des "décalages spectraux photométriques". En effet, si l'on observe un champ en imagerie dans plusieurs bandes photométriques, on peut arriver à estimer le décalage spectral de toutes les galaxies du champ. Une galaxie très bleue (donc très brillante en UV ou dans la bande u) sera forcément proche ; en revanche, une galaxie qui, par exemple, ne serait pas détectée dans les bandes plus bleues que r et serait détectée dans la bande i sera nécessairement très lointaine. Bien sûr, l'erreur sur le décalage spectral de chaque galaxie est beaucoup plus grande que si l'on avait un véritable spectre, mais cela permet d'avoir une estimation du décalage spectral approximatif de dizaines, voire de centaines de milliers de galaxies en quelques heures de pose, ce qui ne serait pas possible en spectroscopie.
En ce qui concerne le gaz, divers types d'observation sont possibles.
Tout d'abord, l'élément le plus abondant dans l'univers étant l'hydrogène, on peut rechercher l'hydrogène neutre HI dans une galaxie.
Les niveaux d'énergie de l'atome d'hydrogène présentent deux sous-niveaux hyperfins ; la transition de l'un à l'autre correspond à une longueur d'onde d'émission de 21 cm, observable dans le domaine radio. On peut donc détecter l'hydrogène neutre dans une galaxie à l'aide d'un radio télescope réglé à la fréquence correspondant à la longueur d'onde de 21 cm (longueur d'onde qui doit être multipliée par (1+z), où z est le décalage spectral de la galaxie).
La cartographie d'une galaxie en HI montre que le gaz HI est distribué principalement dans les bras spiraux. On détecte très peu d'hydrogène neutre dans les galaxies elliptiques, ce qui est normal puisque ces galaxies ont consommé tout leur gaz pour former des étoiles.
Outre le gaz neutre, il est également possible de détecter du gaz ionisé dans les galaxies. Là aussi, c'est en priorité l'hydrogène que l'on va rechercher, par exemple dans le domaine visible, par ses raies d'émission. Ces dernières peuvent être détectées en spectroscopie, ou bien en imagerie grâce à un filtre interférentiel de bande passante très étroite qui ne laissera passer que la raie d'émission à étudier. On utilise ainsi couramment la raie Hα de l'hydrogène pour tracer la distribution de gaz ionisé dans les bras des galaxies spirales.
Ce gaz peut être ionisé par le rayonnement ultraviolet d'étoiles chaudes récemment formées : il s'agit alors de ce que l'on appelle les régions HII (ou nébuleuses, terme maintenant un peu désuet). Il peut aussi être ionisé par d'autres mécanismes, comme par exemple le rayonnement ultraviolet du noyau actif, si la galaxie en possède un, ou les ondes de choc créées par des fusions de galaxies.
Les poussières rayonnant comme un corps noir, plus la longueur d'onde d'observation des poussières dans l'infrarouge est grande, plus les poussières détectées seront froides.
Les poussières sont principalement constituées de grains dont le diamètre est de quelques dixièmes de microns, essentiellement du graphite et des silicates.
Il y a une vingtaine d'années, on a également découvert dans les spectres infrarouges des galaxies des raies d'émission qui ont été identifiées comme étant dues à de grosses molécules constituées de cycles benzéniques : les hydrocarbures aromatiques polycycliques (PAH en Anglais). Des observations obtenues avec Spitzer/IRAC montrent qu'il existe une émission des PAH dans le disque des galaxies spirales, et que les poussières sous forme de PAH sont communes hors du plan des galaxies spirales.
Les processus à l'origine de l'éjection des poussières loin du disque des galaxies ne détruisent pas les très petites poussières tracées par ces observations. L'échelle verticale des PAHs est environ la moitié de celle du milieu diffus ionisé, ce qui suggère que les poussières sont présentes dans un milieu froid qui ne peut être supporté très loin du disque galactique (en supposant que les données ont la sensibilité adéquate).
Un exemple de spectre montrant la présence de PAH est présenté ci-contre.
La matière noire est ainsi appelée parce qu'on ne peut pas la détecter directement puisqu'elle n'émet pas de lumière. En revanche on soupçonne depuis longtemps son existence, en particulier en raison de la forme des courbes de rotation des galaxies spirales (voir plus loin).
C'est l'astronome suisse Fritz Zwicky qui a le premier fait l'hypothèse de l'existence de matière noire dans les années 1930. Il a en effet observé que dans les amas de galaxies les vitesses relatives des galaxies étaient très élevées (plusieurs milliers de km/s). Pour que l'ensemble des galaxies soit gravitationnellement lié, Zwicky a alors calculé que la masse requise devait être nettement plus élevée que la masse totale des galaxies. Cette hypothèse a depuis été confirmée par un grand nombre d'observations.
Cependant, et bien que de nombreuses études lui aient été consacrées, on ne sait toujours pas quelle est la nature de la matière noire.
Difficulté : ☆☆ Temps : 5 minutes
Selon la longueur d'onde à laquelle on observe une galaxie, on peut avoir des informations différentes. Préciser à quelle composante on a accès en observant : 1) en rayons gamma ; 2) en rayons X ; 3) en ultraviolet ; 4) en lumière visible ; 5) en infrarouge proche ; 6) en infrarouge moyen (vers 24 micromètres).
Quelles sont les galaxies que l'on observe préférentiellement dans le domaine submillimétrique ou millimétrique ? Pourquoi ?
Difficulté : ☆☆ Temps : 5 minutes
La galaxie NGC 3516 a un décalage spectral z=0,0088. À quelle fréquence faut-il régler le récepteur du radio télescope pour la détecter en hydrogène neutre ?
Si on veut maintenant cartographier cette galaxie dans la raie Hα de l'hydrogène ionisé, dont la longueur d'onde au repos est 656,28 nm, quelle est la longueur d'onde du filtre à utiliser ?
Expliquer comment on peut faire pour obtenir l'image uniquement dans la raie Hα à partir de deux images d'une galaxie, l'une dans un filtre étroit centré sur la raie Hα décalée vers le rouge, l'autre dans un filtre ne couvrant aucune raie d'émission.
La forme aplatie des disques des galaxies spirales est due à leur rotation rapide, qui peut atteindre une amplitude de plusieurs centaines de kilomètres par seconde.
Dans tous les cas, les champs de vitesse des galaxies sont mesurés à partir du décalage spectral des raies d'absorption ou d'émission que l'on observe dans leurs spectres (s'il s'agit du domaine visible). On peut aussi les déterminer à partir de la longueur d'onde de la raie à 21 cm de l'hydrogène neutre décrite précédemment.
Typiquement, le champ de vitesses d'une galaxie spirale "normale" (c'est à dire sans perturbations notables) présente un décalage global vers le rouge correspondant à la vitesse de récession moyenne de la galaxie, plus une partie légèrement décalée vers le bleu et une autre légèrement décalée vers le rouge par rapport à ce décalage global. Cette deuxième partie correspond à la rotation de la galaxie.
Difficulté : ☆☆ Temps : 1 minute
Sur la figure ci-dessus on voit le champ de vitesses de la galaxie NGC 157. Déterminer la position du grand axe de la galaxie?
Quelle est l'amplitude approximative du champ de vitesses de NGC 157 ?
On peut effectuer des coupes du champ de vitesses selon plusieurs directions et obtenir ainsi ce que l'on appelle des courbes de rotation, où l'on trace la vitesse observée (à laquelle on a en général soustrait la vitesse moyenne de récession de la galaxie) en fonction de la distance au centre de la galaxie.
La plupart des courbes de rotation des galaxies spirales présentent une augmentation linéaire de la vitesse en fonction du rayon dans les régions centrales, suivie d'un aplatissement. Si toute la masse était concentrée dans le disque visible de la galaxie, on s'attendrait à ce que sa courbe de rotation décroisse au-delà d'un certain rayon de l'ordre de quelques kpc), ce qui n'est pas le cas.
Les astronomes ont donc été conduits à supposer l'existence autour des galaxies d'un grand halo de matière massive, invisible mais permettant d'expliquer pourquoi les courbes de rotation restent plates à grand rayon : il s'agit de ce que l'on appelle la matière noire, ou matière sombre. La dimension des halos de matière noire autour des galaxies est typiquement de plusieurs dizaines de kpc.
L'énigme de la matière noire n'est toujours pas résolue, dans la mesure où l'on ne sait toujours pas de quoi elle est composée. D'autres types d'observations, comme par exemple celles des amas de galaxies, exigent également la présence de matière noire, uniquement détectable par ses effets gravitationnels.
La rotation des galaxies elliptiques est beaucoup plus lente (au maximum quelques dizaines de km/s), ce qui rend nettement plus difficile l'observation de leur rotation. On ne peut donc affirmer en général qu'elles sont, comme les galaxies spirales, entourées d'un halo de matière noire. Cependant, certaines galaxies elliptiques très massives sont parfois entourées d'un halo de gaz très chaud émettant en rayons X (voir chapitre "Contenu des galaxies"). A partir de l'émission X, si l'on suppose que ce gaz très chaud est un traceur du puits de potentiel gravitationnel de la galaxie, on peut estimer la masse totale de la galaxie, et là aussi on trouve qu'il doit y avoir un halo de matière noire. Il est par conséquent vraisemblable que les galaxies sont à peu près toutes (spirales et elliptiques) entourées d'un halo de matière noire.
Les galaxies peuvent avoir des dimensions et des masses très diverses. Bien sûr, la masse d'une galaxie n'est pas une quantité directement accessible à l'observation. Les astronomes peuvent seulement observer de la lumière, dans un certain nombre de domaines de longueur d'onde, et à partir de là mettre au point des modèles de distribution de matière qui permettent au mieux d'ajuster les résultats d'observations.
Ainsi, à partir des courbes de rotation des galaxies spirales, il est possible de construire des modèles de masse.
Pour construire des modèles de masse, on peut utiliser plusieurs méthodes. Par exemple, la méthode dite de Schwarzschild, qui, très schématiquement, peut être résumée comme suit :
On trouve alors comment la masse est distribuée entre les diverses composantes. Ceci est illustré par la figure ci-contre, où l'on voit la contribution du disque, du gaz et du halo à la courbe de rotation et à la densité lumineuse observée.
Difficulté : ☆ Temps : 2 minutes
Quelle(s) hypothèse(s) doit-on faire pour déterminer la masse d'une galaxie spirale pour laquelle on dispose d'une courbe de rotation?
Est-il possible d'appliquer la même méthode à une galaxie elliptique ? Pourquoi ?
Les galaxies isolées sont relativement rares dans l'univers ; sous l'action de la gravité elles tendent à se regrouper en groupes et amas de galaxies.
Lorsque deux galaxies passent près l'une de l'autre, cela peut provoquer de multiples phénomènes, dont le premier est la déformation spatiale de la distribution d'étoiles. A l'intérieur d'une galaxie, les distances d'une étoile à sa voisine sont extrêmement grandes par rapport au diamètre des étoiles. Par conséquent si deux galaxies se rencontrent, elles vont s'interpénétrer quasiment sans qu'il y ait de collisions d'étoiles.
En revanche, les énergies mises en jeu sont énormes. Si l'on considère par exemple la collision de deux galaxies de masse se dirigeant l'une vers l'autre à une vitesse de 300 km s-1 l'énergie cinétique mise en jeu sera de l'ordre de 1051 J. Si l'on considère que la luminosité du Soleil est de 1026 Watts, ceci équivaudrait à la quantité d'énergie rayonnée par le Soleil pendant 1025 ans. Or l'âge de l'Univers est estimé à environ 14 milliards d'années (1,4 1010 ans), une telle comparaison n'a donc pas de sens.
Pour illustrer à quoi correspond une énergie de 1051 J on pourrait plutôt dire que c'est l'ordre de grandeur de l'énergie rayonnée par une galaxie mille fois plus grosse que la nôtre pendant toute la durée d'existence de l'Univers, depuis le Big Bang.
L'échelle de temps d'une interaction de galaxies étant de l'ordre de 100 millions d'années, il est bien sûr impossible d'observer une interaction en temps réel. Seules les simulations numériques permettent de modéliser ce qui se passe lorsque deux galaxies se rencontrent.
L'augmentation phénoménale de la puissance de calcul des ordinateurs depuis les toutes premières simulations numériques effectuées par les frères Toomre à la fin des années 1970 a permis de modéliser de manière beaucoup plus fine les interactions de galaxies et de voir comment les structures résultantes pouvaient dépendre des divers paramètres mis en jeu : rapport des masses des deux galaxies, vitesse relative, angle d'attaque, paramètre d'impact (c'est à dire distance la plus faible à laquelle peuvent passer les centres des deux galaxies), sens de rotation de chacune des galaxies.
C'est ainsi grâce aux simulations numériques que l'on a pu montrer que la fusion de deux galaxies spirales donne généralement naissance à une galaxie elliptique.
Actuellement, les simulations numériques comprennent plusieurs millions de particules et même dans certains cas peuvent atteindre plusieurs milliards.
Les interactions entre galaxies génèrent des instabilités gravitationnelles propices à la formation ou à l'entretien de bras spiraux et de barres. Les bras spiraux et les barres ne sont pas des structures permanentes, elles évoluent lentement : une barre se forme, achemine du gaz et de la masse du disque vers le centre de la galaxie, le gaz s'effondre et forme des étoiles,le bulbe grossit et, ainsi, la barre s'autodétruit. Le disque vidé de sa masse se reconstruit à partir du gaz intergalactique des filaments cosmiques. Une galaxie spirale passe de spirale barrée à spirale normale et inversement . Ceci est illustré par les simulations numériques de F. Combes présentées ci-contre.
On peut maintenant aussi expliquer la plupart des galaxies observées ayant une forme étrange : il s'agit pratiquement dans tous les cas de la conséquence de l'interaction de deux galaxies (on parle de fusion si les deux galaxies s'interpénètrent tellement profondément qu'elles n'en forment plus qu'une seule).
Différentes formes peuvent apparaître après interaction, comme par exemple des ponts de matière entre les deux galaxies ou des queues de marée s'étendant très loin des noyaux. Ce sont les forces gravitationnelles de marée qui engendrent ces ponts de matière et queues de marée en perturbant les étoiles du disque les plus éloignées.
Les interactions de galaxies permettent également de rendre compte des galaxies à anneau, des coquilles observées autour de certaines galaxies elliptiques, de la présence (ou de la destruction) de barres dans les galaxies spirales, du gauchissement du plan de certains disques de galaxies, de l'existence de bulbes galactiques en forme de boîtes ou de cacahuètes.
Il peut également se former des galaxies naines dites "naines de marée" dans les queues de marée ainsi créées.
Les interactions mettant en jeu plus de deux galaxies sont a priori rares et difficiles à modéliser, et n'ont donc pas fait l'objet de beaucoup d'études approfondies pour l'instant.
On trouvera ci-après plusieurs exemples de galaxies ayant des formes bizarres que les simulations parviennent très bien à reproduire comme étant le résultat d'interactions de deux galaxies.
Les simulations numériques d'interactions et de fusions de galaxies montrent qu'il peut dans certains cas se former des bulbes en forme de boîte ou de cacahuète.
Les simulations montrent aussi que le passage d'une petite galaxie près d'une grosse galaxie à disque peut s'accompagner du gauchissement du plan de la grosse galaxie, ce qui est effectivement observé dans certains objets.
Les interactions de galaxies peuvent dans certains cas créer des ponts de matière entre deux galaxies, ou de grandes queues de marée s'étendant très loin des galaxies. C'est le cas par exemple pour le système dit "des Antennes".
Les interactions de galaxies peuvent également provoquer des éclaboussures de gaz interstellaire, qui se retrouve alors distribué spatialement entre les galaxies.
C'est le cas de la Voie Lactée, où l'on pense qu'une traînée d'étoiles, appelée "courant magellanique", est due au passage des Nuages de Magellan au voisinage de la Voie Lactée.
La galaxie ci-contre, appelée la "roue de la charrette" est vraisemblablement le résultat de la collision d'une grosse galaxie traversée en son centre et perpendiculairement à son disque par une galaxie plus petite. Cette galaxie ressemble beaucoup au résultat de la simulation de Toomre (dernière des six simulations, sur la ligne inférieure).
Difficulté : ☆ Temps : 1 minute
La célèbre galaxie de la "roue de la charrette" est interprétée comme due à l'interaction de deux galaxies. En comparant l'image de cette galaxie aux simulations numériques de Toomre, peut-on dire de quel genre d'interaction il s'est agi?
Un autre effet, et non des moindres, de l'interaction de deux galaxies peut aussi être l'augmentation du taux de formation d'étoiles. En effet, on remarque que dans certains cas des galaxies en interaction sont le siège de flambées de formation d'étoiles. Ceci peut s'expliquer par le fait que sous l'effet de l'interaction le gaz peut être comprimé, ce qui va accélérer la formation des étoiles.
Ceci est en bon accord avec le fait que le taux de formation d'étoiles semble avoir été plus intense dans le passé (à des décalages spectraux de 1 ou 2, c'est à dire il y a plusieurs milliards d'années) que maintenant.
Il existe des galaxies dont la région centrale est très lumineuse, la quantité de lumière émise étant supérieure à celle de toutes les étoiles qui s'y trouvent. On dit alors qu'il s'agit d'une galaxie à noyau actif (en Anglais ces galaxies sont regroupées sous le terme générique d'AGN, pour Active Galactic Nuclei). Ces galaxies sont le siège de phénomènes énergétiques très intenses.
La première mention des galaxies à noyau actif date du début du XXème siècle, d'abord peut-être par Fath en 1909, puis par l'astronome américain Vesto Slipher qui en 1917 découvrit la présence de raies d'émission très intenses dans le spectre de la galaxie proche NGC 1068. En 1926, Hubble détecta ensuite des raies d'émission dans une autre galaxie proche, NGC 4151. Puis ce fut l'astronome Karl Seyfert qui en 1943 publia le premier catalogue de galaxies présentant toutes des raies d'émission intenses, avec parfois des raies de l'hydrogène ionisé très larges. Ces galaxies sont maintenant souvent appelées "galaxies de Seyfert".
En 1959, l'astronome néerlandais Lodewijk Woltjer montra le premier que les noyaux non résolus spatialement de ces galaxies avaient des dimensions très petites, de l'ordre de 1 à 100 pc, et que si la matière était gravitationnellement liée dans la région émettant les raies larges, la masse centrale devait typiquement être de l'ordre de , soit de l'ordre de la masse d'une galaxie, mais concentrée dans une région très petite.
Le premier quasar, 3C 273, fut découvert trois ans plus tard, en 1962, par Maarten Schmidt. Il s'agissait d'un objet détecté dans le domaine radio (comme l'indique son nom : c'est l'objet numéro 273 du catalogue 3C, troisième catalogue radio de Cambridge) d'apparence stellaire (donc non résolu angulairement) en optique. Son apparence stellaire fut donc à l'origine du nom donné à ce type d'objet "quasi stellar object", ou quasar.
L'objet 3C 273 était tout à fait extraordinaire à l'époque, car il avait une magnitude apparente de l'ordre de 13, mais son spectre indiquait un décalage spectral z=0.158. Si l'on calculait sa magnitude absolue à partir de la magnitude apparente et de la distance ainsi estimées, on obtenait -26.7, ce qui était environ 10 fois plus brillant que la galaxie la plus brillante jamais observée.
On exprime le plus souvent la largeur des raies d'émission ( Δl) comme une vitesse, Δv, en utilisant la formule de l'effet Doppler : Δv = c (Δl)/l
où l est la longueur d'onde de la raie et c la vitesse de la lumière.
La largeur des raies larges dans le spectre des quasars peut atteindre des milliers de km/s.
Il existe différentes catégories de galaxies à noyau actif, classées suivant leur niveau d'activité, c'est à dire suivant leur magnitude absolue et suivant la largeur des raies d'émission. Les plus actives sont les quasars dont les raies sont les plus larges (Δv pouvant atteindre 104 km s-1). Les Seyfert de type 1 ont à peu près les mêmes propriétés que les quasars mais sont un peu moins énergétiques. Les Seyfert de type 2 n'émettent que des raies étroites, mais couvrant un domaine allant des raies de basse excitation (comme par exemple la raie de [OI] à 630 nm) jusqu'aux raies de très haute excitation (par exemple la raie de [NeV] à 343 nm). On note entre crochets les noms des éléments émettant des raies dites "interdites" ; de telles raies ne peuvent en effet être observées sur Terre, car elles ne peuvent se produire que dans un milieu de densité bien inférieure aux meilleurs vides que l'on puisse obtenir sur Terre. Les LINERS (Low Ionization Nuclear Emitting Regions), eux, n'émettent que des raies étroites correspondant à des éléments faiblement ionisés.
Il s'agit néanmoins d'un même phénomène dans toutes les catégories de galaxies à noyau actif. Ceci a été montré en particulier au début des années 1980 par la découverte de raies de Balmer larges en lumière polarisée dans le spectre de la galaxie NGC 1068. Cette galaxie avait jusqu'alors été considérée comme le prototype des galaxies de type Seyfert 2, c'est à dire ne présentant que des raies étroites. Mais en lumière polarisée on parvient à voir la lumière émise par la BLR (région proche du centre émettant les raies larges) et diffusée loin du noyau. NGC 1068 n'était donc plus une Seyfert 2 mais une Seyfert 1!
Ceci a conduit les chercheurs à penser que les Seyfert, et de manière plus générale toutes les galaxies à noyau actif, constituaient une seule famille, et un modèle unifié a été proposé pour ces objets vers la fin des années 1980.
Le modèle unifié pour les différents types de galaxies à noyau actif et présenté dans la figure ci-dessus semble maintenant faire l'objet d'un consensus. Au centre de la galaxie se trouverait un trou noir supermassif, dont la masse pourrait varier entre 106 et environ. En tombant sur ce trou noir (non pas directement, mais par l'intermédiaire d'un disque d'accrétion), la matière perdrait de l'énergie, ce qui donnerait lieu à un rayonnement dit "non thermique". En s'éloignant du noyau, on distingue ensuite deux régions d'émission : la région près du noyau d'où sont émises les raies larges (en Anglais la Broad Line Region ou BLR) et celle émettant les raies étroites (la Narrow Line Region ou NLR).
C'est ce que l'on voit dans la figure ci-dessus. Un tore de poussières (en orange) vient absorber le rayonnement du noyau actif. Si l'on observe près de l'axe du tore, on verra directement le noyau actif, et donc la région émettrice des raies larges, qui est tout près du noyau. Si l'on observe plus loin de l'axe du tore, la ligne de visée interceptera alors le tore et on ne verra plus la zone centrale. On ne détectera alors que des raies étroites.
Sur la figure, on voit également un jet provenant de la source centrale et se propageant perpendiculairement au disque d'accrétion central et au tore de poussières. De tels jets sont observés dans certains objets en radio. Ils ont la propriété d'être fortement "collimatés", c'est à dire de se propager avec un angle d'ouverture très petit. Il arrive plus rarement qu'on les détecte aussi en lumière visible. Si l'observateur est situé dans la direction du jet, il verra alors un objet classé dans la catégorie des BL Lac ou des Blazars.
Nous n'insisterons pas davantage sur les divers types de galaxies à noyau actif, car il en existe un nombre élevé de catégories qu'il serait trop long de décrire en détail.
Les quasars et Seyfert 1 présentent la particularité d'être variables dans le temps : l'intensité de la lumière qu'ils émettent peut varier en quelques jours, et la forme du spectre (en particulier le profil des raies) peut aussi varier rapidement. Ces variations nous renseignent sur les dimensions de la zone émettrice.
En effet, on peut faire l'hypothèse que si une source varie, l'information sur ces variations doit s'être propagée dans toute la source en moins de temps que l'intervalle de temps des variations. Or aucune information ne peut se propager à une vitesse supérieure à celle de la lumière. Par conséquent, si l'on observe des variations sur un intervalle de temps ( Δt) la dimension de la source est nécessairement inférieure au produit c(Δt), où c est la vitesse de la lumière.
Grâce à la variabilité, il a ainsi été possible d'estimer les dimensions des régions émettant les raies larges.
En revanche, on n'observe aucune variabilité dans les raies étroites, ce qui implique qu'il s'agit de régions beaucoup plus grandes.
Difficulté : ☆ Temps : 2 minutes
Une galaxie à noyau actif varie en éclat sur un espace de temps de 5 jours. Quelle est la dimension maximale de la zone émettrice ?
Quelles sont les quantités qui présentent une variation temporelle lorsqu'on observe une galaxie à noyau actif?
Toutes les galaxies à noyau actif sont-elles variables ?
Le problème de comprendre comment le trou noir central est alimenté en matière a longtemps été débattu. Il semble que la présence d'une barre ou d'un anneau nucléaire facilite grandement la chute de matière vers le centre. Les modèles montrent aussi que la matière ne tombe pas directement sur le trou noir, mais se distribue d'abord dans un disque, appelé disque d'accrétion, à partir duquel de la matière tombe sur le trou noir.
On ne sait pas bien pourquoi certaines galaxies présentent un noyau actif et d'autres pas. Il est possible que la phase "noyau actif" ne soit qu'une étape dans la vie d'une galaxie, et qu'à un moment donné l'alimentation du noyau actif cesse. Ceci pourrait se produire par exemple lorsqu'il n'y a plus assez de matière pour alimenter le trou noir central, ou alors s'il reste de la matière, mais qu'elle ne peut plus "tomber" dans le trou noir, en raison de la destruction de la petite barre ou de l'anneau central qui lui permettait de tomber dans le disque d'accrétion. Mais on n'a là-dessus aucune certitude.
Les principales questions qui se posent au sujet de la formation des galaxies sont les suivantes :
Pour expliquer la formation des galaxies, deux approches complémentaires sont possibles : soit remonter dans le temps à partir des propriétés observées aujourd'hui, soit calculer comment l'univers a pu évoluer à partir des conditions initiales qu'on lui attribue.
On se place en général dans le cadre de la théorie du Big Bang (voir Le Big Bang). Ceci sous-entend un certain nombre d'hypothèses, parmi lesquelles les principales sont les suivantes :
A l'origine des galaxies, on trouve de petites fluctuations de densité de l'univers, avec l'existence de zones légèrement plus denses.
Dans ces zones, il y a eu accrétion accrue de matière par instabilité gravitationnelle, ce qui a donné naissance aux proto-galaxies.
Dans l'hypothèse d'un processus dit "monolithique", chaque proto-galaxie s'est effondrée (effondrement gravitationnel) pour donner une galaxie, contenant de la matière baryonique et de la matière non-baryonique (la matière noire).
L'un des problèmes qui reste à résoudre dans ce scénario est le rôle exact de la matière noire, dont on ne connaît toujours pas la nature.
Dans ce scénario, la matière noire, qui domine la matière dans l'univers, est constituée de particules ayant une vitesse faible devant la vitesse de la lumière.
Les simulations numériques d'effondrement gravitationnel montrent qu'il se forme alors des structures ayant une masse de l'ordre de . Ces structures vont ensuite fusionner un certain nombre de fois pour créer des galaxies de masse typique . Ce scénario est appelé "hiérarchique", ou en Anglais "bottom-up".
Plusieurs difficultés ne sont pas encore complètement résolues dans ce scénario, en particulier la manière d'inclure la formation d'étoiles dans les simulations numériques.
La formation des galaxies elliptiques s'explique bien. En revanche, celle des spirales pose problème, dans la mesure où l'on forme des spirales de au maximum. Pour expliquer la formation des spirales, le seul moyen est de supposer que l'on forme des elliptiques de masse et que celles-ci peuvent accréter de la matière du milieu environnant ; si cette matière a un moment angulaire suffisant, elle peut alors former un disque, et la galaxie résultante pourra être une spirale de . Le fait que les elliptiques et les bulbes des spirales ont globalement les mêmes propriétés est en faveur de ce scénario.
Le scénario de matière noire froide est à l'heure actuelle celui qui semble le mieux rendre compte des différentes observations disponibles.
Un deuxième scénario, a été proposé, dans lequel, au contraire, les particules de matière noire ont des vitesses comparables à celle de la lumière. Dans ce cas, les fluctuations de densité à petite échelle disparaissent. Les simulations numériques montrent qu'alors il se forme des structures ayant une masse beaucoup plus grande que celle des galaxies individuelles ; ces structures vont ensuite se fragmenter pour créer des galaxies de masse typique . Ce scénario est appelé en Anglais "top-down".
Ce second scénario semble moins probable que le celui de matière noire froide, pour deux raisons : tout d'abord, les observations semblent indiquer que les petites structures se sont formées avant les grandes ; et deuxièmement, parce que les structures à grande échelle prédites semblent différentes de ce que l'on observe.
Difficulté : ☆ Temps : 2 minutes
Quel est actuellement le modèle privilégié pour expliquer la formation des grandes structures dans l'Univers ?
Les propriétés des galaxies ne sont pas constantes mais évoluent dans le temps. En particulier, la lumière émise par une galaxie étant la somme des lumières émises par les étoiles qui la constituent, l'évolution de chaque galaxie sera due à l'évolution du taux de formation d'étoiles et à l'évolution individuelle de chaque étoile.
On sait ainsi que le taux de formation d'étoiles (en Anglais star formation rate, ou SFR) dans les galaxies elliptiques a été très élevé dans le passé mais est quasi nul maintenant. Dans les spirales, l'évolution du taux de formation d'étoiles est différente : dans les Sa, ce taux décroît avec le temps, mais beaucoup moins vite que dans les elliptiques, tandis que dans les Sc il est à peu près constant.
Il a ainsi été mis en évidence que le taux de formation d'étoiles était nettement plus élevé à un décalage spectral de l'ordre de 1 (voir figure). En revanche si l'on continue à observer des galaxies de plus en plus lointaines, il semble qu'à z=3 ou 4 le taux de formation d'étoiles rediminue.
Remarque : l'évolution des galaxies dépend de l'environnement, pour l'instant nous ne considérons que des galaxies isolées.
Par évolution chimique des galaxies, on entend l'évolution temporelle des différents éléments chimiques contenus dans une galaxie.
Les premières étoiles d'une galaxie ne contenaient que de l'hydrogène et de l'hélium, certains autres éléments légers n'existant qu'à l'état de traces.
Au cours de leur évolution, les étoiles massives ont pu exploser en supernovae, enrichissant le milieu interstellaire en éléments lourds synthétisés dans ces étoiles. Les générations suivantes d'étoiles se sont donc formées à partir d'un gaz enrichi en éléments lourds.
La composition chimique du milieu interstellaire et des étoiles varient donc avec le temps.
Il est relativement facile de modéliser ce type d'évolution pour une galaxie isolée, mais il en existe en fait très peu. Il est donc nécessaire de tenir compte de l'environnement, en particulier des interactions et fusions qui vont modifier les propriétés des galaxies, en particulier leur taux de formation d'étoiles et leur morphologie.
L'observation de galaxies lointaines, par exemple dans le champ profond observé par Hubble, semble montrer que près de 25% des galaxies lointaines étaient irrégulières contre seulement 7% aujourd'hui. On observe donc une évolution morphologique très nette des galaxies.
Les poussières jouent aussi certainement un rôle dans l'évolution des galaxies, et doivent être prises en compte dans les modèles.
Difficulté : ☆ Temps : 2 minutes
Comment varie l'abondance en éléments lourds (c'est à dire plus lourds que l'hydrogène et l'hélium, encore appelés "métaux") dans une galaxie en fonction du temps? Expliquer le mécanisme.
La formation des galaxies ne s'est pas produite à un moment unique de l'histoire de l'univers, mais s'est étalée sur une longue période (on peut même considérer que les galaxies irrégulières n'ont pas encore fini de se former).
Le modèle du Big Bang et le scénario de matière noire froide permettent de réaliser des simulations numériques globalement en accord avec les observations, bien que certaines propriétés ne correspondent pas tout à fait aux prédictions des modèles.
Dans ce cadre, plusieurs approches reproduisent bien les fonctions de luminosité des galaxies à différentes longueurs d'onde (c'est à dire les nombres de galaxies par intervalle de magnitude ou de luminosité) et leur évolution au moins jusqu'à un décalage spectral de 3. Elles expliquent également bien les corrélations entre les différentes propriétés des galaxies (masse, contenu gazeux, couleur, type).
Mais il reste quelques points pour lesquels les observations ne sont pas tout à fait en accord avec les prédictions des modèles. Par exemple la pente des fonctions de luminosité calculées pour les galaxies est de -1.5 à -1.3 alors que la pente observée est plutôt -1.0. On propose à ce désaccord plusieurs explications : des effets de sélection sur les données, la modélisation incomplète des vents galactiques ou la mauvaise prise en compte du chauffage du milieu intergalactique par les premières étoiles, par les supernovae et/ou par les noyaux actifs. D'autre part, les relations entre lumière et matière ne sont pas toujours bien connues ; les astronomes observent de la lumière, qu'il faut ensuite transformer en masse. Les couleurs des galaxies lointaines sont également mal prédites. Enfin, les comptages de galaxies dans le domaine submillimétrique sont encore assez mal reproduits (les galaxies des modèles ne sont pas assez lumineuses dans ce domaine de longueur d'onde, peut-être en raison d'une mauvaise prise en compte des poussières).
La cosmologie est la branche de l'astronomie qui étudie l'Univers dans son ensemble. Du fait que les galaxies peuvent être observées à de grandes distances, il est possible de les utiliser comme traceurs des grandes structures de l'Univers. Pour connaître l'Univers le mieux possible et avoir en particulier une estimation de sa taille il faut donc observer les galaxies les plus lointaines possibles.
Dans cette partie, nous décrirons comment les galaxies peuvent être utilisées pour dessiner l'Univers, c'est à dire pour caractériser la distribution de matière à très grande échelle.
Pour cela, nous présenterons tout d'abord plusieurs grands relevés de galaxies qui depuis le milieu des années 1980 ont révolutionné notre connaissance de la distribution de la matière dans l'Univers. En effet, si la cosmologie du XXème siècle a souvent fait l'hypothèse d'une distribution de matière uniforme dans l'Univers, ce n'est pas vrai à l'échelle des galaxies, qui semblent plutôt distribuées selon des filaments et des feuillets, conférant ainsi à l'Univers une structure évoquant celle d'une gigantesque éponge.
Nous présenterons ensuite les propriétés des groupes de galaxies et amas de galaxies, ces derniers étant les plus grandes structures identifiables de l'Univers. Là aussi, d'importants progrès ont été faits ces dernières décennies sur la compréhension de ces objets, tant du point de vue observationnel dans divers domaines de longueur d'onde, que sur le plan des simulations numériques.
L'observation de l'Univers à grande échelle commence en général par des observations en imagerie profonde, qui permettent de détecter des objets très faibles, et donc à priori très lointains. Avec des images dans plusieurs bandes, y compris des bandes dans l'infrarouge, puisque c'est dans ce domaine que les galaxies lointaines apparaissent les plus lumineuses, il est possible d'estimer le décalage spectral estimé par la méthode photométrique (que nous appellerons par la suite "redshift photométrique", généralement noté zphot ).
Cependant, on ne peut connaître avec certitude la distance). d'une galaxie que si l'on a mesuré son décalage spectral spectroscopique. L'étude de la distribution à grande échelle des galaxies a donc commencé par l'obtention de grands relevés spectroscopiques de galaxies.
Les premiers relevés spectroscopiques de galaxies ont été effectués aux Etats-Unis par Margaret Geller, John Huchra et Valérie de Lapparent dans la seconde moitié des années 1980. Un télescope a été dédié à ces observations pendant plusieurs années, le temps de pose étant de l'ordre d'une heure par galaxie et le nombre de galaxies observé de l'ordre d'un millier.
Ce sondage a révélé que la distribution des galaxies à grande échelle n'était pas du tout homogène. Au contraire, les galaxies apparaissaient distribuées selon des filaments (à une dimension) ou des feuillets (à deux dimensions). De grandes zones quasiment vides de galaxies ont également été mises en évidence, ce qui n'était pas du tout prévu.
Une autre manière de présenter la distribution des galaxies pour faire apparaître la dimension selon la ligne de visée est de tracer un diagramme dit "en cône". Pour cela, on considère par exemple toutes les galaxies dans un intervalle de déclinaison donné, et on représente chaque galaxie par un point, avec l'ascension droite selon un cercle gradué de 0 à 24 heures et la vitesse de récession de la galaxie représentée radialement. On peut aussi sommer sur un intervalle d'ascension droite et représenter la déclinaison selon un cercle. Enfin, on peut aussi graduer radialement le cône non en vitesse mais en décalage spectral.
Dans un tel diagramme en cône, un amas de galaxies apparaît comme une concentration de galaxies dans une direction donnée (en ascension droite) avec une certaine dispersion de vitesses. Dans la figure, le "corps du bonhomme" correspond à l'amas de galaxies Coma (les galaxies sont quasiment dans la même direction, mais en raison de la dispersion de vitesses des galaxies dans l'amas, elles sont étalées radialement).
Difficulté : ☆☆ Temps : 5 minutes
Expliquer en quoi consiste un diagramme en cône.
A quoi ressemble un amas de galaxies dans un diagramme en cône ?
De nombreux relevés de galaxies ont été obtenus depuis vingt ans, en particulier grâce aux techniques de spectroscopie multi-objets qui ont permis d'obtenir les spectres de plusieurs dizaines de galaxies à la fois dans les années 1990, et maintenant même de plusieurs centaines, voire de près d'un millier (ce texte a été rédigé en 2010).
Les grands relevés ont confirmé sur des zones du ciel à la fois plus étendues et plus profondes en décalage spectral ce qui avait déjà été mis en évidence dans les années 1980, à savoir que les galaxies ne sont pas distribuées de manière uniforme, mais au contraire semblent former des filaments ou des feuillets, ce qui donne à l'Univers à très grande échelle une structure comparable à celle d'une éponge. Les amas de galaxies, dont il sera question ultérieurement, étant situés à l'intersection de ces filaments cosmiques.
Ces divers relevés sont complémentaires. Certains privilégient l'observation d'un champ assez grand mais de relativement faible profondeur en magnitude, et par conséquent en décalage spectral. C'est le cas du relevé 2dF (2 degree field) réalisé en Australie a été complété par le 6dF (6 degree field), en Australie toujours, qui a observé 150000 galaxies jusqu'à un décalage spectral de 0.1.
Le plus grand relevé en cours actuellement est le Sloan Digital Sky Survey, dont l'objectif est de mesurer 900000 décalages spectraux de galaxies jusqu'à un décalage spectral de l'ordre de 0.25 (voir http://www.sdss.org/).
D'autres relevés au contraire sont limités à de très petites zones du ciel mais sondent l'Univers jusqu'à un décalage spectral entre 0.5 et 1. C'est le cas par exemple du sondage Norris de Palomar, du sondage ESO-Sculptor ou plus récemment du sondage VIMOS (VIMOS Very Deep Survey, ou VVDS).
Il est intéressant de noter que la distribution observée pour les galaxies dans l'Univers se retrouve à des échelles encore plus grandes, pour les groupes, les amas et même les superamas, comme on peut le voir dans les figures ci-contre, obtenues à partir des données du grand relevé SDSS http://www.sdss.org/.
Bien qu'on ait détecté quelques filaments de galaxies à grande échelle, ces recherches de filaments, par exemple entre deux amas, sont difficiles en raison de la contamination des images par les nombreuses galaxies d'arrière-plan.
En pratique, pour avoir la certitude d'avoir détecté un filament de galaxies entre deux amas, il faut avoir mesuré plusieurs centaines de décalages spectraux dans cette région, ce qui n'est pas facile (l'un des problèmes, et non des moindres, étant de convaincre le comité d'attribution du temps de télescope d'accorder du temps pour des observations dont on n'est pas sûr qu'elles donneront un résultat !).
Dans la mesure où le gaz cohabite généralement avec les galaxies, on pourrait penser que ces filaments contiendraient du gaz. Comme c'est le cas dans les groupes et amas de galaxies, ce gaz pourrait avoir été chauffé par l'effondrement gravitationnel lors de la formation des grandes structures de l'Univers. Dans ce cas, il serait très chaud et susceptible d'émettre en rayons X (voir Les Groupes et Amas de Galaxies plus loin). Cependant, un très petit nombre de filaments a actuellement été détecté en rayons X, du fait de la faiblesse du signal.
Les simulations numériques ont connu un grand essor depuis une vingtaine d'années, en raison de l'augmentation rapide de la puissance de calcul des ordinateurs.
Les simulations numériques comme celle de formation de structures à partir de particules de matière noire froide montrée dans la figure ci-contre comprennent maintenant des millions, voire dans certains cas des milliards, de particules. Il s'agit dans ce cas de simulations numériques à N-corps.
Elles permettent de voir qu'à partir d'un ensemble de particules interagissant uniquement par la gravitation on aboutit à une structure très voisine de celle observée pour la distribution à grande échelle des galaxies : la matière est regroupée le long de filaments et sur des feuillets à deux dimensions, avec de grandes régions vides, et des zones plus denses à l'intersection des filaments.
La répartition des galaxies dans l'Univers n'est pas uniforme. Les galaxies constituent une structure en éponge, avec des feuillets et des régions vides, et sont préférentiellement distribuées selon des filaments. A l'intersection de ces filaments se situent les amas de galaxies.
On note le bon accord entre les simulations numériques et la distribution des galaxies à grande échelle, qui permet de penser que les hypothèses sur lesquelles sont basées les simulations numériques (Big Bang, matière noire froide) sont suffisamment réalistes.
Comme il a été dit ci-dessus, les amas de galaxies sont les plus grandes structures identifiables dans l'Univers. Les groupes de galaxies ont les mêmes propriétés que les amas, mais sont moins massifs, et contiennent du gaz un peu moins chaud et en quantité moindre. Nous allons décrire dans ce chapitre leurs principales propriétés.
Les galaxies sont rarement isolées, mais ont tendance à se regrouper pour former des groupes (quelques dizaines de galaxies) ou des amas (quelques centaines, voire plusieurs milliers de galaxies). Les amas de galaxies sont les plus grandes structures de l'Univers liées par la gravité. Il existe aussi des superamas, regroupements de plusieurs amas, mais leur existence physique réelle est plus difficile à mettre en évidence de manière totalement certaine.
C'est en lumière visible que les amas ont tout d'abord été découverts, comme de simples concentrations de galaxies sur des plaques photographiques. L'astronome suisse Fritz Zwicky a été le pionnier de cette recherche dans les années 1930, suivi par l'astronome américain George Abell dans les années 1960.
Abell a constitué le premier grand catalogue d'amas de galaxies. Cependant, les objets qu'il a recensés ne sont pas tous des amas, dans la mesure où il y a parfois superposition de galaxies à des distances différentes mais situées sur des lignes de visée très proches. La spectroscopie des galaxies a donc été nécessaire pour pouvoir déterminer quelles galaxies appartiennent vraiment à l'amas, et lesquelles sont situées en avant-plan ou en arrière-plan.
L'existence des amas a été mise en évidence avec davantage de certitude par l'observation de gaz très chaud émettant en rayons X et distribué dans tout l'amas.
L'aspect d'un amas est évidemment très différent en optique et en rayons X, puisqu'en optique on voit les galaxies individuellement alors qu'en rayons X on voit bien sur la figure une tache diffuse, comportant ou non des sous-structures.
Dans les amas, on constate que tous les types de galaxies ne sont pas distribués de la même manière : c'est ce que l'on appelle la ségrégation morphologique. Les galaxies elliptiques sont plutôt concentrées dans les zones centrales, tandis que les spirales sont plus abondantes dans les zones périphériques.
Ces propriétés peuvent se comprendre d'une manière assez simple. Nous avons vu que les galaxies elliptiques étaient très probablement formées par la fusion de galaxies spirales. Dans les régions centrales des amas où la densité en galaxies est plus grande, la probabilité de fusion est aussi plus élevée, ce qui explique que l'on observe davantage d'elliptiques.
Au contraire, dans les zones extérieures on pense qu'il y a encore accrétion de galaxies de champ qui "tombent" sur l'amas. Dans ce cas, il s'agit majoritairement de galaxies spirales ; de plus, lorsqu'elles entrent dans l'amas leur gaz peut être comprimé, ce qui peut avoir pour effet d'augmenter leur taux de formation d'étoiles, ce qui est effectivement observé dans nombre de cas.
Les fonctions de luminosité (FDL) des galaxies sont définies comme le nombre de galaxies observé dans un amas par intervalle de magnitude.
Elles nous renseignent sur les abondances relatives des galaxies faibles et brillantes, et sont généralement modélisées par une fonction de Schechter (Schechter 1976, ApJ 203, 297), dont les paramètres sont la magnitude absolue (ou, si l'on préfère, la luminosité) au point d'inflexion M* et la pente α pour les objets faibles (avec une constante multiplicative de normalisation K).
La fonction de Schechter exprimée en fonction de la magnitude absolue M des galaxies est de la forme suivante:
Les fonctions de luminosité des galaxies d'amas ne sont pas faciles à déterminer, car il faut être sûr de n'inclure que les galaxies appartenant à l'amas, à l'exclusion des galaxies d'avant-plan ou d'arrière-plan.
Pour cela, diverses méthodes sont possibles, par exemple la soustraction statistique de comptages de galaxies faits dans des grands relevés de galaxies (si possible avec le même filtre). Bien sûr, la meilleure méthode serait d'avoir une mesure du décalage spectroscopique de chaque galaxie, mais cette méthode exige beaucoup de temps de télescope, et ne permet d'observer que les galaxies relativement brillantes, les autres étant très difficilement observables en spectroscopie.
A défaut de données spectroscopiques, il est possible d'effectuer plusieurs estimations des comptages de galaxies d'arrière-plan, par exemple en comptant les galaxies dans une région de l'image non couverte par l'amas, ou bien en utilisant des comptages de galaxies publiés dans des résultats de grands relevés. La figure ci-contre montre les ajustements par des fonctions de Schechter, correspondant à deux soustractions des galaxies d'arrière-plan différentes On voit que dans ce cas les ajustements sont très voisins.
Il semble que la fonction de luminosité des galaxies soit plus plate dans les régions centrales des amas et plus "pentue" dans les zones externes, autrement dit qu'il y ait davantage de galaxies naines dans les zones externes que dans les zones internes.
L'explication la plus simple est qu'au centre des amas les galaxies naines sont accrétées par les grosses galaxies, tandis que dans les zones externes ces petites galaxies restent en nombre important, parce qu'elles ont une probabilité beaucoup plus faible de rencontrer et être accrétées par une grosse galaxie.
Les galaxies situées dans les amas sont influencées par le milieu qui les entoure.
Par exemple, on a pu constater que leur contenu en hydrogène neutre ou gaz HI était parfois sous-abondant, ce qui peut être interprété comme dû à la pression exercée par le gaz inter-amas qui arrache aux galaxies leur gaz. La première mise en évidence de cette déficience en HI dans un amas a été faite pour l'amas de la Vierge par Cayatte et al. (1990), comme le montre la figure ci-contre.
Les fusions et interactions successives peuvent également arracher du gaz aux galaxies. Leur réserve en gaz étant appauvrie, leur taux de formation d'étoiles va alors diminuer.
Les galaxies d'amas se placent sur une séquence dans un diagramme couleur-magnitude (la couleur étant définie comme la différence entre les magnitudes mesurées dans deux filtres différents), ce qui est un moyen de sélectionner les galaxies ayant une forte probabilité d'appartenir à l'amas même si l'on ne connaît pas leur décalage spectral.
Pour les amas proches, on procède comme pour Abell 496 et on élimine toutes les galaxies situées nettement au-dessus de la séquence de l'amas dans le diagramme couleur-magnitude. Si l'on peut en plus disposer de nombreuses mesures de décalages spectraux, comme c'est le cas pour le célèbre amas Coma, la confiance que l'on peut accorder à cette méthode est encore plus grande.
Pour les amas plus lointains, la contamination par des galaxies d'avant-plan, donc plus bleues que celles de l'amas, devient importante. On choisit alors de sélectionner les galaxies membres de l'amas autour de la séquence elle-même. C'est le cas pour l'amas Abell 222.
Ces trois figures montrent comment il est possible de sélectionner les galaxies ayant une forte probabilité d'appartenir à un amas sans mesurer leur décalage spectral (beaucoup plus coûteux en temps de télescope). La méthode n'est pas parfaite, mais donne d'assez bons résultats.
Au début du XXème siècle, Einstein avait prédit qu'une forte concentration de masse pouvait courber les rayons lumineux passant à proximité et amplifier la source lumineuse d'arrière-plan.
Vers le milieu des années 1980, un groupe d'astronomes de l'observatoire Midi-Pyrénées regroupé autour de Bernard Fort découvrit un arc lumineux géant dans une image de l'amas Abell 370, qui est à un décalage spectral de 0.375. Il s'agissait de la première mise en évidence du phénomène de lentille gravitationnelle dans un amas de galaxies.
Un spectre de l'arc révéla ensuite qu'il s'agissait d'une galaxie à un décalage spectral 0.725, déformée et amplifiée par l'effet de lentille gravitationnelle de l'amas.
Depuis vingt ans, de nombreux autres arcs géants ont été découverts dans des images d'amas, l'un des plus beaux exemples étant Abell 2218.
Le principe de l'effet de lentille gravitationnelle appliqué aux amas de galaxies montre l'existence de trois régimes. Si l'observateur, l'amas et une galaxie lointaine sont parfaitement alignés, la galaxie lointaine apparaîtra sous l'aspect d'un nombre impair de grands arcs : c'est l'effet de lentille gravitationnelle fort.
Si l'alignement n'est pas parfait, on observera seulement de petits arcs disséminés sur l'image (en anglais, des "arclets").
Enfin, si l'alignement est encore moins bon, il se produira alors de simples déformations des galaxies d'avant-plan, indétectables pour chaque galaxie individuellement, mais détectables statistiquement sur un grand nombre de galaxies.
L'observation des positions et magnitudes de nombreux arcs sur l'image d'un amas (et si possible aussi l'obtention de spectres) permet de modéliser la distribution de masse dans l'amas. Par intégration, on a ainsi accès à la masse totale de l'amas, où l'on entend par masse totale la somme des masses des galaxies, du gaz émetteur X et de la matière noire.
D'autre part, l'amplification des galaxies d'arrière plan peut permettre d'observer des galaxies très lointaines, et donc très faibles, qui pourraient ne pas être observables sans amplification.
Comme les rayons X ne traversent pas l'atmosphère terrestre, il a fallu attendre les observations par satellite pour observer le ciel dans ce domaine de longueur d'onde à la fin des années 1960. Les amas de galaxies ont alors été détectés, à commencer par l'amas Coma, qui est riche, massif, et donc brillant en X.
Depuis lors plusieurs générations de télescopes X de plus en plus performants se sont succédé, avec à chaque nouvelle génération un progrès considérable dans les performances de l'instrument.
Les trois caractéristiques principales que l'on cherche sans cesse à améliorer sont : la sensibilité (ou la surface collectrice), la résolution spatiale et la résolution en énergie (terme utilisé en rayons X à la place du terme de résolution spectrale employé dans d'autres domaines de longueur d'onde). Comme il n'est pas possible d'optimiser ces trois propriétés à la fois, des choix technologiques doivent être faits pour privilégier l'une de ces caractéristiques par rapport aux deux autres.
Depuis dix ans, trois satellites observent le ciel en rayons X, avec des propriétés très complémentaires. En effet, le satellite européen XMM-Newton a une grande surface collectrice qui lui permet d'observer des objets faibles ; en revanche sa résolution spatiale est au mieux de 5 secondes d'arc et sa résolution en énergie est moyenne (sauf pour le spectrographe RGS à haute résolution, mais qui n'a pas de résolution spatiale). Le satellite américain Chandra (ainsi nommé en hommage au grand astrophysicien indien Chandrasekhar), lui, possède au contraire une excellente résolution spatiale de l'ordre de 1 seconde d'arc ; par contre il ne couvre qu'un champ assez petit, et sa sensibilité et sa résolution en énergie sont moyennes. Enfin le satellite japonais Suzaku privilégie une excellente résolution en énergie au détriment de la résolution spatiale, inexistante.
L'émission X du gaz présent dans les amas de galaxies est interprétée comme l'émission thermique d'un gaz très chaud et très peu dense.
Le gaz des amas est majoritairement constitué d'hydrogène. Du fait de la haute température de ce gaz, les atomes d'hydrogène vont être ionisés en protons et électrons. Lorsqu'un électron passe au voisinage d'un proton il va subir une force électrique qui va le ralentir, et l'énergie perdue va alors se transformer en un photon X. C'est ce que l'on appelle le rayonnement de freinage ("bremsstrahlung" en Allemand).
La quantité d'énergie rayonnée en X (ou émissivité) due à ce mécanisme à la fréquence ν est de la forme :
où n est la densité électronique du gaz et T sa température.
Le gaz émetteur X a une température très élevée : quelques dizaines à quelques centaines de millions de degrés. En revanche, sa densité est très faible, de l'ordre de 10-2 particules cm-3. Si l'on compare cette densité à celle de l'atmosphère terrestre au niveau de la mer, on trouve qu'elle est environ 1017 fois plus faible! Du fait que la densité du gaz décroît radialement à partir du centre des amas, l'émissivité en X décroît donc fortement du centre vers la périphérie des amas. En revanche, la dépendance de l'émissivité avec la température est relativement faible, et on a longtemps considéré les amas comme isothermes (c'est à dire ayant la même température partout). On sait maintenant qu'il n'en est rien, et que la température peut varier d'un facteur 2 ou 3 à l'intérieur d'un même amas.
Difficulté : ☆☆ Temps : 5 minutes
On exprime généralement la température du gaz émetteur X dans les amas en keV (kilo-électronVolts).
Si le gaz d'un amas est à 5 keV, calculer sa température en Kelvins.
La morphologie des amas en rayons X est très variée.
Certains semblent homogènes et sans sous-structures spatiales, mais peuvent quand même dans certains cas présenter des "bord" plus nets dans certaines directions, ce qui est le cas de Abell 2142.
D'autres présentent au contraire des morphologies très compliquées, avec deux ou plusieurs sous-structures. On observe dans certains cas des "trous d'émission" ou des filaments dans les zones internes, qui peuvent être dus à la présence d'une galaxie à noyau actif au centre de l'amas (Amas du Centaure, Amas Persée).
Tout comme l'on observe parfois des fusions de galaxies, on a découvert qu'il existait également, à beaucoup plus grande échelle, des fusions d'amas. Là aussi, les échelles de temps (de l'ordre de plusieurs milliards d'années) sont beaucoup trop longues pour pouvoir observer ces fusions en temps réel. On a donc recours à des simulations numériques pour rendre compte des propriétés des amas en fusion.
Lorsqu'il y a fusion de deux amas, le gaz situé entre les deux amas est généralement comprimé. Comme l'émission X est proportionnelle à la densité du gaz au carré, elle va donc fortement augmenter dans cette région. Le gaz peut aussi être chauffé par les ondes de choc créées par la fusion de deux amas. C'est ce que l'on observe dans la zone située entre les deux amas qui forment Abell 754.
Les spectres d'amas en rayons X présentent un rayonnement continu dû au rayonnement de freinage des électrons dont nous avons déjà parlé, ainsi que des raies d'émission dues à des éléments chimiques fortement ionisés présents dans le gaz.
La raie d'émission la plus intense est celle du fer vers 6.7 keV. Les spectres X nous permettent d'estimer la température et la métallicité (abondance en éléments autres que l'hydrogène et l'hélium) du gaz. Ces éléments ont été créés dans les étoiles contenues dans les galaxies qui constituent l'amas, puis rejetés dans le milieu intergalactique, par exemple lors de l'explosion des étoiles les plus massives en supernovae.
Avec un satellite comme XMM-Newton, il est maintenant possible d'obtenir des spectres en diverses régions des amas, et donc de calculer des profils (variation en fonction du rayon dans des couronnes concentriques), et même des cartes de température et de métallicité des amas. Par métallicité, les astronomes entendent l'abondance de tous les éléments plus lourds que l'hydrogène et l'hélium (qu'ils soient ou non des "métaux" au sens usuel de la chimie).
Difficulté : ☆ Temps : 2 minutes
Sachant que la raie la plus intense observée dans le spectre d'un amas de galaxies est celle du fer à 6.7 keV, calculer à quelle énergie cette raie sera détectée dans le spectre d'un amas à décalage spectral z=0.1.
Il n'est possible de tracer de vraies cartes de température du gaz émetteur X que depuis l'avènement du satellite XMM-Newton il y a dix ans. Cependant, on a pu bien plus tôt tracer les profils de température du gaz dans les amas, en sommant tous les photons X dans des couronnes concentriques, et en déterminant une température moyenne dans chaque couronne. L'exemple d'un tel profil est donné dans la figure ci-contre.
On a ainsi pu estimer la température au centre des amas, et on a trouvé qu'elle était généralement plus froide. L'explication qui a longtemps prévalu était celle proposée par A. Fabian : le fait que le gaz émette des rayons X se traduisait par une perte d'énergie pour le gaz. L'émission X variant comme la densité du gaz X au carré, le gaz dans les régions centrales de l'amas était assez dense pour que le temps de refroidissement du gaz dû à l'énergie rayonnée en X soit inférieur à l'âge de l'Univers. Dans ce cas, il était normal que le gaz soit plus froid au centre.
A. Fabian a ensuite développé une théorie dite "théorie du courant de refroidissement". Dans ce cadre, la température, et donc la pression du gaz étant plus faibles au centre, il devait s'ensuivre une chute de gaz des régions externes vers le centre ; ce phénomène était connu sous le nom de "courant de refroidissement" et la masse déposée au centre des amas pouvait atteindre des valeurs de l'ordre de plusieurs centaines de masses solaires par an.
Les observations avec le spectrographe RGS du satellite XMM-Newton ont montré que de si grandes masses de gaz plus froid n'étaient pas observées : elles auraient en effet produit l'émission de raies intenses autour de 1 keV, et ces raies n'étaient pas observées par le RGS. La théorie du courant de refroidissement a donc dû être abandonnée, du moins dans sa formulation initiale.
On pense maintenant qu'un phénomène physique vient réchauffer le centre des amas, et ainsi s'opposer au refroidissement par émission de photons X. L'hypothèse la plus probable est celle d'un chauffage par le rayonnement dû au noyau actif de la galaxie centrale géante située au centre de la plupart des amas.
Ce raisonnement et les calculs de la masse de gaz et de la masse totale de l'amas ne peuvent en toute rigueur s'appliquer qu'à des amas présentant une symétrie sphérique ou elliptique.
La figure présente les cartes de température du gaz X obtenues pour quatre amas très différents à partir de données obtenues par le satellite XMM-Newton. On peut remarquer qu'aucune carte de température n'est parfaitement symétrique. Même celle d'Abell 496, pourtant considéré habituellement comme un amas sans aucun signe de sous-structures ou de fusions, présente non seulement une zone plus froide au centre, ce qui est normal, mais aussi des régions plus chaudes au sud.
On remarque que la carte de température d'Abell 85 ressemble beaucoup à celle résultant d'une simulation numérique de la fusion de deux amas de masse inégale (voir figures). Cette simulation n'a pourtant pas été réalisée pour rendre compte des observations d'Abell 85.
La comparaison de la carte de température d'Abell 85 avec celle issue des simulations numériques montre de fortes similitudes et permet de penser qu'un petit amas a été accrété par Abell 85 depuis suffisamment longtemps (2 à 4 milliards d'années) pour que l'amas ait eu le temps de s'homogénéiser sans que la carte de température du gaz ait, elle, eu le temps de le faire.
Les simulations numériques sont donc très précieuses pour tenter de comprendre l'histoire de formation d'un amas en remontant aux diverses fusions qu'il a pu subir.
A partir du profil de densité et de température du gaz X, on peut calculer la masse totale de gaz en fonction du rayon, et par intégration la masse totale du gaz X.
Si l'on suppose que le gaz X est en équilibre hydrostatique dans le puits de potentiel de l'amas, on peut alors calculer la masse totale de l'amas en fonction du rayon, puis par intégration la masse totale de l'amas.
On constate que le gaz représente environ 15% de la masse totale, et les galaxies quelques %. Le reste de la masse des amas est constitué de matière noire, que l'on ne détecte pas directement, mais dont on déduit l'existence par ses effets gravitationnels.
Il est intéressant de constater que pour les amas sans sous-structure, où la condition d'équilibre hydrostatique a des chances d'être vérifiée, la masse totale de l'amas ainsi calculée est en accord avec celle déduite du phénomène de lentille gravitationnelle.
En revanche, il est clair que cette méthode (la seule dont nous disposions hélas!) ne peut pas être appliquée aux amas en fusion, comme par exemple Abell 3376 (voir page précédente).
Les groupes de galaxies sont connus depuis longtemps, puisque notre Voie Lactée elle-même est membre d'un groupe, appelé Groupe Local. Cependant, leur détection en rayons X n'a été possible que dans les années 1990 avec le satellite ROSAT.
Les propriétés des galaxies appartenant à des groupes ne diffèrent pas beaucoup de celles des galaxies de champ. En revanche, on ne détecte de gaz chaud émetteur en rayons X que dans les groupes suffisamment massifs pour avoir été capables de retenir du gaz dans leur puits de potentiel. Dans ce cas, le gaz émet en rayons X comme le gaz des amas, mais il est nettement moins chaud (température inférieure à 1 keV).
Il n'est pas toujours facile de savoir si l'émission X des groupes provient d'un énorme nuage de gaz chaud, ou de la superposition des émissions X individuelles de galaxies constituant le groupe, ce qui rend d'autant plus difficile l'étude des groupes en rayons X.
Les amas de galaxies sont les plus grandes structures de l'Univers liées par la gravité. Outre le fait qu'il s'agit pour diverses raisons d'objets intéressants à étudier en soi, les amas ont également un intérêt cosmologique.
En effet, les comptages d'amas, en particulier à grand décalage spectral, permettent de placer certaines contraintes sur les paramètres cosmologiques qui décrivent les propriétés à très grande échelle de l'Univers. Ces contraintes, couplées avec d'autres (supernovae Ia, oscillations baryoniques acoustiques, fond diffus cosmologique) permettent maintenant de déterminer avec précision un certain nombre de paramètres cosmologiques, comme par exemple les paramètres Omega et w présentés dans la figure ci-contre.
Dans ce chapitre vous trouverez des compléments détaillés sur deux thèmes de la Physique qui vous seront utiles pour améliorer votre compréhension des chapitres Astronomie qui sont disponibles sur le site.
Lunettes, télescopes, appareils photos... comment fonctionnent ces instruments ? C'est la question à laquelle nous allons tenter de répondre tout au long de ce cours dédié à l'optique dite géométrique.
L'objectif de ce cours est de vous donner les bases d'optique qui vous permettront de comprendre comment fonctionnent une lunette astronomique, un télescope et un appareil photographique.
Ce cours est découpé en 7 chapitres :
... nous retracerons l'histoire des découvertes concernant la lumière. De l'Antiquité au XXe siècle, comment est-on passé d'une optique géométrique et corpusculaire à une optique ondulatoire, puis à une théorie plus complète, intégrant les deux descriptions ?
Nous établirons également quelques propriétés de la lumière, en décrivant ce qu'est une onde et présentant ce qu'est un photon.
Puis nous dessinerons les contours de l'optique géométrique, afin de fixer le cadre dans lequel nous travaillerons jusqu'à la fin de ce cours.
L'histoire de l'optique commence dès l'Antiquité. Les notions de rayons lumineux ainsi que les lois de la réflexion sont déjà connues d'Euclide et de Ptolémée.
Il faudra cependant attendre plusieurs siècles et le mathématicien et physicien arabe Alhazen pour que soient énoncées les lois de la réfraction. Elles seront redécouvertes en Europe par le physicien hollandais W. Snell (1621) puis par le français René Descartes en 1637. Il est amusant de voir que ces lois sont appelées lois de Snell partout dans le monde, sauf en France, où elles sont appelées lois de Descartes. Vous avez dit chauvinisme ? Débat stérile puisqu'elles avaient été découvertes six siècles avant eux. De plus, elles avaient déjà été publiées en Europe par le britannique Roger Bacon au XIIIe siècle.
Les premiers instruments optiques pour l'astronomie apparaissent aux XVIIe siècle avec l'utilisation de la lunette par Galilée en 1609 puis l'amélioration du télescope par Isaac Newton en 1671. Le XVIIe siècle voit donc se développer l'optique géométrique ainsi qu'une description corpusculaire de la lumière, portée notamment par Newton. Les sources lumineuses émettent des particules de lumière qui sont réfléchies par les miroirs et traversent les milieux transparents à différentes vitesses. De cette description, Fermat tirera le principe de moindre temps pour expliquer les phénomènes de réfraction. La lumière emprunte le chemin le plus rapide pour aller de l'émetteur au récepteur. À cette même époque, Newton réalise les premières expériences de décomposition de la lumière et en déduit que la lumière blanche est composée de la superposition de lumières colorées.
Parallèlement, le physicien néerlandais Christiaan Huygens développe, en 1678, une théorie ondulatoire de la lumière. Selon lui, elle serait constituée d'ondes sphériques émises en différents points. La lumière réelle en serait l'enveloppe. Avec sa théorie, il parvient à expliquer la réflexion et la réfraction.
Ce modèle ne sera repris qu'au XIXe siècle, où la théorie ondulatoire permet à Thomas Young d'expliquer le phénomène d'interférence, ainsi qu'à Augustin Fresnel de développer la théorie de la diffraction. James Clerk Maxwell termine le travail en construisant une théorie de l'électromagnétisme. La lumière est désormais une onde électromagnétique, de fréquence de l'ordre de Hz pour sa partie visible, se propageant à la vitesse .
Cependant, quelques phénomènes résistent encore à cette description : l'effet photoélectrique et l'émission du corps noir. Albert Einstein, dans un article publié en 1905, remet au goût du jour la théorie corpusculaire en introduisant la notion de photon, un grain de lumière, d'énergie , où est la fréquence de l'onde électromagnétique précédemment introduite, et une constante, qui portera le nom du physicien Planck. Dans cet article, il parviendra à expliquer l'un des phénomènes encore mystérieux, l'effet photoélectrique. Il est d'ailleurs amusant de rappeler que c'est pour cet article que le père de la relativité recevra le prix Nobel. Le second phénomène, l'émission du corps noir, sera alors résolu grâce à ce nouveau modèle, par Max Planck et Einstein.
Onde ou corpuscule ? En 1924, Louis de Broglie concilie les deux approches en parlant de dualité onde corpuscule. Les deux théories, loin de s'opposer, se complètent. Les dernières contradictions sont levées par la théorie de l'électrodynamique quantique esquissée par Richard Feynman, au cours des années 1950.
Nous venons de voir que la description de la lumière a évolué au cours du temps : tantôt une onde, tantôt un corpuscule, tantôt les deux à la fois. Néanmoins, pour nombre de phénomènes que nous étudierons dans la suite de ce cours, la connaissance de la nature de la lumière n'est pas nécessaire. Afin de satisfaire la curiosité du lecteur, je vais toutefois présenter quelques propriétés de la lumière.
Les trois pages qui suivent sont inspirées du cours du professeur Tadashi Tokieda à l'Ecole de Cargese "Transit, eclipses, occultations et phénomènes rasants".
Dans une piscine, un farceur veut éclabousser son copain. Comment s'y prend-il ?
Une poussée directe projette de l'eau... mais pas assez loin. Le copain est toujours sec.
Par contre, s'il excite une onde, en agitant régulièrement les bras, le tour est joué !
Le train de vagues créé est une onde. Le farceur a communiqué de l'énergie à l'eau, en la mettant en mouvement de haut en bas, et celle-ci s'est propagée jusqu'au malheureux.
Tiens, c'est intéressant. Un enfant a oublié son canard en plastique dans la piscine. Notre victime pourra se consoler avec ce jouet, qui ira tout droit jusqu'à lui, porté par les vagues. Et bien... non. Dommage pour lui, mais si on observe le canard, certes il oscille de haut en bas, mais il n'avance pas dans la piscine.
C'est une propriété importante des ondes. Le transport d'énergie se fait sans transport de matière.
Une onde est un phénomène de propagation ordonnée d'énergie, sans transport de matière.
J'ai cité l'exemple des vagues à la surface de la piscine, mais il existe bien d'autres exemples d'ondes :
À noter que toutes les ondes précédemment mentionnées nécessitent un support pour se propager. L'espace étant vide, le son ne peut s'y propager. Les bruits d'explosions dans Star Wars ne sont donc que pure fiction.
De la même façon que dans l'air on peut créer une onde sonore en perturbant mécaniquement le milieu, on crée une onde électromagnétique en secouant une charge électrique (un électron par exemple) dans le vide. C'est une onde lumineuse.
Le dessin ici est trompeur, car l'onde est rayonnée dans toutes les directions. Dans la piscine, les vagues se propageaient tout autour de notre farceur, en faisant des ronds dans l'eau.
Notre charge crée de la même manière des ondes sphériques autour d'elle. À noter cependant que la puissance rayonnée dépendra de la direction dans ce cas particulier.
À l'inverse des ondes citées jusqu'à présent, l'onde électromagnétique n'a pas besoin de support pour se propager. Elle peut se déplacer dans le vide. C'est d'ailleurs comme ça qu'on peut voir les étoiles. Cela a dérouté les physiciens pendant de nombreuses années, et ils avaient introduit un support, de nature inconnue, appelé éther pour expliquer la propagation des ondes lumineuses. C'était un fluide qui emplissait tout l'espace. Or, comme la Terre se déplaçait dedans, il devait exister des vents d'éther, se traduisant par une vitesse de propagation de la lumière différente selon la direction d'où elle venait. Deux physiciens, Michelson et Morlay, ont alors mis au point un instrument très précis, un interféromètre, pour mesurer la vitesse de la lumière dans plusieurs directions. Ils n'ont jamais trouvé de différence. Michelson a alors considéré son expérience comme un échec, remettant en cause sa précision. L'explication était tout autre. L'éther n'existait pas, et la vitesse de la lumière constante, qu'elle que soit la direction. Le principe de relativité restreinte était né sous la plume d'Einstein.
Une onde électromagnétique se propage dans le vide toujours à la même vitesse.
soit presque 8 tours de la Terre en une seconde !
Vous avez dit toujours ? Oui, toujours ! dans le vide.
En 1676, à l'Observatoire de Paris, Olaus Römer, physicien danois, est le premier à émettre l'hypothèse du caractère fini de la vitesse de la lumière. Il explique ainsi les variations de la récurrence des éclipses du satellite jovien Io. Elles variaient en effet de plusieurs minutes par rapport aux éphémérides. De ses mesures, il déduit que la lumière se propage à (avec une erreur de l'ordre de 30 % par rapport à la valeur mesurée aujourd'hui).
En 1849, Fizeau mesure à son tour la vitesse de la lumière, à l'aide d'un dispositif constitué d'une roue dentée, située à Suresnes et d'un miroir situé à quelques kilomètres de là, à Montparnasse. La lumière passe entre deux dents à l'aller se réfléchit sur le miroir puis revient. L'exercice consiste alors à trouver la vitesse de la roue qui permet à la lumière réfléchie de passer entre les deux dents suivantes. La donnée de cette vitesse ainsi que de la distance de la roue au miroir donne la valeur de .
Foucault réalisera, un an après, une expérience proche, permettant de mesurer la vitesse dans différents milieux transparents, comme l'eau. Il en déduira que la lumière se propage moins vite dans l'eau que dans l'air, mettant un terme à la théorie corpusculaire, qui prédisait le résultat inverse.
En 1887, Michelson et Morlay prouvent que la lumière se propage à la même vitesse dans toutes les directions et que le mouvement de la Terre dans l'espace n'influence pas cette valeur. Mais c'est Albert Einstein qui trouvera l'interprétation correcte de cette expérience : la vitesse de la lumière est constante et égale à , et ce, dans n'importe quel référentiel.
En 2011, une équipe du CERN avait annoncé avoir enregistré des neutrinos (des particules neutres, très légères, et n'interagissant que très peu avec la matière) se déplaçant plus vite que la lumière. Cela rentrait en contradiction avec la théorie de la relativité restreinte, qui énonce qu'aucune particule, ne peut se déplacer plus vite que la lumière dans le vide. Après de nombreuses vérifications, un biais dans la mesure a été détecté. L'erreur de mesure était due à une mauvaise connexion d'une balise GPS.
En fonction de la position de la Terre (en A ou en B), il existe un décalage de 996 secondes dans les prédictions de l'heure de l'éclipse du satellite Io de Jupiter (en J).
Calculer la vitesse de la lumière.
Sautons à nouveau dans la piscine. Notre farceur crée une vague à chaque fois que ses bras font un mouvement de haut en bas puis de bas en haut. S'il agite doucement les bras, la durée entre deux vagues sera longue. Par contre, s'il les agite rapidement, cette durée se raccourcit.
Nous venons de mettre en évidence la période temporelle d'une onde (que l'on notera ). Dans le cas des vagues, elle est de l'ordre d'une seconde. Inversement, on voit passer une vague par seconde environ. Un peu plus si le temps entre deux vagues est plus court, un peu moins, s'il est plus long. C'est ce qu'on appelle la fréquence (notée ou ). Elle est définit comme l'inverse de la période temporelle.
Elle s'exprime en Hertz (Hz). .
On s'intéresse maintenant non plus au temps séparant deux vagues, mais à la distance entre deux sommets de vagues. Cette distance est appelée longueur d'onde, et souvent notée . Elle s'exprime en mètre.
Si notre farceur agite plus vite les bras, on sent bien qu'il y aura plus de vagues, et que la distance séparant deux d'entre elles sera plus courte. Il existe donc une relation entre la fréquence et la longueur d'onde.
On remarque donc que, à période fixée, si la vitesse augmente, la longueur d'onde augmente. Les vagues fuient plus vite et donc la distance entre elles grandit.
Le farceur peut agiter plus ou moins vite les bras. Il en est de même pour notre charge électrique. On peut la secouer très doucement, de l'ordre du Hertz. Elle créera alors une onde radio. Si on l'excite très vite, de l'ordre de un million de milliards de fois par seconde, c'est une onde lumineuse visible qui naîtra. Encore plus vite, et ce seront des rayons X et qui seront générés.
La fréquence des ondes lumineuses peut donc varier sur plusieurs ordres de grandeur, allant de la radio aux rayons en passant par le visible. Pourtant, ce sont tous la manifestation d'un même phénomène, la propagation d'une onde électromagnétique. Seule la fréquence varie.
Si ces ondes lumineuses ne sont pas toutes regroupées sous la même appellation, c'est en partie pour des raisons historiques (on ne savait pas encore que c'était la même chose), et en partie pour des raisons instrumentales, car les outils pour les détecter ne sont pas les mêmes. On utilise parfois des antennes, parfois des miroirs et des capteurs CCD, parfois des lames de silicium...
L'astronomie est un domaine très riche, où toutes ces fréquences sont intéressantes à étudier, car elles nous renseignent sur des phénomènes très variés et des objets très différents. Le tableau suivant présente les différents domaines de longueurs d'onde ainsi que les phénomènes les produisant.
Domaine spectral | Longueur d'onde (en m) | Fréquence (en Hz) | Instruments | Sources |
Ondes radio | Réseau décamétrique de Nançay | Nuages froids, aurores polaires. | ||
Ondes radio | Radiotélescope de Nançay | Hydrogène neutre (raie à )... | ||
Submillimétrique | Observatoire du plateau de Bures | Fond diffus cosmologique, objets/poussières froids... | ||
Infrarouge | VLT, CHARA, Keck, Spitzer | Étoiles, planètes, poussières... | ||
Visible | Hubble, HARPS, Soho... | Étoiles, Soleil, planètes, nébuleuses, trous noirs... | ||
Ultraviolet | Soho | Soleil, étoiles, trous noirs | ||
Rayons X | XMM, Chandra... | Étoiles binaires en interaction, trous noirs... | ||
Rayons γ | Fermi | Sursauts gamma, trous noirs |
Lorsque la lumière se propage dans un milieu (air, eau, verre...), elle interagit avec celui-ci. Ce dernier modifie les propriétés de la lumière. Il peut changer sa vitesse, lui prendre de l'énergie (plus rare, lui en donner).
Dans certains milieux, tel le verre, la vitesse est plus importante pour le rouge que pour le bleu. Ce phénomène est appelé dispersion. Il est utilisé, depuis Newton, dans les prismes, pour décomposer la lumière.
L'intensité lumineuse peut décroître dans les milieux. C'est le phénomène d'absorption (exemple : les lunettes de soleil). Elle peut également croître dans les milieux amplificateurs. Ces milieux sont utilisés dans les lasers.
Dans la suite, ce cours se limitera à l'étude des milieux homogènes transparents et isotropes (HTI).
Nous venons de le voir, dans un milieu HTI (MHTI), la lumière se propage moins vite que dans le vide. On définit l'indice du milieu comme étant le rapport de la vitesse de la lumière dans le vide sur sa vitesse dans le milieu.
La vitesse dans un milieu HTI étant toujours inférieure à celle dans le vide, est toujours supérieur à 1.
Les MHTI étant généralement dispersifs, l'indice dépend de la longueur d'onde.
Milieux | Indices |
Vide | 1 |
Air | 1,00029 |
Eau | 1,33 |
Verre crown | 1,52 |
Verre flint | 1,67 |
Le milieu est d'autant plus réfringent qu'augmente .
La physique nous dit que la lumière va à la vitesse partout, tout le temps. Or, on constate qu'elle va moins vite dans les MHTI. En fait, dans ce type de milieu, la lumière interagit avec les molécules composant celui-ci. Entre chaque molécule, les photons voyagent à . Mais en interagissant, ils sont absorbés puis réémis, ils changent plusieurs fois de directions... Vu de loin, tout se passe comme si la lumière allait moins vite.
Une molécule d'eau est composée d'un atome d'oxygène et de deux atomes d'hydrogène : . Parfois, l'atome d'hydrogène est remplacé par son isotope stable, le deutérium. Ce dernier est composé d'un proton et d'un neutron. Il est deux fois plus lourd que l'hydrogène. Cette molécule est alors appelée eau semi-lourde. L'eau lourde, quant à elle, est constituée de deux atomes de deutérium : .
L’eau lourde est utilisée dans certains réacteurs nucléaires comme modérateur de neutrons. Son but est ralentir les neutrons issus de réactions de fission nucléaire. Les neutrons ralentis ont alors une probabilité plus élevée de provoquer de nouvelles fissions de noyaux d'uranium, permettant ainsi la réaction en chaîne.
L'indice optique de l'eau légère est noté . Calculer la vitesse de la lumière dans cette eau.
La vitesse de la lumière dans l'eau lourde . Calculer son indice optique.
Laquelle de ces 2 eaux est la plus réfringente ? Où la lumière se déplace-t-elle le plus vite ?
Tout ce que nous venons de dire permet de décrire beaucoup de phénomènes optiques, mais pas l'effet photoélectrique. Quel est ce phénomène qui échappe encore à notre description ?
L'effet photoélectrique se manifeste quand on éclaire un métal avec un rayonnement UV. Des électrons sont alors arrachés du métal à cause de cette lumière. Pour que les électrons soient arrachés, il faut leur communiquer de l'énergie en quantité suffisante. Sous un certain seuil d'énergie, les électrons ne pourront pas quitter la plaque de métal. Mais au-dessus d'un certain seuil, ils pourront "sauter la barrière" et quitter le métal.
Intuitivement, on peut se dire que plus l'intensité de la lumière est importante, plus grande sera l'énergie apportée aux électrons. Au dessus d'un certain flux lumineux, l'effet photoélectrique se manifestera. Il n'en est rien. Si on éclaire la plaque avec de la lumière rouge, verte ou bleue, quelle que soit l'intensité du flux, aucun électron n'est jamais émis. Par contre, dès qu'on descend en longueur d'onde, et qu'on atteint l'ultraviolet, l'effet photoélectrique apparaît. Même à faible flux lumineux ! Ça n'est pas intuitif du tout !
Comment expliquer ceci ? Il faut revenir à l'hypothèse corpusculaire. La lumière est vue comme un flux de petits grains, qu'on appellera photons, chacun transportant une petite quantité d'énergie, un quantum d'énergie. En quoi ça change ? Et bien, d'une part l'énergie totale est proportionnelle au nombre de photon. Plus il y a de photons, plus on apporte d'énergie. Mais aucun photon, pris individuellement, ne possède l'énergie suffisante pour faire "sauter" un électron. Sauf en dessous d'une certaine longueur d'onde. Là chaque photon, même en très petit nombre, peut arracher un électron. On en déduit que l'énergie des photons est inversement proportionnelle à la longueur d'onde, ou, de manière équivalente, proportionnelle à la fréquence.
La constante de proportionnalité est appelée constante de Planck, et vaut .
Réalisons une expérience. Plaçons nous dans le noir et observons le pinceau lumineux rouge issu d'un laser hélium-néon. La poussière flottant dans la pièce diffuse la lumière de celui-ci, nous permettant d'observer la trajectoire du pinceau lumineux. On constate que celui-ci est rectiligne.
Les rayons lumineux traversant les rideaux, le matin, ont également l'air rectiligne.
En reproduisant ces expériences avec différentes sources et différents milieux, on constaterait toujours que la lumière se propage en ligne droite dans l'espace.
La lumière se propage en ligne droite dans un MHTI.
Remarquons que ceci n'est plus vrai dès lors que le milieu n'est plus homogène. Nous aborderons brièvement ce phénomène dans le cas des mirages (chapitre suivant) et en toute fin pour les problèmes de turbulence atmosphérique.
Reprenons le laser et observons son faisceau. Pouvons-nous réduire de la taille de celui-ci afin de n'obtenir qu'un seul rayon lumineux ?
Pour cela, plaçons un diaphragme devant ce premier. Si on diminue le rayon de celui-ci, le faisceau voit son diamètre diminuer. On observe sur un écran que la tache que fait le laser diminue, mais reste uniformément éclairée.
Mais lorsque le rayon du diaphragme atteint des valeurs de l'ordre du micromètre, le pinceau se met à diverger, la tache grossit et on voit apparaître des anneaux autour de celle-ci. Nous venons de mettre en évidence le phénomène de diffraction. On y reviendra tout à la fin. Cela constitue un écart à la théorie de propagation rectiligne de la lumière dans les MHTI.
Profitons-en ici pour préciser que nombre de théories en physique (mais aussi en chimie, en biologie...) ne sont valides que sous certaines hypothèses et sous certaines conditions. Elles sont valables dans des "boites", c'est-à-dire dans un cadre théorique donné. Si on sort de cette boite, la théorie n'est plus valide. Elle peut être remplacée par une loi plus générale, plus complète, souvent plus complexe, si, bien sûr, elle a été découverte. Un exemple "classique", est la théorie de la mécanique newtonienne qui fonctionne aux faibles vitesses. Mais dès que l'on se rapproche de la vitesse de la lumière, cette théorie ne fonctionne plus, et il faut passer à une théorie plus générale : la relativité restreinte d'Einstein.
Notre conclusion ici est que la propagation rectiligne de la lumière est une loi limite, valable quand les longueurs d'onde sont faibles devant les dimensions caractéristiques de notre système. C'est le cadre de l'optique géométrique.
On a vu que la lumière visible possède des longueurs d'onde caractéristiques inférieures au micron. Que ce soit dans les télescopes ou les appareils photos, les diamètres des diaphragmes sont bien supérieurs à la longueur d'onde de la lumière visible. Nous pourrons donc toujours utiliser cette approximation.
Nous nous plaçons dans les conditions où la lumière se propage en ligne droite comme le ferait un ensemble de particules matérielles (les photons) libres. Les trajectoires de ces particules constituent les rayons lumineux.
La notion de rayon lumineux est illustrée par un pinceau lumineux cylindrique obtenu avec un petit diaphragme (mais ).
Une éclipse totale de Soleil a lieu le 13 novembre 2012. Vous pouvez consulter le site de l'IMCCE pour obtenir les suivantes. Pourquoi, lors de ces phénomènes, existe-t-il des zones d'ombre et de pénombre ? Examinons cela.
On considère une source ponctuelle. On place une pièce devant. Tracer l'ombre de la pièce.
On considère cette fois ci la source étendue que constitue le Soleil. Notre pièce est remplacée par la Lune. Tracer la zone d'ombre, c'est-à-dire la zone où aucun rayon issu du Soleil ne parvient. Tracer également la zone de pénombre, où une partie des rayons du Soleil est masquée par la Lune, et de pleine lumière, où aucun rayon n'est masqué par la Lune.
Nous venons de voir que la lumière peut être vue parfois comme une onde, parfois comme une particule appelée photon.
Les ondes radio, les microondes du four éponyme, la lumière, les UV nous donnant des coups de soleil, les rayons X pour photographier nos os brisés... sont tous des visages d'un même phénomène : l'onde électromagnétique.
Lorsque les grandeurs caractéristiques d'un système optique sont grandes devant la longueur d'onde, on peut négliger le phénomène de diffraction. On abandonne ainsi la description ondulatoire de la lumière, et on peut utiliser la notion de rayon lumineux. C'est le cadre de l'optique géométrique.
Dans un milieu transparent, homogène et isotrope, la lumière se propage en ligne droite.
Enfin, nous avons vu la définition de l'indice optique d'un MHTI. Il s'agit du rapport de la vitesse de la lumière dans le vide par celle dans ce milieu.
C'est une quantité supérieure à 1, dépendant du MHTI et de la longueur d'onde.
Prenons n'importe quel système optique, un appareil photo, un télescope, ou même, beaucoup plus simple, une paire de lunettes ou un miroir de salle de bain. Qu'ont en commun tous ces objets ? Regardons de plus près. Ils sont tous constitués de lames de verre, de lentilles et de miroirs. Nous aurons longuement le temps de revenir, dans les chapitres qui suivent, sur les lentilles et sur les miroirs sphériques et paraboliques. Mais, dans un premier temps, nous allons nous intéresser au cas plus simple des miroirs plans, ainsi que de la propagation de la lumière à travers des surfaces planes. De ces premières études, tout le reste découlera naturellement.
Nous avons vu, au chapitre précédent, que la lumière se déplace en ligne droite dans un milieu transparent, homogène et isotrope. Mais que se passe-t-il lorsqu'elle passe d'un milieu THI à un autre ? Continue-t-elle son petit bonhomme de chemin comme si de rien n'était ? Change-t-elle de trajectoire ? ou est-elle même réfléchie ? Des lois simples décrivent le comportement des rayons lumineux à la traversée d'une surface séparant deux milieux transparents.
Commençons par quelques définitions.
Dioptre : on appelle dioptre la surface de séparation de deux milieux transparents à travers laquelle la lumière peut se réfracter, ou sur laquelle elle peut se réfléchir.
Miroir : on appelle miroir une surface formée d'un dépôt métallique, par exemple de l'argent ou de l'aluminium, déposé sur un support qui n'est pas lui-même traversé par la lumière. Il existe une différence majeure entre les miroirs "de salle de bain" et les miroirs utilisés dans les télescopes. En effet, le dépôt métallique est, dans le premier cas, déposé à l'arrière de la paroi en verre. Le verre protège alors le dépôt de l'usure et de l'oxydation. Cependant, avant et après la réflexion sur le dépôt métallique, la lumière traverse l'épaisseur de verre. Ce procédé ne peut être utilisé en astronomie. La traversée du verre cause des réflexions parasites, une perte de lumière et des aberrations chromatiques. Dans le cas des miroirs de télescope, le métal est donc déposé à l'avant de la paroi en verre. Celui-ci n'est alors plus protégé, obligeant à réaluminer régulièrement le miroir.
Point d'incidence : c'est le point de contact du rayon lumineux incident avec le dioptre ou le miroir.
Normale au dioptre : il s'agit de l'axe perpendiculaire au dioptre, passant par le point d'incidence.
Plan d'incidence : le plan contenant le rayon incident et la normale au dioptre est appelé plan d'incidence. Notez que ce plan est perpendiculaire au dioptre ou au miroir.
Angle d'incidence : c'est l'angle entre le rayon incident et la normale au plan.
Nous disposons d'un miroir plan (M) au centre d'un disque gradué. A l'aide d'une source délivrant un mince pinceau lumineux (un laser par exemple), nous éclairons (M) suivant l'axe .
Le but de cette simulation est d'établir une loi liant l'angle incident et l'angle réfléchi.
Réflexion
Soit un rayon lumineux, issu de , parvenant au point d'incidence d'un miroir plan parfaitement réfléchissant.
La direction du rayon réfléchi est donnée par la première loi de Descartes :
Difficulté : ☆ Temps : 5 min
En laboratoire, pour renvoyer la lumière d'où elle vient (c'est-à-dire lui faire faire demi-tour), on utilise un dièdre. C'est un système composé de deux miroirs plans collés l'un à l'autre avec un angle de 90° (voir schéma ci-dessous).
Soit un rayon incident. Tracez le rayon réfléchi par le dièdre.
Difficulté : ☆☆ Temps : 5 min
Nous allons démontrer l'affirmation ci-dessus.
Soit un rayon incident arrivant avec un angle incident quelconque sur la première face du dièdre. Prouver que, quel que soit la valeur de , le rayon réfléchit repartira parallèlement au rayon incident.
On dispose de deux MHTI d'indice et . Un rayon incident issu de arrive sur le dioptre les séparant en .
Le but de cette simulation est d'établir une loi liant l'angle incident et l'angle réfracté.
Snell Descartes
On dispose de deux MHTI d'indice et . Un rayon incident issu de arrive sur le dioptre les séparant en .
Le but de cette simulation est d'établir une loi liant l'angle incident et l'angle réfracté.
Nous venons de voir à la page précédente que :
Lorsque les angles sont faibles, ils sont presque égaux à leur sinus (exprimé en radian). Donc lorsque et sont petits :
On retrouve le fait que la loi est presque linéaire pour les faibles angles.
On dispose de deux MHTI d'indice et . Un rayon incident issu de arrive sur le dioptre les séparant en .
Le but de cette simulation est d'établir une loi liant l'angle incident et l'angle réfracté.
Nous venons de voir aux pages précédentes que :
On vient de voir que est proportionnel à , proportionnel à et inversement proportionnel à . Sur l'appliquette, calculer la pente de la courbe . Comparez-la au rapport .
Qu'en déduisez-vous ?
Résumons ce que nous venons de constater.
Considérons le rayon incident, issu de , se propageant dans le MHTI d'indice . Au point I appartenant au dioptre, il subit une déviation et une réflexion partielle. Le rayon réfracté se propage dans le MHTI, d'indice , et le réfléchi, dans le MHTI d'indice .
On énonce ainsi les lois de Snell-Descartes :
et l'angle de réflexion par
Le rayon réfracté se rapproche de la normale quand il passe d'un milieu moins réfringent à un milieu plus réfringent. À l'inverse, il s'en éloigne s'il passe d'un milieu plus réfringent à un milieu moins réfringent.
Nous allons maintenant étudier un cas limite du phénomène de réfraction.
Démarrez l'appliquette sur les lois de Snell-Descartes, et placez vous dans le cas où . C'est par exemple le cas lorsqu'un rayon lumineux émerge de l'eau ou du verre pour se retrouver dans l'air.
Augmentez l'angle d'incidence.
Que se passe-t-il ?
Lors du passage d'un milieu plus réfringent à un milieu moins réfringent, on constate que lorsque varie de 0 à 90°, ne varie que de 0 à . Tout rayon incident arrivant au niveau du dioptre avec un angle supérieur à celui-ci sera totalement réfléchi. Il ne sera pas réfracté ! C'est ce qu'on appelle le phénomène de réflexion totale. Nous allons le voir, ce phénomène est utilisé dans plusieurs systèmes optiques.
Difficulté : ☆ Temps : 10 min
On dispose d'un aquarium et d'un laser.
Le rayon issu du laser arrive avec un angle d'incidence de 50° à la surface de l'eau. Calculer l'angle réfléchi et l'angle réfracté.
On plonge cette fois-ci le laser dans l'eau (oui, il est étanche). L'angle d'incidence est de 35°. Calculez l'angle réfracté avec lequel émerge le rayon laser. Commentez.
Difficulté : ☆ Temps : 5 min
Dans certains instruments optiques, comme les jumelles par exemple, on utilise un prisme plutôt qu'un miroir, pour réfléchir les rayons lumineux. Ils ont l'avantage de ne pas s'oxyder et d'être plus solides.
Ces prismes possèdent un angle au sommet () de 90°. Le rayon lumineux entre par une petite face ( sur le dessin), se réfléchit sur la grande face, ou base , puis ressort par l'autre face.
Calculer l'indice minimal du verre permettant une réflexion totale sur la base.
Difficulté : ☆☆ Temps : 15 min
Lorsque le rayon incident arrive perpendiculairement à la face d'entrée, il ressort perpendiculairement à celle de sortie. Il a donc "tourné" de 90°. Mais cela fonctionne-t-il pour n'importe quel angle d'incidence ?
Pas de mystère, la réponse est non. Mais démontrez-le.
Difficulté : ☆☆☆ Temps : 45 min
L'inconvénient du prisme précédent est que dès que le rayon lumineux n'arrive plus perpendiculaire à la face d'entrée, l'angle de déviation n'est plus de 90°. Pour garantir un angle de déviation de 90° quel que soit l'angle d'incidence, on utilise un pentaprisme.
Ce prisme est constitué de 5 faces. Les faces d'entrée et de sortie sont à 90° l'une de l'autre, comme dans le cas précédent. La face où le rayon se réfléchit est remplacée par 3 autres faces. Deux serviront à la réflexion, la dernière n'est pas utilisée. Le prisme est symétrique par rapport à l'axe .
Calculez la valeur que doit prendre l'angle pour garantir une déviation de 90° quel que soit l'angle d'incidence.
Nous avons vu précédemment le phénomène de réflexion totale. Ce phénomène, très intéressant, utilisé dans les jumelles, est à la base des réseaux de communication actuels, car il est utilisé dans les fibres optiques.
Une fibre optique peut être vue comme un tuyau de lumière. La lumière se propage dans celle-ci, sans s'échapper. On peut alors transporter de la lumière d'un point A à un point B comme on le ferait avec de l'eau.
Une fibre optique est composé d'un coeur, d'indice , et d'une gaine, moins réfringente, d'indice .
Le coeur étant plus réfringent que la gaine, une réflexion totale sera possible. Pour que la lumière reste confinée dans le coeur et soit guidée par la fibre, il faut justement se situer dans ce cas de réflexion totale.
A l'interface coeur-gaine, on obtient ainsi une condition sur l'angle d'incidence que doit avoir la lumière, pour rester confinée dans le coeur.
Or, le rayon lumineux vient de l'extérieur. Il subit donc également une réfraction au passage de l'air vers le coeur à son entrée dans la fibre. En appliquant une fois de plus les lois de la réfraction, on obtient :
soit .
d'où l'angle limite pour que la lumière rentre dans la fibre et soit guidée :
Propagation d'un rayon lumineux dans un fibre optique
est appelé l'ouverture numérique de la fibre.
Laissons de côté, quelques instants, les calculs, pour faire un peu de dessin. Nous allons tenter de déterminer graphiquement la direction du rayon réfracté, sans employer de rapporteur.
Après avoir tracé 2 cercles concentriques et de centre , et de rayon et respectivement, repérons l'intersection du rayon incident avec le cercle . Soit le projeté de sur le dioptre. On définit le point d'intersection de la droite avec le second cercle. Étant donné que , la droite indique la direction du rayon réfracté.
Difficulté : ☆☆☆ Temps : 30 min
On jette une pièce au fond d'une piscine vide. Cette première se trouve à 80 cm du bord de la seconde. La profondeur de la piscine est de 2 m. Une personne, mesurant 1,70 m se trouve à 85 cm du bord.
Cette personne voit-elle la pièce au fond de la piscine ?
On remplit la piscine d'eau. Quelle doit être sa hauteur minimale pour apercevoir la pièce ?
Notre cerveau ne perçoit pas le changement de direction du rayon lumineux. Il a l'impression que celui-ci se déplace toujours en ligne droite. On a donc l'impression de voir la pièce moins profonde qu'elle ne l'est réellement. Quelle est alors la hauteur d'eau que l'on a l'impression de voir ?
Nous allons ici abandonner quelques instants le H de MHTI pour étudier des milieux à indice variable.
Nous avons tous déjà observé des phénomènes de mirage optique.
Nous allons voir que tous ces phénomènes impliquent des changements d'indice de l'atmosphère dus à des changements de température. Nous n'aborderons ces phénomènes que de manière qualitative.
Un milieu d'indice variable peut-être vu comme la superposition d'une multitude de couches de MHTI d'indices différents. Si un rayon se propage des indices les plus grands vers les plus faibles, à chaque passage d'un milieu à un autre, il s'éloigne de la normale jusqu'à être réfléchi puis repartir vers les milieux à fort indice. Il se retrouve ainsi dans la situation inverse, en se rapprochant de plus en plus de la normale.
Dans un milieu d'indice variable, le rayon tourne toujours sa courbure vers les indices élevés.
Muni de ce résultat, voyons si nous pouvons expliquer les mirages.
En été, la route exposée au Soleil chauffe. Sa température devient plus élevée que celle de l'air environnant. Elle chauffe à son tour l'air ambiant, plus frais. On obtient alors un gradient de température au dessus de la route. La température diminue avec l'altitude, et augmente quand on se rapproche de la route. L'air chaud possède un indice de réfraction plus faible que l'air frais. (On peut voir ça de la manière suivante : pour un même volume, l'air chaud contient moins de particules que l'air froid, c'est pour ça qu'il est plus léger et fait s'envoler les montgolfières. Comme il y a moins de particules, il se rapproche plus du vide et donc son indice tend vers 1). La lumière tourne donc sa courbure vers le haut et les indices élevés. Un rayon issu du ciel se rapproche de la route, est lentement dévié puis finalement réfléchi et repart vers le haut et l'oeil de l'automobiliste. On voit donc le ciel en bas.
Dans le cas de la mer, le phénomène est inverse. La mer plus froide refroidit localement l'air. Il y a un gradient de température du plus froid au niveau de l'eau, au plus chaud en altitude. Un rayon partant d'une île, ou du Canigou, se réfléchit sur l'atmosphère et retombe vers l'observateur. L'île apparaît.
Nous venons de le voir, une variation de la température provoque une variation d'indice optique.
Or, lorsque la lumière issue d'une étoile arrive au niveau de la Terre, elle traverse différentes couches d'atmosphère à différentes températures. L'atmosphère est un milieu inhomogène !
Ces variations d'indice dévient les rayons lumineux issus de l'étoile. Mais elles ne les dévient pas de la même manière en fonction de là où ils passent. L'image de l'étoile est déformée !
À l'oeil, on voit alors les étoiles scintiller. Au télescope, une succession de poses courtes révèle la présence de tavelures, c'est-à-dire plein de taches qui bougent. Toutes ces tavelures sont autant d'images de l'étoile, ayant traversé différentes parties de l'atmosphère.
Après quelques définitions sur les dioptres et les miroirs nous avons vu les lois de Snell-Descartes.
Lorsque qu'un rayon lumineux passe d'un milieu moins réfringent à un milieu plus réfringent, il se rapproche de la normale au dioptre.
Lorsque qu'un rayon lumineux passe d'un milieu plus réfringent à un milieu moins réfringent, il s'éloigne de la normale au dioptre. Dans ce cas, à partir d'un certain angle critique, il est totalement réfléchi. Les fibres optiques exploitent ce phénomène appelé réflexion totale.
Mirages et turbulences atmosphériques sont dus à des inhomogénéités d'indice dans l'atmosphère, conséquences d'inhomogénéités de température.
Avant d'aborder des systèmes optiques plus complexes, il est temps de faire un point sur les notions de source de lumière, d'objet et d'image.
L'oeil voit les objets parce qu'ils nous envoient de la lumière. Il est nécessaire que cette dernière parte d'eux et arrive jusqu'à notre oeil. Certains objets, comme une lampe, une bougie ou une étoile, produisent leur propre lumière. On parle de source primaire. D'autres sources, comme un livre, un tableau, une photo... ne produisent pas de lumière. Pourtant nous parvenons à les voir. C'est parce qu'ils réfléchissent ou diffusent la lumière environnante. Si on éteint la lumière, ils deviennent invisibles. On parle alors de source secondaire, car ils réfléchissent la lumière d'une source primaire.
Sources primaires | Sources secondaires |
Soleil, étoile | Lune, planètes |
Lampe, bougie | Mur, plafond |
Écran de téléviseur | Tableau, photo |
Laser |
Attention, un miroir, une lentille, ou tout autre instrument d'optique n'est pas considéré ici comme un objet. S'ils sont propres, ils sont parfaitement transparents et invisibles. Ils ne diffusent pas la lumière et on ne les voit pas.
Un objet peut être ponctuel (on en voit donc qu'un point, comme une étoile par exemple) ou étendu (c'est alors un ensemble de point, comme la Lune).
Un objet peut être à distance finie, proche de nous (l'oeil doit alors accommoder pour le voir net, mais nous y reviendrons au chapitre consacré aux instruments) ou à l'infini (tous les rayons lumineux issus d'un point nous arrivent parallèles entre eux. On n'a plus besoin d'accommoder pour le voir net).
Un objet à distance finie peut être défini par sa taille. Pour un objet à l'infini, cela n'a plus vraiment de sens. La Lune et le Soleil, tous deux à l'infini, nous apparaissent comme ayant la "même taille" (ce qu'on vérifie aisément lors des éclipses solaires), pourtant le Soleil est bien plus grand que la Lune. Mais comme il est beaucoup plus loin... Il est pertinent d'introduire une nouvelle notion, celle de taille angulaire (ou diamètre apparent). Il est défini comme étant l'angle sous lequel on voit l'objet :
étant la taille de l'objet, et sa distance. Cette relation n'est valable que lorsque est très petit devant ().
Le diamètre apparent de la Lune vaut : ° et celui du Soleil ° d'où et c'est pour cela qu'il y a des éclipses totales !
Un récepteur est constitué d'éléments photosensibles, c'est-à-dire d'éléments qui délivrent un signal en fonction de l'éclairement dans un domaine spectral donné.
La rétine de l'oeil, une photodiode ou un capteur CCD sont quelques exemples de récepteurs. La bonne vieille pellicule photo aussi. Mais contrairement aux autres ci-dessus, ce n'est pas un signal électrique qui est délivré, mais un réaction chimique qui "imprime" le négatif.
Ces récepteurs simples peuvent être couplés avec des systèmes optiques : l'objectif d'un appareil photo ou le cristallin de l'oeil par exemple.
Servons nous d'un miroir plan, que nous avons étudié précédemment, pour définir les notions d'objet et d'image pour un système optique.
Nous disposons d'une bougie et d'un miroir plan. On place celle-ci devant le miroir. On peut voir la bougie ainsi que son reflet, son image, à travers le miroir. Pour simplifier notre étude, nous assimilerons la bougie à un unique point lumineux . La bougie constitue un objet par rapport au système optique "miroir". Les rayons lumineux issus de cet objet divergent au niveau du plan du miroir. Nous qualifierons cet objet, placé en amont du système optique, de réel. On peut le toucher (mais ça brûle...).
Tout objet placé en amont d'un système optique, dans le sens de propagation de la lumière, est un objet réel.
Intéressons nous maintenant à son reflet dans le miroir. Les rayons lumineux issus de la bougie sont réfléchis par la surface du miroir et semblent provenir d'un point point situé derrière le miroir. Le faisceau issu de ce point diverge. Il est impossible de faire l'image de ce point sur un écran. L'image est qualifiée de virtuelle.
Toute image placée en amont du système optique est virtuelle.
On troque notre bougie contre une lampe torche, dont le faisceau converge en un point . Le point sera notre objet. Si on place un écran là où converge le faisceau, on voit une petite tache lumineuse.
Si on intercale le miroir entre notre lampe et cet écran, la tache disparaît. Mais malgré le miroir, le faisceau semble converger vers cet écran, vers un point situé à l'arrière du miroir. Ce point est toujours notre objet, mais il est désormais virtuel, car situé en aval du système optique. On ne peut plus le toucher.
Le faisceau réfléchi par le miroir converge en un point . Si on place un écran au niveau de celui-ci, nous voyons s'y former une tache lumineuse. L'image est cette fois-ci réelle.
Soit un système optique quelconque. Le sens de propagation de la lumière nous permettra de définir l'espace en amont du système optique (avant que la lumière n'y rentre) et en aval (une fois qu'elle y est ressortie).
En traçant le prolongement des rayons réfractés, on s'aperçoit que l'image est virtuelle, car située en amont du dioptre. On remarque cependant, qu'en traçant de nombreux rayons, tous ne convergent pas au même point, mais dans une petite zone. Par contre, la même expérience avec un miroir plan nous montre que tous les rayons convergent en un seul point. Nous venons de mettre le doigt sur la notion de stigmatisme, très importante en optique lorsqu'on cherche à obtenir des images nettes.
Nous venons de voir qu'en fonction des systèmes optiques, l'image d'un point est soit exactement un point (tous les rayons issus d'un point convergent en un seul point image), ou soit une tache (tous les rayons ne convergent pas tous en un seul point, mais dans une petite zone).
Lorsque, à travers un système optique, l'image de chaque point objet est un point, on dit que le système est rigoureusement stigmatique. On parle de stigmatisme approché si l'image d'un point est une petite tache. La notion de stigmatisme approché est assez subjective. Elle dépend également du récepteur utilisé pour voir l'image. On tolérera plus facilement un système avec un stigmatisme approché si le récepteur possède de gros pixels (surtout s'ils sont plus gros que la tache image) que s'il possède de petits pixels.
Un système est dit aplanétique si l'image d'un objet perpendiculaire à l'axe optique (l'axe de symétrie du système) est elle aussi perpendiculaire à ce dernier.
Cette définition ne vous parle pas pour l'instant, mais elle prendra tout son sens au chapitre suivant.
Soit un faisceau de lumière constitué de plusieurs rayons lumineux. Si on les fait traverser une lentille, on constate qu'ils convergent. Ils convergent, certes, mais pas tous au même point. Nous ne sommes pas en condition de stigmatisme rigoureux.
Si on diaphragme le faisceau lumineux, c'est-à-dire si on l'ampute de ses rayons extérieurs, on constate que la condition de stigmatisme est beaucoup mieux respectée.
Nous venons de mettre en évidence les conditions de Gauss.
Les conditions de Gauss, ou l'approximation de Gauss, sont obtenues lorsque les rayons lumineux possèdent un angle d'incidence très faible par rapport à l'axe optique, et en sont peu éloignés. Ils sont dits paraxiaux.
Dans ces conditions, les conditions de stigmatisme et d'aplanétisme sont en général respectées.
Pour les obtenir, il suffit en général de placer un fort diaphragme en entrée du système.
Dans les chapitres suivants, nous nous placerons dans ces conditions.
Si ces conditions permettent d'obtenir un bon stigmatisme et aplanétisme, elles ne sont en général pas recherchées par les opticiens. Le grand inconvénient de ces conditions est qu'à cause du diaphragme, on obtient peu de lumière et un champ de vue très restreint. C'est le contraire que l'on recherche en astronomie et en photographie. Toute la difficulté consiste donc à corriger toutes les aberrations optiques pour retrouver du stigmatisme et de l'aplanétisme. C'est pour cela qu'il y a tant de lentilles (une dizaine) dans un simple objectif photo.
Un objet n'est visible que s'il émet ou diffuse la lumière.
On se placera par la suite dans les conditions de Gauss : les rayons entrant dans les systèmes optiques seront paraxiaux.
Dans le chapitre précédent, nous avons vu les réflexions et la réfraction sur des dioptres et des miroirs plans. Mais il suffit de regarder n'importe quel instrument d'optique pour voir qu'ils ne sont pas uniquement composés de ce type d'optiques. Les notions précédemment abordées ne sont donc pas suffisantes pour décrire ces instruments.
Prenons un verre de lunette. Il n'est pas plan. Sa surface est courbe. Les objets à travers y paraissent déformés. Idem avec une loupe. Ce qu'on y voit à travers nous apparaît tantôt plus gros, tantôt flou, ou parfois même plus petit et renversé. Les rétroviseurs extérieurs d'une voiture comportent en général une partie courbe sur leur extrémité. La voiture qui nous suit y apparaît plus éloignée que dans le rétroviseur intérieur. Tous ces objets du quotidien, ainsi que d'autres instruments comme les appareils photos, les télescopes ou les microscopes, sont en fait constitués de lentilles (des dioptres dont la surface est courbe) ou des miroirs aux formes sphériques, paraboliques ou même hyperboliques.
Nous avons commencé à voir, au chapitre précédent, les phénomènes mis en jeux dans ces systèmes. Nous n'allons pas nous arrêter en si bon chemin. Dans les chapitres qui suivent, nous allons étudier ces nouveaux éléments, en commençant par les lentilles minces. Nous aborderons aussi la formation des images en optique. À partir de là, nous pourrons commencer à étudier des systèmes optiques plus complexe comme les lunettes astronomiques, les appareils photos, l'oeil...
Qu'est-ce qu'on appelle une lentille ? Par lentille, j'entends bien sûr une lentille en optique, et non l'une des espèces de fabacées. Prenons en deux exemples. Dans une main, une loupe, dans l'autre, une paire de lunettes pour myope. Elles sont toutes les deux en verre, transparentes, et délimitées par au moins une surface courbe, parfois deux.
Nous appellerons désormais une lentille sphérique une portion de MTHI (ici notre verre), limité par 2 dioptres dont l'un au moins est sphérique. Remarquons tout de suite qu'une lentille n'est par forcément sphérique. Il en existe, pour ne citer qu'elles, des cylindriques. Nous nous limiterons par contre, dans ce chapitre, aux lentilles sphériques.
Pour simplifier encore notre étude, nous nous limiterons au cas des lentilles dites minces. C'est-à-dire dont l'épaisseur est faible devant le rayon de courbure des dioptres.
La première conséquence, illustrée ci-dessous, est que tout rayon lumineux passant par le centre d'une lentille, ne sera pas dévié. En effet, c'est comme s'il traversait une lame de verre d'épaisseur nulle.
Réalisons une petite expérience. Mettons une loupe au Soleil. La lumière est focalisée en un point. Très amusant pour mettre le feu à une feuille de papier. Mais si on essaie avec le verre de lunette... On a beau déplacer celui-ci, aucune tache de lumière ne se forme. Les rayons du Soleil ne sont pas focalisés par celui-ci. Aurions-nous à faire à deux types de lentilles ?
Une deuxième expérience nous le confirme. Les lentilles de type loupe font converger la lumière. Les lentilles de type verre de lunettes pour la myopie font diverger les rayons lumineux.
Dans le cas de la loupe, les rayons arrivant parallèles en amont sont focalisés en sortie de la lentille. Ce premier type de lentille est appelé lentille convergente.
Dans le cas du verre de lunette, les rayons s'écartent les uns des autres après passage par la lentille. Ils divergent. Ces lentilles sont appelées lentilles divergentes.
Si on regarde une coupe de ces lentilles, on voit d'où vient cette différence. On constate que les lentilles convergentes possèdent des bords plus fins que le centre. Pour les lentilles divergentes, c'est l'inverse, les bords sont plus épais que le centre.
Lorsqu'un rayon arrivant au-dessus de l'axe de symétrie de la lentille (que nous appellerons axe optique) atteint la surface d'une lentille convergente, les lois de la réfraction nous disent qu'il est dévié vers l'axe optique. Le rayon se rapproche de celui-ci. Il converge.
Dans le cas d'un lentille divergente, le rayon incident est quant à lui dévié en s'écartant de l'axe optique.
Prenons une lentille convergente. Utilisons la d'abord comme une loupe. En observant un objet (un timbre, par exemple) dans la direction perpendiculaire à lui, on peut obtenir, en plaçant judicieusement la loupe, une image nette et agrandie du timbre. Nous nous trouvons donc dans des conditions de stigmatisme et d'aplanétisme au moins approché. Si on s'amuse à déplacer un écran derrière notre lentille pour obtenir une image de notre timbre, c'est peine perdue. Nous avons donc une image virtuelle, l'objet étant tout ce qu'il y a de plus réel.
Remplaçons cette fois le timbre par un objet rétroéclairé (les opticiens aiment bien utiliser un F éclairé par l'arrière). Plaçons un écran suffisamment loin de lui. Si on déplace la lentille, on trouve deux positions où l'on obtient une image inversée du F, tantôt plus grande, tantôt plus petite. On a donc cette fois-ci une image réelle. Tiens, une lentille convergente peut produire les deux types d'images à partir d'un objet réel. Nous allons détailler cela dans la suite.
Considérons un faisceau parallèle (objet à l'infini) et parallèle à l'axe optique (cas du Soleil à travers une loupe) et observons ce qui se passe. Dans le cas d'une lentille convergente, tous les rayons convergent en un point. Nous appellerons ce point foyer principal image. Ce point est l'image réelle d'un point situé à l'infini. Dans le cas d'une lentille divergente, tous les rayons divergent. Cependant, ils semblent tous provenir d'un point situé en amont de la lentille (il suffit de les prolonger). Nous appellerons également ce point foyer principal image. Il est l'image virtuelle d'un point situé à l'infini.
Le foyer principal image est le point image d'un point objet situé à l'infini sur l'axe optique.
Par retour inverse de la lumière, si on place une source ponctuelle au foyer image, les rayons ressortiront parallèles. La lentille étant symétrique, on peut la retourner. Il existe donc un point où si l'on place une source ponctuelle, les rayons issus de ce point seront parallèles entre eux et parallèles à l'axe optique. Ce point est appelé foyer principal objet. Il est le symétrique par rapport à la lentille de foyer principal image. Dans le cas d'une lentille convergente, ce point est le point objet réel donnant une image à l'infini. Dans le cas d'une lentille divergente, ce point est le point objet virtuel donnant une image à l'infini.
Le foyer principal objet est l'antécédent d'un point image situé à l'infini sur l'axe optique.
On appelle distance focale image la distance séparant le centre de la lentille au foyer image. On la note . C'est une quantité algébrique, c'est-à-dire qu'on la compte positivement dans le sens de propagation de la lumière. est positif dans le cas d'une lentille convergente et négatif dans le cas d'une divergente.
De la même manière, on définit la distance focale objet comme étant la distance séparant le centre de la lentille et le foyer principal objet. Les deux foyers et étant symétriques par rapport au centre , on obtient .
On définit la vergence comme étant l'inverse de la distance focale image.
Elle s'exprime en ou encore en dioptrie (noté ). Par exemple, une lentille divergente de distance focale (correction pour une myopie sévère) possède une vergence de . C'est le nombre annoncé dans les ordonnances pour les lunettes.
Nous avons commencé à parler de distance négative et de grandeurs algébriques. Voici un petit aparté pour détailler ces notions.
Dans la rue, quelqu'un vous demande où se situe la boulangerie la plus proche. Vous lui indiquez qu'elle est à 100 m. Oui, mais cette indication ne précise pas si elle est à 100 m devant ou derrière. Certes, en général, c'est implicite, ou accompagné d'un geste pour préciser la direction à emprunter. Cependant, en physique, il y a rarement quelqu'un pour nous indiquer le sens. Comment s'en sortir ? Si la boulangerie se situe devant nous, nous dirons effectivement qu'elle est à 100 m. Et si elle est derrière, qu'elle est à -100 m. C'est ce qu'on appelle des grandeurs algébriques. Il reste cependant encore un problème à régler. Si on se retourne, ce qui était devant devient derrière et inversement. Il faut en fait choisir un sens pour orienter nos mesures. Reprenons notre rue. Si elle est à sens unique, le plus simple est de choisir le sens de circulation des voitures pour orienter notre axe. Les distances dans le sens de circulation seront positives, et celle dans le sens opposé seront négatives.
En optique, ce sera pareil. Sauf que de circulation il n'est pas question. Mais nous prendrons pour orienter notre axe optique le sens de parcours des photons. Les distances orientées dans le même sens que l'axe optique seront comptées positivement (comme la distance focale image pour une lentille convergente), et celles dans le sens opposé seront comptées négativement (comme la distance focale objet pour une lentille convergente).
Considérons un faisceau parallèle mais arrivant avec une incidence non nulle par rapport à l'axe optique. Dans le cas de la lentille convergente, ils convergent en point appartenant nécessairement à l'axe car tout rayon passant par le centre de la lentille n'est pas dévié. On s'aperçoit que ce point, que nous appellerons foyer secondaire image, est à la verticale du foyer principal image.
Remarque : En fait, cette dernière remarque est vraie dans l'approximation de Gauss, qui garantit un aplanétisme approché.
Si l'inclinaison du faisceau varie, ce point (le foyer secondaire) parcourt ce que l'on nomme le plan focal de la lentille.
Pour une lentille divergente, on retrouve le même phénomène, sauf que les foyers secondaires images sont virtuels et situés en amont de la lentille. Comme précédemment, nous allons pouvoir définir un foyer secondaire objet, comme étant l'antécédent d'un point image situé à l'infini, en dehors de l'axe optique. L'ensemble des foyers secondaires objets constitueront le plan focal objet.
Dans les conditions de Gauss, les plans focaux sont perpendiculaires à l'axe optique. Dans la vraie vie, ce sont des surfaces non planes. Les plaques photos utilisées au foyer d'un télescope de Schmidt étaient sphériques.
Munis de ces outils, nous allons pouvoir définir quelques propriétés sur les rayons lumineux traversant des lentilles. Elles vont nous permettre d'aborder, au paragraphe suivant, la construction des images.
On dispose d'un objet en amont de la lentille et du foyer objet. On cherche à tracer son image à travers la lentille.
Approchons notre objet de la lentille de façon à placer l'objet entre le foyer principal objet et le centre de la lentille. On reproduit la construction précédente. Cette fois-ci l'image est en amont de la lentille. Elle est virtuelle. Elle est dans le même sens que l'objet. Elle est également plus grande. On retrouve le cas de la loupe. Que nous donne le tracé cette fois-ci ?
Continuons à faire avancer l'objet de telle manière qu'il passe de l'autre côté de la lentille. Il est dorénavant virtuel. Comment arriver à un tel résultat. Facile. En utilisant une deuxième lentille. On place un objet réel devant cette seconde lentille. Elle produit une image réelle. Plaçons la première lentille entre la seconde et l'image, et le tour est joué. Que nous donne le tracé cette fois-ci ?
Les cas traités précédemment concernaient des objets à distance finie. En astronomie, les objets sont situés à l'infini. Dans ce paragraphe, nous allons placer l'objet à l'infini. Il possédera un diamètre apparent .
Remarquons tout de suite que la taille de l'image (sur un détecteur CCD par exemple) est tout simplement le produit du diamètre apparent (en radians) par la focale de l'instrument.
Changeons de lentille pour passer aux lentilles divergentes. La différence par rapport aux cas précédents est que les positions des foyers objets et images sont inversées. Recommençons la procédure précédente.
Bon, je pense que vous avez compris le principe. Je vous laisse les deux suivants en exercice.
Ne vous inquiétez pas, on ne va pas être obligé de systématiquement tracer toutes nos images dès qu'on voudra obtenir la moindre position ou taille. Il existe des relations simples, nommées relations de conjugaison, permettant d'accéder à toutes ces données, connaissant uniquement la distance focale de la lentille.
Nous allons les démontrer à partir des constructions précédentes.
Nous avons vu que la taille de l'image n'est pas nécessairement la même que celle de l'objet. Et celle-ci varie en fonction de la distance de l'objet et de la distance focale.
Nous allons appeler grandissement le rapport des tailles de l'objet et de l'image.
En appliquant le théorème de Thalès, on trouve immédiatement que :
Connaissant la distance de l'objet et de l'image, il est donc possible de calculer la taille de l'image.
Si le grandissement est positif, alors l'objet et l'image sont dans le même sens ; s'il est négatif, l'image est inversée par rapport à l'objet.
Si le grandissement est supérieur à 1, ou inférieur à -1, alors l'image est plus grande que l'objet. S'il est compris entre -1 et 1, l'image sera plus petite.
Difficulté : ☆ Temps : 5 min
Voici 3 constructions géométriques :
Calculez le grandissement dans les trois cas.
Et si on ne connaît pas la position de l'image ? Nous allons utiliser les foyers. En appliquant cette fois-ci le théorème de Thalès deux fois de chaque côté de la lentille, on obtient :
Et voilà, connaissant la distance focale et la distance de l'objet, on peut calculer le grandissement.
Remarquons qu'à partir de ces deux formules, on va pouvoir calculer la distance de l'image.
Nous venons d'établir la relation de conjugaison de Newton. Elle est aussi appelée relation de conjugaison avec origine au foyer, car les distances de l'objet et de l'image sont comptées à partir des foyers principaux.
Difficulté : ☆ Temps : 5 min
On reprend les mêmes et on recommence !
Sachant que la distance focale est de 4 cm en valeur absolue dans les 3 cas, retrouvez les valeurs de grandissement précédemment établies.
On considère une lentille convergente de vergence . On place un objet à une distance en amont du centre de la lentille.
Calculez la position de l'image.
Est-elle réelle ou virtuelle ?
Calculez sa taille.
Nous pouvons également obtenir une relation similaire, avec origine au centre de la lentille cette fois-ci. En partant de la formule du grandissement :
On obtient ainsi la relation de conjugaison de Descartes :
Remarque, on note parfois les distances et respectivement et .
Difficulté : ☆☆ Temps : 10 min
Considérons une paire de lunettes correctrices pour la myopie. L'ordonnance indique une vergence de .
Quelle est la distance focale image de la paire de lunettes ? Quelle est le type de lentilles utilisées ?
Muni de cette paire de lunettes, je lis un livre situé à 30 cm de mon visage. Quelle est la distance de l'image de cet ouvrage à travers les lunettes ?
Difficulté : ☆☆☆ Temps : 20 min
On dispose d'un objet, d'un écran, et d'une lentille convergente de distance focale image .
Quelle doit être la distance minimale entre l'objet et l'écran pour pouvoir y former son image ?
Nous venons donc de voir qu'il existe deux types de lentilles minces : des lentilles convergentes, une loupe par exemple, qui ont la propriété de faire converger un faisceau lumineux ; des lentilles divergentes, comme des verres correcteurs de myopie, qui font diverger un faisceau lumineux.
Nous avons défini trois points particuliers d'une lentille : le centre , centre de symétrie de celle-ci, par lequel aucun rayon lumineux n'est dévié ; le foyer principal image, image d'un point situé à l'infini sur l'axe optique ; le foyer principal objet, antécédent d'un point situé à l'infini sur l'axe optique. Ces points sont appelés éléments cardinaux de la lentille.
Les distances entre ces points sont appelées distances focales. Ce sont des données de la lentille. Elles caractérisent la vergence de la lentille, c'est-à-dire son pouvoir de dévier les rayons lumineux.
À l'aide de trois rayons, il nous est désormais possible de tracer l'image d'un objet à travers une lentille. Le rayon lumineux passant par le centre d'une lentille n'est pas dévié, celui arrivant parallèle à l'axe optique ressort en croisant le foyer principal image, et celui passant par le foyer principal objet ressortira de la lentille parallèle à l'axe optique.
Enfin, nous avons quelques relations qui nous permettront de calculer des tailles d'images, les distances où elles se forment et pourquoi pas des champs de vue et des grossissements. Ce sera pour bientôt.
Nous venons de voir quelques propriétés sur les lentilles. Nous allons pouvoir commencer à parler d'instruments astronomiques. Chouette ! Ah, mais, regardons un télescope... Horreur, de lentilles, il n'y a point ! À la place, un miroir ! Oui certes, mais nous les avons déjà vus. Quoique... celui-ci n'est pas plan... Et quand je me regarde dedans, je vois mon image grossie, parfois rétrécie, à l'envers ou à l'endroit. Non, ce miroir ne ressemble pas à ceux déjà rencontrés. Vous l'aurez compris, ce chapitre sera consacré aux miroirs dits sphériques.
Vous noterez assez vite la très forte ressemblance entre ce chapitre et le précédent.
Qu'est-ce qu'on appelle un miroir sphérique ? Comme son nom l'indique, c'est un miroir. C'est-à-dire une portion de verre recouverte d'une surface métallique réfléchissante. Mais nous venons de le voir dans l'introduction, il ne s'agit pas d'un miroir plan. En effet, celui-ci est découpé dans une portion sphérique de verre.
En pratique, les miroirs sont rarement taillés dans des portions de sphère. Ils sont découpés dans des paraboloïdes de révolution (miroirs paraboliques) ou dans des hyperboloïdes de révolution (miroirs hyperboliques). Cependant, en première approximation, nous pourrons les considérer comme sphériques.
On voit qu'il est possible d'aluminer soit l'intérieur, soit l'extérieur de la sphère. On obtient alors deux types de miroirs :
On retrouve ces miroirs dans la vie quotidienne. Les miroirs convexes par exemple, sont maintenant utilisés dans les rétroviseurs extérieurs des voitures, ou pour les miroirs que l'on dispose à la sortie des garages ou à certaines intersections où la visibilité est nulle. Les miroirs concaves se retrouvent dans certaines salles de bain ou miroirs de poche.
Prenons une petite cuillère. Regardons-la attentivement. Son dos est convexe, son creux est concave. On a à notre disposition les deux types de miroirs.
Si nous nous regardons dans le dos de la cuillère que voyons nous ? Notre reflet, plus petit et à l'endroit. Rapprochons ou éloignons-la. On obtient toujours la même chose.
Si on l'éclaire avec le faisceau lumineux d'une lampe torche et que l'on place un écran à proximité, on aura beau faire toutes les contorsions possibles, jamais nous n'arriverons à voir l'image de ce faisceau sur l'écran. Au contraire, il diverge.
Cela ne vous rappelle rien ? Ça ressemble un peu au comportement de la lentille divergente, non ? Alors peut-être qu'en retournant la cuillère, on retrouvera l'équivalent d'une lentille convergente...
Regardons nous maintenant dans le creux de celle-ci. Ah ? Cette fois, notre reflet est à l'envers. Rapprochons-la. Notre image grossit puis se retourne. Notre reflet est à l'endroit et grossit. Bon, d'accord, ça ne marche pas avec toutes les cuillères. Il faut en général se rapprocher beaucoup et se contenter de l'image de notre oeil. Dans ce cas, prenez un miroir de poche.
Et si on reprend la lampe torche, cette fois, le faisceau converge et on peut en faire l'image sur un écran, comme une lentille convergente.
On vient de mettre en évidence quelques propriétés des miroirs sphériques :
Un miroir sphérique est découpé dans une sphère. Appelons le centre de cette dernière.
Notons au passage le point , sommet du miroir, c'est-à-dire l'intersection de l'axe optique (l'axe de symétrie du miroir) avec le miroir.
Tout rayon lumineux passant par le centre du miroir est rayon de la sphère. Que se passe-t-il quand il atteint le miroir ? Il arrive perpendiculairement à la tangente au miroir. Donc, localement, tout se passe comme si le rayon lumineux incident tombait à la verticale d'un miroir plan. Possédant un angle d'incidence nul, il repart d'où il vient (cf lois de Snell-Descartes). Il repasse par le centre.
Bref, tout rayon incident passant par le centre d'un miroir est confondu avec son rayon réfléchi.
Le sommet appartient à l'axe de symétrie du système. Donc, si un rayon incident arrive en , son rayon réfléchi sera son symétrique par rapport à l'axe optique.
Considérons un faisceau parallèle (objet à l'infini) et parallèle à l'axe optique (cas du Soleil arrivant sur un miroir ardent) et observons ce qui se passe. Dans le cas d'un miroir concave (donc convergent), tous les rayons convergent en un point. Comme pour les lentilles, nous appellerons ce point foyer principal image. Ce point est l'image réelle d'un point situé à l'infini. Dans le cas d'un d'un miroir convexe, tous les rayons divergent. Cependant, ils semblent tous provenir d'un point situé derrière le miroir (il suffit de les prolonger). Nous appellerons également ce point foyer principal image. Il est l'image virtuelle d'un point situé à l'infini.
Le foyer principal image est le point image d'un point objet situé à l'infini sur l'axe optique.
Ce point peut être réel (cas du miroir concave) ou virtuel (cas du miroir convexe).
Par retour inverse de la lumière, si on place une source ponctuelle au foyer image, les rayons ressortiront parallèles. Il existe donc un point où si l'on place une source ponctuelle, les rayons issus de ce point seront parallèles entre eux et parallèles à l'axe optique. Ce point est appelé foyer principal objet. Il est confondu avec foyer principal image. Dans le cas d'un miroir concave, ce point est le point objet réel donnant une image à l'infini. Dans le cas d'un miroir convexe, ce point est le point objet virtuel donnant une image à l'infini.
Le foyer principal objet est l'antécédent d'un point image situé à l'infini sur l'axe optique.
Ce point peut être réel (cas du miroir concave) ou virtuel (cas du miroir convexe).
On appelle distance focale image la distance séparant le sommet du miroir au foyer image . On la note . C'est une quantité algébrique, c'est-à-dire qu'on la compte positivement dans le sens de propagation de la lumière incidente. est négative dans le cas d'un miroir concave, et positif dans le cas d'un miroir convexe.
Remarquons tout de suite que, comme les foyers image et objet sont confondus, la distance focale objet , distance entre le sommet et le foyer principal objet , est égale à la distance focale image . Nous parlerons alors indifféremment de distance focale image et objet sous le terme distance focale.
Comme au chapitre précédent, on définit la vergence comme étant l'inverse de la distance focale image.
Elle s'exprime toujours en ou encore en dioptrie (noté ).
On admet (cela se démontre) que le foyer est au milieu du segment
Considérons un faisceau de rayons parallèles mais arrivant avec une incidence par rapport à l'axe optique. Il converge en un point appartenant nécessairement au symétrique de l'axe . Tout rayon passant par le sommet du miroir a pour image son symétrique par rapport à l'axe optique. On s'aperçoit que ce point, que nous appellerons foyer secondaire image, est à la verticale du foyer principal image.
Remarque : En fait, cette dernière remarque est vraie dans l'approximation de Gauss, qui garantit un aplanétisme approché.
Si nous faisons varier l'inclinaison du faisceau, ce point (le foyer secondaire) parcourt ce qu'on nomme le plan focal du miroir.
Pour un miroir convexe, on retrouve le même phénomène, sauf que les foyers secondaires images sont virtuels et situés derrière le miroir. Comme précédemment, nous allons pouvoir définir un foyer secondaire objet, comme étant l'antécédent d'un point image situé à l'infini, en dehors de l'axe optique. L'ensemble des foyers secondaires objets constitueront le plan focal objet.
Dans les conditions de Gauss, les plans focaux sont perpendiculaires à l'axe optique. Dans la vraie vie, ce sont des surfaces non planes. Les plaques photos utilisées au foyer d'un télescope de Schmidt étaient par exemple sphériques.
Avec ce que nous venons de voir, nous allons pouvoir définir quelques propriétés sur les rayons lumineux se réfléchissant sur les miroirs. Elles nous permettront d'aborder, comme au chapitre précédent, la construction des images.
Arrêtons nous quelques instants sur les similitudes qu'il existe entre lentilles minces et miroirs sphériques.
Une fois n'est pas coutume, commençons par la différence. Si la lumière passant à travers une lentille se propage toujours dans le même sens, celle se réfléchissant sur le miroir repart d'où elle vient. Pour la lentille, l'espace objet et image sont situés chacun d'un côté de la lentille. Ils sont confondus pour le miroir. Mais par une vue de l'esprit, nous allons nous apercevoir que formellement ces deux systèmes sont strictement équivalents.
Reprenons un des dessins que nous avons faits au chapitre précédent. Celui de la lentille convergente par exemple. Plions-le le long de la lentille. Une fois plié, ce dessin ne ressemble-t-il pas comme deux gouttes d'eau à celui du miroir concave ? Et si on fait de même avec une lentille divergente, ne retrouve-t-on pas le miroir convexe ? Quand je vous disais que c'était la même chose.
On appelle espace image réelle la zone de l'espace où l'image formée sera réelle. Dans le cas d'une lentille mince, c'est la partie de l'espace située en aval de la lentille.
On définit de la même manière l'espace image virtuelle la partie où cette image sera virtuelle. Dans le cas d'une lentille, c'est la portion de l'espace située en amont de la lentille.
En continuant ainsi, on définit également l'espace objet réel, où l'objet est réel pour le système optique, et l'espace objet virtuel où celui-ci sera virtuel. Dans le cas d'une lentille, ils se situent respectivement en amont et en aval de la lentille.
Dans le cas des miroirs sphériques, au vu de notre pliage, espaces objet réel et virtuel sont inchangés. Par contre espaces image virtuelle et réelle sont intervertis.
Nous disposons de tous les outils et de l'expérience acquise avec les lentilles pour aborder les constructions géométriques avec les miroirs sphériques. Afin d'éviter un long copier-coller, ainsi qu'un inventaire à la Prévert de tous les cas possibles, comme au chapitre précédent, je me contenterai de donner le premier exemple et laisserai en exercice les cas suivants.
On dispose d'un objet en amont d'un miroir concave et de son foyer objet. On cherche à tracer son image réfléchie.
Comme promis, bah... c'est à vous de jouer ! Ah zut, il n'a pas oublié. Et non !
Difficulté : ☆ Temps : 10 min
On reprend le schéma de la page précédente, mais on rapproche l'objet du miroir.
Au niveau de quel point (, ou ) se situe l'image de cet objet ?
L'image est-elle réelle ou virtuelle ? Inversée ou non ?
Difficulté : ☆☆ Temps : 10 min
On place un objet devant un miroir convexe.
Quelle est la taille de l'image par rapport à celle de l'objet ?
Comme pour les lentilles, nous allons démontrer une série de relation de conjugaison, qui nous permettront d'effectuer des calculs de position et de taille d'image.
Nous les démontrerons à partir des constructions géométriques. Puis nous les comparerons à celles obtenues pour les lentilles minces. Oui, je cherche à vous convaincre que ces deux systèmes optiques sont équivalents.
La définition du grandissement dans le cas d'un miroir sphérique est la même que pour les lentilles minces. Il s'agit du rapport entre la taille de l'image et celle de son antécédent .
En appliquant le théorème de Thalès, on trouve immédiatement que :
Connaissant la distance de l'objet et de l'image par rapport au sommet , il est donc possible de calculer la taille de l'image.
Difficulté : ☆ Temps : 10 min
Voici trois nouvelles constructions :
Calculez le grandissement dans chacun des trois cas.
Et si on ne connaît pas la position de l'image ? Nous allons utiliser les foyers. En appliquant cette fois-ci le théorème de Thalès deux fois avec deux rayons différents, on obtient :
En introduisant les distances focale objet et image , on obtient :
Et voilà, connaissant la distance focale et la distance de l'objet, on peut calculer le grandissement.
Remarquons qu'à partir de ces deux formules, on va pouvoir calculer la distance de l'image.
Nous venons d'établir la relation de conjugaison de Newton. Elle est aussi appelée relation de conjugaison avec origine au foyer, car les distances de l'objet et de l'image sont comptées à partir des foyers principaux.
Au signe près, elle est identique à celle des lentilles minces.
Aurait-on pu retrouver cette relation justement à partir de celle établie au chapitre sur les lentilles ? Oui, si on se souvient qu'il suffit de "plier" notre dessin pour passer des lentilles aux miroirs. Le pliage change le signe de . Ce qui explique la perte du signe dans la relation de conjugaison de Newton.
Et si on s'admirait devant un miroir ? On dispose d'un petit miroir de poche, de distance focale . On place notre visage à de ce dernier.
Quelle est la taille de notre reflet ?
Quelle est sa position ?
Nous pouvons également obtenir une relation similaire, avec origine au sommet du miroir cette fois-ci. En partant de la formule du grandissement :
On obtient ainsi la relation de conjugaison de Descartes :
Remarque, on note parfois les distances et respectivement et .
Là encore, les 2 relations de Descartes pour les lentilles et les miroirs ne se distinguent que par un signe . Le pliage, qui affecte tout ce qui se passe "à droite" de la lentille, change le signe de toutes les grandeurs algébriques situées en son aval. On change donc en et en ...
Admirons nous encore !
Recalculez la distance de notre reflet en appliquant cette fois-ci la relation de conjugaison de Descartes.
Si vous vous souvenez de la relation donnée quelques pages plus tôt : , on peut trouver d'autres relations de conjugaison.
Partant de la relation de conjugaison de Descartes, avec origine au sommet, on obtient d'abord :
Puis en appliquant les relations de Chasles et , on montre que :
On a établi plusieurs relations de conjugaison. vous n'êtes pas obligé de toutes les connaître. Une suffit. Apprenez celle avec laquelle vous vous sentez le plus à l'aise. De toutes façons, les autres se déduiront de la vôtre, ou se retrouvent à l'aide de petits dessins.
Un petit résumé des relations de conjugaison précédemment établies.
Lentilles minces | Miroirs sphériques | |
---|---|---|
grandissement | ||
Relation de Newton | ||
Relation de Descartes | ||
pas d'équivalent |
Que se passe-t-il si on prend un miroir sphérique et qu'on fait tendre son rayon de courbure vers l'infini ? Il devient plat.
Nous devrions donc pouvoir retrouver les propriétés du miroir plan à partir de celle du miroir sphérique, en faisant tendre vers l'infini.
La première conséquence est que la distance focale tend également vers l'infini, puisqu'elle vaut la moitié de .
et tendent vers l'infini. Or comme , la longueur devient très vite négligeable devant les deux autres. D'où et donc le grossissement tend vers 1.
On retrouve bien le fait que notre image dans un miroir a la même taille et est dans le même sens.
Où se situe l'image ? Prenons la relation de conjugaison de Descartes. Si la distance focale tend vers l'infini, alors . On a donc :
soit
.
L'objet et l'image sont équidistants du miroir.
En faisant tendre le rayon de courbure vers l'infini, nous venons de démontrer que le miroir plan possède un grandissement de 1, et que image et objet sont équidistants du miroir, autrement dit, ils sont symétriques l'un de l'autre.
Nous venons de voir qu'il existait 2 types de miroirs sphériques : des miroirs concaves, comme un miroir de poche par exemple, qui ont la propriété de faire converger un faisceau lumineux ; des miroirs convexes, comme un rétroviseur, qui ont la propriété de faire diverger un faisceau lumineux.
Nous avons défini quatre points particuliers pour un miroir. Ces points sont appelés éléments cardinaux du miroir.
Les distances entre les points et sont appelées distances focales. Ce sont des données du miroir. Elles caractérisent la vergence du miroir, c'est-à-dire son pouvoir de dévier les rayons lumineux.
À l'aide de quatre rayons, il nous est désormais possible de tracer l'image d'un objet se reflétant sur le miroir. Le rayon lumineux passant par le centre revient sur lui-même, celui arrivant parallèle à l'axe optique ressort en croisant le foyer principal image, et celui passant par le foyer principal objet ressortira parallèle à l'axe optique. Enfin, le rayon frappant le miroir au sommet aura pour image son symétrique par rapport à l'axe optique.
Enfin, nous avons quelques relations qui nous permettront de calculer des tailles d'images, les distances où elles se forment et pourquoi pas des champs de vue et des grossissements. Ce sera pour bientôt.
Et on vient de voir en prime qu'un miroir plan est un miroir sphérique de rayon de courbure infini.
Il est maintenant temps d'utiliser ces miroirs et ces lentilles afin de construire des systèmes optiques.
Tous les systèmes optiques n'ont pas nécessairement pour but de former des images. Certains n'ont pour fonction que de focaliser et transporter la lumière. Les phares par exemple. Nous ne nous intéresserons pas ici à de tels systèmes, et ne nous focaliserons (calembour) que sur ceux formant des images.
On peut distinguer 2 types de systèmes optiques :
... nous aborderons d'abord un système objectif : l'appareil photo. Il nous permettra d'introduire quelques notions d'optique comme le champ de vue, l'ouverture, la profondeur de champ.
Puis nous aborderons l'oeil et l'oculaire, préalables à l'étude de tous les systèmes subjectifs. On y introduira les notions de grossissement et de puissance.
Enfin, nous aborderons les systèmes subjectifs utilisés en astronomie : la lunette et le télescope.
Commençons donc par l'appareil photo. Pourquoi débuter par lui ? Car c'est un système optique très simple. Basiquement, c'est une lentille (l'objectif) placée devant un écran (le capteur ou la pellicule). C'est tout !
Bon, je vous embobine un peu. Si on démonte un appareil photo, c'est beaucoup plus compliqué que ça. Mais la modélisation une lentille + un écran suffit largement pour comprendre son fonctionnement.
Qu'est-ce qu'un appareil photo ? Je l'ai dit juste avant, c'est une lentille et un écran. Plus exactement, un objectif qui va former l'image du sujet sur notre capteur.
Je vais brièvement décrire le boîtier réflex classique, avec objectif amovible et capteur 24x36.
L'objectif est un tube dans lequel on trouve un grand nombre de lentilles (parfois une dizaine). Elles servent à faire l'image du sujet sur le capteur, d'en faire la mise au point correcte, de zoomer éventuellement, et d'assurer une bonne correction des aberrations optiques et chromatiques. Je vous l'avais déjà dit, on ne travaille pas, en photo, dans les conditions de Gauss, car on perdrait trop de lumière.
On trouve aussi un diaphragme permettant de régler la quantité de lumière rentrant dans l'appareil (réglage de l'ouverture et de la profondeur de champ).
Dans le boîtier, on trouve un miroir basculant. Il renvoie la lumière vers le viseur pour permettre le cadrage, puis bascule pour la laisser rentrer dans la chambre pendant la prise de vue.
On trouve derrière l'obturateur, qui ne s'ouvre que pendant la prise de vue, pour laisser la lumière imprimer le capteur ou la pellicule. La quantité de lumière arrivant sur le capteur est bien sûr proportionnelle au temps d'exposition, c'est-à-dire la durée d'ouverture de l'obturateur.
Enfin, derrière l'obturateur, on trouve la pellicule sur les anciens appareils argentiques, ou un capteur CCD, sur les appareils photo numériques (abrégé APN). La dimension classique du capteur est (ou était) 24x36 mm. Même si elle n'est plus utilisée dans tous les APN, surtout les compacts, elle sert encore de référence pour les calculs de focale.
Par défaut, quand je parlerai d'APN, ce sera un réflex avec un capteur de 24x36 mm.
Objectif à focale variable , téléobjectif de , grand angulaire de ... qu'est-ce que tout ça ?
C'est beaucoup plus simple qu'il n'y paraît. Surtout quand on se souvient de ses cours sur les lentilles minces.
Ce qu'on appelle focale d'un objectif photo n'est rien d'autre que la distance focale image.
Une focale de veut dire que notre objectif est équivalent à une lentille mince convergente de distance focale image . Quand au téléobjectif de , il sera équivalent à une lentille mince convergente de vergence moindre, puisque sa distance focale sera de .
Quant aux objectifs à focale variable ( par exemple) et au zoom universel (), en jouant sur le déplacement de lentilles à l'intérieur, on peut faire varier leur distance focale. C'est l'avantage d'avoir un système à plusieurs lentilles par rapport à une unique lentille pour laquelle cette grandeur est fixe.
La focale de l'objectif nous donne une information sur l'angle embrassé par l'appareil.
L'angle de champ est l'angle couvert par l'appareil photo. Si c'est angle est grand, on photographie une grande zone, un vaste paysage par exemple. S'il est petit, on ne photographie qu'un détail, par exemple un animal perdu dans le paysage.
L'angle de champ et la focale sont reliés entre eux. Ils dépendent de la taille du capteur. La référence est le capteur de 24x36. S'il est de taille différente, on calculera des focales équivalentes ramenées au format 24x36 (cf page suivante).
Pour qu'une partie du paysage soit photographiée, il faut que son image arrive sur le capteur. Les bords du capteur définissent donc la limite de ce qui est photographiable. Ce dernier projette un cône virtuel en avant de l'appareil photo. Tout ce qui est dans ce cône apparaîtra lors de la soirée diapo. Ce qui est en dehors sera perdu à jamais...
La distance entre le capteur et l'objectif est typiquement la distance focale. On est donc en mesure de calculer l'angle de champ connaissant la taille du capteur et la focale.
Pour les curieux, son expression est , où est la diagonale du capteur, la focale.
Pour un capteur de 24x36 mm | |
Focale | Angle de champ (environ) |
17 mm | 105° |
28 mm | 75° |
35 mm | 65° |
50 mm | 45° |
80 mm | 30° |
105 mm | 23° |
135 mm | 18° |
200 mm | 12° |
300 mm | 8° |
On classe les objectifs en 2 catégories. Les grands angulaires possédant une courte focale et un grand champ, et les téléobjectifs possédant une longue focale et un petit champ.
La limite entre les deux catégories est pour une focale d'environ qui offre un champ comparable à celui d'un oeil humain.
Pourquoi voit-on plus gros un objet avec un téléobjectif ? un zoom dirons nous de manière abusive ?
L'angle de vue étant plus réduit, on met une portion de l'espace plus petite sur la même surface de capteur, on l'a agrandi.
Difficulté : ☆☆ Temps : 20 min
Nous venons de voir que l'angle de champ dépend de la taille du capteur. Or, de nombreux APN possèdent maintenant des capteurs plus petits. Nous allons prendre l'exemple d'un APN du commerce (dont je ne citerai pas la marque) possédant un capteur mesurant .
J'adapte dessus un objectif de de focale. Rappelez quel serait l'angle de champ avec un capteur .
Quelle valeur prend cet angle avec notre capteur plus petit ?
Calculez quelle focale donnerait le même angle de champ avec un capteur . C'est ce qu'on appellera la focale utile (ou équivalente).
Calculer la focale utile sur notre nouveau boîtier si j'adapte un téléobjectif de . Commentez.
À l'inverse, si je désire obtenir une focale utile de , quel objectif dois-je acheter ? Concluez.
L'exposition, en photographie, désigne la quantité de lumière, le nombre de photons, enregistré par le capteur.
Elle dépend de trois paramètres :
Dans le cadre de ce cours d'optique, nous ne nous intéresserons qu'au cas de l'ouverture. De nombreux ouvrages consacrés à la photographie traitent du reste.
S'il est un paramètre important en photographie, c'est bien l'ouverture. On contrôle cette quantité à l'aide d'un diaphragme. Plus on ferme le diaphragme, plus on diminue l'ouverture.
Si ce réglage a un impact direct sur la quantité de lumière qui rentre dans l'appareil, il en a aussi sur la qualité de la photo. Réduire l'ouverture augmente la zone de netteté de l'image (on parle de profondeur de champ), peut réduire certaines aberrations (en se rapprochant des conditions de Gauss), mais gare au vignétage !
Cette quantité s'exprime étrangement en sur un nombre. Nous allons voir pourquoi.
L'angle d'ouverture mesure le rapport entre le diamètre de l'objectif (du collecteur de lumière en général) et sa focale :
Ne pas confondre l'angle de champ, qui dépend de la taille du capteur, et l'angle d'ouverture, qui dépend du diamètre de l'objectif.
Le nombre d'ouverture (noté N.O.) ou plus simplement ouverture est la quantité inverse
On la note
Par exemple, si je possède un objectif de de focale, avec un diaphragme de de diamètre, l'angle d'ouverture vaut et son ouverture vaut 2,8. On parle donc d'objectif ouvert à .
Plus le chiffre est petit, plus l'objectif est ouvert, plus la quantité de lumière qui rentre est importante. À l'inverse, plus ce chiffre est grand, plus l'objectif est fermé, et moins la quantité de lumière qui rentre est importante.
Pour résumer, un objectif ouvert à veut simplement dire que le diamètre du diaphragme est 2,8 fois plus petit que la focale.
Je possède un téléobjectif de de focale, dont le diamètre est . Quelle pourra être l'ouverture maximale ?
Nous avons vu, lors du cours sur les lentilles, qu'il n'existe qu'un seul plan antécédent du plan du détecteur. Autrement dit, notre photo ne sera nette qu'à une distance très précise de l'appareil photo.
Cependant, lorsque l'on regarde une photo, celle-ci nous apparaît nette sur une certaine distance, parfois très courte, parfois très grande.
Cette zone nette s'appelle la profondeur de champ. Plus celle-ci est grande, plus la photo sera nette longtemps. À l'inverse, plus la profondeur de champ est petite, plus courte sera la distance sur laquelle la photo sera nette.
Si l'ouverture est importante, les rayons issus d'un point empruntent beaucoup de chemins différents. Si l'image de cet objet n'est pas sur le capteur, mais en avant ou en arrière, alors tous ces rayons tombent sur le capteur en une largeur zone, une grosse tache (regardez l'intersection des faisceaux avec le capteur dans l'image en bas). L'image est floue.
Mais si on réduit l'ouverture, on diminue le nombre de rayons entrant dans l'appareil, et on réduit ainsi la taille de la tache où ils convergent.
À la limite, si on ferme au maximum le diaphragme, on ne sélectionne plus qu'un seul rayon par point. L'image est alors nette à toutes les distances. On peut même se passer de la lentille. C'est le principe du sténopé. Par contre, comme très peu de lumière entre, il faut poser très longtemps.
L'appareil photo peut être modélisé par une simple lentille placée devant un écran.
La focale d'un objectif est la distance focale de la lentille équivalente.
Une courte focale entraîne un grand angle de champ. Ce type d'objectif est appelé grand angle. Ces derniers possèdent une focale inférieure à .
Une longue focale entraîne un angle de champ réduit. Ce type d'objectif est appelé téléobjectif. Ces derniers possèdent une focale supérieure à .
L'ouverture mesure le rapport entre le diamètre du diaphragme et la focale.
Pour ouvrir un objectif, on ouvre le diaphragme : on augmente son diamètre. On augmente la quantité de lumière rentrant dans l'appareil, et on diminue la profondeur de champ.
En réduisant le diamètre du diaphragme, on ferme l'objectif. On réduit la quantité de lumière rentrant dans l'appareil, et on augmente la profondeur de champ.
Ci-dessous, vous pouvez voir la photo d'un compact numérique. De nombreuses informations sont inscrites sur sa face avant. Que signifient-elles ?
Vous pouvez lire sur l'objectif 25 mm WIDE, ainsi que 1:3.3-4.9 et enfin 4.1 - 49.2. Que signifient ces chiffres ?
Lorsque la focale du zoom optique est réglée sur la plus courte distance, , le compact offre une focale équivalente de Déduisez-en la taille du capteur.
Quelle est alors la focale équivalente en position de zoom maximal ?
Restons sur un système optique simple, l'oeil. Lui aussi peut être modélisé par une simple lentille placée devant un écran.
L'étude préalable de l'oeil est nécessaire pour aborder les instruments subjectifs. Ce sera l'occasion de nous familiariser avec cet organe.
De façon schématique, l'oeil est de forme sphérique. Il est constitué :
On le modélisera donc par un diaphragme placé devant une lentille de distance focale variable, le tout devant un écran.
Difficulté : ☆ Temps : 10 min
Un oeil moyen mesure 2,5 cm de diamètre.
La zone sensible de la rétine s'étend sur environ 2-2,5 cm de diamètre. Donnez approximativement l'angle de champ de l'oeil.
Cependant, la zone permettant la perception des détails fins correspond à une image formée sur la fovéa, une zone très riche en récepteurs, au voisinage de l'axe optique. Cette zone mesure un demi millimètre de diamètre. Donnez l'ordre de grandeur de l'angle de champ correspondant à la fovéa.
Difficulté : ☆ Temps : 5 min
Le diamètre de l'iris varie, selon la luminosité, de à .
Calculez les ouvertures minimale et maximale de l'oeil.
Un oeil moyen mesure 2,5 cm de diamètre.
Quel doit être la distance focale image du cristallin pour former l'image d'un objet situé à l'infini, sur la rétine ?
Et quelle doit être la valeur de cette distance focale pour lire un livre à 25 cm de l'oeil ?
Que peut-on en conclure ?
Pour voir net il faut que l'image d'un objet se forme sur la rétine. Un oeil n'accommodant pas (un oeil au repos), voit net un objet à une distance appelée punctum remotum, notée .
Lorsque l'objet se rapproche, son image s'éloigne du cristallin. L'oeil ayant une taille fixe, l'image ne se forme plus sur la rétine. Comment faire alors ? On peut augmenter la vergence du cristallin. Celui-ci, plus convergent, ramène l'image sur la rétine. C'est l'accommodation (voir l'exercice page précédente).
Cependant, on ne peut augmenter indéfiniment la vergence. Approchez-vous de l'écran. Au bout d'un moment, vous avez mal aux yeux et n'arrivez plus à voir cet écran net. La distance minimale à laquelle on peut encore voir un objet est appelée punctum proximum, notée .
Pour un oeil normal adulte, dit oeil emmétrope, le punctum remotum est situé à l'infini, et le punctum proximum à 25 cm.
L'oeil humain peut être affecté de nombreux défauts de vision.
L'oeil myope est trop long ou le cristallin trop convergent. L'image d'un objet à l'infini se forme en avant de la rétine. Le punctum remotum est situé à une distance finie, variant avec la gravité de la myopie.
Le est également plus proche. Un myope peut lire de plus près et est un peu moins sensible à la presbytie.
Pour corriger ce défaut, il faut donc diminuer la vergence de l'oeil en plaçant devant une lentille divergente.
À l'inverse, un oeil hypermétrope est trop court ou le cristallin n'est pas assez convergent. L'image d'un objet à l'infini se forme en arrière de la rétine. L'oeil doit constamment accommoder pour ramener l'image au niveau de la rétine, ce qui provoque une fatigue.
Le est situé derrière l'oeil ! Si si ! On plaisante à ce sujet en disant qu'un hypermétrope peut voir derrière lui. Vous l'aurez compris, le se situe dans l'espace image. C'est-à-dire qu'il est possible, pour un oeil hypermétrope de former l'image d'objets virtuels.
Le est plus éloigné que la normale.
La correction est alors nécessaire pour voir de près, et pour diminuer la fatigue quand on regarde loin. Comme il faut augmenter la vergence du cristallin, on utilise des lentilles convergentes.
La presbytie se rapproche de l'hypermétropie, mais à une cause toute autre. Elle est liée au vieillissement de l'oeil qui ne parvient plus à accommoder correctement. La vergence du cristallin n'augmente plus et il devient impossible de voir de près. Par contre, la vision de loin reste inchangée. Le reste à l'infini alors que le s'éloigne progressivement.
Il faut donc corriger la vision de près à l'aide de verres convergents, mais les retirer pour regarder au loin. On peut utiliser des verres dits progressifs, qui sont des verres dont la vergence augmente vers le bas de la lentille.
Comme son nom l'indique, pour un oeil astigmate, la condition de stigmatisme n'est plus respectée.
L'oeil ne possède pas une symétrie de révolution. Il faut utiliser des lentilles non sphériques pour corriger ce défaut.
Difficulté : ☆☆ Temps : 20 min
Nous allons chercher à corriger un défaut de myopie à l'aide d'une paire de lunettes. On place une lentille divergente (en bleu) devant l'oeil myope (en noir), dont la rétine (en jaune) est trop loin. On considère un point B situé à l'infini.
En imprimant ou recopiant le schéma ci-dessus, tracer l'image de l'objet situé à l'infini à travers l'oeil seul. On ne s'occupera pas, dans cette question, de la lentille divergente en bleue. Cette image est-elle située sur la rétine ?
Pour tracer l'image de notre objet à travers les lunettes et l'oeil, nous allons procéder par étapes. Tout d'abord, nous allons tracer l'image de l'objet à travers la lentille divergente. Puis, dans un second temps, nous allons considérer cette image comme étant un objet pour la lentille convergente, et en tracer son image .
Tracer l'image de l'objet à travers la lentille divergente. Où est-elle ? Est-elle réelle ? virtuelle ? droite ? inversée ?
Tracer maintenant l'image de l'objet à travers la lentille convergente. Où est située cette image ? Est-elle réelle ? virtuelle ? droite ? inversée ?
Nous avons uniquement considéré, jusqu'à présent, des systèmes optiques simples, ne comportant qu'une seule lentille. Certes, on peut déjà réaliser un certain nombre de dispositifs optiques : loupe, paire de lunettes, oeil. On est cependant vite limité.
Si on veut pouvoir augmenter la convergence d'un dispositif, en améliorer sa qualité d'image en corrigeant les aberrations, on est amené à associer plusieurs lentilles.
Dans l'exercice précédent, par exemple, on a utilisé une deuxième lentille pour corriger un défaut de vision.
En utilisant deux lentilles, ce qu'on appellera un doublet, nous allons distinguer deux cas, même si le premier se révélera un cas particulier du second.
Pour la construction géométrique, et pour les calculs également, la méthodologie est simple. Nous venons de la voir dans l'exercice précédent.
Commençons par le cas le plus simple, les deux lentilles accolées. On fait l'hypothèse ici que les deux lentilles sont minces, qu'on les a approchées le plus près possible (que nous permet leur géométrie) de façon à ce qu'on puisse négliger la distance entre les deux centres et de celles-ci, devant toutes les grandeurs caractéristiques du système optique. Bref, et sont confondus.
Dans ce cas particulier, notre lentille est équivalente à une seule lentille de vergence
Autrement dit, sa distance focale image peut être déduite par :
Pour vous en convaincre, voici la démonstration. Si on applique la relation de conjugaison de Descartes aux deux lentilles et , on obtient :
et
Et on en tire donc :
Remarques :
Difficulté : ☆☆ Temps : 20 min
Après la myopie, l'hypermétropie. Nous allons tenter de déterminer la vergence d'une lentille de contact correctrice pour l'hypermétropie.
On considère un oeil hypermétrope de distance focale image variant entre 2,27 cm et 2;5 cm. Sa profondeur est de 2,3cm
On place un objet (un livre par exemple) à de l'oeil. Où se situe son image ? Est-elle sur la rétine ?
Quelle devrait être la distance focale pour que l'image se forme sur la rétine ?
On souhaite corriger cette hypermétropie par des lentilles de contact. Comme leur nom l'indique, elles sont au contact de l'oeil. On pourra donc considérer le système lentille de contact + cristallin comme un doublet de deux lentilles accolées. Calculer la vergence de la lentille de contact permettant de former l'image du livre sur la rétine. Quelle est la nature de cette lentille ?
L'oeil, comme l'appareil photo, peut être modélisé par une lentille (le cristallin) placée devant un écran (la rétine). La vergence de cette lentille est variable. L'iris joue le rôle d'un diaphragme.
L'oeil peut être affecté de nombreux défauts de vision dont les principaux sont la myopie (l'image d'un objet à l'infini se forme en avant de la rétine), l'hypermétropie (l'image d'un objet proche se forme derrière la rétine), la presbytie (l'oeil n'accommode plus assez) et l'astigmatisme (l'oeil perd sa symétrie de révolution).
Deux lentilles accolées sont équivalentes à une seule lentille dont la vergence résultante est la somme des deux vergences de chacune des lentilles.
Nous allons étudier, dans cette section, le système optique oeil + loupe. C'est, vous l'aurez reconnu, un doublet de deux lentilles convergentes.
Pourquoi étudier le système oeil + loupe ? Parce que tous les instruments d'optique subjectifs possèdent un oculaire, qui est équivalent à une loupe. Étudier ce système nous permettra de nous familiariser avec les notions de grossissement, de puissance, de netteté de l'image...
Pour observer les détails d'un objet, il est nécessaire de le rapprocher le plus possible de notre oeil, au . Cependant, cela entraîne une fatigue de l'oeil, et, avec l'âge, ce point s'éloigne.
Utiliser une lentille convergente, une loupe, va nous permettre d'obtenir une image de taille angulaire plus grande que l'objet. On grossit l'image !
De plus, en plaçant l'objet au foyer de la loupe, l'image est à l'infini. L'oeil n'a pas besoin d'accommoder et ne se fatigue plus.
L'oculaire, qui est une sorte de loupe, permet de rendre subjectif l'objectif d'une lunette ou d'un télescope. Il renvoie l'image issue de ces derniers à l'infini, afin d'être vue par l'oeil, sans se fatiguer.
En fonction de leur focale, les oculaires permettent d'agrandir l'image de l'objet et de réduire ou d'augmenter l'angle de champ.
L'oeil est sensible à l'angle apparent d'un objet. En effet, il ne fait pas la distinction entre un objet proche et petit et un objet grand et lointain. Certes, le cerveau y arrive en interprétant diverses informations, comme la vision en 3 dimensions, ainsi que le paysage dans son ensemble, mais fermez un oeil, vous verrez que c'est tout de suite moins évident.
L'autre exemple est celui de la Lune et du Soleil, qui n'ont pas la même taille, mais qui ont le même diamètre apparent.
Le but d'une loupe, d'un oculaire, puis des systèmes comme les lunettes et les télescopes, est d'augmenter l'angle apparent.
Pour un objet à l'infini, l'angle apparent est directement l'angle sous lequel on voit l'objet. Pour mémoire, le diamètre apparent de la Lune et du Soleil est de 0,5°.
S'il est proche, ce diamètre est donné par le rapport de sa taille par sa distance à l'oeil.
Pour un objet proche, l'angle apparent dépend bien sûr de la distance à laquelle il se trouve.
Quel est l'angle apparent de la tour Eiffel vue depuis l'esplanade du Trocadéro ?
Sur l'esplanade, de nombreux vendeurs à la sauvette peuvent vous proposer des tours Eiffel miniatures. À quelle distance doit-on se situer d'une petite tour Eiffel de pour obtenir le même angle apparent ?
Je rappelle qu'une loupe est une lentille convergente. Pour fonctionner en "loupe", il faut placer l'objet entre le foyer principal objet et la lentille.
Construisons l'image d'un objet à travers une loupe.
L'image est plus grosse et plus éloignée. Quel est alors son angle apparent ?
Cet angle dépend de la distance entre la loupe et l'objet, ainsi que de la loupe et l'oeil.
Plaçons nous plutôt dans le cas le plus reposant pour l'oeil (ainsi que le plus simple mathématiquement) : l'image rejetée à l'infini. Pour cela, il suffit de placer le foyer principal objet sur l'objet qu'on veut observer.
L'expression de l'angle apparent est alors immédiate
L'angle apparent dépend maintenant de la distance focale de la loupe, et uniquement de celle-ci. Plus cette distance est courte, plus grand sera l'angle apparent. On aimerait dire que, plus la loupe est convergente, plus elle grossit notre image. Mais que veut vraiment dire grossir ?
On a à notre disposition deux diamètres apparents, l'un avec, l'autre sans la loupe (ou l'instrument subjectif en général).
On peut définir naturellement le grossissement comme étant le rapport de ces deux quantités :
Plus un instrument est grossissant (c'est-à-dire plus est grand) plus grand sera le diamètre apparent de l'image.
Ne pas confondre grossissement et grandissement !
Petit problème : pour un objet à distance finie, le diamètre apparent dépend de la position de l'oeil. Or il serait bon d'avoir un grossissement ne dépendant que de l'instrument. Cela nous permettra de les comparer entre eux.
Le microscope ou la loupe sont des exemples de système optique grossissant des objets à distance finie.
On définit alors le grossissement comme étant le grossissement que l'on obtient si l'objet est placé au , c'est-à-dire à 25 cm de l'oeil.
avec
On définit également, pour le cas des objets à distance finie, la puissance de l'instrument, comme étant le rapport de diamètre apparent de l'image, sur la taille de l'objet :
Remarquons que
En astronomie, la distance tend vers l'infini. La puissance est donc toujours nulle.
Si l'image est à l'infini, donc l'objet au foyer principal objet, la puissance est simplement la vergence de l'instrument :
L'image formée par la loupe doit être située entre le et le pour être vue nette. Sa distance est comprise entre et .
La latitude de mise au point est l'intervalle des positions de l'objet par rapport à la loupe tel que l'image soit visible par l'oeil de façon nette.
La profondeur d'accommodation est la longueur de cet intervalle. C'est également la distance séparant les conjugués du et du par loupe. Elle dépend bien sûr de la position de l'oeil par rapport à la loupe.
Plaçons l'oeil au foyer principal image et déterminons la latitude de mise au point. La distance entre le foyer principal image et les et vaut respectivement :
et .
D'après la relation de conjugaison de Newton, la position des antécédents des et sont respectivement :
et
On en déduit la latitude de mise au point :
latitude de mise au point
et la profondeur d'accommodation :
La profondeur d'accommodation est proportionnelle à la distance focale. Plus une lentille est convergente, plus elle grossit l'image de l'objet, mais moins il est facile d'obtenir une image nette.
De nombreux instruments sont équipés d'oculaires : télescopes, lunettes, microscopes...
Cet instrument comprend plusieurs lentilles, mais joue le rôle d'une loupe. Il est cependant plus puissant, corrige les aberrations optiques et chromatiques, possède un champ plus grand. Il peut parfois être équipé d'un réticule pour mesurer des tailles angulaires, des parallaxes ou viser...
Une loupe est une lentille convergente. Elle sert à grossir les objets. Une utilisation optimale consiste à placer son foyer sur l'objet visé. Son image est alors rejetée à l'infini. L'oeil n'a pas besoin d'accommoder et se fatigue moins.
Le grossissement est le rapport de l'angle apparent de l'image sur celui de l'objet :
Dans le cas d'objets placés à distance finie, on définit le grossissement commercial comme étant le cas particulier du grossissement d'un objet situé à de l'oeil.
On a également défini la puissance comme étant le rapport entre la taille de l'objet et le diamètre apparent de l'image.
Il est désormais temps de l'utiliser, ce fameux oculaire. Commençons par le mettre à la sortie d'une lunette astronomique.
Une lunette astronomique est constituée de deux lentilles :
Dans le cas d'une lunette astronomique, les deux lentilles sont convergentes, et l'image de l'astre sera inversée.
La lunette de Galilée se distingue par la nature de la lentille oculaire. Cette dernière est ici divergente. L'image en sortie sera droite.
À focale équivalente, la lunette de Galilée sera plus courte. Nous verrons pourquoi.
L'objectif capte la lumière provenant de l'astre, et en fait l'image à son foyer.
Plus la focale de l'objectif sera grande, plus l'image sera également grande. Et si on se rappelle de la section sur l'appareil photo, on se souviendra que son angle de champ sera d'autant plus petit que cette focale est grande.
L'image intermédiaire étant en général petite, il faut la regarder avec une loupe : l'oculaire. Ce dernier grossit l'image et la rejette à l'infini.
Et si on fait appel au cours sur la loupe, on se souviendra que l'image finale est d'autant plus grande que la focale de l'oculaire est courte.
Dans une lunette (et, nous le verrons également, un télescope) l'objet est à l'infini et l'image aussi. Ce système n'a donc pas de foyer. Il est dit afocal.
Comment réaliser un tel système ? L'image intermédiaire est, par définition, au foyer principal image de l'objectif. Pour projeter l'image finale à l'infini, nous avons placé le foyer principal objet sur l'image intermédiaire.
Bref, pour fabriquer un système afocal, il suffit de superposer le foyer principal image de l'objectif avec le foyer principal objet de l'oculaire.
Nous allons calculer le grossissement d'une lunette astronomique en fonction des focales de son objectif et de son oculaire. Nous vérifierons ainsi si l'hypothèse émise à la page précédente est juste.
Par définition de grossissement
Il vient assez immédiatement que
et
D'où
Le grossissement d'une lunette se détermine à partir du rapport des focales de l'objectif () et de l'oculaire ()
L'image sera d'autant plus grande que la focale de l'objectif sera grande et celle de l'oculaire petite. On trouve bien le résultat qui était attendu.
Ce résultat est valable également pour la lunette de Galilée.
Difficulté : ☆☆ Temps : 20 min
On souhaite observer Jupiter à l'aide d'une lunette de de focale (il s'agit ici de la focale de l'objectif).
Calculer le diamètre apparent de cette planète à l'opposition.
Vous disposez de 3 oculaires de , et de focale respectivement. Lequel devez-vous utiliser pour obtenir le meilleur grossissement ?
Calculez alors le diamètre apparent de Jupiter dans cet oculaire.
La grande tache rouge mesure à peu près du diamètre de Jupiter. Sera-t-elle visible dans cet instrument ?
Ce qui va suivre ne s'applique pas aux lunettes de Galilée.
Le champ de la lunette est l'ensemble des points de l'espace visibles dans l'instrument. Comme dans le cas de l'appareil photo, cet espace est un cône. Les objets à l'intérieur de celui-ci seront visibles, ceux à l'extérieur, non.
L'image en sortie sera-t-elle petite ? (c'est-à-dire qu'on pourra l'embrasser en entier sans bouger l'oeil), ou au contraire sera-t-elle grande ? (il faudra alors bouger son oeil pour tout voir, ce qui n'est pas forcément agréable). C'est ce qu'on appellera le champ de l'oculaire.
Pour l'instant, nous ferons l'hypothèse que le champ de l'oculaire est celui de l'oeil, c'est-à-dire 50°.
Le champ d'une lunette astronomique (et d'un télescope) est le rapport du champ de l'oculaire par le grossissement :
Le champ est inversement proportionnel au grossissement. Pour une lunette donnée, et donc une focale fixée, le champ diminue avec la focale de l'oculaire. Plus l'oculaire est court, plus le champ est réduit.
La démonstration de ce résultat est ici.
Le champ d'une lunette est limité par le diaphragme de champ
L'expression du champ d'une lunette est très proche de celle d'un appareil photographique : où d est le diamètre du diaphragme de champ, au niveau du plan focal image de l'objectif, f_objectif la distance focale image de l'objectif.
La démonstration de ce résultat est très simple, puisqu'il suffit d'écrire la définition de la tangente de l'angle
Par une nuit de pleine Lune, on désire observer l'astre sélène. On possède une lunette de de focale, ainsi qu'un oculaire de de focale et de ° de champ.
Calculez le grossissement de cet instrument.
À partir du champ de l'oculaire, calculez l'angle de champ de la lunette. Pourra-t-on voir la Lune en entier dans l'oculaire ? Et la Galaxie d'Andromède (M31) ?
Dans les quelques pages à venir, nous allons rentrer dans des détails un peu plus techniques. Je les donne pour satisfaire la curiosité du lecteur, mais ils ne rentreront pas aux programmes de l'examen.
Considérons un instrument possédant un certain nombre de lentilles. Faisons avec l'image d'un point situé sur l'axe optique.
Ce point émet un faisceau lumineux. Certains rayons de ce faisceau ressortiront de l'instrument, d'autres seront interceptés par la monture d'une des lentilles.
Pour connaître la quantité de lumière qui ressort de l'instrument, il faut chercher la monture qui limite la taille du faisceau (sur notre image, c'est la monture ).
On nommera cette monture diaphragme d'ouverture.
Sur une lunette et un télescope, où on cherche à avoir le plus de lumière, on construit l'instrument de telle sorte que le diaphragme d'ouverture soit la première lentille (ou le miroir primaire). Comme c'est l'optique la plus grande, il serait dommage qu'elle ne serve à rien si c'est une autre monture plus petite qui joue le rôle de diaphragme d'ouverture.
En photographie, la problématique est différente. L'ouverture étant liée au temps de pose et à la profondeur de champ, on cherche à la contrôler en fonction de l'effet recherché. C'est donc un diaphragme physique, avec un diamètre ajustable, placé dans l'objectif, qui servira de diaphragme d'ouverture.
Pour rechercher quelle monture limite la largeur de notre faisceau, une méthode consiste à rechercher l'antécédent de ces montures par rapport à toutes les précédentes.
Un rayon qui passera chacun des conjugués traversera toutes les montures réelles . Trouver le diaphragme d'ouverture revient à chercher le conjugué dont le diamètre est le plus petit.
Ici, c'est . est appelé pupille d'entrée et diaphragme d'ouverture.
La pupille d'entrée est le conjugué du diaphragme d'ouverture dans l'espace objet.
De la même manière, on définit la pupille de sortie comme étant le conjugué du diaphragme d'ouverture dans l'espace image.
Pour profiter pleinement d'un instrument, il faut que la pupille de sortie et la pupille de l'oeil soient confondues.
Ce n'est pas nécessairement une lentille qui joue le rôle de diaphragme d'ouverture. Ça peut-être un vrai diaphragme, comme dans le cas de l'appareil photo.
On peut également placer un vrai diaphragme physique, en entrée, pour jouer le rôle à la fois de diaphragme d'ouverture et de pupille d'entrée. (En effet, s'il est placé en amont de la première lentille, il est son propre antécédent).
... je m'étendrai un peu plus sur la notion de champ d'une lunette, et j'introduirai les notions de diaphragme de champ et de lucarne.
On considère cette fois-ci un point , hors de l'axe optique. Intéressons-nous au rayon issu de et passant par le centre de la pupille d'entrée et donc au centre du diaphragme d'ouverture et de la pupille de sortie. Il est appelé rayon moyen ou rayon principal.
Faisons bouger jusqu'à ce que le rayon rayon principal soit intercepté par un des conjugués (ici ).
Par définition, ce conjugué est appelé lucarne d'entrée, et son antécédent associé (ici ) est appelé diaphragme de champ.
Le rayon touchant le bord du diaphragme de champ est noté . Il délimite le champ moyen de l'instrument. Le champ moyen est le disque de centre et de rayon .
C'est grosso-modo la portion visible de l'image. (Mais pas tout à fait)
Que voit-on réellement dans l'oculaire ?
Considérons maintenant un autre du point , de telle sorte que le rayon qui en est issu passe par le bord de la lucarne d'entrée et la pupille d'entrée (en vert sur la figure). Il délimite également un champ, plus petit que le précédent appelé champ de pleine lumière.
Le faisceau lumineux issu d'un point situé dans le champ de pleine lumière passera la pupille d'entrée sans être vignété par la lucarne.
Le faisceau lumineux issu d'un point situé en dehors de ce champ sera en partie, voir totalement, vignété par la lucarne d'entrée. Au delà de ce cercle de pleine lumière, la luminosité commence à décroître.
La luminosité décroît jusqu'au cercle de diamètre . est un point particulier : les rayons qui en sont issus passent par le bord supérieur de la lucarne d'entrée puis par le bord inférieur de la pupille d'entrée. Bref, le faisceau issu de passant par les lucarne et pupille d'entrée se résume à un seul rayon lumineux.
Il délimite le champ de contour. Ce champ inclut les deux autres champs définis précédemment.
Pur résumer, dans le champ de pleine lumière, toute la lumière rentrant dans la lunette en ressort. En dehors du champ de contour, plus aucune lumière ne ressort de l'instrument. Entre les deux, une partie de la lumière entrante est stoppée quelque part dans la lunette.
Visuellement, on observe un cercle au bord flou, où la lumière décroît progressivement du centre vers le bord. Ce n'est pas agréable à l'oeil.
Le jeu consiste donc à confondre ces trois champs, afin d'obtenir un bord net. Il faut pour cela déplacer le diaphragme de champ de façon à ce que son conjugué, la lucarne d'entrée, soit dans le même plan que l'objet observé. Dans le cas d'un instrument astronomique, il faut que la lucarne d'entrée soit à l'infini.
Une lunette est l'association de deux lentilles. Un objectif convergent et un oculaire convergent (lunette astronomique) ou divergent (lunette de Galilée).
Une lunette est un système afocal, c'est-à-dire que le faisceau issu d'un objet à l'infini ne converge pas en sortie de l'instrument. C'est à l'oeil de faire l'image de cet objet. La lunette est un instrument subjectif.
Pour réaliser un système afocal, il faut superposer le foyer principal image de l'objectif avec le foyer principal objet de l'oculaire.
Le grossissement d'une lunette est le rapport des focales de l'objectif et de l'oculaire,
Le grossissement sera d'autant plus grand que la focale de la lunette est grande, et celle de l'oculaire réduite.
L'angle de champ de la lunette est proportionnel à celui de l'oculaire (qui est en général de 40-50°) et inversement proportionnel au grossissement :
Il existe deux types de diaphragmes :
La Grande coupole de l'observatoire de Meudon abrite une des plus grandes lunettes de la planète. Il s'agit en fait de deux lunettes montées en parallèle. L'une mesurant de diamètre, l'autre . Elles possèdent toutes deux une focale de .
La lunette et son oculaire sont réglés de sorte à obtenir un système afocal. La focale de la lunette est de , celle de l'oculaire est de . Calculez le grossissement.
Quel est le diamètre apparent de Saturne, avec et sans ses anneaux, à l'opposition ? Quel sera alors son diamètre dans la lunette ?
La division de Cassini est-elle visible à la lunette ?
En supposant que l'angle de champ de l'oculaire est de 50°, calculez l'angle de champ de la lunette. Saturne est-elle visible en entier ?
Calculez l'ouverture de la lunette. Comparez cette valeur à celle des télescopes professionnels modernes.
Nous allons terminer ce chapitre par l'étude des télescopes.
Le télescope est devenu l'instrument roi de l'astronomie. Nous verrons pourquoi.
Ce dernier chapitre sera assez court, car toutes les notions d'optique ont déjà été abordées. De plus, nous verrons que son étude est très semblable à celui d'une lunette. Il sera d'ailleurs possible de le modéliser par une lunette astronomique.
Une fois terminé ce chapitre, nous quitterons le cadre de l'optique géométrique pour aborder rapidement quelques phénomènes d'origine ondulatoire, comme la diffraction et les interférences.
S'il existe plusieurs types de télescopes, ils ont tous un point commun : un grand miroir !
La pièce essentiel d'un télescope est son miroir primaire. C'est un miroir sphérique (ou parabolique) situé au fond du tube du télescope.
Il joue le rôle de collecteur de lumière. Plus son diamètre est grand, plus il sera lumineux. Un grand miroir a un autre avantage, qui sera exposé au dernier chapitre.
Un miroir, c'est bien joli, mais comment voir la lumière qui se réfléchit dessus. Bah oui, si je le mets à son foyer, je cache l'entrée du miroir, et donc, pas de lumière.
On doit donc utiliser un second miroir pour "dégager" la lumière du tube. Là, les options sont multiples, et définissent le type de télescope auquel nous avons à faire.
Soit le miroir est un petit plan incliné de 45° par rapport à l'axe optique, et la lumière s'échappera par le côté du tube. C'est un télescope de type Newton. Oui, c'est le télescope qu'avait utilisé Newton en 1671.
Soit le miroir est un petit miroir plan ou sphérique, perpendiculaire à l'axe optique, renvoyant la lumière vers le fond du tube. Il faut alors percer le miroir primaire pour recueillir cette dernière en sortie de tube. Ce télescope est de type Cassegrain.
Il en existe d'autres types, combinaison de ces deux télescopes.
Comme pour une lunette, on a la possibilité de rajouter un oculaire en sortie de télescope pour l'observation à l'oeil.
Va-t-on être obligé de refaire tout ce qu'on vient de voir sur les lunettes dans les cas des télescopes ? La réponse est heureusement non. En effet, formellement, un télescope et une lunette sont la même chose.
Souvenez-vous qu'un miroir sphérique est en fait une lentille pliée. L'objectif du télescope (le miroir primaire) est donc un objectif de lunette plié.
L'ajout d'un miroir secondaire revient à plier une seconde fois notre schéma optique.
Muni de ce résultat, on montre très facilement que, formellement, un télescope est équivalent à une lunette de même focale.
Les résultats concernant le grossissement, le champ de vue, l'ouverture... restent valables pour un télescope.
Le grossissement d'un télescope est égal au rapport de la focale de l'objectif par la focale de l'oculaire.
Si pendant de nombreuses années, lunettes et télescopes se sont côtoyés dans les observatoires, cela fait bien 50 ans que l'on ne fabrique plus que des télescopes. Pour quelles raisons le monde scientifique a-t-il progressivement abonné la lunette au profit du télescope ? En voici quelques-unes.
Un grand télescope est plus facile à construire qu'une grande lunette.
Pour capter le plus de lumière possible, il faut que la pupille d'entrée soit la plus grande possible. Pour la lunette, la quantité de lumière reçue est proportionnelle à la surface de la lentille de l'objectif ; pour le télescope, elle est proportionnelle à la surface du miroir primaire.
Pour la lunette, il faut donc construire une grande lentille. Plus elle est grande, plus il est difficile de la garantir sans défaut (aberrations optiques, bulles dans le verre). De plus, étant en verre massif, elle est de plus en plus lourde. Les plus grosses lunettes atteignent péniblement le mètre de diamètre.
Il est plus simple de polir un miroir de grande taille. Pour les petits miroirs, on utilise, comme pour les lunettes, des blocs de verre massif. C'est la même chose, me direz vous. Oui, mais quand leur taille augmente, on utilise des miroirs fins, taillés dans d'autres matériaux et reposant sur une structure rigide ou mobile, donnant au miroir sa forme. Enfin, pour des diamètres supérieurs à , on segmente le miroir. Il n'est plus monolithique, mais composé de plusieurs pièces hexagonales, assemblées comme un puzzle. Les télescopes actuels mesurent de diamètre. Et on ne s'arrêtera pas là. Des projets de télescopes de à sont en cours de réalisation.
Si on se souvient du premier chapitre, on a vu que l'indice optique des verres dépendait de la longueur d'onde. Or, une lentille, faite en verre, possède une distance focale dépendant de l'indice optique. Plus l'indice optique est élevé, plus sa vergence augmente. Sa distance focale dépend donc de la longueur d'onde. Les rayons rouges, verts et bleus ne convergeront donc pas au même endroit. Une lunette présente donc des aberrations chromatiques.
Ces aberrations deviennent très vite problématiques lorsqu'on veut atteindre une grande précision.
Un télescope ne présente pas de telles aberrations, l'angle de réflexion d'un rayon lumineux sur une surface métallique ne dépendant pas de la longueur d'onde.
Pour arriver jusqu'à l'oculaire, la lumière entrant dans une lunette doit traverser le verre de l'objectif. Le verre n'étant pas totalement transparent, il s'ensuit une perte de luminosité. Celle-ci est d'autant plus grande que l'objectif de la lunette est grand et par conséquent épais.
Si la réflexion sur un miroir n'est certes pas totale, il est facile de la porter à plus de 99%. Une réflexion entraînera moins de perte de photons qu'une transmission à travers du verre. Et quand on sait que dans les télescopes modernes, la lumière peut se réfléchir sur une vingtaine de miroir avant d'être exploitée par un instrument scientifique, on comprend mieux l'intérêt du miroir par rapport à la lentille.
Les pages précédentes présentaient les avantages du télescope en astronomie professionnelle. Néanmoins, en astronomie amateur, la lunette à encore toute sa place. Voici une petite liste non exhaustive des avantages et inconvénients des deux instruments.
Un télescope est constitué d'un miroir primaire, qui collecte la lumière ; d'un miroir secondaire, qui renvoie la lumière vers l'oculaire et modifie éventuellement la focale du primaire.
Il existe de nombreux types de télescopes, les principaux étant le télescope de Newton, où l'oculaire est placé sur le haut et côté du tube, et le télescope Cassegrain où l'oculaire est placé à la base du tube.
Comme pour une lunette, le grossissement d'un télescope est le rapport des focales de l'objectif et de l'oculaire,
Le grossissement sera d'autant plus grand que la focale du télescope est grande, et celle de l'oculaire réduite.
L'angle de champ d'un télescope est proportionnel à celui de l'oculaire (qui est en général de 40-50°) et inversement proportionnel au grossissement :
Si l'astronomie professionnelle a clairement fait le choix du télescope pour des raisons de diamètre et d'aberrations chromatiques, l'astronome amateur pourra encore choisir entre les deux, en fonction de ses besoins.
La lunette est idéale pour le débutant et pour l'observation planétaire.
Le télescope est réservé à l'astronome plus expérimenté, au photographe, ainsi qu'à l'observation du ciel profond.
Nous venons de voir dans ce chapitre qu'avec quelques notions d'optique géométrique, on pouvait comprendre le fonctionnement de nombreux intruments d'optique.
Vous êtes maintenant familier avec les notions de bases de l'optique géométrique, la réflexion et la réfraction. Vous connaissez les lentilles et les miroirs. Et avec cela, vous avez étudié l'appareil photo, l'oeil, la lunette et le télescope.
Vous savez ce qu'est une focale, un grossissement, une ouverture et un angle de vue.
Et c'est fini ? Non, ce n'est que le début. Le dernier chapitre vous initiera à quelques notions d'optique ondulatoire comme la diffraction et les interférences. Et les plus curieux d'entre vous pourront continuer l'année prochaine avec la formation proposée dans le DU Fenêtre sur l'Univers.
Dans ce chapitre, nous allons sortir un peu du cadre de l'optique géométrique pour aborder rapidement les problèmes de diffraction et définir la résolution d'un télescope. Nous verrons quelles solutions existent pour améliorer celle-ci en l'absence et en présence de turbulence atmosphérique.
Ce dernier chapitre ne se veut absolument pas un cours d'optique ondulatoire, ni même une présentation détaillée des phénomènes de diffraction et d'interférences, mais juste une introduction à ces phénomènes ou une mise en bouche. Les plus curieux pourront approfondir le sujet en lisant la suite dans le cours Fenêtre sur l'Univers.
Considérons un faisceau de lumière collimaté, c'est-à-dire un faisceau parallèle, arrivant sur un système afocal (une lunette astronomique par exemple). Pour simplifier notre étude, nous supposerons que les deux lentilles ont la même focale. (Quel grossissement a cette lentille ?).
Après la première lentille, la lumière converge au foyer principal image, puis diverge pour traverser la seconde lentille d'où elle ressort en faisceau parallèle, de même taille qu'en entrée.
Plaçons maintenant une plume dans le faisceau incident. Encore pour des raisons de simplicité, on la placera au foyer principal objet de la première lentille.
Recherchons la position de son image. Une petite construction nous la donne assez vite.
Les rayons lumineux utilisés pour tracer son image sont uniquement des traits de construction, ils ne sont en rien ici physiques. La plume étant éclairée par l'arrière par un faisceau parallèle, seuls ces rayons ressortent effectivement de la lunette. L'image de la plume ne sera que son ombre se dessinant dans le faisceau.
Plaçons une petite pastille au foyer commun des deux lentilles de manière à intercepter le faisceau lumineux. Totalement bloqué, aucune lumière ne ressort de la lentille. L'ombre de notre plume disparaît. Vrai ? Vérifions en plaçant un écran.
Contre toute attente, on observe quelque chose en sortie. Ce sont les contours de la plume ! Mais d'où vient cette lumière ?
Si on reste dans le cadre de l'optique géométrique, les rayons lumineux sont censés se propager en ligne droite. Ils ne sont pas déviés au passage de la plume, celle-ci imprimant son ombre dans le faisceau. Ils sont stoppés par la pastille.
Si des rayons ressortent de la lunette, c'est qu'ils sont passés à côté de la pastille. L'hypothèse des trajectoires rectilignes des rayons lumineux ne tient pas. Nous venons de mettre en évidence une limite de l'optique géométrique.
Ce n'est pas la première fois que nous sommes confrontés à la diffraction. Souvenez vous du chapitre 1 lorsque l'on cherchait à isoler un rayon lumineux.
Qu'avions-nous vu ? En réduisant progressivement la taille du diaphragme, le diamètre du faisceau diminuait, puis, mystérieusement recommençait à croître. En dessous d'un certain diamètre du diaphragme, le faisceau diverge. Ce phénomène est appelé diffraction.
La diffraction est cette tendance naturelle qu'a la lumière à diverger dès qu'on cherche à la confiner (au passage d'un diaphragme par exemple).
La diffraction est due à la nature ondulatoire de la lumière. Si on reprend le modèle d'ondelette de Huygens, on parvient à sentir le phénomène. Lorsque l'ouverture est grande, l'onde plane incidente ressort quasiment plane. Le phénomène de diffraction est négligeable. Par contre, si l'ouverture est faible, l'onde transmise est presque sphérique.
Plus l'ouverture est petite, plus la diffraction sera importante. En fait, l'angle de divergence du faisceau est inversement proportionnel à la taille de l'ouverture. Notez bien ce résultat, il est important en astronomie.
La diffraction se manifeste lorsque la lumière croise un objet dont les dimensions sont comparables à sa longueur d'onde (plus généralement des variations d'opacité sur des échelles de l'ordre de la longueur d'onde, comme des bords francs par exemple).
Voici quelques exemples de figures de diffraction. On les obtient en cherchant à faire l'image d'une source ponctuelle située à l'infini (une étoile) avec une lentille devant laquelle on place un diaphragme.
On voit que le modèle de Huygens permet uniquement de sentir le phénomène, mais pas de l'expliquer totalement. En effet, il n'explique pas la présence d'anneau autour de la tache d'Airy.
En optique géométrique, les rayons se propagent en ligne droite. Ils ne changent pas de direction au passage de la plume. Ils sont donc toujours parallèles à l'axe optique lorsqu'ils atteignent l'objectif. Ils passent donc tous par le foyer et sont, en théorie, arrêtés par la pastille. Aucune image n'est visible en sortie. Et pourtant...
Il faut donc abandonner l'optique géométrique.
Au contact de la plume, la lumière rencontre des bords francs et des fibres de petites dimensions. La diffraction fait diverger une partie des rayons. Ces derniers ne sont plus parallèles à l'axe optique. Ils ne passent donc plus par le foyer de l'objectif. Ils contournent alors la pastille, et ressortent imprimer l'écran.
La diffraction n'apparaissant qu'aux bords de la plume (ou de n'importe quel objet), seuls les rayons issus des bords sont déviés. Ils sont les seuls à contourner la pastille et à imprimer l'écran. On voit les bords de la plume !
Et au télescope ? La diffraction existe-t-elle ? Non, me direz vous. La pupille d'entrée d'un télescope est grande. Bien plus grande que la longueur d'onde de la lumière. Vous auriez en partie raison.
Mais en fait, la diffraction se manifeste tout le temps. Elle est certes d'autant plus visible que les ouvertures sont petites, mais elle est quand même présente aux grandes ouvertures.
Autrement dit, l'image d'une étoile à travers un télescope, ne sera jamais ponctuelle. Ce sera une petite tache, d'autant plus grande que le diamètre du télescope est petit.
On montre que le diamètre angulaire de la tache image de l'étoile est inversement proportionnel au diamètre du télescope ou de la lunette :
Calculez la taille angulaire de la tache de diffraction d'un télescope amateur de de diamètre, observant dans le visible.
Calculez la taille angulaire de la tache de diffraction d'un des UTs du VLT, dont le miroir primaire mesure , observant dans la bande . Sera-t-il possible d'observer Bételgeuse () ?
Au lieu de voir des étoiles ponctuelles à travers un télescope, on voit des taches. La diffraction brouille les images astronomiques. Pour un diamètre donné d'un télescope, tous les détails ne seront pas visibles. Si les plus gros pourront être vus, les plus fins, seront flous, et donc non visibles à l'oeil ou à l'appareil photo.
Plus le diamètre sera grand, plus fins seront les détails visibles. On voit ici le deuxième intérêt d'avoir un grand télescope, en plus de la quantité de lumière collectée.
On cherche à observer une étoile double. Une étoile double est en fait un couple de deux étoiles. Elles peuvent être liées gravitationnellement. Elles tournent alors l'une autour de l'autre, et sont donc proches physiquement. C'est une étoile binaire. Plus de la moitié des étoiles de la galaxie vivent ainsi en couple. Albireo est un système binaire.
Cela peut aussi être uniquement un effet de perspective. Elles nous apparaissent proches l'une de l'autre, mais en fait, l'une est beaucoup plus proche de nous que la seconde. C'est un hasard si elles sont alignées. Alcor et Mizar, dans la constellation de la grande Ourse, sont un exemple d'étoiles binaires visuelles. Elles sont en fait séparées de 3 années-lumière !
Si ces étoiles sont très écartées dans le plan du ciel, pas de souci, on verra deux taches. Mais si elles sont très proches, leur tache commence à se mêler et on ne parvient plus à les distinguer l'une de l'autre.
Ce n'est pas la peine d'augmenter le grossissement en changeant d'oculaire ! Il n'y est pour rien. La diffraction ne dépend que de la taille du télescope. Il faut donc augmenter son diamètre pour augmenter sa résolution.
La résolution d'un télescope est sa capacité à distinguer de fins détails.
On définit un critère quantitatif pour calculer la résolution d'un télescope. Il s'agit du critère de Rayleigh.
L'oeil parvient à distinguer une binaire à partir du moment où le centre de la première tache est au niveau du bord de la seconde.
On distingue donc une binaire à partir du moment où l'écartement entre les deux étoiles est supérieur au rayon de la tache de diffraction.
La résolution du télescope est donnée par la valeur limite . Il est impossible de distinguer des détails plus petits que cet angle.
L'étoile NX de la constellation des voiles (hémisphère sud) est en fait une étoile double. La séparation angulaire entre les deux composantes est de 0,7 seconde d'angle.
Quelle est la taille minimale du miroir primaire nécessaire pour pourvoir résoudre cette étoile double ? On l'observera dans le visible.
On vient de voir que la résolution d'un instrument est limitée par son diamètre. Changer de grossissement ne change pas la résolution. Que faire pour l'accroître ?
On peut changer de longueur d'onde. En diminuant la longueur d'onde, on augmente la résolution.
Cependant, ça ne convient pas forcément à tous les cas. En effet, les techniques d'acquisition d'image ne sont pas les mêmes en radio, en infrarouge, dans le visible ou dans l'UV.
On n'observe pas non plus les mêmes objets ou phénomènes en fonction de la longueur d'onde. Aux grandes longueurs d'onde, on observe les objets froids et les phénomènes peu énergétiques. Aux petites longueurs d'onde, on observe les objets chauds et les phénomènes énergétiques.
Que nous reste-t-il ? Augmenter le diamètre du télescope. Les plus grands télescopes actuels mesurent de diamètre environ, et obtiennent des résolutions théoriques de l'ordre de la milliseconde d'angle (une pièce de 1 euro au Mali, vue depuis Paris).
Pour pouvoir voir des exoplanètes, il faut de plus grands diamètres encore. L'Europe projette de construire au Chili un télescope de de diamètre.
Pour augmenter encore la résolution, il faudrait augmenter encore la taille des miroirs des télescopes. Mais à l'heure actuelle, des miroirs de 100 et a fortiori ne sont pas envisageables. Comment faire ? La réponse est surprenante.
Il suffit d'utiliser deux télescopes espacés de 100, 200 ou , et de mélanger (on dit faire interférer) la lumière qui en est issue ! Incroyable, mais 2 petits télescopes distants de ont le même pouvoir de résolution qu'un unique télescope de !
Comment ça marche ?
La lumière peut être vue comme une onde au même titre que la houle. Si je pose une bouée sur l'eau, elle oscille avec la houle.
Si deux houles se croisent, à certains endroits les vaguent s'additionnent, et l'amplitude d'oscillation de la bouée augmente. Les crêtes des deux vagues arrivent en même temps, ainsi que les deux creux. On parle d'interférences constructives.
À d'autres endroits, au contraire, à une crête de la première houle correspond un creux de la seconde. Les vagues s'annulent. La bouée n'oscille pas à ces endroits. On parle d'interférences destructives.
Si, par un jeu astucieux de miroirs, et/ou de fibres optiques, on arrive à faire parvenir au même endroit la lumière issue des deux télescopes, on créera aussi des interférences.
Sur l'image issue des deux télescopes, on verra des zones claires, où les lumières s'additionnent. On parle de franges d'interférence claires. Ce sont les zones où les interférences sont constructives.
On verra également des zones sombres, sans lumière, où les interférences sont destructives. On appelle ces zones des franges sombres.
Comment exploiter ces interférences ? Revenons d'abord au cas à un seul télescope pour bien comprendre ce qui se passe. Si la diffraction n'existait pas, on verrait notre étoile comme un tout petit disque (en jaune sur les images). Or, la diffraction est là, et on ne peut pas faire sans. À la place, on obtient une tache, plus grosse que le petit disque.
Si on augmente la taille du télescope, la taille de la tache diminue. Si le télescope est suffisamment grand, la tache d'Airy est alors plus petite que l'image théorique (donnée par l'optique géométrique) de l'étoile. Notre étoile est résolue !
Passons à deux télescopes. L'image ressemble alors à une grosse tache avec des franges claires et des franges sombres. L'image théorique du disque est perdue au milieu de la frange centrale.
Si on écarte les télescopes, l'épaisseur des franges diminue. Il y a de plus en plus de franges, et elles sont de plus en plus fines.
Et au bout d'un moment, l'épaisseur de la frange centrale devient plus petite que la taille du disque. L'image de l'étoile déborde de la frange centrale, et bave sur les franges sombres autour. Il y a de la lumière qui apparaît sur ces franges sombres.
Plus on augmente l'écartement des télescopes, plus on diminue l'épaisseur des franges, plus l'étoile déborde sur les côtés, plus il y a de lumière dans les franges sombres.
Quand les franges disparaissent, l'étoile est résolue ! Il existe une relation simple pour trouver le diamètre angulaire de l'étoile en fonction de l'écartement (on parle de base) des télescopes :
Et ça marche ?
Oui. La première expérience d'interférométrie stellaire a été réalisée au début du vingtième siècle par Michelson. À l'entrée du télescope de 100 pouces du mont Wilson (photos), il a fixé une poutre sur laquelle étaient installés deux périscopes d'écartement variable.
Il obtenait en sortie de télescope une tache d'Airy barrée de franges d'interférence. En écartant les miroirs sur la poutre, il faisait varier la base de l'interféromètre jusqu'à disparition des franges. Il en déduisit ainsi le diamètre apparent de Bételgeuse et d'une dizaine d'autres étoiles.
La technique tomba cependant dans l'oubli jusqu'aux années 1970, où l'astronome français Antoine Labeyrie réalisa le premier interféromètre à deux télescopes. Sur le plateau de Calern, ainsi qu'à l'observatoire de Meudon, il parvint à obtenir les premières franges d'interférences en utilisant deux petits télescopes. La principale difficulté étant que la lumière issue des deux télescopes doit avoir parcouru exactement la même distance depuis l'étoile.
Peu importe, ça a marché ! La faisabilité était établie, et la voie vers les grands instruments d'aujourd'hui était ouverte.
De nos jours, plusieurs grands interféromètres fonctionnent et donnent de nombreux résultats. Je citerai le VLTI, l'interféromètre européen installé au Chili. Il peut recombiner 4 télescopes de ou 4 télescopes de sur des bases allant de à . On peut également citer l'interféromètre CHARA, installé sur le mont Wilson (oui, là où Michelson a construit son premier interféromètre stellaire), qui recombine 6 télescopes de de diamètre sur des bases allant de à . C'est encore actuellement le plus grand interféromètre visible et infrarouge.
L'avenir est riche en projets. Les plus "simples", sont des interféromètres classiques où on augmenterait la taille des bases. L'interféromètre NPOI de la Navy américaine possédera des bases de mais avec des télescopes de seulement.
Plus ambitieux, les projets d'hypertélescopes du même Antoine Labeyrie. Il s'agira de tapisser une cuvette naturelle (un cratère, une vallée...) de miroirs, de suspendre le recombineur à une nacelle au dessus pour obtenir un télescope virtuel de quelques kilomètres de diamètre.
Enfin, des projets d'interféromètres spatiaux sont à l'étude. Ils permettraient de s'affranchir de l'atmosphère, et d'atteindre de très grandes bases (de quelques centaines de mètres à ... jusqu'où on pourra aller).
Un télescope de pour voir des exoplanètes, c'est bien joli, mais sa résolution n'est que théorique. On a oublié un détail. L'atmosphère !
L'atmosphère n'est pas homogène. Elle est composée de multiples bulles de température et d'humidité différentes. Leurs indices optiques sont donc différents. Les rayons lumineux issus d'une étoile subissent des réfractions différentes et aléatoires en fonction de la zone d'atmosphère traversée.
À cause de l'atmosphère, les rayons lumineux n'arrivent plus parallèles entre eux au niveau du sol, mais avec des angles d'incidence aléatoires !
En l'absence d'atmosphère, tous les rayons arrivent parallèles entre eux. Si on pointe un télescope vers une étoile, les rayons convergent donc en un seul point : le foyer du télescope.
Mais en présence de turbulence, les rayons ne convergent plus en un point, mais dans une zone, plus ou moins grande en fonction de l'intensité de la turbulence.
On n'observe plus une jolie petite tache de diffraction, mais une grosse tache granuleuse, variant aléatoirement dans le temps.
La taille de la tache image, en présence de turbulence, est plus grosse que la tache d'Airy. Tout se passe comme si notre télescope avait rétréci et fournissait une tache de diffraction beaucoup plus grosse que prévue.
On définit alors une quantité , homogène à un diamètre, appelé paramètre de Fried. Il s'agit du diamètre qu'aurait un télescope qui fournirait, en l'absence de turbulence, une tache d'Airy de même taille que notre télescope en présence de turbulence.
Ce diamètre est en général de l'ordre de , dans le visible. Dans certains sites de très bonne qualité (dans les déserts, en altitude... bref, là où on construit les nouveaux observatoires) il est plus grand, mais n'excède jamais . Dans l'infrarouge, il est plus grand, de l'ordre de .
Pour résumé, en présence de turbulence, un grand télescope de possède la même résolution qu'un télescope de... ! Aïe. À quoi bon construire de grands télescopes ?
Heureusement, il existe une technique pour corriger cette turbulence, et rendre la vue perçante à ces gros télescopes.
Pour corriger la turbulence, on utilise un système nommé optique adaptative. Il s'agit d'un miroir déformable qui compense la turbulence atmosphérique.
Le problème est, qu'avec la turbulence, les rayons n'arrivent plus parallèles entre eux, se réfléchissent avec des tas d'angles différents, et ne convergent plus en un point.
L'astuce consiste à utiliser un miroir déformable, qui change localement l'inclinaison de la surface réfléchissante. L'angle d'incidence du rayon lumineux est modifié de façon à ce que le rayon réfléchit passe par le foyer du télescope.
Ce miroir est placé après le miroir primaire (c'est parfois le miroir secondaire). Il doit compenser la turbulence atmosphérique en temps réel ! Il faut donc analyser la déformation de l'image, calculer la correction à apporter et déformer le miroir en quelques fractions de seconde ! Impressionnant ! Mais ça fonctionne.
Lorsque la taille des obstacles rencontrés par la lumière est comparable à sa longueur d'onde, l'optique géométrique ne s'applique plus. Les rayons ne se propagent plus en ligne droite. C'est la diffraction.
À cause de la diffraction, l'image d'une étoile n'est pas ponctuelle, mais a la forme d'une tache circulaire, entourée d'anneaux. C'est la tache d'Airy. Sa taille est inversement proportionnelle au diamètre du télescope.
La résolution du télescope est sa capacité à distinguer de petits détails. Elle est donnée par la relation :
Tout détail plus petit que ce diamètre apparent ne sera pas résolu. La résolution est inversement proportionnelle au diamètre du télescope.
Pour gagner en résolution, on utilise une autre technique : l'interférométrie. Son principe consiste à utiliser plusieurs télescopes au lieu d'un seul. La résolution de 2 télescopes espacés de est la même qu'un unique télescope de .
La turbulence atmosphérique dégrade considérablement la qualité des images en faisant chuter drastiquement la résolution des instruments. Il existe cependant une technique, appelée optique adaptative, qui restaure en grande partie la qualité des images. Son principe repose sur la correction en temps réel de la turbulence, en déformant un miroir pour focaliser tous les rayons lumineux au foyer.
Ainsi s'achève ce cours d'optique. Les télescopes et les appareils photos n'auront plus de secret pour vous désormais. J'espère qu'il vous aura plu.
Pour toute suggestion sur son contenu, n'hésitez pas à nous contacter.
Un constat : la matière est confinée (les choses vivantes ou non, les océans, l’air, les planètes, les étoiles, les galaxies,…voire aussi l'univers). Quelles sont les lois physiques qui permettent un tel état de la matière ? Dans ce module, nous allons appréhender les quatre forces fondamentales présentes dans la nature : elles sont responsables du confinement de la matière.
L'objectif de ce module est de vous permettre d'acquérir les bases physiques pour décripter la structuration des objets célestes, voire de l'univers.
Au cours de l’histoire, la nature exacte de la matière a changé avec les découvertes scientifiques et théoriques. Pour être précis, la physique et l’astrophysique s’attachent désormais à décrire les manifestations des propriétés de la matière, plutôt que de sonder la nature réelle de la matière. Par exemple, elle peut se manifester sous différents états (solide, liquide, gazeux ou plasma), sous diverses formes d’énergie (mécanique (cinétique+potentielle), chimique, électrique, nucléaire, lumineuse, etc.), sous un aspect corpusculaire ou ondulatoire, sous un contenu dit « noir » (matière noire, énergie noire), mais aussi sous forme d’antimatière (c’est-à-dire qui se manifeste avec des propriétés opposées à la matière).
Nous utiliserons le terme corps matériel pour désigner une entité confinée de matière, c'est-à-dire de la matière maintenue dans un espace restreint, cet espace pouvant être infime ou immense. Cette entité est la manifestation de relations d'interdépendance via les forces d'interaction. Lorsqu'un corps est dit élémentaire, cela traduit le fait observationnel qu'il n'est pas divisible.
Il doit exister des forces d’action entre deux corps matériels dissociés physiquement dans l’espace qui permettent de les maintenir dans un certain volume. Les interactions à distance sont ainsi quantifiées via leur force d’action. Elles font interagir des propriétés physiques bien spécifiques de la matière comme sa masse, sa charge électrique, etc.
Dans la nature, les forces fondamentales sont classées en quatre catégories (cette division ne signifie pas qu’elles sont distinctes l’une de l’autre).
Interaction fondamentale | Action à distance entre de la matière ayant |
---|---|
Gravitationnelle | une masse |
Electromagnétique | une charge électrique |
Forte | des quarks |
Faible | des quarks et des leptons |
Dans cette partie, nous allons aborder la force la plus commune, la gravitation, et que vous avez très probablement déjà étudiée dans votre cursus. C'est une force qui est en fait très particulière par rapport aux trois autres forces.
Les masses sont liées entre elles via l’interaction de gravitation. L'unité de base de la masse est le kilogramme (kg).
Ses effets sont le plus familier à l’homme via la pesanteur, c’est-à-dire le poids des corps matériels. Elle provoque les marées, elle confine l’atmosphère autour de la Terre, elle maintient les planètes et les astéroïdes autour du Soleil, elle concentre le gaz, les étoiles, et la poussière des galaxies, elle forme les structures à grandes échelles de l’univers (groupes, amas, superamas)…
La masse* est une quantité conservée dans tout phénomène de transformation de la matière.
* En fait, de part l'équivalence masse-énergie (la célèbre formule ), il est approprié de dire que c'est la masse-énergie qui est conservée.
Tout corps de matière ayant une masse , crée un champ de gravité autour de lui dans une sphère de rayon , . est la constante de gravitation dont la mesure vaut , et le vecteur unitaire partant de la masse . Dans ce champ, tout autre corps de matière va subir cette attraction gravitationnelle. La force d’interaction subie par une masse située à une distance de la masse vaut : .
Autrement dit, la masse subit l’accélération . Ceci a pour conséquence l’égalité de la masse grave (ou pesante, soit de la masse qui subit la gravité ), et de la masse inerte (soit de la masse ayant un mouvement uniformément accéléré ), . Dans les faits expérimentaux, elle sont vérifiées égales à près (prévu pour un lancement en 2015, le satellite français Microscope devrait permettre une précision 100 fois meilleure, soit à près).
Elles forment les bases de la mécanique classique. Elles relient les forces qui agissent sur un corps matériel ayant une masse et le mouvement qui en est induit.
Lex I: Corpus omne perseverare in statu suo quiescendi vel movendi uniformiter in directum, nisi quatenus a viribus impressis cogitur statum illum mutare.
Si un corps ne subit pas de force, alors sa vitesse est constante : soit le corps est au repos (vitesse nulle) ou soit il se déplace en ligne droite avec une vitesse constante (vitesse non nulle).
Lex II: Mutationem motus proportionalem esse vi motrici impressae, et fieri secundum lineam rectam qua vis illa imprimitur.
L'accélération d'un corps est parallèle et directement proportionelle à la force nette appliquée sur le corps, elle est dans la même direction que la force nette, et elle est inversement proportionnelle à la masse du corps, soit .
Lex III: Actioni contrariam semper et æqualem esse reactionem: sive corporum duorum actiones in se mutuo semper esse æquales et in partes contrarias dirigi.
Lorsqu'un premier corps exerce une force sur un deuxième corps, le deuxième corps exerce simultanément une force sur le premier corps. Ainsi et sont égales et opposées en direction.
Difficulté : ☆
A quelles unités de base du Système International (SI) est homogène la force d’interaction de gravitation, , sachant que la constante de gravitation, , est exprimée ?
Si Newton (N) à quoi correspond un Newton dans le système SI, et quelle est sa signification ?
Quelle est la valeur de la force qui augmente la vitesse de par seconde d’un corps matériel ayant une masse de ?
Lorsque l’on vous demande votre poids, répondez-vous correctement ?
Difficulté : ☆
Combien vaut la force d’attraction gravitationnelle à la surface de la Terre subie par une pomme de , et par une personne ayant une masse corporelle de ?
Que vaut la force d'attraction de la pomme subie par la Terre ?
Que vaut l’accélération de la pomme, et celle de la personne, due à la force de gravité de la Terre ? Qu'en déduisez-vous ?
Que vaut l'accélération de la Terre due à la force de gravité de la pomme et de la personne ? Qu'en déduisez-vous ?
A votre avis, pourquoi les corps matériels à la surface terrestre ne s'enfoncent-ils pas dans le sol ?
Difficulté : ☆
Dans quelle condition, un corps matériel peut-il se mouvoir sans qu'il subisse une force ?
Le Principe Fondamental de la Dynamique, qui dérive de la deuxième loi de Newton, énonce que l'accélération d'un corps est la résultante des forces qu'il subit : .
Dans l'exercice précédent, nous avons négligé le fait que la Terre est légèrement aplatie au niveau des pôles, et la rotation autour de son axe, sans compter qu'elle est aussi une sphère avec un relief très varié... Etudions dans le prochain exercice leur prise en compte, en appliquant le principe fondamental de la dynamique, afin de mesurer localement la pesanteur terrestre.
Difficulté : ☆☆
Quelle est l'expression vectorielle du poids (dit aussi force de pesanteur) subi par une masse au repos à la surface de la Terre ?
La pesanteur est-elle dirigée exactement vers le barycentre de la Terre ?
Que vaut-elle aux pôles et à l'équateur pour une personne de ? Quel est l'avantage de lancer un engin spatial de 300 tonnes () à proximité de l'équateur ?
Si la Terre tounait 20 fois plus vite sur elle-même, que se passerait-il pour les habitants situés sur l'équateur ?
Difficulté : ☆☆
Quelle est l'expression de la vitesse d'un corps matériel en orbite avec un mouvement circulaire uniforme à une altitude autour d'une masse ? Est-elle dépendante de la masse du corps en mouvement ?
Quelle est la vitesse minimale de mise en orbite d'un objet qui décolle de la surface terrestre ?
Si la vitesse est inférieure à la vitesse minimale de mise en orbite, que fait le corps ?
Difficulté : ☆☆☆
Pour se libérer totalement de la pesanteur, la vitesse doit être au moins égale à : .
Combien vaut la vitesse de libération pour la Terre, Jupiter et le Soleil ?
Dans le cas d'un décollage vertical, quelle serait l'accélération (constante et linéaire) nécessaire pour faire passer un engin d'une vitesse nulle à la vitesse de libération terrestre (cf. question 1) sur une distance de 1000 km ? A combien de cela correspond-t-il ?
Pourquoi place-t-on les sondes spatiales d'abord en orbite basse avant de les propulser plus loin pour aller explorer le système solaire ?
Quelle est l'expression de la vitesse de libération de l'influence gravitationnelle du Soleil à partir de la surface de la Terre ? Combien vaut-elle ?
La pression, , est la force, , rapportée à la surface, , sur laquelle elle s'applique, . Dans le système d'unités SI, un pascal (Pa) correspond à une force de appliquée sur une surface de , et, est donc homogène à l'unité de base kg.m-1.s-2.
Difficulté : ☆
La masse totale de l'atmosphère terrestre vaut (soit 5 gigatonnes). Sachant que la superficie du globe terrestre vaut , combien vaut la masse moyenne au-dessus d'un mètre carré ?
En prenant la gravité standard de la Terre (), à quelle pression atmosphérique cela correspond-t-il ?
La pression atmosphérique moyenne au niveau de la mer vaut (valeur standard officielle). A votre avis pourquoi votre résultat précédent diffère de cette valeur ?
La sphère d'influence gravitationnelle (dite aussi sphère de Hill ou sphère de Roche) est le volume dans lequel un corps massif a une influence sur un autre corps massif (en le satellisant, en le déformant voire en l'accrétant). Pour un corps de masse à une distance d'un corps plus massif de masse , le rayon de sa sphère de Hill vaut .
Difficulté : ☆
Calculer le rayon de la sphère de Hill de la Terre dans le champ de gravité du Soleil. Qu'en déduisez-vous pour la Lune ? pour la planète la plus proche Mars ?
L'influence gravitationnelle du système solaire est estimée à 125000 U.A. Qu'en déduisez-vous pour l'étoile la plus proche du système solaire, Proxima du Centaure, située à 270000 U.A. environ ?
Les interactions fondamentales font intervenir la distance entre les corps matériels. Là où tout se complique, c'est que la distance n'est pas une mesure absolue...
En mécanique classique, la vitesse mesurée d'un corps matériel vaut (une bille roulant dans un TGV à l'arrêt). Si ce corps matériel se déplace dans un repère en mouvement (une bille roulant dans un TGV ayant une vitesse constante, ) par rapport au lieu de mesure (le quai), alors la vitesse mesurée devient relative au repère. Elle vaut dans le repère inertiel (au repos ou avec une vitesse constante, c'est-à-dire la même dans le TGV au repos ou à vitesse constante), mais elle vaut dans tout autre repère de mesure (la composition des vitesses n'est plus additive comme en mécanique classique où on aurait écrit ). Cela traduit que la vitesse ne peut jamais être mesurée supérieure à la vitesse de la lumière (qui est une constante ), quelque soit le repère de mesure. Les évènements ne sont plus décrits dans une structure à trois dimensions, où leur distance est mesurée classiquement par quelque soit le temps (espace-temps absolu), mais dans une structure à quatre dimensions, où la séparation des évènements fait intervenir la distance parcourue par la lumière dans un laps de temps , (espace-temps relativiste).
Notons que la définition du mètre est : la longueur de la distance parcourue dans le vide par la lumière pendant une durée de 1/299792458 seconde.
Hors du repère inertiel, dans un espace-temps relativiste, il s'ensuit que la longueur d'un objet sera mesurée plus petite, ( et mesurés au même moment) , ou que le temps écoulé sera mesuré plus long, ( et mesurés au même endroit), avec le facteur gamma (ou facteur de Lorentz) sans dimension avec () et avec ().
Les effets relativistes deviennent perceptibles pour (donc pas pour un TVG...mais pour des corps matériels atteignant des vitesses relativistes telles que les particules dans des accélérateurs).
Vitesse (km.h-1) | Facteur γ | Longueur mesurée (1 m) | Temps écoulé (1 s) | |
---|---|---|---|---|
574,8 vitesse record du TGV | 0,0000005 | 1,00000000000004 | 0,99999999999996 | 1,00000000000004 |
27700 vitesse de la station spatiale internationale | 0,00003 | 1,0000000003 | 0,9999999997 | 1,0000000003 |
252800 vitesse de la sonde Helios (objet le plus rapide fait par l'humain) | 0,0002 | 1,00000003 | 0,99999997 | 1,00000003 |
1990000 vitesse de la Voie Lactée | 0,02 | 1,000002 | 0,999998 | 1,000002 |
0,3 | 1,05 | 0,95 | 1,05 | |
0,9 | 2,3 | 0,4 | 2,3 |
Dans l'espace-temps relatif, la force de gravité devient . L'accélération de la masse apparait plus grande dans le repère inertiel de la masse (autrement dit, le poids de la masse apparait plus fort) . Nous voyons immédiatement que si un corps se déplace avec une vitesse proche de , la force sur ce corps matériel devient infinie ! Ainsi un corps matériel ayant une masse ne peut atteindre la vitesse de la lumière ; dans ce cas, la relativité est dite restreinte ().
La vraie nature physique de la force gravitationnelle est en fait bien plus complexe. Nous verrons plus loin que cette théorie a été englobée dans une théorie plus large, la relativité générale qui s’applique à de la matière ayant une vitesse proche ou égale à la vitesse (la lumière est alors déviée au passage d’un corps massif voire absorbée par un objet extrêmement massif comme un trou noir). En fait, une masse déforme l’espace-temps en le courbant (courbure de ), ce n’est plus un espace-temps plat comme en relativité restreinte mais un espace-temps courbé par la présence de corps massifs. Un autre corps matériel (avec une masse plus faible ou sans masse) va suivre cet espace-temps déformé. On peut imager cet effet comme une bille d’acier que l'on pose sur un drap plat ; elle creuse le drap, à son voisinage une autre bille moins massive tombera en tournoyant dans ce creux formé. Si ce drap est invisible, on a l’impression d’une attraction entre les deux billes, qui est en fait une fausse impression, car ce ne sont pas les corps qui s’attirent, mais c’est la masse d’un corps matériel qui déforme la structure espace-temps (le drap), déformation qui sera subie inéluctablement par tout autre corps matériel (moins massif ou sans masse). L’un et l’autre effet ne sont pas distinguables.
Elle est la manifestation d’un espace courbé par la présence de corps massifs.
La théorie de la relativité générale s'applique principalement lorsque le potentiel de gravité est fort,. Pour terminer, elle est vérifiée expérimentalement, mais pas sur des échelles extrêmement petites (échelles quantiques), où d’autres forces d’interaction dominent les phénomènes physiques.
Difficulté : ☆
Le potentiel de gravitation rapporté à est dit fort lorsque . Dans ce cas, les effets de la relativité générale sont perceptibles.
Calculer l'ordre de grandeur du potentiel de gravité rapporté à à la surface de la Terre, du Soleil, d'une étoile à neutrons et d'un trou noir. Qu'en déduisez-vous ?
Afin que les corps matériels environnants ne soient pas réduits à leurs constituants collés au sol via la pesanteur, une interaction plus forte que la gravitation doit retenir ses constituants dans un espace restreint. De ce fait, la matière pourvue d’une masse peut aussi être dotée d’une charge électrique. Plus les corps matériels sont massifs, plus la gravitation impose des formes sphériques (planètes, étoiles, galaxies). En revanche, la charge électrique permet une cohésion interne des corps moins massifs, et leur donner n'importe quelle forme.
Les charges électriques sont liées entre elles via l’interaction électromagnétique. L'unité de base de la charge électrique est le coulomb (C).
Ses effets sont constamment mis à profit dans la vie quotidienne via l’électricité ou la gastronomie, par exemple. Elle permet la cohésion de la matière, elle la structure et la transforme en divers états (solide, liquide, gaz), ses combinaisons multiples font émerger la diversité des corps matériels (vivants ou non) avec des propriétés physiques nombreuses.
La charge électrique est conservée dans tout phénomène de transformation de la matière.
Tout corps de matière ayant une charge électrique (positive ou négative), crée un champ électrique autour de lui dans une sphère de rayon , . est la constante de Coulomb égale à et le vecteur unitaire partant de la charge . Dans ce champ, un autre corps de matière chargée électriquement va subir ce champ électrique attractif ou répulsif. La force d’interaction subie par une charge électrique située à une distance de la charge électrique vaut : .
Pour des charges électriques immobiles, on parle d'interaction électrostatique. Des charges électriques en mouvement créent un courant électrique, lui-même créant un champ magnétique, d'où le terme d'interaction électromagnétique. La matière n'ayant pas de charge électrique ne subit pas ce champ électromagnétique.
Difficulté : ☆
En vous aidant de l'illustration ci-avant, quelle est l'expression de la force électromagnétique pour des particules chargées au repos ? Et que vaut l'induction magnétique ?
En vous aidant de l'illustration ci-avant, dans le cas d'un mouvement rectiligne, , quelle est l'expression de la force électromagnétique ?
Dans quelles unités du Système International (SI) est exprimé le Tesla, unité de l'induction magnétique ?
A votre avis, comment la force électromagnétique influe-t-elle la trajectoire initialement rectiligne des particules ?
Difficulté : ☆
L'électron est une particule de matière chargée en masse, , et chargée en électricité, . Le proton est une particule de matière avec et ayant la même quantité de charge électrique que l'électron mais positive .
Calculer le rapport en masse entre le proton et l'électron.
Calculer le rapport de la force électrique sur la force gravitationnelle entre ces deux particules.
A de faibles distances de séparation, en l'absence de toutes autres forces extérieures, en déduisez-vous que l'électron va tomber sur le proton ? Pourquoi ?
La cohésion, la forme et l'état de la matière (sous forme solide, liquide, gaz) est due à la force électromagnétique qui agence les atomes de manière ordonnée selon des règles bien définies. Ces atomes peuvent s'assembler en molécules, qui peuvent à leur tour s'assembler ; ces édifices de matière chargée électriquement sont tous liés par l'interaction électromagnétique comme nous allons le voir.
L'atome est constitué de (nombre entier positif) électrons (totalisant une charge électrique négative, ) orbitant autour d'un noyau (de charge positive, ) avec la charge élémentaire valant . L'atome est électriquement neutre. Il peut contenir plus d'une centaine d'électrons.
L'électron (symbole e-) est une particule élémentaire (on ne peut pas le casser en de plus petites entités de matière), de masse très faible, et de charge électrique .
Le noyau atomique () concentre l'essentiel de la masse (soit ) d'un atome dans un espace aussi restreint que . Les électrons, bien plus légers en masse, ne tombent cependant pas sur le noyau (plus de part la force électromagnétique ici attractive que de part la force de gravitation, voir l'exercice précédent). En effet, leur mouvement autour du noyau est régi par la physique quantique, et non pas par la physique classique où une planète en mouvement orbital ne tombe pas sur son étoile. La physique quantique introduit la notion de probabilité dans les phénomènes physiques ; non seulement la probabilité qu'un électron rentre spontanément dans le noyau est nulle pour la majorité des noyaux (excepté dans le cas de la capture électronique abordé plus loin), mais aussi la probabilité d'être sur une certaine orbite doit respecter le Principe de Pauli (voir plus loin).
L'atome est classé selon son numéro atomique Z. Ce numéro correspond à un élément chimique, noté par exemple X ou ZX. L'atome le plus simple (l'hydrogène, 1H) est constitué d'un seul électron () et d'un noyau de charge , l'atome le plus dense, existant à l'état naturel (le plutonium, 94Pu) est constitué de 94 électrons () et d'un noyau de charge . Les éléments chimiques sont regroupés selon dans "le tableau périodique des éléments" (dit aussi tableau de Mendeleïev).
L'état naturel des atomes se trouve sous forme soit gazeuse (1H, 2He, 7N, 8O, 9F, 10Ne, 17Cl, 18Ar, 36Kr, 54Xe et 86Ra), soit liquide (35Br, 80Hg) ou soit solide.
Difficulté : ☆
Leur composition chimique est décrite par leur quantité (en masse) en hygrogène, en hélium et en éléments plus lourds que ces deux éléments. Cette troisième quantité est nommée métallicité en astronomie, de symbole Z), et elle ne doit pas être confondue avec le numéro atomique (Z). Elle est reliée à l'époque de formation de l'étoile : plus l'époque est jeune, plus la métallicité est faible dans le sens où les éléments lourds dans l'univers jeune n'ont pas encore été synthétisés en grande quantité au sein des étoiles.
Le Soleil est aujourd'hui composé de 73,46 % d'hydrogène et de 24,85 % d'hélium. Sa métallicité est de 1,69 % avec principalement 0,77 % d'oxygène, 0,29 % de carbone, 0,16 % de fer, 0,12 % d'azote. Il est riche en métaux.
En vous aidant du tableau période des éléments, écrire les éléments chimiques du Soleil sous la forme ZX, X désignant le symbole de l'élément chimique et Z le numéro atomique.
Les étoiles pauvres en métaux (métallicité) sont observées dans le halo de notre Galaxie, soit hors des bras spiraux de notre Galaxie. Que peut-on en déduire sur leur époque de formation ?
Lorsque l'on arrache ou ajoute un ou plusieurs électrons à l'atome, le système devient un ion, c'est-à-dire un système électriquement chargé, appelé aussi un cation pour un ion de charge positive, et un anion pour un ion de charge négative. Par exemple, l'ion sodium, 11Na+, est un atome de sodium 11Na ayant perdu un électron (soit 10 électrons orbitants autour d'un noyau de charge ), l'ion chlorure, 17Cl-, est un atome de chlore 17Cl ayant gagné un électron (soit 18 électrons orbitants autour d'un noyau de charge ).
L'eau dissout les sels en les décomposant en cations et anions. Par exemple, l'eau de mer contient les ions suivants : le sodium (Na+), le chlorure (Cl-), l'ion magnésium (Mg2+), l'ion calcium (Ca2+), l'ion potassium (K+). Elle contient environ 3,5 % de sels dissous, tandis que l'eau douce en contient moins de 0,05 %.
Donner le numéro atomique et le nombre d'électrons des ions contenus dans l'eau de mer, et dire s'ils sont un cation ou un anion.
Expliquer pourquoi l'ajout de sel dans l'eau douce augmente sa conductivité électrique.
Les atomes peuvent se lier entre eux en partageant des électrons (en général les plus externes à l'atome), dits des électrons de valence, pour former des molécules. Ces forces intramoléculaires peuvent être covalentes (dans ce cas, elles ont des angles de liaisons bien spécifiques, donc des molécules ayant une forme bien définie), ioniques (entre un métal et non métal, le sel NaCl), ou métallique (entre métaux).
A l'approche de deux atomes (seuls ou dans une molécule), la répartition des charges électriques dans ces systèmes électriquement neutres est perturbée. En modifiant le barycentre des charges électriques positives et négatives, elles créent de faibles dipôles électriques, donc soumis à l'électromagnétisme. Les forces en action, dites forces de van der Waals, permettent les liaisons intermoléculaires, qui sont moins fortes que les liaisons intramoléculaires, mais qui assurent la cohésion des liquides et des solides. Ces forces peuvent être vues comme une force résiduelle de la force électromagnétique qui confine les atomes.
mais, comme nous venons de le voir, c'est toujours la force électromagnétique qui les relient à distance !
Difficulté : ☆
A votre avis, lorsque de l'eau (assemblage de molécules H2O) est chauffée progressivement dans des conditions ordinaires (c'est-à-dire que la distance moyenne des molécules est augmentée), obtient-t-on de la vapeur composée de molécules H2O libres ou d'atomes d'hydrogène et d'oxygène libres ? Pourquoi ?
L'électron est une particule élémentaire de matière, c'est-à-dire incassable. Lorsqu'il est confiné et orbite dans un atome, il doit respecter des règles...
La force électrique dépend de la distance au noyau des électrons. Cette distance n'est pas aléatoire mais quantique : chaque portion de distance (case quantique) représente une certaine région de probabilité radiale dans laquelle un électron peut se mouvoir autour du noyau. Ces cases quantiques sont stratifiées en une couche électronique (), contenant des sous-couches appelées structures fines (), et des sous-sous-couches appelées structures hyperfines (). Les nombres entiers, , et définissent ainsi une case quantique. Nous n'aborderons pas ici la physique qui sous-tend ce comportement quantique.
La règle à respecter : un électron ne peut pas être dans la même case quantique (c'est-à-dire sur une même orbite atomique, autrement dit ayant les mêmes nombres quantiques , et ) qu'un autre électron, sauf si son état quantique décrit par son spin () est différent.
Le spin d'un électron peut prendre deux valeurs, ou . Donc concrètement cela signifie que deux électrons, au plus, peuvent occuper une orbite atomique donnée.
Une particule élementaire ayant un spin demi-entier fait partie de la famille des fermions.
Il interdit aux fermions d'avoir les mêmes nombres quantiques (, , et ) dans un système confiné.
Une molécule est une combinaison d'atomes dont toutes les cases quantiques sont occupées par deux électrons, autrement dit où tous les états quantiques (, , , ) sont occupés par un électron. On dit aussi qu'une molécule a une valence nulle, contrairement aux atomes et aux ions.
Difficulté : ☆☆
Le principe de Pauli interdit aux électrons d'avoir les mêmes nombres quantiques (, , et ) dans un atome. L'atome d'hydrogène 1H confine un électron sur une couche électronique () autour de son noyau, et l'atome d'oxygène 8O confine huit électrons répartis sur deux couches électroniques (et ) autour de son noyau.
Un électron peut-il être ajouté sur la couche électronique () de l'atome d'hydrogène ?
Combien d'électrons peuvent-ils être ajoutés à l'atome d'oxygène ? Quels ions en découlent-il ?
Plutôt que de leur ajouter des électrons, ces atomes peuvent partager des électrons (électrons de valence) tout en respectant le principe de Pauli. Quelles molécules peuvent-elles être crées avec deux atomes H et deux atomes O ?
Nous avons vu que la cohésion de l'atome est due à la force électromagnétique qui domine plus que largement la force gravitationnelle d'un facteur ~ , et qui confine ainsi ses électrons (de charge électrique ) et son noyau (de charge électrique ) dans une sphère de diamètre aussi restreint que ~ . Nous avons vu également que les liens qui se forment entre atomes et molécules (électriquement neutres) sont dus aussi à l'interaction électromagnétique : lorsque ces systèmes neutres se rapprochent, la distribution spatiale de leur charge électrique positive et négative est modifiée créant ainsi un dipôle électrique.
Alors que l'électron est une particule élémentaire (non sub-divisible, de taille ~ ) de la matière, le noyau emprisonne d'autres particules appelées nucléons de masse ~ ; des protons de charge électrique en même quantité que le nombre d'électrons d'un atome afin d'assurer sa neutralité, et parfois des neutrons de charge électrique nulle. Ils sont restreints dans le noyau, soit dans un volume encore plus réduit que l'atome, c'est-à-dire sur des distances de ~ à ~ .
Quelle force est suffisamment attractive pour compenser la répulsion électrostatique des protons qui tend à les faire s'échapper du noyau, mais aussi pour confiner les neutrons insensibles à la force électromagnétique et de masse bien trop faible pour être sensibles à la gravité ? Pour saisir pleinement la nature de cette force, il a fallu découvrir que les nucléons (de taille ~ ) étaient cassables en trois particules encore plus petites, des quarks (de taille ~ ), considérés comme des particules élémentaires de la matière tout comme l'électron, mais ayant en sus une couleur (rouge, verte ou bleue).
Les couleurs sont liées entre elles via l'interaction forte (ou interaction forte de couleur). Elles peuvent prendre trois valeurs (dites charges de couleur) : bleue, verte ou rouge.
Ses effets ne sont pas aussi immédiatement perçus comme ceux de la force de gravitation ou électromagnétique, mais elle est fondamentale étant à la base de la cohésion des noyaux, donc des atomes et des molécules, c'est-à-dire de l'édifice de la matière. Elle est aussi responsable du fait simple mais crucial pour l'espèce vivante que le Soleil brille. Elle est utilisée par l'homme (centrales, propulseurs, médecine mais aussi armes nucléaires).
La somme des couleurs est conservée dans tout phénomène de transformation de la matière.
Tout corps de matière ayant une couleur (c'est-à-dire les quarks) doit être lié à une autre couleur par la force forte. Contrairement aux deux autres forces (gravitationnelle et électromagnétique) augmentant lorsque la distance diminue (en ), la force forte agit comme s'il y avait ressort entre les quarks : elle diminue avec la distance pour n'avoir quasiment plus d'effet lorsque les quarks s'approchent (ressort au repos), et augmente extrêmement fortement lorsque les quarks s'éloignent (ressort étiré) au point que les quarks restent toujours confinés à des distances de ~ (~taille d'un nucléon). Ainsi les quarks n'existent que liés en triplet, ces systèmes liés sont appelés des baryons.
Difficulté : ☆
La taille des nucléons (protons ou neutrons) est de l'ordre de ~. Chaque nucléon contient trois particules élémentaires (les quarks de taille ) dont leur couleur est liée par la force forte. Deux quarks à une distance de , ressentent une force équivalente à celle d'une masse d'une tonne à la surface de la Terre. A des distances plus courtes, la force subie par les quarks décroit fortement au point de ne plus ressentir de force forte.
Les nucléons sont-ils des baryons ?
En faisant l'hypothèse qu'un nucléon est sphérique (soit un volume ), quelle est la fraction d'espace libre minimale pour les trois quarks ?
Donner l'ordre de grandeur de la force forte subie par deux quarks distants de .
A quelle accélération d'un nucléon (de masse) cette force correspondrait-t-elle ?
Qu'en déduisez-vous sur le confinement des quarks ?
L'intéraction forte implique que les trois quarks ne peuvent pas s'échapper l'un de l'autre, et qu'un nucléon reste toujours blanc. Cela dit, il existe un effet résiduel de leur interaction forte, cet effet est appelé l'interaction nucléaire forte. Cette force résiduelle permet aux nucléons blancs d'interagir (tout comme la force électromagnétique résiduelle qui permet aux atomes et molécules électriquement neutres d'interagir), elle est attractive.
La force nucléaire forte est ~100 plus élevée que la force électromagnétique pour deux protons distants de . Si la distance des protons augmente à , la force nucléaire forte décroit d'un facteur 105 alors que la force électrique seulement de 102, soit un facteur 1000 de différence ! Le noyau atomique constitue ainsi la base très solide de l'édifice de toute la matière.
Difficulté : ☆
Qu'est-ce qui distingue l'interaction forte de l'interaction nucléaire forte ?
Nous avons vu que les atomes sont des systèmes électriquement neutres, et leur noyau ont une charge électrique liée à leur nombre de protons de charge électrique . Ainsi ajouter ou enlever des neutrons de charge électrique nulle dans le noyau atomique ne changera pas la neutralité de l'atome. Les noyaux ayant le même nombre de protons, mais un nombre différent de neutrons sont appelés des isotopes.
Le nombre de nucléons est designé par , dans la notation d'un élément de matière () le nombre de neutrons est alors (). Par exemple, le noyau d'hydrogène 1H a trois isotopes principaux : (0 neutron), le deutérieum (1 neutron) et le tritium (2 neutrons), le noyau de carbone a quatre isotopes principaux : (5 neutrons), (6 neutrons), (7 neutrons) et (8 neutrons).
Le calcium, Ca, est un élément chimique ayant plusieurs isotopes, dont le plus courant contient 20 neutrons, et les autres 22, 23, et 24 neutrons. Ecrire ces isotopes sous la forme .
L'ion calcium est un élément essentiel dans notre organisme pour réguler son acité générale (pH). Il contient 20 neutrons et 18 électrons. L'écrire sous la forme où est la charge électrique de l'ion.
Nous avons vu que les noyaux sont des systèmes de nucléons liés par la force forte nucléaire, donc extrêmement stables, c'est-à-dire peu susceptibles de se détacher sans intervention extérieure. Cela dit, on observe dans la nature des nucléons qui se séparent de manière spontanée pour former d'autres noyaux. Pour expliquer la manifestation de cette désintégration spontanée de certains noyaux (dits radioactifs) en d'autres noyaux, une autre force à distance doit être invoquée moins élevée que la force forte nucléaire, et elle doit agir sur les quarks. On l'appelle la force nucléaire faible. Elle agit sur une propriété de la matière autre que sa masse, sa charge électrique, ou sa charge de couleur : sa saveur.
Les saveurs, contrairement aux trois autres forces à distance, ne sont pas liées de manière attractive ou répulsive par une force, mais elles sont transmutées par la force nucléaire faible. Elle agit à distance en convertissant la saveur d'un quark en une autre saveur. En particulier, pour les quarks, la saveur d'isospin, , peut prendre deux valeurs, ou .
Sa manifestation la plus courante est la radioactivité β qui transforme la saveur d'un quark en la saveur , ou vice-versa.
La saveur n'est pas conservée par la force nucléaire faible !
La force nucléaire faible ne lie pas la matière de manière attractive ou répulsive, mais elle la transmute !
Un quark qui a est appelé un quark Up (haut), il est noté u, et un quark qui a est appelé un quark Down (bas), il est noté d. Par exemple, le proton est constitué de 2 quarks u et 1 quark d. Le neutron est constitué de 2 d et 1 u.
La force nucléaire faible peut ainsi transformer spontanément un neutron en proton en convertissant un quark d en un quark u. On voit tout de suite que cette transformation ne peut se faire qu'en faisant intervenir d'autres particules puisque principalement la charge électrique est différente. Elle fait donc intervenir l'émission d'un électron (de charge électrique négative) et d'une autre particule élémentaire qui est l'antineutrino électronique () (de charge électrique nulle, et de masse si faible que seule une limite supérieure a pu être mesurée à ce jour).
Une des manifestations courantes de la force nucléaire faible est la radioactivité β- (β- est une façon de noter l'électron e-) qui transforme un neutron en proton (voir l'illustration précédente). Elle ne change pas le nombre de nucléons A, mais la charge électrique du noyau, Z, donc l'élément obtenu sera un noyau différent, →.
La probabilité de désintégration radioactive décroit de facon exponentielle dans le temps. Si on a noyaux d'une même espèce à un moment donné, il en restera à un temps ultérieur. Lorsque , on parle de demi-vie d'un élément ( avec la constante de décroissante exponentielle) ou de période radioactive. Le nombre de désintégrations par seconde est mesuré en becquerel (Bq). Les périodes peuvent être de quelques secondes, de quelques minutes (le carbone-11 utilisé en médecine , 20 minutes), de quelques jours, de quelques années (le carbone-14 utilisé pour la datation, , 5730 ans), de l'âge du soleil (l'uranium-238 contenu dans le sol terrestre, , ), voire supérieures à l'âge de l'univers (le calcium, , ). De manière artificielle, on peut aussi créer de nouveaux éléments radioactifs.
Difficulté : ☆
Un quark u a une charge électrique de , un quark d de .
Quelle est la charge électrique du proton constitué de 2 quarks u et 1 quark d ?
Quelle est la charge électrique du neutron constitué de 1 quark u et 2 quarks d ?
La charge électrique d'un nucléon est-elle conservée lorsqu'un quark change de saveur sous l'action de la force faible ?
Lors de la transmutation d'un élément en un autre sous l'action à distance de l'interaction faible, des antiparticules peuvent être émises.
Une particule élémentaire a une particule élémentaire jumelle de même masse, mais de charge électrique opposée, qui est appelée antiparticule. On parle ainsi d'antiparticules de matière (ou particules d'antimatière), et de paires de particule-antiparticule ou matière-antimatière. Une antiparticule est sujette aux mêmes forces que leur particule jumelle. Comme l'univers est composé de particules, la durée de vie d'une antiparticule est très faible, car en interagissant avec sa particule jumelle, elles s'annihilent toutes les deux en se transformant en énergie en respectant la loi de conservation de la masse-énergie.
L'antiélectron (ou positron, e+) est l'antiparticule de l'électron (e-, même masse, mais de charge électrique opposée). Il ne doit pas être confondu avec le proton (p de charge ) qui est 200 fois plus massique !
L'antineutrino () est quasiment similaire au neutrino () de charge électrique nulle. Ayant une masse quasi nulle (seule une limite supérieure leur est attribuée), ils ont une probabilité extrêmement faibles d'interaction : ils traversent la matière sur de très grandes distances en n'étant quasiment pas affectés.
L'antiquark () est l'antiparticule du quark (), de même masse, mais de charge électrique, de saveur et couleur opposées.
Difficulté : ☆
A quoi ressemblerait un univers composé d'antimatière ?
Contrairement à l'interaction forte, l'interaction faible n'agit pas seulement sur les quarks, comme le couple (u, d) pour lequel la saveur est conservée, mais aussi sur les couples électron-antineutrino électronique ou antiélectron-neutrino électronique pour lesquels la saveur est aussi conservée.
Difficulté : ☆☆
Un corps humain de contient d'atomes de potassium qui a trois isotopes : , et en particulier il contient d'atomes qui est un élément radioactif. Cet atome présente à 89 % une radioactivité β-, et à 11 % une radioactivité β+ ou une capture électronique. Son taux de désintégration est d'environ 4400 atomes par seconde.
Donnez le nombre de neutrons de chacun des isotopes de potassium.
Ecrivez les trois réactions (β-, β+ et capture électronique) en vous aidant du tableau des éléments.
Combien de neutrinos et d'antineutrinos électroniques sont émis chaque jour par un seul corps humain ? et par 7 milliards d'humains ?
Si on considère ceux produits par les roches terrestres (environ géoneutrinos par jour), et ceux par les centrales nucléaires ( par jour), combien en sont émis par l'activité naturelle et artificielle terrestre ?
Comparer au nombre de ceux-ci produit par le Soleil (~ neutrinos par jour)
Elles sont les plus petits constituants de la matière découverts à ce jour, c'est-à-dire non sub-divisibles en de plus petites entités. Elles sont des quanta de matière. Jusqu'içi, nous avons vu les électrons, les neutrinos et les quarks.
Elles interagissent à distance selon leur masse, leur charge électrique, leur charge de couleur, leur saveur.
Les quanta d'antimatière (ou antiparticules élémentaires) ont la même masse, mais une charge électrique, une charge de couleur et une saveur opposée à leur particule jumelle de matière, elles subissent donc les mêmes forces.
Un système constitué de trois quarks est un baryon, donc ce sont les nucléons (proton ou neutron) mais bien sûr pas les électrons, ni les neutrinos. Alors que la force forte confine toujours trois quarks, elle peut aussi confiner un quark et un antiquark, ce système est un méson.
Décrit par le spin, il détermine si les particules élémentaires sont soumises ou non au principe d'exclusion de Pauli qui ne s'applique qu'aux particules à spin demi-entier (par exemple, les électrons, les neutrinos, les quarks). Dans ce cas, les particules élémentaires sont des fermions, ils sont à la base de l'édifice de la matière. Nous verrons dans la deuxième partie, que d'autres particules élémentaires existent avec des spins entiers, ce sont des bosons, ils sont médiateurs des forces à distance entre les fermions, et permettent ainsi à la matière de se structurer.
Les particules élémentaires qui subissent la force forte font partie de la famille des hadrons (par exemple les quarks).
Les particules élémentaires qui ne subissent pas la force forte font partie de la famille des leptons (par exemple les électrons, les neutrinos). Le nombre de leptons est conservé dans les réactions comme la radioactivité β-/β+ qui crée un couple de lepton-antilepton.
Fermions (particules élémentaires de spin demi-entier) | Masse | Charge électrique | Charge de couleur | Saveur |
---|---|---|---|---|
Electron (e-) | X | X | aucune | X |
Neutrino électronique (νe) | X | aucune | aucune | X |
Quark (q) | X | X | X | X |
Forces subies par les fermions | Electron | Neutrino | Quark |
---|---|---|---|
Gravité | oui | oui | oui |
Electromagnétique | oui | non | oui |
Faible | oui | oui | oui |
Forte | non (lepton) | non (lepton) | oui (hadron) |
Forces subies par les baryons (composés de 3 quarks) | Proton | Neutron |
---|---|---|
Gravité | oui | oui |
Electromagnétique | oui | non |
Faible | oui | oui |
Forte | oui | oui |
Difficulté : ☆
Les quatre interactions fondamentales reliant à distance la matière constituée de fermions ont un ordre de grandeur caractéristique qui permet de les interclasser selon leur force relative de l'une par rapport à l'autre. Considérer le cas de deux particules identiques, séparées par une distance , et écrire l'expression du produit rapporté à la grandeur (ce qui donnera un facteur sans dimension) pour la force de gravitation et pour la force électromagnétique.
En tenant compte de l'aide, donner l'ordre de grandeur numérique des quatres constantes de couplages, , dans le cas de deux protons de masse , et de charge électrique, .
Interclasser les quatre forces selon leur constante de couplage. Quelle force se distingue nettement ?
Interaction fondamentale | Action de type | Action entre (fermions) | Agit sur | Force relative | Distance d'action | Dépendance à la distance, d |
---|---|---|---|---|---|---|
Forte | attractif | quarks | couleur | 1 | courte () | 1 (nucléaire) |
Electromagnétique | répulsif ou attractif | particules chargées | charge électrique | (1/137) | longue () | |
Faible | transmutatif | quarks, leptons | saveur | très courte () | de à | |
Gravitationnelle | attractif | toutes les particules | masse | longue () |
Un des objectifs des théoriciens est de réunir les quatre forces en une seule. Actuellement, les quatre forces sont basées sur des théories vérifiées expérimentalement.
La mécanique classique a été englobée par la mécanique quantique qui décrit les phénomènes aux échelles infimes. Les forces faibles et électromagnétiques peuvent être couplées en une seule force, dite électrofaible. Elle est aussi vérifiée expérimentalement : lorsque les particules élémentaires se deplacent à des vitesses très élevées, elles ressentent les deux forces comme une seule force combinée, à des vitesses moindres, elles ressentent les forces de manière séparées. Le couplage entre la force faible et forte est fondé théoriquement, mais il reste à être vérifié expérimentalement. Quant à la théorie quantique des champs, elle prend en compte à la fois les effets quantiques et relativistes.
La mécanique classique a été englobée également par la relativité générale qui prend en compte les effets gravitationnels et relativistes, mais pas sur des échelles quantiques.
Le lien entre la théorie quantique des champs et la relativité générale reste à ce jour à l'état d'étude.
Un des problèmes pour vérifier divers modèles tentant de réunir les forces fondamentales est qu'ils mettent en jeu des énergies considérables, non réalisables en laboratoire. En effet, dans ces conditions les forces seraient vues par les particules comme une force unique, et lorsque les énergies en jeu sont moindres, les particules subiraient les forces de manière séparée. La cosmologie est un domaine privilégié d'étude pour tester les modèles, car elle met en jeu ces énergies en particulier lors des premières secondes de l'univers. Un autre problème est que les lois de la physique à ces énergies peuvent être complètement différentes de celles que nous connaissons...
La composition de l'univers reste à être élucidée, en particulier il est regroupé sous le terme "matière noire" de la matière baryonique (composée de trois quarks) et principalement non-baryonique qui nous est inconnue, mais dont les effets sont visibles dans les structures à grandes échelles de l'univers. A un moment, les neutrinos présents dans l'univers étaient des particules favorites, mais récemment la mesure supérieure de leur masse est si faible qu'ils ne sont plus considérés comme des candidats sérieux à la masse manquante (26%) dans l'univers.
Une seule bonne réponse est possible.
Difficulté : ☆
Une seule bonne réponse est possible.
Difficulté : ☆☆
De par sa proximité, le Soleil nous fournit une grande quantité d'informations sur son comportement. On peut le définir en deux lignes, comme n'importe quelle étoile, ou alors entrer dans le détail d'une physique qui se complexifie chaque jour : à mesure qu'une question est résolue, elle en entraîne alors une nouvelle.
Dans ce cours, nous allons nous efforcer de donner une vision relativement large de ce qu'est le Soleil. Pour cela, nous avons divisé le cours en quatres parties. La première constitue une visite détaillée du Soleil. La seconde partie est plus observationnelle. On y abordera les questions d'astrométrie solaire (ou comment repérer la position d'une structure sur un astre gazeux). La troisième partie concerne l'activité du Soleil et les relations que le Soleil entretient avec les objets du système solaire et en particulier la Terre. Ce sera l'occasion de parler un peu de météorologie de l'espace. Vous pouvez d'ailleurs commencer par lire cette partie du cours avant d'aborder les autres aspects. La quatrième partie s'intéressera au rayonnement électromagnétique produit par le Soleil et à son analyse, des rayons gamma jusqu'aux ondes radio.
Le Soleil est une étoile, c'est-à-dire un astre qui produit sa propre énergie. Formé de gaz, essentiellement d'hydrogène, il est une merveille d'équilibre entre deux forces : la gravitation, qui pousse ses couches extérieures vers son cœur, et le rayonnement, qui cherche à faire jaillir la matière vers l'extérieur. Cet équilibre peut être stable sur une très longue durée : dans le cas du Soleil, dix milliards d'années environ.
Cette étoile est particulièrement importante car elle fournit l'essentiel de l'énergie reçue par les planètes du système solaire. Néanmoins, elle reste relativement banale comparée à l'ensemble des autres étoiles. Il s'agit d'une étoile de classe G (voir le diagramme de Hertzsprung-Russel), située sur la séquence principale, donc dans la phase principale de sa vie. Malgré son rayon de 7x105 km et sa masse de 2x1027 tonnes, le Soleil est d'une taille modeste (Bételgeuse dans la constellation d'Orion a un rayon qui lui est 1100 fois supérieur).
Situé à une distance moyenne de 150 millions de km de la Terre, le Soleil permet d'étudier en détail la physique se déroulant depuis son cœur jusque dans les régions les plus périphériques de son atmosphère. C'est la seule étoile que nous puissions étudier avec une telle précision temporelle et spatiale. Les théories peuvent ensuite être testées sur d'autres étoiles, de type solaire ou non, pour essayer d'avoir une vision globale de la physique qui régit l'évolution des étoiles.
En vous aidant du diagramme de Hertzsprung-Russell de la page précédente et sachant que la luminosité d'une étoile est donnée par la relation avec R le rayon de l'étoile et T sa température de surface, donner l'ordre de grandeur du rayon (en fonction du rayon du Soleil) des étoiles suivantes : Véga, Etoile de Barnard, Bételgeuse et Rigel.
Donnée : TSoleil = 6300 K (noté aussi ).
Le Soleil et le système solaire sont nés d'un même nuage de gaz, provenant lui-même d'étoiles ayant explosées dans un lointain passé. Sous l'action des forces de gravitation, ce nuage grossit peu à peu. Il attire ainsi les atomes de gaz passant près de lui. Sa masse est suffisamment importante pour attirer aussi les grains de poussière composés de carbone, d'azote, d'oxygène ainsi que, en moins grande quantité, magnésium, silicium, soufre et fer. Tous les éléments nécessaires à la formation du système solaire sont présents dans le nuage.
Probablement sous l'impulsion d'une faible perturbation provenant d'une lointaine étoile, ce nuage de gaz commence à s'effondrer sous son propre poids. Petit à petit, il s'aplatit et se met à tourner sur lui-même : tel un patineur qui replie les bras, il tourne de plus en plus vite (voir exercice suivant pour comprendre le processus). Au centre de ce nuage, la pression et la température augmentent considérablement. Il y a 4,6 milliards d'années, les réactions thermonucléaires se sont initiées dans le cœur de cette boule de gaz.
Toujours sous l'effet des forces de gravitation, la matière s'organise autour de l'étoile. Les particules de poussière les plus lourdes s'agglomèrent. Elles forment des cailloux de plus en plus gros. C'est la toute première phase de la formation des planètes à surface solide. Dans sa rotation, le nuage rejette vers sa périphérie les particules de gaz plus légères. Des poches de gaz de plus en plus grandes se forment. Véritables aspirateurs de matière, elles donneront naissance aux planètes gazeuses que nous connaissons aujourd'hui. Et oui ! Toutes les planètes ne sont pas solides !!
Pendant plusieurs millions d'années, les corps de matière solide et de gaz vont subir de constantes transformations dans de violentes collisions. Puis, petit à petit, tous les débris sont absorbés. La situation se stabilise. Grâce à la datation de roches, il a été établi que la Terre avait mis 100 millions d'années à se former.
Le système solaire est né : en son centre une étoile, notre Soleil. Dans sa proche périphérie, des planètes à surface solide appelées planètes telluriques car ressemblant à la Terre. Plus loin, des planètes de gaz, dites Joviennes car semblables à Jupiter. Entre les deux, une ceinture des cailloux de quelques dizaines de kilomètres, la ceinture d'astéroïdes et, plus loin, aux confins de notre système solaire, un autre réservoir de roches, témoins de notre système solaire primitif. Sous l'effet de perturbations interstellaires, certains de ces cailloux sont renvoyés vers l'intérieur du système solaire formant ainsi des comètes.
L'existence d'une quantité appelée "moment angulaire" non nul entraîne la rotation d'un objet (voir exercice). C'est ce qui s'est passé pour le nuage proto-solaire. Ce nuage n'était pas sphérique et les différentes particules le constituant, dans leur mouvement aléatoire, ont induit une composante non nulle du moment cinétique. Ce faisant une autre force est intervenue : la force centrifuge qui tend à renvoyer les particules vers l'extérieur (c'est cette pseudo force que vous sentez en voiture en prenant un virage). La résultante des forces de gravitation et centrifuge est une force dirigée vers un plan perpendiculaire à l'axe de rotation (voir figure).
La conservation du moment cinétique indique que la « quantité de rotation » d'un objet isolé se conserve (est constante) : pas de création, pas de destruction. En grandeur non vectorielle, le moment cinétique s'écrit :
Où désigne l'angle entre r et v. Si t = 0 (r et v alignés), L = 0 ; si = 90, L est maximum. Autrement dit, pour faire tourner une porte, il vaut mieux appliquer une force dirigée perpendiculairement à son axe de rotation que parallèlement !…
Dans cet exercice, nous allons essayer de comprendre pourquoi le nuage proto-solaire s'est aplati au cours de son évolution et pourquoi il s'est mis à tourner.
Dans le cas où les forces sont conservatives (pas de perte d'énergie sous forme de chaleur), comme c'est le cas pour la gravitation, pour tout objet en rotation, il y a conservation d'une grandeur que l'on appelle «moment cinétique» L (ou moment angulaire). Son expression est :
où est le rayon vecteur entre l'axe de rotation et l'objet, et la vitesse de rotation de l'objet. Ce sont des grandeurs vectorielles (donc orientées en sens et direction). Le produit vectoriel signifie que est perpendiculaire à la fois à et à . Pour connaître son orientation, faites l'expérience suivante :
Avec votre main gauche (laissons la droite pour écrire*), pointez votre pouce selon une direction qui sera (disons de droite à gauche), votre majeur qui sera (perpendiculaire à , vers vous pour simplifier le mouvement), votre index (tendu perpendiculairement aux deux autres doigts) pointera alors la direction de (axe de rotation de votre système). Quelle est cette direction ?
(* si vous êtes gaucher, prenez votre main droite avec le majeur pour , le pouce pour ,votre index pointe vers )
Revenons à notre nuage en rotation. On supposera , angle entre le rayon vecteur et le vecteur vitesse , égal à 90˚. Sachant que le rayon du nuage proto-solaire se réduit (à cause de la gravitation) au cours de son évolution, comment la vitesse évolue-t-elle au cours du temps ?
Vous avez déjà rencontré une application du principe de conservation du moment cinétique dans votre cours sur les orbites des planètes. Savez-vous de quelle loi il s'agit ?
Le Soleil est un plasma c'est-à-dire un gaz fortement ionisé. Il est constitué d'électrons, de protons et d'atomes et molécules plus ou moins ionisés (ayant perdu au moins un électron, ce qui rend l'atome ou la molécule électriquement non neutre).
Quelques ordres de grandeur de dimensions solaires :
Le tableau donne les abondances relatives d'éléments constituant le Soleil. On peut constater la présence d'atomes lourds (tel que le fer, le phosphore etc). Ces éléments n'ont pas été produits par le Soleil. Ils proviennent des résidus d'étoiles ayant servis au nuage proto-solaire.
H (Hydrogène) | 1 000 000 | Al (Aluminium) | 2,5 |
He (Hélium) | 50 000 | Si (Silicium) | 35 |
C (Carbone) | 350 | P (Phosphore) | 0,27 |
N (Azote) | 110 | S (Soufre) | 16 |
O (Oxygène) | 670 | K (Potassium) | 0,11 |
Ne (Néon) | 28 | Ca (Calcium) | 2,1 |
Na (Sodium) | 1,7 | Fe (Fer) | 25 |
Mg (Magnésium) | 34 |
Abondance approximative (relativement à l'hydrogène) des principaux éléments chimiques dans l'atmosphère du Soleil.
Bien que la notion de surface n'ait pas grand sens dans le cas d'une sphère de gaz, on distingue toutefois deux grandes zones : l'intérieur et l'atmosphère du Soleil. Schématiquement, l'intérieur du Soleil est toute la région inaccessible par des moyens optiques (quels qu'ils soient).
La « surface » solaire (qui définit aussi son rayon) est définie par l'altitude à partir de laquelle les photons à 500 nm se propagent librement.
L’intérieur solaire est composé de trois régions :
L’atmosphère est elle aussi composée de trois zones :
Il faut cependant noter que si l'intérieur du Soleil a une limite supérieure (la "surface"), l'atmosphère solaire n'en a pas ! La couronne solaire, à environ 3 rayons solaires, est accélérée pour donner lieu à un vent solaire, s'étendant dans tout le milieu interplanétaire. La plupart des étoiles possèdent un tel vent, alors appelé vent stellaire.
Le noyau est la région la plus centrale du Soleil. C'est de là que provient toute l'énergie solaire, traversant toutes les couches jusqu'à la surface, puis l'espace interplanétaire.
La température est de l'ordre de 15 millions de Kelvin, alors que la concentration y est de 5 x 1031 particules.m-3 (à comparer à l'atmosphère terrestre qui en contient 1025 m-3). La densité est de 150 x 103 kg.m-3. La pression y est de 2,2 x 1011 atm. Ce sont les fortes température et pression qui permettent aux réactions thermonucléaires de s'initier.
Le noyau est supposé occuper environ 200 000 km, soit 0,3 rayon solaire, et représenter environ 60% de la masse totale du Soleil. Le noyau est une zone particulièrement importante puisqu'il est le siège des réactions thermonucléaires donnant lieu à l'énergie dégagée par le Soleil sous forme de rayonnement. On estime cependant que la production thermonucléaire ne s'effectue que dans une région faisant 0,1 rayon solaire.
La rotation du noyau est rigide, c'est-à-dire qu'il tourne comme un solide sur lui-même.
La chaîne de réactions nucléaires menant de l'hydrogène à l'hélium est la suivante :
Schématiquement, on considèrera que quatre atomes d'hydrogène se groupent pour former un atome d'hélium 2He4 (cette notation indique : 4 particules dans le noyau et 2 électrons autour). Nous allons par des considérations simples estimer la durée de vie du Soleil en supposant que la seule perte de masse se produit par rayonnement.
Données :
Rappel : La masse atomique est la masse moyenne d’un atome. Elle prend en compte le nombre de particules constituant le noyau mais également la présence d’isotope (même nombre de protons et électrons mais nombre différent de neutrons) de cet élément dans la nature. Ainsi, l’hydrogène devrait avoir une masse atomique de 1 (1 proton dans le noyau). La présence en quantité non négligeable de deutérium (H2 : 1 proton + 1 neutron) et de tritium (H3 : 1 proton, 2 neutrons) change cette masse pour 1,0079.
Si la masse atomique d'un atome d'hydrogène est de 1,0079, quelle est la masse atomique M4H de 4 atomes d'hydrogène ?
La masse atomique MHe4 de l'hélium 2He4 est 4,0026. Calculer la perte de masse ΔM entre le M4H et MHe4 en kg.
En utilisant la relation d'équivalence masse-énergie d'Einstein, E=mc2 , déduire l'énergie libérée par cette perte de masse. Dans cette relation E est l'énergie libérée (exprimée en Joules, J), m est la masse transformée en énergie (exprimée en kg), et c est la vitesse de la lumière (exprimée en m/s).
Quelle est la fraction de masse d'hydrogène convertie en énergie ?
En considérant que seule 10% de la masse totale du Soleil est susceptible de subir de telles réactions au cours de toute sa vie, déduire la quantité totale d’énergie disponible. Pour cela, calculer d'abord la masse totale qui sera convertie puis appliquer la relation d'équivalence.
Sachant que le Soleil irradie = 4.1026 J/s, estimer le temps t nécessaire pour consommer tout l'hydrogène du cœur (donner le résultat en secondes puis en années). On supposera que l'énergie irradiée par le Soleil restera constante tout au long de sa vie.
Pour pouvoir fusionner les atomes d'hydrogène afin d'obtenir de l'hélium, il faut les rapprocher à une distance d'environ 10-12 m. Or ils se repoussent par la force coulombienne (les deux charges de même signe se repoussent).
Pour qu'il y ait fusion, il faut que l'énergie thermique d'un atome soit supérieure à l'énergie potentielle électrique à une distance inter-atomique de 10-12 m. Soit :
où est la constante de Boltzmann, T la température, e la charge de l'électron, une contante appelée la permittivité du vide et r la distance entre les charges (cf. valeurs numériques ci-dessous), toutes les variables devant être exprimées en unités du Système International.
En déduire la température nécessaire pour amorcer lees réactions de fusion nucléaire.
= 1,38 × 10-23 J/K,
e = 1,6 x 10-19 C,
= 8,85 × 10-12 F/m.
La zone radiative entoure le noyau de 0,3 à 0,8 rayon solaire. La densité décroît de 1,4 x 1031 m-3 à 1,7 x 1028 m-3 à mesure que l'on s'approche de la surface. De même, la pression décroît de 3 x 1010 à 6 x 106 atm, et la température de 8 x 106 à 1,3 x 106 K.
Comme son nom l'indique, l'énergie émise par le coeur est transférée vers la surface sous forme de radiations électromagnétiques, c'est-à-dire sous forme de photons. Ces photons rentrent en collision avec les particules (atomes ionisés) du milieu. Ces collisions successives ont deux effets :
On pense que cette zone contient entre un tiers et la moitié de la masse du Soleil. La rotation y est rigide.
La zone de convection est la dernière couche de l’intérieur du Soleil. La température décroît suffisamment (de 2x106 à 6x103 Kelvin) pour que des atomes se forment. La densité aussi décroît considérablement. L'énergie n’est plus transportée par rayonnement mais par convection vers la surface : le rayonnement chauffe la matière qui monte, se refroidit à proximité de la surface et se renfonce alors. La signature de cette convection est visible au niveau de la photosphère sous la forme de granulation.
La rotation de la zone convective est différentielle en latitude : elle tourne plus rapidement à l'équateur qu'aux pôles. Or la zone radiative a une rotation plutôt solide. Cette différence est très importante car on pense que la zone de frottement entre rotation rigide et différentielle - appelée tachocline - est à l'origine du champ magnétique solaire qui se forme ainsi par effet dynamo (voir chapitre suivant).
La photosphère est la première couche de l'atmosphère solaire. C'est partie "visible à l'œil nu" du Soleil (attention : ne regardez jamais le Soleil sans des moyens de protection adéquats pour les yeux). C'est une zone d'environ 500 km d'épaisseur où la température décroît avec l'altitude de 5800 K à 4200 K. 99% de la lumière émise par le Soleil provient de la photosphère.
Les structures les plus typiques de la photosphère sont les granules. Il s'agit du sommet des cellules convectives engendrées dans la zone de convection. C'est aussi ici que le champ magnétique généré au niveau de la zone de convection émerge. Bien que ce champ ne soit pas visible, un certain nombre de signatures le caractérisant émaillent la photosphère :
La chromosphère s'étend de 500 à 2000 km d'altitude. Visible comme un fin liseré rougeâtre autour du Soleil lors des éclipses totales de Soleil, la chromosphère peut être observée au-dessus du disque solaire grâce à des filtres spéciaux qui coupent l'intense lumière de la photosphère. Le filtre typique est centré sur la raie dite « Hα » de l'hydrogène (à 636,5 nm), mais on peut aussi choisir des filtres centrés autour des longueurs d'onde des raies du calcium.
La particularité essentielle de cette couche de l'atmosphère du Soleil est que la température croît avec l'altitude, passant de 4200 K à près de 10 000 K. Cette croissance de la température avec la distance au Soleil reste l'un des grands mystères de la physique solaire actuelle.
Tout comme dans la photosphère, le champ magnétique joue un rôle particulièrement important pour structurer et conditionner l'évolution à court terme de la chromosphère. Les structures caractéristiques sont :
La couronne est le nom que l'on donne à l'ensemble de l'atmosphère extérieure du Soleil... qui s'étend jusque dans le milieu interplanétaire. C'est un milieu très peu dense. La température y atteint quelques millions de Kelvin (on le sait grâce à l'observation de certains ions qui ne peuvent exister qu'à des températures très élevées).
Il s'agit de régions où les lignes de champ magnétique, au lieu de se refermer sur le Soleil, s'ouvrent vers l'espace (voir section suivante), favorisant ainsi l'émission rapide de particules dans le milieu interplanétaire. Les trous coronaux se situent principalement autour des pôles solaires et s'étendent vers les régions de plus basses latitudes. Ils sont parfois de très grande taille pouvant atteindre 50% de la surface solaire pour les plus grands. La densité et la température y étant plus faibles, ces régions paraissent sombres.
La couronne est souvent le siège de phénomènes violents comme les éruptions, qui se caractérisent par une brusque libération d'une quantité importante d'énergie, ou comme les éjections de masse coronale (en anglais Coronal Mass Ejection, CME), "bulles" de matière coronale qui s'envolent dans le milieu interplanétaire. L'étude de ces phénomènes revêt une importance particulière car ce sont des sources importantes d'émission et d'accélération de particules dans l'espace qui peuvent affecter de façon significative l'environnement des planètes (Terre incluse).
Du fait de sa très faible densité, la couronne solaire n'est observable en longueur d'onde visible qu'au cours d'une éclipse naturelle (le disque solaire est caché par la Lune) ou artificielle (le disque solaire est caché par un masque mis devant un télescope). La couronne solaire est visible lors d'une éclipse solaire car les photons émis par la photosphère sont diffusés par les particules de la couronne solaire.
Le Soleil émet en permanence près d'un million de tonne de matière par seconde dans le milieu interplanétaire. C'est ce que l'on appelle le vent solaire. Le vent solaire est un plasma c'est-à-dire un gaz constitué principalement d'électrons et de protons mais également d'ions (tels que He² et d'autres plus lourds).
En fait, il existe deux vents :
La vitesse du vent solaire lent est d'environ 350 km.s-1. Il varie peu en fonction du cycle solaire et ne dépend pas de l'activité solaire. Le vent solaire rapide quant à lui varie entre 500 et 800 km.s-1. Il dépend fortement du cycle et de l'activité solaire. Ce sont ses sursauts qui peuvent avoir des conséquences sur la Terre.
Si l'origine du vent solaire est à peu près comprise (voir page En savoir plus), l'existence d'une composante rapide est pour l'instant encore la source de nombreux débats.
Les électrons ont en moyenne une vitesse supérieure à la vitesse de libération du Soleil et peuvent s'échapper de son attraction. Ces particules étant chargées négativement, une différence de potentiel se créé entre la couronne (qui sera un peu plus positive due à la perte des électrons) et les couches supérieures négatives (due à un surplus d'électrons). Cette différence de potentiel engendre un champ électrique E dirigé du Soleil vers le milieu interplanétaire. La force qui s'exerce sur les protons (particules de charge positive) tend à les accélérer. Ceux-ci vont ainsi pouvoir aussi s'échapper de l'attraction solaire.
Le vent solaire se propage radialement dans une zone très étendue appelée l'héliosphère. A un peu moins de 100 UA (soit dans la partie externe de la Ceinture de Kuiper, ceinture d'objets glacés orbitant au delà de Neptune), la sonde Voyager 1 a atteint en 2004 la première de ces limites extrêmes de notre système solaire : le choc terminal (suivi par Voyager 2 en 2007). Dans toute l'héliosphère, le vent solaire est supersonique. Perdant peu à peu de la vitesse à mesure qu'il rencontre les particules du milieu intersidéral, le vent solaire devient sub-sonique (plus petit que la vitesse locale du son) au niveau du choc terminal.
Juste après le choc terminal on trouve l'héliogaine (zone très turbulente). Au-delà, la configuration est purement théorique (et se base sur les observations de l'interaction du vent solaire avec les planètes et des modèles).
L'héliopause est la région où le vent solaire est arrêté par le vent stellaire. Dans l'hypothèse où le vent stellaire se déplacerait à une vitesse supersonique, un choc doit être présent devant l'héliopause. Ce phénomène est d'ailleurs observé autour d'autres étoiles.
La position du Soleil est définie par l'ascension droite et la déclinaison de son centre, comme pour toute étoile (voir chapitre Mécanique Céleste, Temps et Calendriers). Cependant, le Soleil nous offre des détails beaucoup plus précis qu'aucune autre étoile : des détails de l'ordre de 70 km sont maintenant accessibles depuis des télescopes terrestres. Il est donc nécessaire de définir des systèmes de coordonnées qui permettent de repérer sans équivoque ces structures.
Définir un système de coordonnées pour le Soleil n'est cependant pas aussi simple que cela peut paraître. La vitesse de rotation du Soleil varie avec la latitude, et aucun point fixe (et de durée de vie suffisante) ne peut servir de repère puisque le Soleil est gazeux. D'autre part, le Soleil est une sphère : la troisième dimension de notre étoile doit être prise en compte. Enfin, les systèmes de référence sont liés à un observateur. Il faudra adapter les repères pour des observations faites par des satellites dont la distance au Soleil serait plus réduite par rapport à un observateur situé sur Terre. SoHO par exemple est un satellite situé au point de Lagrange - environ 1,5 million de kilomètres de la Terre dans la direction du Soleil - qui voit le Soleil 1% plus gros qu'un observateur sur Terre. Par la suite, nous considèrerons cependant uniquement le point de vue d'un observateur au sol.
La première idée est de repérer une structure par ses coordonnées rectangulaires (X,Y,Z) sur disque projeté sur le plan du ciel (voir figure).
Les positions sur les axes X et Y sont comptées en secondes d'arc (sur le ciel) depuis le centre du disque solaire. Les positions sur l'axe Z sont exprimées en kilomètres depuis le centre du Soleil ou en unité de rayon solaire.
Le centre du disque apparent a pour coordonnées (0,0). Ce repère est fixe par rapport au disque apparent du Soleil (il ne tourne pas avec la rotation solaire).
Cependant, ce repérage (X,Y,Z), s'il est commode à un instant donné, présente plusieurs limitations :
Un autre système de coordonnées est alors préféré : les coordonnées héliographiques.
Ce système est très semblable au système terrestre de latitude et longitude. Il est défini par rapport au disque apparent du Soleil en lumière blanche (la photosphère).
La latitude héliographique Θ est comptée depuis l'équateur solaire entre -90° au Sud et +90° au pôle Nord solaire.
La longitude héliographique Φ est un peu plus compliquée à compter car il n'existe pas naturellement de référence fixe (comme par exemple le méridien terrestre passant par Greenwich sur Terre).
L'intérêt de ce système de coordonnées est qu'une structure présente sur le disque solaire conservera les mêmes coordonnées pendant des durées relativement longues. Les variations observées seront dues à l'évolution propre de la structure (changement de forme ou mouvement propre sur le disque solaire) et non pas à la seule rotation solaire. Comme les mouvements propres sont généralement plus lents que la rotation solaire, on pourra repérer un groupe sur une plus longue période qu'avec les coordonnées cartésiennes qui changent en permanence.
Une première solution est de définir les longitudes par rapport au méridien central. Le méridien central est la ligne passant par les pôles solaires nord et sud et le centre apparent du disque solaire à un instant donné. Les longitudes sont alors comptées positivement vers le bord solaire Ouest (-90° au bord solaire Est et +90° au bord solaire Ouest).
Attention : on utilise des mesures d'angle, mais 1° de latitude/longitude sur le Soleil ne correspond pas à 1° sur le ciel. Le Soleil tournant sur lui-même, la longitude d'une structure varie à chaque instant (environ 13,2°/jour, déterminé à partir d'une rotation synodique moyenne de 27,2753 j).
La grille du Soleil en coordonnées héliographiques montre que les lignes de longitude se resserrent près du bord est et ouest. Savez-vous expliquer pourquoi ?
Nous ne sommes pas tout à fait au bout de nos peines. En effet, l'orientation des axes propres du Soleil (axe de rotation, équateur) ne sont pas confondus avec les axes X,Y du système héliocentrique cartésien à cause de :
Par conséquent :
La figure illustre les inclinaisons apparentes du Soleil au cours de l'année.
Pour tenir compte de ces variations d'orientation, deux nouveaux angles sont nécessaires :
Le Soleil nous laisse donc voir alternativement ses pôles nord et sud : le pôle sud quand est négatif, le pôle nord quand est positif. Pour bien voir l'évolution de tous ces paramètres au cours de l'année, nous vous recommandons d'utiliser cet applet.
La figure montre la carte du Soleil du 5/01/2008 et 11/10/2008. Les axes du système cartésien sont dessinés en vert, tandis que les axes du système héliographique sont en rouge. L'Ouest est à droite, le Nord vers le haut. Donnez une valeur approximative des angles P, B0 pour les deux dates.
Pour donner une valeur absolue de longitude, on introduit la longitude (absolue) du méridien central L0 à partir d'un méridien de référence.
Le méridien de référence (ϕ= 0°) est défini comme le méridien qui passait par le nœud ascendant de l'équateur solaire à Greenwich à 12h le 1er Janvier 1854.
Ce méridien de référence tourne avec le Soleil. Sa vitesse de rotation se détermine par rapport à une période de rotation sidérale constante de 25,38 jours. La longitude du méridien central décroît ainsi de 360° à 0° à mesure que le méridien de référence se déplace vers l'ouest (rotation solaire).
La longitude du méridien central L0 est donnée par :
Avec l'écart en longitude entre le méridien central et le méridien de référence, compté positivement vers le bord ouest du Soleil. (Une autre façon de calculer la longitude du méridien central : pour les structures à l'ouest du méridien de référence et 360° + pour les méridiens à l'est avec dans ce cas négatif). La figure donne quelques exemples de valeurs de pour différentes dates.
La longitude absolue d'une structure sur le disque, connaissant sa longitude relative (par rapport au méridien central) et la longitude du méridien central est donnée par :
La rotation du Soleil et le déplacement orbital de la Terre sont dans le même sens (dans le sens inverse des aiguilles d'une montre quand on regarde depuis le pôle nord du plan orbital terrestre). Ceci est précieux pour orienter les cartes pendant des observations. Il suffit de couper l'entraînement du moteur d'une monture équatoriale et de laisser défiler le Soleil. La dérive de l'image indiquera la direction est-ouest (sens de rotation de la Terre) et également la direction est-ouest du Soleil.
Les deux cartes présentent l'orientation du Soleil les 19 et 20 Mars 2008. Le méridien en bleu est le méridien central, le méridien en rouge est le méridien de référence (Φ = 0°). Les méridiens sont indiqués tous les 10°. L'Ouest est situé vers la droite. Pouvez-vous donner un ordre de grandeur de la longitude du méridien central ?
La carte donne la position de toutes les taches ou groupes de taches visibles sur le Soleil le 31/08/2001. Chaque groupe est identifié par un numéro qu'il conservera pendant toute sa vie. Ce numéro NOAA est donné par le National Oceanic and Atmospheric Administration (NOAA).
La figure montre l'ensemble des paramètres définis précédemment sur un seul et même graphique :
Nous avons vu que le système héliographique permettait de situer toutes les structures qui apparaissent sur le disque solaire et de les suivre pendant leur transit sur le disque solaire. Mais clairement, il ne peut pas nous aider pour des structures sur le bord sur disque (telles que les protubérances) : latitudes et longitudes ne peuvent pas excéder la taille du disque solaire.
Quand un point d'observation se situe très près du bord solaire, même si les coordonnées héliographiques sont toujours définies, elles sont rarement commodes (car pas assez précises). On utilise alors un troisième système de coordonnées : héliocentrique-radial.
Le système héliocentrique-radial est défini par :
Il n'y a aucune contrainte sur les valeurs des deux paramètres.
Tout comme les coordonnées cartésiennes, les coordonnées d'un point sur le disque changent en permanence. C'est pour cette raison que ce système est préférentiellement utilisé pour les structures hors du Soleil.
Le numéro de rotation Carrington indique le nombre de rotations du Soleil, vu depuis la Terre, depuis le 9 Novembre 1853. Cette date ne correspond à rien de particulier du point de vue astronomique. C'est juste le jour où Carrington a commencé ses observations systématiques du Soleil à Greenwich.
Le numéro de rotation Carrington est un nombre entier non nul. Les jours correspondant à une même rotation ont ainsi le même numéro de rotation. Puisque c'est un point de vue de l'observateur terrestre, c'est la rotation synodique du méridien central qui indique la vitesse moyenne de rotation du Soleil (27,2753 jours).
Quel est le numéro de la rotation Carrington du Soleil au 9/11/2008 ? au 12/03/2009 ?
Nous allons traiter les deux cas les plus usuels de changement de coordonnées. Les formules suivantes ne sont pas à connaître par cœur, mais sont à savoir utiliser.
Soient (X,Y) les coordonnées d'un point en coordonnées cartésiennes - héliocentriques (en secondes d'arc sur le ciel), la latitude et longitude (relative), le rayon du Soleil (en secondes d'arc sur le ciel), et P et B les angles d'orientation des axes propres. Nous avons les relations suivantes :
Le passage des coordonnées cartésiennes (X,Y) aux coordonnées radiales() se fait par les formules :
La figure montre une observation réelle du Soleil. La grille de coordonnées héliographiques a été superposée à cette image de la haute photosphère. Déterminez les coordonnées héliographiques (relatives et absolues) de toutes les taches. En déduire les coordonnées cartésiennes et radiales.
L’observation systématique du Soleil, sur des échelles de temps de quelques jours à quelques semaines, montre que notre étoile est loin d’être une simple boule de gaz présentant toujours le même aspect. C’est un fait connu depuis des millénaires. Par exemple, d’anciens livres chinois datant de 800 avant notre ère mentionnent déjà la présence de taches à la surface du Soleil. Il a cependant fallu attendre le XVIIe et surtout le XIXe siècle pour que des études plus systématiques soient menées et que l'origine de ces taches soit connue.
Le Soleil est la seule étoile offrant une telle quantité d’observation à haute résolution temporelle et spatiale. Autrement dit, on peut voir des détails comme sur aucune autre étoile et dans des laps de temps très courts. Les conclusions qui émanent de ces études peuvent alors servir de guide pour les recherches sur les autres étoiles, au moins celles de type proche de celui du Soleil.
Ensuite, comme révélé par E. Sabine (1852), l’activité solaire provoque des perturbations de l’environnement magnétique de la Terre. Les manifestations les plus spectaculaires sont les aurores polaires. Mais ces perturbations peuvent aussi avoir des conséquences beaucoup plus dramatiques sur les technologies modernes (communications, satellites, centrales électriques etc). La communauté scientifique se rassemble ainsi pour essayer d'établir des prévisions de l’activité solaire. C’est ce que l’on appelle la météorologie de l’espace (ou « space weather » en anglais).
Enfin, une dernière question : quelle influence le Soleil a-t-il sur notre climat ? L’activité solaire peut-elle modifier notre climat ?
Même si tous les processus physiques à l’origine de l’activité solaire ne sont pas bien compris, il y a un consensus général pour admettre que le champ magnétique solaire joue un rôle fondamental. Nous allons donc dans un premier temps donner les grandes lignes de ce qu’est le champ magnétique solaire. Nous verrons ensuite quelques manifestations du cycle solaire et de l’activité solaire. Nous parlerons ensuite des conséquences de cette activité sur terre à travers la météorologie de l’espace (space weather) et les variations climatiques.
Nous avons déjà vu quelques exemples de signature du champ magnétique solaire dans le chapitre décrivant le Soleil. Rappelons les principaux, au niveau de :
L'origine du champ magnétique solaire n'est pas complètement comprise. Cependant, la théorie de la dynamo solaire est le mécanisme actuellement le plus accepté.
En raison de la rotation rigide de la zone radiative et de la rotation différentielle de la zone convective, les vitesses varient rapidement à l'interface entre les deux régions. Cette zone particulière est appelée la tachocline.
La faible épaisseur de la tachocline implique la présence d'une forte turbulence et de champs magnétiques horizontaux importants. Cela crée des conditions favorables à l'efficacité du mécanisme dynamo dont l'existence est indispensable pour expliquer l'amplitude du champ magnétique solaire et ses variations cycliques. Pour résumer, le champ magnétique est induit par la rotation interne du gaz conducteur de courant électrique.
Une dynamo est une machine qui convertit de l’énergie mécanique en électricité. Les dynamos sont largement utilisées dans les centrales électriques et également pour produire l’électricité des bicyclettes.
Comment ça marche ?
L’effet dynamo est basé sur la loi de Faraday qui dit que des particules en mouvement (énergie mécanique) dans un champ magnétique engendrent un courant électrique (énergie électrique).
L’effet dynamo sur le Soleil est un peu plus complexe en l’absence de champ magnétique initial (c’est cela que l'on essaie de générer !). Il faut faire appel à une loi de plus : la loi d’Ampère qui dit que des particules chargées en mouvement (autrement dit un courant) engendrent un champ magnétique.
Le Soleil est un plasma. En particulier dans la tachocline, les particules en mouvement vont être soumises aux lois d’Ampère et de Faraday qui peuvent se résumer ainsi :
Courant → Champ magnétique → Champ électrique → Courant
Et voilà, le tour est joué ! Il s’agit ici des grandes lignes. L’écoulement des particules doit avoir des propriétés particulières pour que l’effet dynamo fonctionne correctement. Mais cela sort largement du cadre de ce cours.
Le mécanisme de dynamo est compliqué du fait de la rotation différentielle du Soleil. Sans rentrer dans les détails, le film de cette page montre l’évolution du champ magnétique solaire sous l’influence de la rotation du Soleil.
La dynamo solaire serait à l’origine du champ magnétique du Soleil, à grande échelle. Cependant, d’autres dynamos pourraient avoir lieu plus près de la surface du Soleil et expliqueraient la présence des petits tubes de flux magnétiques que l’on observe entre les granules de la photosphère. Cette question reste néanmoins encore ouverte.
Les taches solaires, les boucles coronales, les protubérances sont le signe de la présence de champ magnétique. Mais pour comprendre les mécanismes physiques qui gouvernent l’évolution de ces structures, il est aussi intéressant de connaître la polarité (l’orientation nord ou sud) ainsi que l’intensité du champ dans ces régions.
Un magnétogramme est une carte du Soleil montrant l’orientation (la polarité) des lignes de champ magnétique. Généralement, il s’agit juste de la composante dirigée selon la ligne de visée (direction Soleil-observateur), autrement appelée composante longitudinale.
La figure ci-contre présente une observation de la photosphère obtenue le 13/05/2005. Elle montre la présence de différents groupes de taches solaires (identifiés par leur index international NOAA). La grille de coordonnées héliographiques (voir la section suivante) a été ajoutée pour repérer plus facilement les structures.
La deuxième image indique l’orientation (la polarité) des lignes de champ magnétique. Les zones noires représentent des régions où le champ magnétique s’éloigne de l’observateur (polarité négative). Dans les zones blanches, les lignes de champ magnétique pointent vers l’observateur (polarité positive). Les zones grisées sont des régions de champ magnétique d’intensité faible. En effet, dans les taches, le champ magnétique peut atteindre quelques milliers de Gauss (1 Gauss = 10-4 Tesla), tandis qu’en dehors de ces régions (et hors petits tubes de flux) il est de l’ordre de 10 Gauss.
Un autre point est remarquable : les taches de tête (les plus à l’ouest, c’est-à-dire à droite sur le magnétogramme) sont d’une polarité dans un hémisphère (positive dans l’hémisphère nord dans le cas présenté) et de l’autre polarité dans l’autre hémisphère (négative dans l’hémisphère sud). Ces orientations se maintiennent pendant 11 ans et s'inversent au cycle suivant.
Les taches et groupes de taches sont soumis à l’orientation globale de champ magnétique solaire, mais se comportent aussi comme si un aimant était placé juste sous la surface. Nous avons maintenant les éléments suffisants pour comprendre le cycle solaire et l’activité solaire (tout du moins dans la mesure des connaissances actuelles …).
Samuel Heinrich Schwabe (1844) a montré que le nombre apparent de taches sur la surface du Soleil suivait un cycle périodique de 11 ans (voir premier graphe de la figure).
Edward Walter Maunder (1904) compléta la description en montrant que les taches apparaissaient tout d’abord aux hautes latitudes (maximum 40°) puis de plus en plus bas à mesure que le cycle avançait (minimum 5°). Cette description est connue sous le nom de « Diagramme Papillon » (voir second graphe de la figure). A cette époque, le caractère magnétique des taches solaires n’était pas connu. C’est Georg Ellery Hale qui le mit en évidence au début du XXe siècle.
Ce cycle de 11 ans appelle le cycle solaire. La période de 11 ans est en fait une valeur moyenne. Entre 1700 et aujourd’hui les cycles ont varié entre 9 ans et 14 ans pour les valeurs extrêmes.
On peut facilement constater d’après la première figure que le nombre de taches au cours de chaque cycle varie énormément. Il est très difficile, encore à l’heure actuelle, de prévoir les niveaux du cycle à venir et de nombreuses équipes y travaillent à travers le monde. La figure suivante montre la prévision pour le nouveau cycle (numéro 24) dont le début est prévu pour la mi-2007.
Enfin, le « vrai » cycle solaire est plutôt de 22 ans si l’on tient compte de la polarité globale du Soleil. En regardant le Soleil dans sa globalité (grande échelle), il se comporte comme si une barre aimantée, placée en son centre, tournait de façon plus ou moins régulière. Après 11 ans, les pôles nord et sud sont inversés ; il faut attendre de nouveau 11 ans (en moyenne toujours) pour retrouver l’orientation initiale des pôles. La Terre aussi a vu l'inversion de l'orientation de ses pôles magnétiques dans son histoire. La dernière fois, c’était il y a 740 000 ans …
L’aspect du champ magnétique à grande échelle change considérablement au cours du cycle (voir figure).
Le cycle solaire est aussi un indicateur de l’activité éruptive du Soleil. Le nombre d’éruptions solaires suit en effet la même courbe : réduit au moment du minimum des cycles, il augmente très fortement pour atteindre un maximum aux alentours du maximum du cycle (en fait, les derniers travaux sur le sujet sembleraient montrer que le maximum d’activité est atteint environ deux ans après le maximum du cycle).
Bien sûr, tout ceci n’est que statistique et ne concerne que le nombre d’éruptions. Du point de vue de l’intensité, de très fortes éruptions sont souvent enregistrées pendant la phase de décroissance des cycles.
Les éruptions solaires sont les événements les plus énergétiques se produisant dans le système solaire. L'énergie libérée par seconde au cours d'une grande éruption solaire peut atteindre 1022 Joules. L'énergie totale rayonnée est comprise entre 1022 et 1025 Joules. Une petite région peut émettre autant d'énergie en quelques dizaines de secondes que l'ensemble du Soleil.
Parmi toutes les sources d'énergie présentes à la surface du Soleil, celle d'origine magnétique est la seule pouvant expliquer les quantités d'énergie libérées lors d'une éruption solaire. Une éruption s'accompagne d'une émission importante de rayonnement (dans toute la gamme électromagnétique) et de l'accélération de particules à des vitesses proches de celle de la lumière.
On distingue plusieurs types de phénomènes éruptifs :
Ce sont des éruptions qui se déroulent dans la chromosphère et la couronne solaire. Elles ont lieu au sein de régions comprenant plusieurs taches solaires. Ces zones sont alors appelées « régions actives ».
La phase de croissance d’une éruption ne dure que quelques minutes (voir la figure). Actuellement, il est encore difficile de prévoir l’heure d’une éruption ainsi que son intensité. Dans la plupart des cas, on peut, au mieux dire que le risque (ou la chance !) est important ou non selon le degré de « complexité » des lignes de champ magnétique à l’intérieur d’une région active. Une tache solaire isolée et bien « circulaire » a peu de chance de générer un flare. Par contre, si plusieurs taches de polarité opposées sont présentes dans une zone relativement peu étendue, les risques d’éruption sont beaucoup plus grands. Un exemple est donné dans cette figure.
Les éruptions s’accompagnent d’intense rayonnement électromagnétique, notamment dans la gamme des rayons X. Pour décrire une éruption, on utilise une échelle logarithmique basée sur l’intensité en Watts du rayonnement X (dans la gamme 1 à 8 Angstroem).
On parle d’un flare de classe A, B, C, M ou X (dans l’ordre croissant). Il y a un facteur 10 en intensité entre deux classes. A l’intérieur d’une même classe, on donne un chiffre (entre 1 et 9.9) qui précise le degré d’intensité. Une éruption de classe M est plus intense qu’une éruption de classe C et une éruption C1.6 est moins intense qu’une éruption C7.4
Sur les deux graphiques du 26 et du 29 octobre 2003, on peut voir que le Soleil a produit dans l'intervalle de temps 3 éruptions de classe X dont une (le 28) qui a dépassé l’échelle prévue (X-17 : aucune lettre au-dessus de X n'était prévue).
En comparant les deux graphes (qui correspondent à deux dates différentes mais aux mêmes échelles d’intensité), on constate que le niveau moyen de rayonnement X est de 10 à 1000 fois plus important en période proche du maximum du cycle solaire (premier graphe) que de minimum ( second graphe).
Les filaments (ou protubérances quand elles sont vues sur le bord du Soleil, le limbe) sont des structures magnétiques typiques de la chromosphère et basse couronne solaire. Le champ magnétique est peu intense. Elles peuvent s’étendre sur de très grandes distances. Les filaments sont parfois déstabilisés et expulsés dans le milieu interplanétaire.
Ces éruptions de filament entraînent des éjections de masse coronales (CME selon l’acronyme anglais couramment utilisé – Coronal Mass Ejection), sortes de nuages magnétisés qui se propagent dans le milieu interplanétaire à des vitesses allant jusqu'à 2000 km/s. Des particules très énergétiques sont envoyées dans le milieu interplanétaire et celles déjà présentes sont accélérées sont l'impulsion de l'onde de choc qui se déplace en amont des CME. Toutes ces particules très énergétiques viennent se superposer à celles du vent solaire.
Le film ci-contre montre un mois d’observation de la haute couronne solaire. Le petit cercle blanc représente la position du disque solaire. Il a été masqué ainsi que la chromosphère et la basse couronne car l’intensité de la haute couronne est près d'un million de fois plus faible. Les panaches blancs, statiques illustrent les régions d’échappement du vent solaire. De temps en temps, de larges bouffées blanches viennent se superposer. Ce sont des CME, des bulles de plasma qui partent dans le milieu interplanétaire.
L’observation est réalisée par un instrument (LASCO) embarqué à bord du satellite SOHO qui est situé à environ 1,5 millions de kilomètres devant la Terre en direction du Soleil. Quand les éjections de plasma sont dirigées vers la Terre, les particules énergétiques interagissent avec le récepteur de l'instrument et produisent des traînées sur l’image, comme, par exemple, à 3h18 le 27/10/2003 et surtout à 16h27 le 28/10/2003. Dans ce dernier cas, il s’agit d'une éruption X17.
Le 5 novembre 2003, le Soleil a produit une autre éruption classée X28 : en fait tous les récepteurs ont été saturés, d’où la difficulté pour lui donner sa valeur d’intensité maximale. C'est la plus grosse éruption jamais enregistrée.
Les éruptions provoquent des variations rapides et importantes des flux électromagnétiques et des flux de particules très énergétiques envoyées dans le milieu interplanétaire. Nous allons maintenant voir quelles peuvent être les conséquences sur Terre de telles variations.
Les particules (électrons, protons, ions) émises par le vent solaire ou lors des diverses éruptions solaires se propagent librement dans le milieu interplanétaire. Elles vont donc rencontrer des obstacles comme des comètes, des astéroïdes ou des planètes. Nous allons nous intéresser rapidement au cas de la Terre.
La Terre possède un champ magnétique propre (engendré par les mouvements du noyau liquide de fer) dont les pôles nord et sud sont proches (mais non confondus) avec les axes de rotation de la planète. Cette enveloppe magnétique entourant notre planète s’appelle la magnétosphère. Elle permet de dévier les particules du vent solaire. Elle est donc comme une sorte de bouclier magnétique qui protège notre planète des particules très énergétiques et dévastatrices pour toute forme de vie.
La magnétosphère subit aussi la pression du vent solaire : elle est comprimée du côté «jour» et allongée du côté «nuit». La limite extrême de la magnétosphère dans la direction du Soleil est située environ 60 000 km et s'étend sur des distances beaucoup plus considérables dans la direction anti-solaire. La Lune qui gravite à 300 000 km autour de la Terre est donc à l’intérieur ou à l’extérieur de ce bouclier magnétique.
Mais, selon l’orientation relative des lignes de champ magnétique terrestres et interplanétaires, des particules peuvent pénétrer le bouclier magnétique terrestre.
Les particules du vent solaire sont électriquement non neutres. Elles se déplacent en spiralant le long des lignes de champ magnétique interplanétaire. Comme des trains se déplaçant le long de lignes de chemin de fer, elles ne peuvent passer d’une ligne de champ magnétique à une autre que s’il existe une sorte d’aiguillage. Celui-ci peut se produire lors de reconnexion des lignes de champ magnétique de la Terre et du Soleil comme illustré dans le film ci-contre.
Les aurores polaires (boréales dans l’hémisphère nord, australes dans l’hémisphère sud) sont une première manifestation de la précipitation des particules du vent solaire dans la basse atmosphère de la Terre. Les aurores sont des phénomènes courants. Elles se produisent même en période de Soleil calme. Elles ne sont généralement observables qu’aux environs des cercles polaires (nord et sud) formant ainsi un ‘ovale auroral’. En cas de très fortes éruptions solaires, les aurores peuvent être observées à beaucoup plus basses latitudes et remplir l’intégralité de l’ovale auroral.
Si les aurores sont sans danger, la pénétration de particules énergétiques dans notre environnement peut avoir des conséquences plus dramatiques pour nombre de systèmes industriels et technologiques. Le graphe suivant résume les systèmes particulièrement sensibles.
Lorsque de très fortes éruptions solaires, l'intrusion brutale et massive de particules énergétiques dans l'environnement magnétique de la Terre induit des fluctuations importantes du champ magnétique de la Terre. Ces fluctuations induisent des champs électriques qui créent eux-mêmes des différences de potentiel (voltage) d'autant plus importantes sur des structures conductrices de grande dimension. Des nouveaux courants, induits par ces perturbations magnétiques, vont s’écouler le long de structures conductrices, comme par exemple les lignes à haute tension, les oléoducs ou gazoducs, les cables sous marins etc.
Les centrales électriques fonctionnent très souvent en régime maximum (ou très proche du maximum). Un gros surplus de courant peut alors provoquer des surtensions dans les transformateurs et conduire à leur rupture totale. C’est ce qui s’est passé au Canada le 13 mars 1989 : en l'espace de 90 secondes, le Québec a été privé de la moitié de sa production électrique plongeant la population dans un black-out électrique qui a duré près de neuf heures.
Des études récentes ont montré qu'une éruption équivalente à celle qui s'est produite en mai 1921 priverait d'électricité près 130 millions de personnes aux US.
L'écoulement de courant le long des oléoducs provoque des corrosions prématurées des conduites. Passant souvent dans des régions protégées, ces structures nécessitent donc une maintenance particulière.
Les communications longues distances (radio par exemple) utilisent l’ionosphère comme « miroir » pour renvoyer les signaux vers la Terre. Lors de fortes éruptions, les courants ionosphériques sont perturbés entraînant par la même occasion des perturbations des transmissions, voire des coupures totales. Les grandes stations de radio françaises ont pour cela des services chargés du suivi de l’activité solaire pour mettre en place les mesures nécessaires à la bonne transmission des programmes.
Les avions peuvent également subir des black-out de communication (l'exemple le plus célèbre étant celui de Air Force One en 1984, avec le Président de Etats-Unis à son bord).
Enfin, les vols longues distances passent souvent près des pôles, là où viennent se précipiter les particules. Comme ils s’effectuent en plus à haute altitude, les passagers et équipages d’avion peuvent être irradiés. Le problème se pose surtout dans le cas de multiples expositions (vols réguliers, pour les équipages par exemple). C’est une question prise très au sérieux. La Direction Générale de l’Aviation Civile (DGAC) en partenariat avec l’IPEV (Institut Pole Emile Victor), l’IRSN (L'Institut de radioprotection et de sûreté nucléaire), l’Observatoire de Paris et le GSF (GSF-National Research Center for Environment and Health) collabore au service SIEVERT d’évaluation de l’irradiation et des conséquences sur la santé humaine.
Bien sûr, ce problème d’irradiation devient particulièrement critique pour tous les voyages habités en dehors de l’atmosphère et surtout de la magnétosphère terrestre. Comme nous l’avons vu, la Lune passe une partie de son temps en dehors de cette protection. Donc même pour aller sur la Lune, des mesures de protection importantes doivent être prises. Que dire alors de voyages vers d’autres planètes, telle que Mars…
Les flux électromagnétiques varient de façon importante au cours du cycle solaire et lors d’éruptions. C’est par exemple le cas pour les rayons X (nous avons vu que des augmentations d’un facteur 1000 ou plus surviennent en l’espace de quelques minutes lors d’éruptions). Les flux ultraviolets augmentent aussi considérablement.
Ceci a une conséquence directe sur notre atmosphère : celle-ci va en effet légèrement s’échauffer et donc augmenter de volume. Or, un grand nombre de satellites artificiels gravitent à des orbites relativement basses. Une augmentation du volume occupé par l’atmosphère terrestre implique une augmentation de la densité et donc des frottements des satellites qui perdent alors leur altitude.
Des mesures de suivi et de correction de l’altitude sont prises en permanence par les opérateurs et les agences spatiales (quand des moteurs de contrôle d'altitude sont présents sur les satellites, ce qui est loin d'être toujours le cas). Quand les corrections deviennent trop importantes, les satellites sont précipités dans l’océan, de façon contrôlée... ! C’est ce qui s’est passé pour la station orbitale russe MIR.
Le Soleil a bien évidemment une influence sur le climat de la Terre. C’est la seule source d’énergie externe que nous recevons.
Intégré sur toutes les longueurs d’onde, le flux solaire présente de très faibles variations : de l’ordre de 0,1% au cours du cycle solaire. Ces variations sont insuffisantes pour expliquer les changements de température observés.
Par contre, si l’on regarde les variations temporelles des flux en fonction de la longueur d’onde, on s’aperçoit que le flux UV varie de plus de 10% au cours du cycle solaire. Or, ce flux UV est responsable de l’état de la couche d’ozone. Mais ces variations sont liées à l’activité solaire et donc à un cycle de 11 ans.
La question du rôle du Soleil dans le réchauffement climatique doit être abordée du point de vue des échelles des temps et des cycles solaires. Mais ceci dépasse le cadre de ce cours.
Pour aller plus loin, quelques références en français :
et quelques documents en anglais :
Compte tenu des conditions de température et d'irradiation de l'atmosphère solaire, les mesures in situ sont très difficiles. Les sondes se sont approchées à 0.3 Unités Astronomiques du Soleil. Des projets sont en cours d'élaboration pour pénétrer à une distance de 3 rayons solaires dans la couronne. De même, si le vent solaire peut être étudié in situ autour de la Terre et jusque dans les régions des premières planètes géantes, les mesures aux confins de l'héliosphère sont rares et difficiles (seules les sondes VOYAGER, lancées en 1977, ont atteint ces limites en 2004 et 2007).
Pour comprendre les processus physiques se déroulant à l'intérieur du Soleil, dans son atmosphère et aux confins de l'héliosphère, nous n'avons pas d'autre choix que d'étudier le rayonnement électromagnétique qui nous parvient, des rayons γ au rayonnement radio. Les processus d'émission des ondes renseignent sur les conditions physiques au moment de l'émission et dans les régions traversées par ce rayonnement.
Différents types mécanismes d'émission de rayonnement électromagnétique coexistent.
L'agitation des particules constituant un gaz produit un rayonnement continu, dans tout le spectre électromagnétique. C'est le rayonnement thermique. A ce spectre continu se superposent des absorptions (ou émissions) très localisées dans le spectre provenant de processus non-thermiques.
Nous allons voir les principaux types d'émission et les propriétés qu'elles permettent de déduire.
La "lumière" peut être décrite sous la forme d'une onde ou sous la forme d'une particule (le photon). Ces deux notions se sont imposées pour décrire correctement l'interaction de la "lumière" avec des structures solides ou des atomes. Ce que nous appelons communément la "lumière" se réfère en fait à la gamme visible de l'émission d'un Soleil. Mais le Soleil, comme la plupart des étoiles, émet dans une gamme beaucoup plus étendue de longueur d'onde.
Le rayonnement électromagnétique est constitué par un champ électrique et un champ magnétique (dont le vecteur est perpendiculaire au champ électrique) qui oscillent. Une onde est définie par la fréquence de cette oscillation et l'amplitude du champ électrique (l'amplitude du champ magnétique peut être négligée pour ce qui nous intéresse).
Longueur d'onde λ et fréquence ν sont reliées par l'équation :
où c est la vitesse de la lumière. Donc, plus une longueur d'onde est grande plus la fréquence est petite.
L'énergie d'une onde est donnée par : E = hν
où h est la constante de Planck (h=6,6 10-34 J.s). Donc, plus la fréquence est petite (grande longueur d'onde) plus l'énergie de l'onde est petite.
La distribution de l'énergie émise en fonction de la longueur d'onde (ou de la fréquence) s'appelle un spectre.
Le spectre électromagnétique s'étend de façon continue des rayons gamma (très courte fréquence, très grande énergie) au domaine des ondes radio de très grandes longueurs d'onde. Le tableau suivant donne le nom des différents domaines et leurs limites en longueur d'onde.
Nom du domaine spectral | Longueur d'onde |
Gamma - X (dur) | <0,1 nm |
X (mous) | 0,1 - 10 nm |
Extrême UltraViolet (EUV) | 10 - 120 nm |
UltraViolet (UV) | 120 - 400 nm |
Visible | 400 - 800 nm |
Infra-Rouge (IR) | 800nm - 1 mm |
Radio | >1 mm |
Noms et limites (en longueur d'onde) des différents domaines spectraux. L'abbréviation classique des différents domaines est aussi indiquée avec le nom.
L'agitation thermique des particules constituant un corps produit un rayonnement continu, dans tout le spectre électromagnétique. Ce rayonnement thermique est décrit par la loi du corps noir (absorbant parfait).
Le Soleil, comme la plupart des étoiles, rayonne comme un corps noir. La loi fondamentale, la loi de Planck, donne l'intensité (autrement appelée luminance) en fonction de la longueur d'onde :
avec :
h la constante de Planck (h=6,6 10-34 J.s), c la vitesse de la lumière (c=3 108 m.s-1) et la constante de Boltzman (=1,38 10-23 J.K-1)
L'intensité décrit donc la puissance rayonnée par unité de surface, d'angle solide et de longueur d'onde. La figure ci-contre montre la courbe d'intensité pour des étoiles de température différente en fonction de la longueur d'onde. Deux points sautent aux yeux :
Ces deux remarques sont exprimées par deux lois lois simplifiées déduites de la loi de Planck.
La loi de Wien relie la longueur d'onde maximale à la température de surfaceT :
μm.K
Nous retrouvons bien que plus une étoile est chaude plus la longueur d'onde du maximum d'intensité est petite (vers le bleu).
La loi de Stephan donne l’émission totale (en tenant compte de toutes les longueurs d'onde) du corps par unité de surface :
Avec σ = 5,6698 x 10-8 W.m-2.K-4
Enfin, considérons le cas où le terme dans l'exponentielle de la loi de Planck est petit :
La loi de Planck se simplifie alors pour donner la loi de Rayleigh-Jeans :
Dans le cas des basses fréquences (grandes longueurs d'onde), l'intensité est directement proportionnelle à la température.
Données :
1a) Déterminez la température (dite effective) du Soleil sachant que son pic d'émission () se situe à 500 nm. Même question pour la Terre ( = 9,6 μm).
1b) Calculez le rapport de température .
2a) A partir des résultats précédents, déterminer la longueur d'onde minimale pour l'utilisation de la loi de Rayleigh-Jeans dans le cas du Soleil et de la Terre.
2b) A quelle domaine de longueur d'onde / fréquence avons-nous à faire ?
A partir des résultats précédents, calculez l’émission totale du Soleil (à sa surface) ainsi que celle de la Terre. Une analyse dimensionnelle explicite des résultat est demandée.
En déduire l'énergie solaire par unité de surface reçue au niveau de la Terre (appelée constante solaire C : elle est mesurée au-dessus des nuages). Dans l’exercice on négligera la hauteur des nuages au-dessus de la surface de la Terre devant la distance Soleil-Terre.
Le rayonnement thermique donne un spectre continu. Cependant, si nous regardons attentivement le spectre solaire, nous nous apercevons qu'il est parsemé de stries noires. Elles sont appelées "raies d'absorption" car elles correspondent à l'absorbtion du rayonnement (le fond continu) par des atomes présents (principalement) dans l'atmosphère du Soleil.
L'état énergétique d'un atome, d'un ion ou d'une molécule n'est pas continu mais quantifié. Un atome passe d'un niveau d'énergie à un autre par palier (par la suite nous ne parlerons que d'atome pour ne pas alourdir le texte mais ce qui est décrit s'applique également aux ions et aux molécules). Un atome absorbe (ou émet) de l'énergie correspondant à chaque saut de palier. Ainsi, un photon qui possède une énergie exactement égale à un saut énergétique d'un atome donné sera absorbé.
Chaque atome possède une "carte énergétique" propre : les sauts autorisés pour le fer par exemple ne sont pas ceux du carbone ou de l'hydrogène. Ainsi, la position de ces raies d'absorption permettent de connaître les éléments présents dans l'atmosphère solaire. La "carte énergétique" d'un atome est connue par les physiciens atomistes.
L'hélium a ainsi été découvert sur le Soleil avant d'être trouvé sur Terre, d'où son nom !
Les atomes ayant absorbé de l'énergie sont dits excités. Ils ne resteront pas dans cet état pour une longue durée. Ils vont se désexciter en retombant directement ou par paliers successifs dans un état énergétique plus stable. Ce faisant, ils vont émettre des photons (paquets d'onde électromagnétique) correspondants à ce(s) saut(s) énergétique(s). Autrement dit, un atome peut émettre un photon à la même énergie qu'il peut en absorber. La longueur d'onde d'émission (d'absorption) est directement liée au saut énergétique franchi :
avec h la constante de Planck, c la vitesse de la lumière, la fréquence et la longueur d'onde. Ainsi, plus la longueur d'onde est grande (fréquence petite) plus l'énergie du photon est petite.
Nous avons vu le processus d'émission et d'absorption de la lumière par un atome en l'appliquant dans le domaine visible du spectre solaire. Mais le phénomène conduit également à des l'absorption et de l'émission dans l'infrarouge ou l'ultraviolet.
La figure ci-contre montre un exemple de profils de raie : il s'agit simplement d'une coupe horizontale dans le spectre montré précédemment. Les atomes ou molécules ayant produit ces raies d'absorption sont indiqués. Des éléments lourds tels que du magnésium (Mg), du fer (Fe) ou du carbone (C) sont présents. Ces atomes n'ont pas été produit par le Soleil. Ils proviennent du nuage protosolaire. Ce sont donc des résidus d'anciennes étoiles ayant explosées dans le passé.
Le phénomène d'absorption se produit tout au long du parcours des photons entre leur point d'émission et celui d'observation. En ce qui concerne le rayonnement solaire, une autre source d'absorption est aussi présente lors d'observation depuis le sol : l'atmosphère terrestre. C'est ainsi que l'on voit apparaître la signature de molécule d'eau sur le spectre solaire. Est-ce à dire qu'il y a de l'eau sur le Soleil ? Non, bien sûr. Pour bien s'en convaincre, il suffit de regarder comment ces raies disparaissent d'un moment à l'autre de la journée ou d'une journée à l'autre. L'absorption est en effet plus ou moins forte selon la densité de molécules absorbantes le long du trajet du rayonnement.
Comme on peut le constater sur la figure, la profondeur relative des raies varie énormément. Certaines raies produisent une absorption d'à peine 10% alors que les raies du Mg produisent une absorption de près de 90% du rayonnement. La forme, la profondeur, la largeur et la position de ces raies vont fournir des indicateurs pour déduire la température, la densité et la vitesse moyenne du milieu.
Les raies ne sont pas toutes formées à la même altitude dans l'atmosphère du Soleil (voir un exemple ici). En observant des raies formées à différentes altitudes, on peut ainsi déduire une carte non seulement en deux dimensions (le plan d'observation) mais en trois dimensions du Soleil (en ajoutant la hauteur grâce à des observations simultanément dans plusieurs raies spectrales).
Vous souhaitez observer la photosphère et la chromosphère simultanément. En vous aidant de la figure précédente, choisissez un couple de raies pour mener à bien votre observation (on pourra ne pas se limiter à une gamme de longueur d'onde en faisant l'hypothèse que vous utilisiez des instruments différents).
Comment peut-on déduire température, densité, vitesse ?
Sans entrer dans le détail car c'est un domaine fort compliqué, surtout en physique solaire où les détails des profils spectraux sont si fins que beaucoup de processus physiques doivent être pris en compte. Nous allons juste en donner les grandes lignes.
Cette ligne de recherche s'appelle le transfert de rayonnement. Comme son nom l'indique, il s'agit de comprendre comment le rayonnement est transféré d'une couche à l'autre de l'atmosphère en prenant en compte tous les processus d'émission et d'absorption.
On considère un morceau de plasma illuminé par dessous. L'intensité du rayonnement incident sur cette tranche de plasma est prédéfinie par un modèle (par exemple la loi du corps noir). Ensuite, on établit un modèle d'atmosphère pour notre tranche de plasma. Elle a donc une composition (avec un plus ou moins grand nombre d'atomes selon la raie que l'on veut modéliser), une densité (pour chacun des atomes inclus), une température, une vitesse. Nous nous plaçons pour l'instant dans le cas ou nous pouvons négliger la présence d'un champ magnétique.
Le rayonnement incident d'intensité I va donc traverser cette tranche de Soleil fictif. Il subira un certain nombre d'absorption et d'émission. Quelle intensité peut-on espérer à la sortie de notre tranche de plasma ? Quelle forme aura le profil de la raie qui nous intéresse ?
Tout revient à connaître précisément le taux d'émission et d'absorption dans notre tranche de plasma. C'est là que les soucis commencent ... Selon que le milieu laisse ou non passer tout ou partie des photons les équilibres à écrirent deviennent plus complexes. Des connaissances précises des transitions énergétiques autorisées pour chaque élément sont nécessaires. C'est là que les "physiciens atomistes" interviennent pour nous aider !!
Les équations sont rentrées en un programme qui va traiter l'avancement des photons au sein de chaque tranche de plasma dont l'accumulation représentera l'atmosphère totale. Le profil de raie résultant sera alors comparé aux observations. Si le modèle ne donne pas satisfaction, le modèle atmosphérique est changé jusqu'à obtenir un résultat ajustant les observations.
Ce processus itératif peut être optimisé par une connaissance précise de l'impact des différents paramètres (température, densité, etc.) sur les raies. Certaines raies sont en effet plus sensibles à la température alors que d'autres seront plus sensibles à la densité. Rapidement, la température va influencer la largeur d'une raie, la densité la profondeur de la raie et la vitesse la position de la raie.
Tous les photons ne sont pas dus à des transitions des électrons d'un atome. Un très grand nombre d'entre eux sont émis suite à l'accélération d'une particule chargée. On distingue alors plusieurs sortes de rayonnement en fonction du type d'accélération subit par la particule.
En particulier, le Soleil, le milieu interplanétaire et les planètes produisent de larges émissions dans le domaine radio. Nous allons maintenant en voir quelques exemples.
Lors d'éruptions solaires, des particules sont accélérées à de très fortes énergies. Ces particules se propagent le long des lignes de champ magnétique interplanétaire, formant parfois des faisceaux de particules. En se propageant, ces particules vont provoquer des émissions dans le domaine radio. Nous allons voir les processus de base de ces émissions (le détail est en dehors des limites de ce cours : c'est encore un sujet d'investigation fortement débattu !)
On distingue deux types d'émissions radio : les émissions de type II et de type III. Un exemple de ces émissions est présenté sur la figure figure ci-contre. Ce rayonnement électromagnétique est caractérisé par une dérive en fréquence de l'émission en fonction du temps. Du point de vue observationnel, la différence principale entre ces deux types d'émission réside dans la pente de la dérive de l'émission avec le temps : les émissions de type III dérivent beaucoup plus vite que les émissions de type II.
Les faisceaux en se déplaçant dans le milieu interplanétaire produisent ce que l'on appelle des "ondes de Langmuir" à une fréquence proche d'une fréquence particulière appelée "fréquence plasma" qui s'écrit :
avec la fréquence plasma (en Hz), est la densité d'électrons, la charge élémentaire (1,6 x 10-19 c), la masse de l'électron (9 x 10-31kg), la constante diélectrique (8,8 x 10-12 F. m-1).
Pour concrétiser le sujet, supposons que nous soyions dans le vent solaire. Une densité typique est 10 particules.cm-3. La fréquence plasma vaut alors 28 kHz : nous sommes dans la gamme des ondes radio.
Ces ondes sont électrostatiques : elles ne se propagent pas. Seules des mesures dans la source de ces ondes permettent de les mesurer, et donc de déterminer la densité n du milieu. Toutefois, par certains processus, ces ondes sont transformées en ondes électromagnétiques qui, elles, vont se propager et qui sont à une fréquence proche de cette fréquence plasma.
Comme le faisceau se déplace dans un milieu dont la densité décroit quand la distance au Soleil augmente, la fréquence diminue avec le temps. C'est ce qui explique la dérive en fréquence des émissions avec le temps.
On utilise ces pentes de dérive pour déterminer la vitesse des faisceaux de particules. En effet, on peut montrer que la pente peut s'écrire :
où df/dt représente la variation de la fréquence en fonction du temps (la pente dans le diagramme précédent), , V la vitesse du faisceau d'électrons, n(r) un modèle de densité électronique en fonction de la distance au Soleil et dn(r)/dr la variation de cette densité en fonction de la distance au Soleil. Donc, si l'on se donne un modèle de densité électronique dans le milieu interplanétaire, on peut déduire V à partir de la mesure de pente df/dt.
Les particules des faisceaux d'électrons produisant les émissions de type III ont une vitesse plus grande que dans le cas des émissions de type II. Vrai ou faux ? Justifiez.
Ce mécanisme d'émission de rayonnement résulte du comportement collectif des particules - des électrons - accélérées. En effet, si un plasma subit une perturbation, ses électrons vont spontanément et collectivement se mettre à osciller à la fréquence particulière appelée fréquence plasma. Elle donne l'échelle de temps caractéristique de la réponse collective des électrons à la perturbation (les protons, beaucoup trop massifs, peuvent être considérés comme immobiles). C'est une des caractéristiques fondamentales d'un plasma.
Cette fréquence est donnée par :
avec la fréquence plasma (en Hz), est la densité d'électrons, la charge élémentaire (1,6 x 10-19 c), la masse de l'électron (9 x 10-31kg), la constante diélectrique (8,8 x 10-12 F. m-1). Si on peut mesurer la fréquence plasma, on peut déterminer la densité du milieu. Les ondes à cette fréquence sont électrostatiques : elles sont constituées par un champ électrique qui oscille, sans champ magnétique - contrairement à des ondes électromagnétiques - et ne se propagent pas. Elles sont convectées par le milieu si celui-ci se déplace ; c'est donc par le biais de mesures in-situ que l'on peut les mesurer.
La fréquence plasma constitue une fréquence de coupure pour un milieu : en-dessous de cette fréquence les ondes ne se propagent plus.
En dehors de cette émission plasma, due au comportement collectif des particules accélérées, chaque particule émet du rayonnement à une fréquence proportionnelle à l'intensité du champ magnétique :
où indique la norme du produit de la charge d'un électron et du champ magnétique. On appelle cela le rayonnement cyclotron qui se trouve être un rayonnement du domaine radio. La mesure de cette fréquence permet de déterminer le champ magnétique dans des régions où les méthodes spectroscopiques échouent (quand le champ magnétique est trop faible).
Quand les particules émettrices de rayonnement cyclotron atteignent des vitesses non négligeables devant celle de lumière, la fréquence, et donc l'énergie, du rayonnement est augmentée d'un facteur et on parle alors de rayonnement synchrotron.
Avec
Où v est la vitesse de la particule émettrice et c la vitesse de la lumière. Étant donné la valeur du champ magnétique dans la couronne solaire et la vitesse des particules accélérées au cours d'une éruption, les sursauts synchrotrons solaires sont généralement observés dans le domaine centimétrique et millimétrique.
Energie de l'électron | ||
10 GHz | 3 cm | 1,5 MeV |
102 GHz | 3 mm | 3 MeV |
103 GHz | 0,3 mm | 13 MeV |
104 GHz | 0,3 mm | 44 MeV |
Tableau de correspondance entre la fréquence synchrotron (en GHz), la longueur d'onde équivalente, l'énergie des électrons (en MeV). Les valeurs sont données pour un champ magnétique de 500 Gauss.
Lors d'éruption particulièrement violentes, les particules peuvent atteindre des énergies très importantes (108 MeV) et être très relativistes. Le rayonnement synchroton obtenu est alors dans la gamme des rayons X et γ. Ce dernier rayonnement résulte également de transitions énergétiques dans le noyau (et non le cortège électronique) des atomes.
Lorsqu'un électron s'approche d'un ion, il ressent son champ électrique et subit une accélération qui est d'autant plus grande que l'électron passe près de l'ion. S'il passe à une distance suffisament petite, l'accélération peut être assez violente pour provoquer une émission dans le domaine des rayons X appelée alors rayonnement de freinage (il est généralement nommé par son nom allemand : bremstrahlung).
Les raies spectrales nous permettent d'obtenir des informations sur la composition du milieu traversé par le rayonnement mais elles nous disent encore beaucoup d'autres choses.
La figure ci-contre représente le spectre solaire avec des raies d'absorption identifiées par des lettres. Complétez la table suivante à partir des éléments connus.
Désignation | Elément | Longueur d'onde (nm) |
A | O2 | 759.370 |
H | 656.281 | |
a | O2 | 627.661 |
D1 | Na | |
He | 587.5618 | |
E2 | Fe | |
Mg | 517.270 | |
b4 | Fe | 516.891 |
H | 486.134 | |
Fe | 430.774 | |
Ca+ | 396.847 | |
K | Ca+ | |
P | Ti+ | 336.112 |
T | Fe | 302.108 |
La première colonne indique la désignation de la raie en accord avec le spectre ; la deuxième colonne indique le nom de l'élément ayant donné lieu à la raie ; la troisième colonne donne la longueur d'onde de la raie (en nm).
L'effet Doppler permet de recueillir des informations sur la vitesse globale des atomes à partir des raies spectrales. Quand un atome qui émet un photon à la longueur d'onde se déplace, la longueur d'onde observée sera déplacée d'une quantité dépendant de cette vitesse V :
Les raies spectrales vont donc être décalées vers les grandes fréquences si l'objet observé s'approche de l'observateur et vers les fréquences plus petites si l'objet s'éloigne. La mesure du décalage spectral peut donc nous donner une information sur la vitesse de l'objet observé, le long de la ligne de visée. C'est aussi la technique utilisée pour mesurer le décalage vers le rouge des galaxies.
Au niveau photosphérique, le Soleil effectue une rotation équatoriale en 25 jours. Sachant que le diamètre du Soleil est de 1,4 106 km, déduire le décalage entre les longueurs d'onde des bords est et ouest du Soleil dans la raie Hα de l'hydrogène (656,3 nm).
En présence d'un champ magnétique, certaines raies spectrales se retrouvent subdivisées en plusieurs raies fines et elles sont polarisées. La polarisation d'une raie signifie que le champ électrique de l'onde oscille en décrivant des figures spécifiques : cercle, segment de droite ou ellipse. La polarisation est alors circulaire, linéaire ou elliptique respectivement. Ce phénomène s'appelle l'effet Zeeman.
Nous allons regarder un exemple restreint mais qui permet de comprendre comment les magnétogrammes sont obtenus.
Quand le champ magnétique est aligné avec la ligne de visée, la polarisation des ondes est circulaire. Les raies sont divisées en deux raies séparées de la longueur d'onde centrale (celle en absence de champ magnétique) par :
où est la longueur d'onde (exprimée en Angstroem - 1 A = 0,1 nm), B est l'intensité du champ magnétique (exprimé en Gauss) et est appelé facteur de Landé. Ce facteur est caractéristique de la raie spectrale considérée.
La séparation est donc d'autant plus grande que :
Nous avons vu qu'en observant plusieurs raies simultanément, on peut déduire des cartes de température, de densité, etc. en 3 dimensions. En couplant aussi des mesures de polarisation, on peut aussi dresser des cartes 3D du champ magnétique.
Calculer la séparation Zeeman des deux raies suivantes, en présence d'un champ magnétique de 1000 Gauss :
Ce chapitre est une présentation de quelques problèmes de physique sous forme de cours ou d'exercices appliqués au Soleil. Ce chapitre est d'une difficulté plus soutenue, et nécessite une certaine familiarité avec les équations.
Le Soleil émet du rayonnement, donc de l'énergie, dans toute les directions de l'espace. En mesurant l'énergie du rayonnement reçu au niveau de la Terre, on peut remonter à l'énergie totale émise par le Soleil. La puissance émanant du Soleil et reçue au niveau de la Terre est la constante solaire.
Difficulté : ☆☆ Temps : 10 minutes
Sachant que la puissance provenant du Soleil reçue par la Terre au niveau des nuages est de 1360 W m-2 (la fameuse "constante solaire"), et sachant que le Soleil est à 150 millions de km de la Terre, en déduire la puissance rayonnée par le Soleil.
Supposons que le Soleil soit tout simplement une boule de gaz à l'équilibre hydrostatique. C'est-à-dire que le Soleil est une boule de rayon , au repos, et dont la température T , la densité ρ et la pression P ne dépendent que du rayon r où l'on se place.
Étudions un élément infinitésimal cylindrique de cette boule. Cet élément, situé à une distance r du centre du Soleil, est de section ds et de hauteur dr. Sa densité est celle du milieu environnant, ρ(r), et sa masse vaut dm = ρ(r) dr ds (voir figure ci dessous) :
Trois forces s'exercent sur ce cylindre de gaz. Deux forces de pression P(r)ds et P(r+dr)ds ainsi que le poids du cylindre :
où est la constante universelle de gravitation et M(r) est la masse totale contenue dans la sphère de rayon r, soit :
avec
Supposer que le Soleil est au repos implique que la somme des forces s'exerçant sur ce cylindre est nulle. C'est-à-dire que la différence entre les forces de pression est exactement équilibrée par la force de gravité. On a donc l'équation d'équilibre hydrostatique locale :
Pour obtenir une équation globale, multiplions chaque membre de l'équation par le volume
et intégrons le résultat entre r=0 et r= .
Le membre de droite donne :
Où Ep est l'énergie potentielle gravitationnelle et l'énergie potentielle gravitationnelle totale du Soleil.
Le membre de gauche donne :
où Pcentre est la pression au centre du Soleil et en supposant que la pression est nulle à sa surface. Une intégration par partie donne :
En faisant l'hypothèse des gaz parfaits on a : PV=NkBT où N est le nombre totale de particules dans le système et kB la constante de Boltzman. En remarquant que l'énergie interne du système s'écrit , on peut récrire l'équation des gaz parfaits en :
où ρe est la densité volumique d'énergie interne. En la réinjectant dans l'équation précédente le membre de gauche donne finalement :
où est l'énergie interne totale du Soleil. Au final, l'équation d'équilibre hydrostatique intégrée donne donc :
.
Cela signifie que si le Soleil se contracte et que son énergie potentielle diminue de ΔEp, son énergie thermique augmente de ΔET=ΔEp/2 et le Soleil se réchauffe. Pendant une contraction, la moitié de l'énergie potentielle gravitationnelle en jeu est donc convertie en énergie interne. L'autre moitié est en fait évacuée sous forme de rayonnement.
Difficulté : ☆ Temps : 5 minutes
On a vu que le rayonnement solaire peut être alimenté par la contraction du Soleil. Sachant que le Soleil est vieux de plus de 4 milliards d'année, que sa masse vaut 2.1030 kg, son rayon 7.108 m, la constante de gravitation =6,7.10-11 m3 kg-1 s-2 et connaissant la puissance rayonnée par le Soleil (d'après l'exercice précédent ), cette hypothèse est-elle réaliste ?
Difficulté : ☆☆ Temps : 10 min
En conservant les hypothèses mentionnées ci-dessus et en supposant de plus que le Soleil est de densité homogène et uniquement composé d'hydrogène dont un atome pèse μ=1,6.10-27 kg, en déduire la température approximative du milieu de l'intérieur solaire.
Faisons maintenant l'hypothèse absurde que la couronne solaire est à l'équilibre thermodynamique. Cela se traduit par l'égalité entre l'énergie thermique et l'énergie cinétique des particules du milieu, ce que l'on peut écrire :
où mp et <vp2> sont respectivement la masse et la vitesse quadratique moyenne d'un proton dans la région considérée, k la constante de Boltzmann et T la température du milieu.
Si l'on se place dans la couronne, à une distance de 3 rayons solaires, où la température est estimée à 3 millions de Kelvin, on peut en déduire <vp> :
On trouve donc <vp2>1/2 ≈ 2,7 105 m.s-1.
Calculons maintenant la vitesse d'évasion, grâce à l'équation :
Ce qui permet d'en déduire la vitesse d'évasion :
On trouve donc une vitesse d'évasion de 2,5 105 m.s-1. Légèrement inférieure à la vitesse thermique des protons du milieu. Cela signifie donc qu'une grande partie des particules s'échappe alors de l'attraction solaire, formant ainsi le vent solaire.
L'atmosphère du Soleil étant magnétisé, il est intéressant d'étudier la trajectoire des particules chargées en présence d'un champ magnétique. Nous considérons un champ magnétique uniforme dirigé suivant l'axe z. Nous considérons une particule dont les composantes de la vitesse sont suivant x et y. L'équation fondamentale de la dynamique décrivant le mouvement d'une particule chargée dans un champ magnétique s'écrit :
Les quantité v et B sont vectorielles. En projetant cette équation, on obtient les équations suivantes :
Soit:
En tenant compte des conditions initiales différentes pour la composante x et y, on trouve :
Les composantes de la vitesse de la particule oscillent entre -Vc et +Vc à la fréquence de Larmor définit par :
Ces équations définissent donc une rotation de la particule dans le plan (Oxy) perpendiculaire à la direction du champ magnétique. Autrement dit, une particule se propage dans le champ magnétique suivant un mouvement de rotation dans un plan perpendiculaire à la direction du champ magnétique. Une particule accélérée se propage donc dans l'atmosphère solaire en suivant les lignes de champ magnétique. De même, les particules chargées émises par le Soleil se propagent dans l'espace interplanétaire en suivant les lignes de champ magnétique.
L'équation de la dynamique des particules chargées dans un champ électrique et magnétique s'écri t:
v, E et B sont des quantités vectorielles. En multipliant à droite et à gauche par v, on obtient :
Soit:
L'énergie cinétique vaut 1/2 mv2. La variation d'énergie de la particule est donc uniquement due au travail du champ électrique. Étudier l'accélération des particules lors des éruptions solaires revient donc à comprendre l'apparition et le développement de champs électriques intenses dans l'atmosphère solaire. La théorie physique décrivant le couplage du plasma avec le champ magnétique prédit un développement turbulent du champ électrique aux petites échelles spatiales lors d'une éruption solaire.
Champ: astrométrie
Le but de ce TP est de se familiariser avec la notion de champ en astronomie de position: un télescope donne accès à un morceau de ciel, morceau de la sphère céleste (voir le cours), mais l'image donné par le télescope ne donne pas directement la position d'un corps observé. Pour cela, il est nécessaire de calculer la correspondance entre les unités mesurées sur l'image (millimètres) et les unités de repérage sur le ciel (angles: ascension droite et déclinaison).
Nous étudierons des images de champ contenant un astéroïde. Le calcul à la main est peu précis mais permet de comprendre la notion d'échelle (et d'orientation si nécessaire).
Cinq documents seront à photocopier pour que les élèves travaillent dessus : images à mesurer et feuilles de calcul. Les mesures se feront au double décimètre.
Le TP se déroulera suivant le plan suivant :
Ce TP peut avoir comme prolongement le travail par Internet puisque images, catalogues d’étoiles et éphémérides sont disponibles sur Internet.
Ayant vu comment l'image se formait derrière un télescope, on va choisir le télescope adéquat pour obtenir des images permettant d'effectuer les mesures.
La mesure de la position des astéroïdes, des satellites des planètes et des comètes est essentielle à plusieurs titres:
Nous allons donc étudier des images de ces corps, détecter ceux-ci, les identifier et mesurer leurs positions.
Ces objets ne sont visibles depuis la Terre que comme des petits points lumineux sans diamètre apparent semblables aux étoiles. Seul leur mouvement trahit leur présence et c’est le changement de position en quelques minutes qui va trahir leur présence. Les comètes sont souvent entourées d’un halo lumineux : la chevelure et la queue.
Ci-contre, deux images de l’astéroïde (53) Kalypso prises le 22 septembre 2000 à une demie heure d’intervalle. On détecte l’astéroïde grâce à son déplacement entre les deux poses. Les éphémérides donnent aussi sa position qui permet de le retrouver parmi les étoiles.
La technique photographique ou d'imagerie électronique se pratique donc avec un télescope fournissant une image d'une partie du ciel, un "champ" dont la dimension est mesurée en angle sur le ciel.
Bien que l'on connaisse a priori la distance focale du télescope utilisé, celle-ci n'est pas connue avec suffisamment de précision pour transformer des mesures en millimètres sur l'image en angles sur le ciel. Pour cela, il est nécessaire d'avoir une image de l'objet inconnu entouré d'images d'étoiles de catalogue dont on connaît très précisément les coordonnées. Le processus de réduction astrométrique va permettre de calculer l'échelle de l'image qui transformera des millimètres en angle et l'orientation qui indiquera la direction de l'est selon l'équateur céleste. Cela nous conduira aux positions en ascension droite et déclinaison cherchées. Ce processus de réduction astrométrique doit être appliqué pour chaque image pour plusieurs raisons:
Ces effets sont pris en compte en introduisant des inconnues dans le processus de réduction. Un plus grand nombre d'étoiles de rattachement est alors nécessaire pour étalonner le champ observé. La haute précision astrométrique est à ce prix.
Les catalogues d'étoiles ont beaucoup progressé au cours des dernières années et on dispose actuellement d'un "bornage" dense du ciel par les étoiles de catalogue.
On trouvera ci-dessous le processus d'identification d'objet et de choix d'étoiles d'étalonnage dans le cas du satellite Phoebe de Saturne (que l'on observe comme un astéroïde).
Ci-contre, en premier, le champ du satellite Phoebé de Saturne, pris le 21 mars 1998 à 2h 52m UTC à l'observatoire de Haute Provence (champ de 12 minutes de degré, télescope de 120cm). On identifie l'astre mobile de deux manières:
L'objet mobile Phoebé est indiqué par la flèche jaune.
Il reste à identifier des étoiles connues de catalogue qui permettront d'étalonner le champ (détermination de l'échelle en angle par millimètre et de l'orientation par rapport au repère équatorial des ascensions droites et des déclinaisons). Ci-dessus une carte de champ extraite du "Guide Star catalogue", un catalogue très dense d'étoiles construit pour permettre le pointage du Télescope Spatial.
Nous allons appliquer cette méthode au champ de l'astéroïde Kalypso et utiliser le catalogue USNO A2 à la place du Guide Star Catalogue qui contient ne contient pas assez d'étoiles pour ce champ.
Ci-dessus à droite le champ de l'astéroïde (53) Kalypso pris le 22 septembre 2000 avec le télescope de 120 cm de l'observatoire de Haute-Provence. le champ fait 12 x 12 minutes de degré. l'astéroïde est brillant (magnitude 12) et aisément identifiable. Sur l’image de gauche prise à une autre date (DSS), l'astéroïde n'est pas présent.
Connaissant la position approchée de l’astéroïde, on peut tracer une carte des étoiles du champ observé à partir d’un catalogue. Il faudra identifier les étoiles du catalogue sur l’image observée pour pouvoir effectuer le rattachement de la position de l’astéroïde aux étoiles connues. Ces étoiles vont nous permettre d’étalonner le champ, d’en déterminer les constantes.
Nous utiliserons le catalogue USNO A2 qui contient 526 millions d’étoiles et donc un grand nombre d’étoiles de notre champ. Le tracé de ces étoiles est fourni ci-après dans le troisième document servant à la réalisation du TP. L'objet brillant au centre, non reconnu comme étoile du catalogue, est l'astéroïde (53) Kalypso
Ce type de carte de champ peut être obtenu sur le serveur du Centre de Données Astronomiques de Strasbourg. On lui fournit les coordonnées du centre du champ et on visualise une image du champ avec les étoiles de catalogue.
Pour effectuer le calcul à la main de la position de l'astéroïde Kalypso, on utilisera les documents papiers accompagnant le TP. Ces documents, présentés ci-après, pourront être photocopiés ou imprimés à partir des fichiers.
Quatrième document: la table des positions des étoiles du catalogue destinées au calcul de l'échelle.
positions théoriques des étoiles du catalogue USNO A2 repérées sur l'image
Identificateur | Ascension droite | Déclinaison | Magnitude |
---|---|---|---|
82520053748 | 23 54 52.542 | -05 41 20.51 | 12.40 |
82520053126 | 23 54 43.819 | -05 38 19.71 | 12.50 |
82520052478 | 23 54 33.875 | -05 37 21.41 | 12.50 |
82520051997 | 23 54 26.803 | -05 43 06.50 | 12.80 |
82520055017 | 23 55 07.756 | -05 41 12.72 | 13.30 |
82520052983 | 23 54 41.765 | -05 47 48.88 | 13.90 |
82520054578 | 23 55 02.377 | -05 38 51.13 | 14.30 |
82520052326 | 23 54 31.498 | -05 41 15.74 | 14.70 |
82520054253 | 23 54 58.399 | -05 43 59.81 | 14.90 |
82520052090 | 23 54 28.026 | -05 44 01.35 | 15.00 |
82520052287 | 23 54 30.910 | -05 48 17.70 | 15.30 |
82520055220 | 23 55 10.202 | -05 43 09.38 | 15.70 |
82520053548 | 23 54 50.166 | -05 43 00.56 | 15.80 |
82520052631 | 23 54 36.460 | -05 42 09.80 | 15.80 |
82520055374 | 23 55 11.900 | -05 42 30.74 | 15.90 |
82520052714 | 23 54 37.482 | -05 37 54.20 | 16.10 |
82520054604 | 23 55 02.720 | -05 40 35.10 | 16.20 |
82520054676 | 23 55 03.555 | -05 39 06.47 | 16.20 |
82520054236 | 23 54 58.238 | -05 44 44.29 | 16.40 |
82520053162 | 23 54 44.374 | -05 44 26.35 | 16.40 |
82520052426 | 23 54 33.115 | -05 37 38.89 | 16.60 |
82520053306 | 23 54 46.732 | -05 37 39.43 | 16.70 |
82520054010 | 23 54 55.667 | -05 45 58.29 | 16.70 |
82520052467 | 23 54 33.765 | -05 40 51.53 | 16.90 |
82520052859 | 23 54 39.897 | -05 43 57.57 | 17.10 |
82520053989 | 23 54 55.368 | -05 43 06.07 | 17.20 |
82520053848 | 23 54 53.706 | -05 42 47.13 | 17.20 |
82520054369 | 23 54 59.647 | -05 42 20.52 | 17.30 |
82520054733 | 23 55 04.462 | -05 42 14.82 | 17.30 |
82520052502 | 23 54 34.472 | -05 44 27.53 | 17.40 |
82520053512 | 23 54 49.552 | -05 40 09.49 | 17.50 |
82520054773 | 23 55 04.940 | -05 47 03.27 | 17.60 |
82520054929 | 23 55 06.888 | -05 38 52.18 | 17.60 |
82520052014 | 23 54 27.025 | -05 48 48.26 | 17.70 |
82520054178 | 23 54 57.649 | -05 40 16.77 | 17.90 |
82520052708 | 23 54 37.362 | -05 45 42.49 | 18.00 |
82520052595 | 23 54 35.776 | -05 44 31.15 | 18.00 |
82520053211 | 23 54 45.163 | -05 46 20.79 | 18.10 |
82520053113 | 23 54 43.660 | -05 39 38.96 | 18.50 |
82520052625 | 23 54 36.232 | -05 39 14.89 | 18.50 |
Cinquième document: la feuille de calcul. Cette feuille donne la succession des étapes de calcul afin d'arriver à la position de l'astéroïde Kalypso par interpolation des mesures effectuées sur le premier document.
Cette feuille permet d'effectuer les calculs qui permettront de déterminer les positions alpha(a) et delta(a) de l'astéroïde à partir de ses positions mesurées Xa et Ya et des positions théoriques des étoiles alpha(i), alpha(j), ... et delta(i), delta(j),... grâce aux formules suivantes:
alpha(a) = alpha(i) + {(alpha(i)-alpha(j))/(Xj-Xi)} x (Xa-Xi)
delta(a) = delta(i) + {(delta(i)-delta(j))/(Yj-Yi)} x (Ya-Yi)
Valeurs de i, j (étoiles choisies) | calcul en ascension droite | valeurs numériques | calcul en déclinaison | valeurs numériques |
---|---|---|---|---|
alpha(i) sexagésimal | delta(i) sexagésimal | |||
alpha(i) décimal | delta(i) décimal | |||
alpha(j) sexagésimal | delta(j) sexagésimal | |||
alpha(j) décimal | delta(j) décimal | |||
alpha(j)-alpha(i) décimal | delta(j)-delta(i) décimal | |||
Xi | Yi | |||
Xj | Yj | |||
Xj-Xi | Yj-Yi | |||
Position mesuré de l'astéroïde: | Xa | Ya | ||
Xa-Xi | Ya-Yi | |||
Echelles de l'image: | échelle en ascension droite: (alpha(j)-alpha(i))/(Xj-Xi) | échelle en déclinaison: (delta(j)-delta(i))/(Yj-Yi) | ||
alpha(a) décimal = alpha(i)+échelle x (Xa-Xi) | delta(a) décimal = delta(i)+échelle x (Ya-Yi) | |||
Résultat: | alpha(a) sexagésimal | delta(a) sexagésimal |
On va maintenant voir le résultat du calcul précis effectué en étalonnant le champ comme indiqué dans le cours à l’aide de constantes de cible pour déterminer l’échelle, l’orientation et les déformations du champ..
Notons que si un grand nombre de calcul à la main sont réalisés simultanément avec des étoiles et des mesures différentes, on constatera que la majorité des résultats seront proches du bon résultat.
On comparera également les résultats aux valeurs théoriques calculées avec les modèles dynamiques du mouvement de l'astéroïde Kalypso (grâce aux serveurs sur Internet indiqués sur la page des liens Internet). Ces valeurs théoriques, données dans les pages suivantes avec la valeur observée précise, montrent qu'elles diffèrent selon le modèle utilisé et qu'il est donc utile d'effectuer des observations qui aideront à améliorer les modèles utilisés.
Le catalogue USNO A2 contient beaucoup d'étoiles et toutes ne sont pas susceptibles de servir pour l'étalonnage du champ: il faut choisir des étoiles bien ponctuelles (pour en déterminer la position avec précision), pas trop brillantes (les étoiles brillantes ont un mouvement propre dont nous ne tenons pas compte ici) et bien situées par rapport à Kalypso (on diminue l'erreur sur la mesure en choisissant des étoiles éloignées mais situées de part et d'autre de Kalypso).
Les étoiles dans un cercle jaune sont les étoiles sélectionnées pour l'étalonnage; les étoiles barrées d'une croix rouge sont celles qui se sont avérées mauvaises, comme on le verra dans l'algorithme de calcul présenté à la page suivante.
Le calcul de l'échelle du cliché (passage des positions mesurées en millimètres aux positions angulaires -ascension droite et déclinaison-) se fait à partir des positions des étoiles du catalogue. Deux étoiles suffisent mais l'emploi de plusieurs autres étoiles et la moyenne des mesures vont augmenter la précision.
Une fois les mesures sur l'image réalisées et les étoiles de catalogue choisies, le logiciel va déterminer la transformation qui fera passer des millimètres sur l'image aux positions angulaires sur le ciel. La précision et la qualité du calcul sera estimée grâce aux étoiles en surnombre: comme nous avons plus de données que nécessaires, le logiciel doit résoudre un système comportant plus d'équations que d'inconnues. La méthode des moindres carrés est une méthode statistique qui va minimiser les erreurs commises. Chaque étoile va se positionner par rapport aux autres avec un "résidu" d'autant plus grand que la position théorique ou mesurée de l'étoile est mauvaise, c'est-à-dire incompatible avec celle des autres étoiles.
#-------------------------------------------------------------------------------- # > Parametres de la réduction : # + Date : 22/09/2000 # + Heure (UTC) : 22 h 22 m 37,9 s # + Jour julien : 2451810.432383 # # + Nombre d'objets réduits : 1 # + Nombre d'étoiles choisies : 11 # + Degré du polynôme : 1 # + Nombre de coefficients de la transformation : 2x4 # # > Solution astrométrique (position alpha et delta de Kalypso) : # ascension droite: 23h 54m 46,1440s déclinaison: -05° 43' 4,547" # # > Constantes de la transformation: # + en X : A(1) = 0.00139 +/- 0.27833 # A(2) = -0.00439 +/- 0.00170 # A(3) = 0.68412 +/- 0.00120 constante donnant l'échelle en X (est-ouest) de l'image en secondes de degré par pixel # A(4) = 0.00000 +/- 0.00001 # + en Y : B(1) = -0.01200 +/- 0.17874 # B(2) = 0.68352 +/- 0.00109 constante donnant l'échelle en Y (nord-sud) de l'image en secondes de degré par pixel # B(3) = 0.00328 +/- 0.00077 # B(4) = 0.00000 +/- 0.00001 # # > Résidus pour chaque étoile (en secondes de degré en ascensuin droite et en déclinaison) : # alpha delta # 2 1.80590 0.12206 UA2_082520053848 # 2 0.31413 -0.45747 UA2_082520053162 # 2 -0.74127 0.93308 UA2_082520054010 # 2 -0.32438 -0.78833 UA2_082520054236 # 2 0.31699 0.02706 UA2_082520055220 # 2 -1.25452 0.43274 UA2_082520054604 # 2 0.34332 -0.38676 UA2_082520054178 # 2 0.03323 0.40231 UA2_082520053512 # 2 -0.28936 -0.19379 UA2_082520052467 # 2 -0.24685 0.45504 UA2_082520052631 # 2 -0.11133 0.10896 UA2_082520052859
L'étoile UA2_082520053848 ayant un résidu très fort, on va recommencer le calcul en l'éliminant.
#-------------------------------------------------------------------------------- # > Parametres de la réduction : : # + Date : 22/09/2000 # + Heure (UTC) : 22 h 22 m 37,9 s # + Jour julien : 2451810.432383 # # + Nombre d'objets réduits : 1 # + Nombre d'étoiles choisies : 10 # + Degré du polynôme : 1 # + Nombre de coefficients de la transformation: 2x4 # # > Solution astrométrique (position alpha et delta de Kalypso) : # 1 ascension droite: 23h 54m 46,1328s déclinaison: -05° 43' 4,552" # # > Constantes de la transformation: # + en X : A(1) = 0.00087 +/- 0.19587 # A(2) = -0.00433 +/- 0.00115 # A(3) = 0.68396 +/- 0.00081 constante donnant l'échelle en X (est-ouest) de l'image en secondes de degré par pixel # A(4) = 0.00000 +/- 0.00001 # + en Y : B(1) = -0.01304 +/- 0.20234 # B(2) = 0.68353 +/- 0.00118 constante donnant l'échelle en Y (nord-sud) de l'image en secondes de degré par pixel # B(3) = 0.00327 +/- 0.00083 # B(4) = 0.00000 +/- 0.00001 # # > Résidus pour chaque étoile (en secondes de degré en ascension droite et en déclinaison) : # alpha delta # 2 0.48937 -0.45143 UA2_082520053162 # 2 -0.52822 0.94044 UA2_082520054010 # 2 -0.10951 -0.78090 UA2_082520054236 # 2 0.56728 0.03574 UA2_082520055220 # 2 -1.03071 0.44049 UA2_082520054604 # 2 0.54311 -0.37985 UA2_082520054178 # 2 0.19516 0.40790 UA2_082520053512 # 2 -0.19164 -0.19043 UA2_082520052467 # 2 -0.12136 0.45936 UA2_082520052631 # 2 0.04638 0.11439 UA2_082520052859 #--------------------------------------------------------------------------------
On va éliminer les trois étoiles UA2_082520054010 UA2_082520053162 UA2_082520054604, qui ont un résidu trop important.
#-------------------------------------------------------------------------------- # > Paramètres de la réduction : # + Date : 22/09/2000 # + Heure (UTC) : 22 h 22 m 37,9 s # + Jour julien : 2451810.432383 # # + Nombre d'objets réduits : 1 # + Nombre d'étoiles choisies : 7 # + Degré du polynôme : 1 # + Nombre de coefficients de la transformation : 2x4 # # > Solution astrométrique (position alpha et delta de Kalypso) : # 1 ascension droite: 23h 54m 46,1381s déclinaison: -05° 43' 4,635" # # > Constantes de la transformation : # # + en X : A(1) = 0.03729 +/- 0.05869 # A(2) = -0.00371 +/- 0.00040 # A(3) = 0.68499 +/- 0.00022 constante donnant l'échelle en X (est-ouest) de l'image en secondes de degré par pixel # A(4) = 0.00000 +/- 0.00000 # + en Y : B(1) = 0.00032 +/- 0.21348 # B(2) = 0.68418 +/- 0.00145 constante donnant l'échelle en Y (nord-sud) de l'image en secondes de degré par pixel # B(3) = 0.00277 +/- 0.00079 # B(4) = 0.00000 +/- 0.00001 # # > Résidus pour chaque étoile (en secondes de degré en ascension droite et en déclinaison) : # alpha delta # 2 -0.17783 -0.36279 UA2_082520054236 # 2 0.13728 0.47162 UA2_082520055220 # 2 -0.03863 -0.40857 UA2_082520054178 # 2 -0.10602 0.38440 UA2_082520053512 # 2 0.04433 -0.20424 UA2_082520052467 # 2 -0.01781 0.42496 UA2_082520052631 # 2 0.05272 0.10933 UA2_082520052859 #--------------------------------------------------------------------------------
Les résidus sont maintenant convenables et on va adopter la position calculée de Kalypso:
alpha = 23h 54m 46,1381s; delta = -05° 43' 4,635"
On pourra comparer les valeurs trouvées à la main avec cette valeur ou avec les valeurs calculées par les serveurs d'éphémérides de l'Institut de mécanique céleste (IMCCE), du Jet Propulsion Laboratory (NASA) ou du MPC (Minor Planet Center).
Valeur de l'IMCCE: alpha = 23h 54m 46,09s; delta = -5° 43' 5,13"
Valeur du MPC: alpha = 23h 54m 46s; delta = -5° 43' 0"
Valeur du JPL: alpha = 23h 54m 45,53s; delta = -5° 43' 9,6"
Tout ce qui a été effectué dans les pages précédentes peut être refait en utilisant Internet. On peut:
Le but de ce TP est de faire connaissance avec les petits corps du système solaire et avec la façon de mesurer leur position sur la sphère céleste. On manipule ainsi des images et des catalogues d'étoiles..
Ce travail peut être fait en classe en utilisant le matériel fourni –les cinq documents à imprimer et à distribuer- et en travaillant sur ces champs imprimés sur lesquels on superpose du papier millimétré. Les calculs font appel à la notion d'échelle et au maniement des nombres sexagésimaux. La notion d'orientation sera plus difficile à aborder. On abordera aussi la notion de statistique: chaque élève ou groupe d'élèves peut faire le calcul avec, pour chacun, un couple d'étoiles différent et on comparera ensuite les résultats. La moyenne de tous les résultats est une bonne approximation à condition d'éliminer les résultats "aberrants". On comparera les résultats au calcul théorique donné par les serveurs d'éphémérides ou dans l'annuaire du Bureau des longitudes (Ephémérides astronomiques).
Ce travail peut également se faire en récupérant tout le matériel et en utilisant des serveurs sur Internet comme indiqué dans le chapitre V.
Merci de nous faire part de vos commentaires et suggestions par e-mail à: arlot @ imcce.fr
Niveau: **
Temps: 4 h 00
Champ: Astronomie Temps Calendriers Soleil Terre Lune
Le travail proposé ici consiste, à partir de l'objet "calendrier de la Poste", à faire une recherche sur les informations qu'il contient, rechercher leur origine, leur signification, étudier leur implication dans notre vie quotidienne et aussi, en utilisant les différentes informations astronomiques données par ce calendrier, à étudier différents points d'astronomie, qui, pour beaucoup d'entre eux, concernent également notre vie quotidienne.
L'objectif est d'amener les élèves à faire un travail d'enquête, tant historique que scientifique, à mener une étude scientifique, à manipuler des données numériques à partir d'un tableau de données, et aussi à acquérir un regard critique.
Ce TP est adaptable aux classes de tous niveaux depuis l'école primaire jusqu'aux dernières classes de lycée.
On choisira autant que possible des calendriers "à l'ancienne" c'est-à-dire avec les saints du jour et le "comput ecclésiastique" portés sur la partie calendrier. On réunira, si c'est possible, des calendriers provenant des différents éditeurs, et correspondant à différentes années, en particulier l'année précédente.
Ce TP est adaptable aux classes de tous niveaux depuis l'école primaire jusqu'aux dernières classes de lycée.
Le but de ce TP est de rendre les élèves familiers avec les notions fondamentales à la base de notre calendrier en utilisant pour cela un objet d'usage quotidien qui se trouve dans de nombreuses familles, puisqu'il est tiré à 18 millions d'exemplaires : le "Calendrier des Postes", appelé maintenant "l'Almanach du Facteur". Ce document procède d'une vieille tradition puisqu'il existe depuis 1856 (voir figure 1).Il contient, bien sûr, les renseignements permettant de calculer les "ponts" de l'année et d'établir ses dates de vacances, ce qui en est de fait l'usage le plus courant, mais il contient de surcroît un très grand nombre d'informations - les unes traditionnelles, les autres scientifiques, et parfois aussi certaines se rattachant à la superstition - qui se prêtent particulièrement bien à une recherche et une étude critique de la part des élèves.
Ainsi, au cours de ce TP, les élèves rencontreront des éléments d'astronomie ainsi que des éléments d'histoire des sciences, d'histoire politique et d'histoire des religions. Ils seront amenés à se poser des questions à partir d'un objet à ce point familier que plus personne ne songe à le regarder en détail.
Les informations données ici peuvent être utilisées de façons différentes suivant le niveau et les centres d'intérêt des élèves et correspondent à des pistes à explorer dans un sens ou dans un autre. A plusieurs reprises, nous avons détaillé comment les élèves les plus jeunes peuvent utiliser le calendrier des postes et les informations qu'il contient.
On notera que les fêtes religieuses célébrées dans le calendrier légal français concernent essentiellement la religion catholique. On peut inviter les élèves désirant étudier un calendrier correspondant à une autre religion, à faire eux-mêmes leur propre recherche et établir un dossier.
L'écoulement du temps peut être apprécié par deux processus différents, d'abord par le temps correspondant à une évolution, une usure (les plantes, les animaux, les hommes naissent, grandissent, vieillissent et meurent), et ensuite par les phénomènes cycliques correspondant aux spécificités de notre planète et de ses mouvements. Ainsi, il est évident que si notre Terre tournait toujours sa même face vers le Soleil, comme le fait la Lune par rapport à la Terre, ou si notre atmosphère était opaque au rayonnement visible comme l'est l'atmosphère de Vénus, nous n'aurions pas la même perception du temps, tel qu'il est pour nous scandé par la succession des jours et des nuits. En effet, l'alternance nuit-jour est la première et la plus évidente mesure du temps. Cependant, pour conserver la mémoire des évènements et également se projeter dans l'avenir et pouvoir le programmer, le cycle jour-nuit est trop court et très vite, dès que le laps de temps considéré est trop long, défie la mémoire. Il importe de trouver un autre cycle plus long.
Le deuxième cycle que nous fournit l'astronomie correspond aux phases de la Lune : on voit la Lune, d'une nuit à l'autre, croître, atteindre le premier quartier, puis la rotondité parfaite, décroître ensuite jusqu'au dernier quartier, et continuer à décroître pour enfin disparaître.
Le troisième cycle utilisé nous est perceptible par le retour des saisons et correspond au trajet de la Terre sur son orbite autour du Soleil. Le cycle lunaire sera plus important pour les populations nomades, vivant dans des régions où la différence des saisons est peu marquée, et qui ont besoin de connaître les phases de la Lune pour déterminer les nuits où il sera possible de voyager dans le désert à la clarté lunaire, évitant ainsi la chaleur du jour. Le cycle solaire sera indispensable aux populations agricoles dont l'activité est rythmée par les saisons, afin de déterminer en particulier l'époque des semailles. Notre calendrier utilise chacun des trois cycles, mais est plus fondamentalement basé sur le Soleil.
Une année correspond donc au temps que met la Terre à effectuer sa révolution autour du Soleil. On peut aussi la définir par la période du mouvement apparent du Soleil autour de la sphère céleste. Une année ne correspond pas à un nombre entier de jours, non plus qu'à un nombre entier de lunaisons, lesquelles ne correspondent pas non plus à un nombre entier de jours. Ce sont là les raisons qui ont rendu l'établissement du calendrier si compliqué. Une année vaut 365,24220 jours en moyenne. Une lunaison vaut en moyenne : 29,530588 jours civils ou 29 jours 12 heures 44 minutes 2,8 secondes. Une année contient 12 lunaisons + 10,875 jours.
Nous rappelons d'abord brièvement quelques notions d'histoire du calendrier occidental afin d'expliciter l'origine de certains éléments qui rythment notre vie quotidienne. On pourra faire rechercher par les élèves l'origine de ces différentes notions.
Alors que le calendrier romain était particulièrement désordonné, il était devenu nécessaire d'y mettre de l'ordre. C'est alors que le calendrier julien fut établi par Jules César, conseillé par l'astronome grec Sosigène d'Alexandrie. Dans le calendrier julien, la durée moyenne de l'année est de 365,25 jours. Après trois années communes de 365 jours, vient une année bissextile de 366 jours, qui arrive tous les ans dont le numéro est divisible par 4. Pour honorer César et pour célébrer sa réforme du calendrier, on lui consacra un mois que l'on appela Juillet. Cependant, sa réforme fut d'abord mal comprise. De la même façon que dans la langue française, l'expression "tous les quinze jours" signifie en fait : "tous les quatorze jours" ou de même : "tous les huit jours" signifie en fait "tous les sept jours", le jour à ajouter tous les quatre ans, fut en fait compris comme étant à ajouter tous les trois ans. L'erreur fut corrigée par Auguste, à qui un mois fut également dédié : ce fut le mois d'août. Mais comme juillet est un mois qui comporte 31 jours, Auguste ne pouvait pas être honoré par un mois plus court que celui de César. Et voila pourquoi juillet et août ont tous les deux 31 jours ! L'effet d'une décision purement politique perdure depuis deux millénaires et nous apparaît actuellement totalement illogique
On voit sur la figure 2 qui représente les équinoxes de printemps pendant cinquante années consécutives qu'il y a effectivement un décalage d'une année à une autre de la date de l'équinoxe de printemps et que ce décalage est assez bien rattrapé par une année bissextile tous les quatre ans. On voit cependant que ce rattrapage n'est pas parfait et qu'il reste une dérive sensible à partir d'un certain nombre d'années. En fait, l'année tropique, valeur moyenne de l'intervalle de temps séparant deux passages consécutifs du Soleil à l'équinoxe, est un peu plus courte que l'année julienne, ce qui entraînait un décalage croissant entre le calendrier et le mouvement du Soleil. En particulier, l'établissement des saisons dans le calendrier julien ne correspondait plus à la réalité. La réforme grégorienne, ordonnée par le pape Grégoire XIII en 1582 eut pour principal objet de rétablir l'accord entre le calendrier et le mouvement du Soleil. L'équinoxe de printemps devait coïncider avec une date aussi proche que possible du 21 mars.
Pour retrouver un calendrier plus proche de la réalité astronomique, il fallait d'une part adopter un calendrier plus précis et d'autre part rattraper le retard accumulé.
La première de ces conditions fut satisfaite en donnant au calendrier grégorien les caractéristiques suivantes : les années continuent à être bissextiles de quatre ans en quatre ans ; toutefois les années séculaires (c'est-à-dire dont le millésime se termine par deux zéros), qui toutes sont bissextiles dans le calendrier julien, cessent de l'être et deviennent communes dans le calendrier grégorien, sauf celles dont les deux premiers chiffres sont divisibles par quatre. Ainsi, 1900, comme 1800 et 1700, n'est pas bissextile, alors que 2000, comme 1600, l'est. On voit sur la figure 3 comment le fait que l'année 1900 ne soit pas bissextile compense la dérive observée dans la date de l'équinoxe de printemps. En revanche, la figure 2 montre une année 2000 bissextile. L'inexactitude du calendrier grégorien par rapport aux données astronomiques correspond à 0,0003 jour par an, soit environ une journée tous les 3000 ans.
La deuxième des conditions fut remplie comme suit : l'année julienne avait accumulé un retard de près de 10 jours. Pour le compenser, Grégoire XIII ordonna la suppression de dix quantièmes dans le calendrier de l'année, de sorte qu'à Rome, le jeudi 4 octobre 1582 fut immédiatement suivi du vendredi 15 octobre. En France, la suppression de 10 jours eut lieu en décembre 1582 par lettres patentes du roi Henri III et le dimanche 9 décembre 1582 eut pour lendemain le lundi 20 décembre. Si dans les pays catholiques, la réforme grégorienne fut vite adoptée, parce que cette réforme avait été créée par un pape, il n'en fut pas de même dans les pays d'une autre religion, c'est à dire les pays protestants, orthodoxes et musulmans. Comme le faisait remarquer Voltaire avec dérision, "Il vaut mieux avoir tort contre le pape que raison avec lui". En Grande-Bretagne, c'est seulement en 1752 qu'aboutit la réforme grégorienne : le mercredi 2 septembre fut suivi du jeudi 14 septembre, le retard du calendrier julien ayant encore augmenté d'un jour.
Dates d'adoption du calendrier grégorien dans différents pays : 1582 : Italie, Espagne, Portugal, France, Pays-Bas catholiques ; 1584 : Autriche, Allemagne catholique, Suisse catholique; 1586 : Pologne ; 1587 : Hongrie ; 1610 : Prusse ; 1700 : Allemagne protestante, Pays-Bas protestants, Danemark, Norvège ; 1752 : Grande-Bretagne, Suède ; 1753 : Suisse protestante ; 1873 : Japon ; 1912 : Chine ; 1917 : Bulgarie ; 1918 : URSS ; 1919 : Roumanie, Yougoslavie ; 1923 : Eglises orthodoxes orientales ; 1924 : Turquie.
A cause du retard pris par le calendrier russe, ce qu'on coutume d'appeler "la Révolution d'Octobre" a en fait eu lieu en novembre. Lors de courrier avec l'étranger, les Russes vivant avant 1919 utilisaient les deux dates, russe et occidentale. Le calendrier julien est encore utilisé dans l'église orthodoxe, au moins pour la date de Pâques, comme cela peut être facilement remarqué lors des informations télévisées.
Le mois est à l'origine basé sur la longueur d'une lunaison. Les noms et les longueurs de nos mois actuels proviennent du calendrier romain dont l'histoire des modifications est particulièrement confuse.
Nom des mois :
On notera que la signification des noms des quatre derniers mois de l'année ne correspond plus à rien de nos jours.
La semaine est aujourd'hui en usage chez presque toutes les nations civilisées. Sa durée de sept jours l'apparente aux phases de la Lune. Son emploi en Occident date seulement du IIIe siècle de notre ère. Le dimanche est adopté comme jour de repos par les peuples chrétiens depuis un décret de Constantin en 321. Les musulmans se reposent le vendredi et les Israélites le samedi. Dans la plupart des langues européennes, les noms de jours sont associés aux sept astres mobiles que les anciens avaient décelés sur la voûte céleste.
Au Moyen Age, suivant les époques et les endroits, l'année commençait le 1er mars, le 25 mars, à Noël ou à Pâques. Pour mettre fin aux ambiguïtés, un édit de Charles IX, signé en 1564, mais qui prit effet en 1567, rendit obligatoire la date du 1er janvier.
On discernera parmi les jours fériés ceux qui sont d'origine politique ou historique, et qui le plus souvent changent d'un pays à un autre, et ceux qui sont d'origine religieuse. Le calendrier ecclésiastique est à la fois lunaire et solaire. Certaines fêtes religieuses sont fixes par rapport à notre calendrier qui est solaire. Les fêtes à date fixe adviennent donc un jour quelconque de la semaine, qui change tous les ans. Ces fêtes sont Noël (25 décembre), l'Assomption (15 août) et la Toussaint (1er novembre). D'autres fêtes, sont mobiles par rapport à notre calendrier mais fixes par rapport au calendrier lunaire. Ces fêtes religieuses à date mobile (donc advenant toujours le même jour de la semaine, mais à des dates différentes) sont : Pâques, l'Ascension et la Pentecôte. Pâques se produit toujours un dimanche ; l'Ascension, qui survient 40 (ou plutôt 39) jours après Pâques, se produit toujours un jeudi, et la Pentecôte, qui survient 10 jours après l'Ascension, se produit toujours un dimanche.
En 525 Denys le Petit, exégète romain, fixa la naissance du Christ au 25 décembre de l'an 753 ab urbe condita - depuis la fondation de Rome -. Cette décision, non seulement fixait la date de Noël, mais fixait aussi l'origine du décompte des années de notre calendrier. On pense actuellement qu'il y a en fait une erreur de plusieurs années dans le décompte des années nous séparant de la naissance du Christ.
Depuis le concile de Nicée (325), la fête de Pâques doit être célébrée le premier dimanche qui suit la 14e nuit de la lune qui atteint cet âge le 21 mars ou immédiatement après. Ce qui revient à dire plus simplement que Pâques est fixé à la 1ère nuit de samedi à dimanche après la pleine lune de printemps, laquelle a lieu soit le 21 mars, soit immédiatement après. La date de Pâques dépend donc de la façon dont se placent, par rapport aux jours de l'année, à la fois les lunaisons et les jours de la semaine. Selon la date des lunaisons et les jours de la semaine, Pâques peut tomber au plus tôt le 22 mars et au plus tard le 25 avril. Les dates extrêmes, c'est-à-dire les 22-23- 24 mars et les 24-25 avril correspondent à une seule combinaison : "jours de la semaine/lunaison", alors que les autres dates peuvent correspondre à plusieurs possibilités entre les lunaisons et les jours de la semaine, et adviennent donc plus fréquemment.
On s'interrogera sur certains renseignements qui figurent sur le calendrier de la Poste, année après année et dont la signification a disparu de nos mémoires.
Nous commencerons par le comput ecclésiastique qui est porté, pour de simples raisons de place disponible, à la fin du mois de février. Voir figure 4.
Le comput ecclésiastique est un ensemble d'opérations permettant de calculer chaque année les dates des fêtes religieuses mobiles et particulièrement celle de Pâques. Ses éléments sont : le nombre d'or, l'épacte, la lettre dominicale, le cycle solaire et l'indiction romaine.
Comment utiliser le comput ecclésiastique avec des élèves ?
On peut tout d'abord faire rechercher par les élèves les significations des différents éléments du comput telles qu'elles sont données ci-dessus. On peut aussi faire des exercices pratiques. Par exemple :
Nous donnons ici la signification de quelques autres informations figurant discrètement sur le calendrier.
Les Quatre Temps sont signalés sur certaines éditions du calendrier par les lettres QT portées à quatre reprises à côté du saint du jour. Voir figure 7.
Autrefois, périodes de trois jours de pénitence et de jeûne (mercredi, vendredi et samedi) situées respectivement après : le 3ème dimanche de l'Avent, le 1er dimanche de carême, le dimanche de la Pentecôte, et le 17ème dimanche après la Pentecôte. Leur origine, très lointaine (les Quatre-Temps furent célébrés par le pape Sirice au IVème siècle), est mystérieuse. C'est probablement une reprise de célébrations païennes marquant les semailles, les moissons et les vendanges.
Certains calendriers comportent aussi les lettres ja et a, signifiant respectivement jeûne et abstinence et abstinence. De même, certains calendriers comportent les lettres JS, VS, et SS, signifiant respectivement Jeudi Saint, Vendredi Saint et Samedi Saint, et se situant les trois jours précédant le dimanche de Pâques. Les lettres SC signifient Sacré Cœur, qui se fête le vendredi après le dimanche de la Fête Dieu, lui même situé deux semaines après le dimanche de Pentecôte.
Les phases de la Lune, l'indication des saisons et les dates des éclipses de Lune et de Soleil figurent également sur le calendrier, et sont étudiées ci-après.
Pour la deuxième partie de ce TP on utilise à de nombreuses reprises des données figurant sur une des pages intérieures du calendrier.
Les dates et les heures du début des saisons sont données sur la partie externe du calendrier. Le début du printemps correspond à l'équinoxe de printemps qui a lieu le 20 ou 21 mars, le début de l'été correspond au solstice d'été qui a lieu le 21 juin, le début de l'automne correspond à l'équinoxe d'automne qui a lieu le 22 ou 23 septembre, et le début de l'hiver correspond au solstice d'hiver qui a lieu le 21 ou 22 décembre. La position de la Terre par rapport au Soleil aux solstices et aux équinoxes est donnée figure 8.
A partir de ces informations, on fait le décompte des jours et des heures de chacune des saisons. Pour calculer la longueur de l'hiver, on aura, en toute rigueur, besoin de deux calendriers correspondant à deux années successives, mais ceci peut être négligé en première approximation, l'erreur étant de quelques heures et donc inférieure au phénomène que nous voulons mettre en évidence. Par ailleurs, certains calendriers utilisent le Temps Universel (TU), et d'autres le temps légal. Le temps légal est égal à TU + 1h l'hiver et TU + 2 h l'été. On fera attention à utiliser un système cohérent pour les heures, TU étant le plus logique. Cependant, l'erreur commise en utilisant les heures légales données dans certains calendriers, est ici aussi bien inférieure à la différence de longueur entre deux saisons. On constate que les saisons sont de longueurs inégales. Ainsi le printemps dure 92 jours 20 h, l'été 93 jours 15 h, l'automne 89 jours 19 h et l'hiver 89 jours.
On explique par la deuxième loi de Képler les longueurs différentes des diverses saisons. En effet, la trajectoire de la Terre autour du Soleil n'est pas un cercle parfait mais une ellipse dont le Soleil occupe un des foyers (première loi de Képler). La deuxième loi de Képler dit : "le rayon vecteur Terre-Soleil décrit des aires égales en des temps égaux". La Terre va plus vite sur sa trajectoire quand elle est près du Soleil. Voir figure 9.
On remarque que, contrairement à ce que l'hiver régnant alors dans l'hémisphère Nord pourrait nous laisser penser, c'est au mois de janvier que la Terre se trouve le plus près du Soleil : en effet, le périhélie a lieu le 4 janvier, et c'est au mois de juillet qu'elle en est le plus loin : l'aphélie a lieu le 4 juillet.
Tout d'abord on notera que dans la langue française le mot "jour" a deux significations différentes. Dans le premier sens, il correspond à une durée de 24 h et dans le deuxième sens, il s'oppose à la nuit et correspond à l'intervalle de temps situé entre le lever et le coucher du Soleil. On peut utiliser le terme "nycthémère" pour l'intervalle de 24 h comportant un jour et une nuit, mais ce terme n'est à manier devant les élèves qu'avec la plus extrême précaution ! Jusqu'ici, nous n'avons parlé du jour que dans le sens "nycthémère", et maintenant nous parlons de l'intervalle de temps situé entre le lever et le coucher du Soleil, que nous appellerons : la journée.
On se rapporte à la page intérieure intitulée "Levers et couchers du Soleil et de la Lune" et on étudie la partie de la table donnant les heures de levers et de couchers du Soleil. Attention, les tables sont parfois établies en temps universel, et parfois en temps civil, et ici, à l'inverse de ce que nous avons vu plus haut, la différence n'est pas négligeable. Quand les tables sont établies en temps universel, l'établissement des graphiques astronomiques en est simplifié, mais il faudra préciser que l'on doit rajouter une heure l'hiver et deux heures l'été pour retrouver le temps civil (ou légal) qui est le temps de notre vie quotidienne. Quand elle sont établies en temps civil, il est préférable de retrancher l'heure supplémentaire d'hiver et les deux heures supplémentaires d'été afin de travailler de façon cohérente.
On porte sur un même graphique les heures des levers et couchers de Soleil tout au long de l'année, en utilisant un ou deux jours par mois (le premier jour du mois, ou le 1er et le 15 du mois), et on voit ainsi la variation de la longueur du jour selon les différents moments de l'année. Un tel graphique est montré figure 10.
On peut aussi tracer le graphique : longueur de la journée tout au long de l'année, avec : (longueur de la journée) = (heure du coucher de Soleil) - (heure du lever de Soleil). On remarque que la longueur des jours et des nuits varie très vite au moment des équinoxes et très lentement au moment des solstices. Il est très important de noter qu'il s'agit de Paris, et que la variation de la longueur des jours au cours de l'année est moindre quand on va vers le Sud et accentuée vers le Nord. Les levers et couchers de Soleil en France aux équinoxes, au solstice d'été et au solstice d'hiver sont montrés sur les figures 11.
Préciser aussi que, quel que soit le lieu, le total des heures de jour et le total des heures de nuit sont égaux sur l'ensemble de l'année.
On calculera plus précisement la longueur des jours correspondant aux équinoxes et aux solstices, les dates des équinoxes et des solstices étant données, comme nous l'avons vu plus haut, par les débuts des différentes saisons figurant sur la partie externe du calendrier. En utilisant par exemple les données présentées figure 12, telles qu'elles sont données dans le calendrier de la Poste, nous constatons avec surprise que lors des équinoxes, le jour est un peu plus long que la nuit, alors que les équinoxes ont précisement été définies comme les jours où le jour est égal à la nuit et durent tous deux 12 h. L'explication en est la suivante : à cause de la réfraction de la lumière du Soleil dans les couches basses de l'atmosphère, réfraction qui dévie les rayons lumineux et qui est illustrée figure 13, le Soleil nous apparaît un peu plus haut au dessus de l'horizon qu'il ne l'est en réalité. Il apparaitra donc le matin au dessus de l'horizon un peu plus tôt et disparaîtra le soir un peu plus tard sous l'horizon que ce qui est prévu par les calculs de mécanique céleste, nous accordant ainsi quelques minutes de lumière en plus. C'est ce même phénomène qui fait que le Soleil nous apparaît déformé et aplati juste après son lever ou juste avant son coucher.
Si on calcule la longueur de la journée pour tous les jours des mois de juin et juillet, on constate que le jour le plus long se situe bien au solstice d'été, le 21 juin, mais il y a un décalage entre les jours où le Soleil se couche le plus tard et les jours où le Soleil se lève le plus tôt. les données permettant ce calcul et mettant ce décalage en valeur, sont présentées figure 14.
De la même façon, si on calcule la longueur de la journée pour les mois de décembre et janvier, on trouve bien que le jour du solstice d'hiver correspond au jour le plus court (21 ou 22 décembre), mais il y a un décalage encore plus net entre les jours où le Soleil se lève le plus tard et les jours où le Soleil se couche le plus tôt, puisqu'il n'y a même pas de recouvrement entre les deux intervalles de temps ainsi définis. Ce calcul peut être fait à partir de la figure 15.
Ainsi que nous l'avons vu plus haut, il est préférable en toute rigueur d'utiliser des calendriers correspondant à deux années consécutives pour l'étude des levers et couchers de Soleil autour du solstice d'hiver, cependant en première approximation, on peut utiliser le calendrier d'une seule année en utilisant les données du début et de la fin de l'année.
Ce décalage entre les jours d'heure extrême de coucher de Soleil et les jours d'heure extrême de lever de Soleil est dû aux variations du jour "nycthémère" tout au long de l'année, phénomène que nous détaillons ci-après.
En calculant la demi-somme de l'heure du lever et de l'heure du coucher du Soleil, soit 1/2(heure du lever + heure du coucher), on obtient en première approximation l'heure du midi vrai, c'est-à-dire le milieu du jour, l'heure où le Soleil passe au méridien de Paris. On peut faire ce calcul pour un ou deux jours de chaque mois et on porte les résultats sur un graphique, tel la figure 16.
On notera qu'on ne peut pas porter ces résultats sur le graphique précédemment tracé concernant la longueur des jours, car les quantités étudiées ne sont pas du tout du même ordre de grandeur. On s'attendrait à ce que le Soleil passe au méridien à 12 h, mais on s'aperçoit qu'il n'en est rien. On obtient une courbe variant tout au long de l'année, les deux points extrêmes correspondant environ au 15 février et au 1er novembre.Tout d'abord, si on fait la moyenne des "midis vrais" du calendrier, c'est-à-dire la moyenne des points de la courbe obtenue, on trouve un peu moins que 12 h. Ceci provient de ce que le temps universel est établi à partir de Greenwich et que Paris est à l'est de Grenwich. Plus précisement, le Soleil passe au méridien de Paris 9 minutes 21 secondes avant d'atteindre le méridien de Greenwich, comme on peut le voir figure 17, et cet intervalle de temps correspond au décalage entre la valeur moyenne de la courbe obtenue et 12 h. On en déduit la longitude de Paris, sachant que 24 h de temps correspondent à 360° de rotation terrestre.
Comme on le voit figure 18, la forme de la courbe étudiée correspond à la somme de deux sinusoïdes, l'une de période six mois et l'autre de période un an. Cette courbe est appelée "l'équation du temps" Elle est due à deux caractéristiques de la position et du mouvement de la Terre. Tout d'abord, parce que sa trajectoire n'est pas un cercle parfait mais une ellipse dont le Soleil occupe un des foyers, la Terre va plus ou moins vite suivant les moments de l'année, comme le veut la deuxième loi de Kepler et ainsi que nous l'avons déjà vu quand nous avons calculé la longueur des différentes saisons. Autrement dit, sa vitesse de translation n'est pas uniforme. C'est cet effet qui donne la sinusoïde de période un an. D'autre part, le Soleil ne se déplace pas dans le ciel sur l'équateur céleste, mais sur l'écliptique, puisque la Terre est inclinée de 23° 27' par rapport au plan de l'écliptique. Il faut donc projeter sur l'équateur le mouvement du Soleil sur l'écliptique, et cette projection diffère suivant le moment de l'année. Ce phénomène est illustré figure 19.
L'équation du temps est représentée sur certains cadrans solaires suffisamment précis, comme on peut le voir figure 20. Si cela est possible, on recherchera un cadran solaire présentant l'équation du temps, ou à défaut une image d'un tel cadran solaire.
L'étude du mouvement du Soleil peut également être entreprise par les élèves les plus jeunes. Dans ce cas, on calculera la longueur de la journée pour les équinoxes, et les solstices, en prenant les dates sur le calendrier. On calculera également la longueur de la journée pour le jour précédant et le jour suivant chacun des solstices. On constate que les journées aux équinoxes durent 12 h (en première approximation), que la journée au solstice d'été est plus longue qu'aux équinoxes et plus longue que la veille et que le lendemain, et que la journée au solstice d'hiver est plus courte qu'aux équinoxes et plus courte que la veille et que le lendemain. On compare avec l'expérience quotidienne. De surcroît, cet exercice peut habituer les élèves à manipuler un tableau de nombres.
On regarde maintenant les colonnes du tableau correspondant aux levers et couchers de la Lune. En étudiant ces heures de levers et de couchers, on remarque d'abord que d'un jour à l'autre, la Lune se lève et se couche de plus en plus tard, et ceci quel que soit le moment de l'année. Ce retard d'un jour à l'autre est d'environ une heure. C'est la raison pour laquelle la marée accuse généralement un retard d'une heure par jour.
On recherche un jour où la Lune et le Soleil se lèvent et se couchent en même temps. En utilisant les phases de la Lune données sur la même page, on voit que ce jour correspond à la Nouvelle Lune. De la même façon, on recherche un jour où la Lune se lève quand le Soleil se couche et se couche quand le Soleil se lève et on voit que cela correspond à la Pleine Lune. La longueur de l'intervalle de temps pendant lequel la Pleine Lune est visible dans le ciel correspond donc à la longueur de la nuit. Cet intervalle de temps sera long au solstice d'hiver : la pleine Lune aura alors le temps de monter haut dans le ciel. Au contraire, cet intervalle de temps sera court au solstice d'été : la pleine Lune sera alors beaucoup plus basse dans le ciel. Pendant les équinoxes, la Pleine Lune est visible dans le ciel pendant 12 h, en première approximation.
On donne pour mémoire sur la figure 21, un schéma explicitant les phases de la Lune. On remarque les différentes figures de la Lune correspondant aux différentes parties du cycle lunaire telles qu'elles sont représentées dans le calendrier lui-même. On détermine à quel moment du cycle lunaire la Lune est visible le soir, et quel est alors son aspect (dans l'hémisphère nord !). On voit que la Lune du soir correspond au premier quartier, la partie arrondie de la Lune se présentant alors vers la droite, et les "cornes" vers la gauche. En effet, dans l'hémisphère nord, le Soleil, ainsi que la Lune, passent de l'est au sud puis à l'ouest. Nous observons donc leur déplacement dans le ciel de la droite vers la gauche. Au début de son cycle, quand la Lune est un peu en retard sur le Soleil, elle suivra la même trajectoire, mais en suivant le Soleil. Elle sera donc "à gauche" du Soleil. La partie arrondie qui correspond à la partie éclairée, sera du côté du Soleil, c'est-à-dire vers la droite et les cornes nous apparaîtront tournées vers la gauche. Dans les premiers jours de son cycle, la Lune est peu éclairée et ne sera visible que le soir après la tombée de la nuit. Comme elle suit le Soleil de peu, elle ne tardera pas à se coucher peu de temps après lui et ne sera donc plus visible dans la suite de la nuit. Ceci est illustré par la figure 22.
De la même façon, une Lune visible dans la deuxième partie de la nuit correspond à la deuxième partie du cycle lunaire et présentera sa partie arrondie vers la gauche. En effet, dans les derniers jours du cycle, les levers et couchers de Lune précèdent de peu les levers et couchers du Soleil. La Lune peu éclairée ne sera visible qu'avant le lever du Soleil, c'est-à-dire le matin. Elle sera donc à "droite" du Soleil et sa partie éclairée par le Soleil sera donc à gauche, et les cornes seront tournées vers la droite. Ceci est illustré par la figure 23.
On recherchera des représentations de la Lune sur des images ou des tableaux et on étudiera si cette représentation est correcte. De tels exemples sont donnés figure 24.
Sur la partie "calendrier " proprement-dite sont données les dates des éclipses de Soleil et de Lune pour l'année en cours. On recherche quelle est la phase de la lune correspondant à chacune de ces dates. On remarque que les éclipses de Soleil se produisent un jour de Nouvelle Lune. En effet, la Lune passant exactement entre la Terre et le Soleil présente forcément vers la Terre sa face non-éclairée. En revanche, on remarquera que les dates d'éclipses de Lune correspondent à des jours (ou plutôt des nuits) de Pleine Lune. En effet, une éclipse de Lune se produit quand la Terre passe exactement entre la Lune et le Soleil : la Lune présente alors à ce moment sa face éclairée directement vers la Terre. Ces configurations sont représentées figure 25.
Certains calendriers comportent les entrées du Soleil dans les constellations alors que d'autres comportent les entrées du Soleil dans les signes du zodiaque. On comparera les deux tableaux (dont une exemple est donné figure 26) et on explique comme suit l'origine des différences.
Les constellations du zodiaque sont les figures formées par les étoiles vues dans la zone de la sphère céleste sur laquelle se projette le plan de l'écliptique. On voit donc les planètes voyager parmi les constellations du zodiaque. Il est important de souligner que les constellations du zodiaque, comme toutes les autres constellations du ciel, n'ont aucune réalité physique, mais correspondent simplement à un effet de perspective. Vues d'un autre endroit du ciel, par exemple depuis une planète gravitant autour d'une autre étoile que le Soleil, les images des constellations telles que nous les connaissons disparaitraient complètement et les étoiles formeraient d'autres dessins. Comme les planètes, le Soleil vu depuis la Terre se projette également devant les constellations du zodiaque et parcourt l'ensemble du Zodiaque en une année. La figure 27 montre cette disposition.
Bien entendu, on ne peut voir les étoiles et le Soleil en même temps, sauf en cas d'éclipse totale, mais en observant pendant un temps au moins égal à un an, on peut connaître les différentes constellations du zodiaque en les observant quand elles sont visibles la nuit aux différentes périodes de l'année, puisque la totalité du zodiaque défile tout au long de l'année. On peut alors, à partir des constellations visibles juste avant le lever et juste après le coucher du Soleil, déterminer devant quelle constellation se projetterait le Soleil si les étoiles pouvaient être visibles en plein jour. C'est de cette façon qu'avaient été définis les "signes du Zodiaque" correspondant à chaque mois. En fait, les constellations du Zodiaque sont de tailles différentes et en réalité le temps pendant lequel le Soleil parcourt chaque constellation n'est égal à un mois qu'avec une très grossière approximation. De plus, et surtout, ces "signes du zodiaque" ont été établis il y a presque 2000 ans. Or, il existe un mouvement de la Terre appelé "la précession des équinoxes" qui est tel que l'axe de rotation de la Terre décrit un cône en 26000 ans. C'est-à-dire que la valeur de l'inclinaison de la Terre demeure à peu près constante, mais l'orientation de l'axe de la Terre varie. comme on peut le voir sur la figure 28.
L'actuelle "étoile polaire" qui est l'étoile Alpha de la Petite Ourse, n'a pas toujours été étoile polaire et ne l'est actuellement que de manière provisoire.
La figure 29 montre le déplacement du pôle céleste parmi les constellations et permet de voir quelles ont été ou seront les différentes étoiles polaires au cours des époques. Au cours du mouvement de précession, les constellations du zodiaque restent les mêmes, mais celles devant lesquelles se projette le Soleil au cours des différents mois de l'année varient et il y a actuellement un décalage de presque une constellation depuis que les soit-disant signes du zodiaque ont été établis et les projections du Soleil sur les constellations du Zodiaque telles qu'elles se produisent à l'époque actuelle. Ce décalage est montré figure 30.
Des prévisions météorologiques figurent également sur la même page : on compare les prévisions données par différents éditeurs, et on peut avoir ainsi une idée de la validité de ces prévisions. Un tableau comparatif des prévisions météorologiques pour la même année mais pour différents éditeurs est donné figure 31. Il est intéressant, en utilisant le calendrier de l'année en cours, de comparer la prédiction faite pour l'époque à laquelle on fait le TP et la réalité. On notera que le lieu n'est pas indiqué, alors que les conditions météorologiques sont le plus souvent complètement différentes dans les différentes régions de France. Ces prévisions météorologiques étant portées en fonction des phases de la Lune, il est probable que ces soi-disant prédictions ont été établies à partir de certaines caractéristiques du mouvement de la Lune, mais la comparaison de ces prédictions entre elles montrent assez que ces données n'ont rien de scientifique. On fera la comparaison avec la précision avec laquelle sont données les heures des levers et couchers du Soleil et de la Lune.
On voit que ce TP est particulièrement riche en développements. Comme il a déjà été dit, il peut être utilisé à des niveaux très différents au cours de la scolarité, les enseignants sélectionnant les parties qui les concernent et adaptant les activités au niveau de leur classe. De plus, ce TP se prête particulièrement bien à une activité pluri-disciplinaire en associant par exemple les enseignants d'histoire ou de latin aux enseignants scientifiques.
On voit comment à partir d'un objet : "le calendrier de la poste", les élèves peuvent être amenés, non seulement à aborder de nombreuses questions d'astronomie qui jouent un rôle dans notre vie quotidienne, mais aussi à se poser des questions, à faire des recherches et à exercer leur esprit critique.
Cependant, malgré les nombreux développements que nous proposons à partir du Calendrier de la Poste, nous ne pensons pas avoir épuisé la question, et nous espérons sincèrement susciter d'autres idées.
Liens vers les cours :
Champ: Système solaire, Astéroïde
Niveau: *
Temps: environ 2h
Le TP peut facilement être adapté pour les plus jeunes. Si les élèves ne maîtrisent pas la notion d'échelle par exemple, on pourra leur donner les dimensions réelles de l'astéroïde de pâte à modeler.
Les astéroïdes sont des petits corps rocheux, circulant parmi les planètes. Beaucoup d'entre eux sont situés entre Mars et Jupiter, dans ce que l'on appelle la Ceinture d'astéroïdes. Mais on en trouve partout dans le Système Solaire : certains sont très près du Soleil. D'autres circulent aux confins du Système Solaire, au-delà des planètes : on ne sait rien de ces objets si lointains, si ce n'est qu'ils sont sans doute faits de glaces. Du 14 février 2000 au 12 février 2001, la sonde spatiale NEAR était en orbite autour de l'astéroïde Eros. Cette sonde a apporté une quantité énorme de données concernant cet astéroïde, sur sa forme, sa structure, sa composition. Nous disposons en particulier d'un grand nombre d'images d'Eros, vu sous toutes les orientations (site web de la mission NEAR)
Au cours de ce TP, nous allons reproduire à l'échelle l'astéroïde Eros en 3D à partir d'images prises par la sonde spatiale NEAR sous différentes orientations. A l'aide d'un montage vidéo montrant l'astéroïde en rotation, on déterminera son axe de rotation, que l'on matérialisera à l'aide d'une pique de bois.
A l'aide des images fournies ci-contre et des indications données sur les dimensions réelles de chaque vue, déterminez la dimension de l'astéroïde Eros dans les trois dimensions.
Pour déterminer les dimensions d'Eros, on utilise la dimension du gros cratère, visible au centre de la plus grande face (diamètre = 6 km). On trouve que l'astéroïde Eros a une dimension de 33 x 8 x 8 km.
En utilisant la pâte à modeler, fabriquez un modèle 3D de l'astéroïde à l'échelle 1/300000e. Essayez de reproduire la forme de l'astéroïde au mieux, en indiquant les principaux cratères.
L'astéroïde de pâte à modeler (au 1/300000e) aura une taille de 10 x 2,5 x 2,5 cm.
Que pensez-vous de la forme de cet astéroïde ? Les Figures 4 et 5 ci-dessous représentent deux autres astéroïdes, Kleopatra et Mathilde. Imaginez un scénario expliquant leur forme. Que savez-vous de la forme des autres corps du Système Solaire ?
La forme de l'astéroïde est très irrégulière. C'est également le cas des deux autres astéroïdes présentés (Kleopatra et Mathilde). La forme d'os de Kleopatra pourrait être expliquée par la rencontre à faible vitesse de deux corps plus petits, qui se seraient ensuite "collés" l'un à l'autre. Dans le cas de l'astéroïde Mathilde, sa structure la plus curieuse est un cratère géant (au centre de l'image), résultat d'une collision. Si l'objet qui a percuté Mathilde avait été un peu plus gros, l'astéroïde aurait été complètement détruit. Ces trois astéroïdes illustrent l'importance des collisions au sein de la Ceinture d'astéroïdes.
Dans le Système Solaire, les planètes et les plus gros astéroïdes et satellites ont une forme à peu près sphériques, alors que les objets les plus petits (astéroïdes, comètes et satellites) ont des formes plus ou moins irrégulières.
Comment se sont formés les cratères ? Y a-t-il des cratères plus anciens que d'autres? Quels renseignements nous apportent-ils ? Connaissez-vous dautres objets du Système Solaire dont la surface présente des cratères ? Y a-t-il des cratères sur la Terre ?
Les cratères que l'on voit sur Eros sont le résultat d'impacts météoritiques ou, pour les plus gros, de collisions avec d'autres astéroïdes. En regardant attentivement les images, on constate une superposition des cratères, indiquant qu'ils n'ont pas tous le même âge. Compter le nombre de cratères sur la surface d'Eros, comme sur toutes les autres surfaces planétaires, nous permet de la dater.
La plupart des objets du Système Solaire présentent des cratères, et presque tous sont d'origine météoritique (le résultat de l'impact d'une météorite). Sur Terre, on connaît quelques 150 cratères météoritiques. C'est peu comparé à la Lune ou à Mercure dont la surface est, à certains endroits, complètement saturée de cratères. Ce très petit nombre de cratères s'explique par la jeunesse de la croûte terrestre, renouvelée en permanence grâce à la tectonique des plaques.
Calculez le volume d'Eros.
A partir des valeurs obtenues au 1-, on trouve que le volume est égal à 33x8x8 km = 2112 km3. La valeur obtenue grâce aux mesures de la sonde NEAR donne une valeur de 2477 km3.
La figure 6 ci-contre est un montage vidéo illustrant la rotation de l'astéroïde Eros. A l'aide de ce montage, matérialisez l'axe de rotation de l'astéroïde. Pourquoi les astéroïdes tournent-ils sur eux-mêmes ? Quelles informations nous apportent leur vitesse de rotation ? (Eros fait un tour sur lui-même en 5h 16min).
La rotation des astéroïdes sur eux-mêmes nous renseignent sur leur histoire collisionnelle. En particulier, si l'on mesure la vitesse de rotation de beaucoup d'astéroïde permet de connaître l'évolution collisionnelle globale de la population des astéroïdes.
Fabriquez un cube de pâte à modeler. Formez un deuxième cube de la même taille en juxtaposant des petites billes de pâte à modeler. Pesez les deux cubes. Que constatez-vous ?
On constate que le cube "plein" est plus lourd (une dizaine de grammes pour un cube de 5 cm de cté).
Comment expliquez que, à taille égale, certains astéroïdes soient légers alors que d'autres, composés des mêmes matériaux, soient plus lourds ?
Comme les deux cubes que l'on vient de fabriquer, certains astéroïdes sont "faits d'un bloc", alors que d'autres sont un agrégat de roches. Cet agrégat de roches tient ensemble par gravité.
Site web de la mission NEAR : http://near.jhuapl.edu
A propos des cratères d'impacts et de météorites :
Champ: Système Solaire
Temps: 2 à 3 heures, selon le niveau des élèves
Niveau: **
Savoir utiliser la règle de 3
Vous devrez être capable de déterminer la masse de Jupiter en mesurant les propriétés des orbites des satellites de Jupiter et en les analysant à l'aide de la troisième loi de Kepler.
Si vous apprenez à :
Vous pourrez :
On peut déduire certaines propriétés de corps célestes de leur mouvement même si on ne peut pas les mesurer directement. En 1543 Nicolaus Copernicus suppose que les planètes tournent sur des orbites circulaires autour du Soleil. Tycho Brahé observe soigneusement l'emplacement des planètes et de 777 étoiles pendant 20 ans en utilisant un sextant et un compas. Ces observations sont utilisées par Johannes Kepler, un étudiant de Tycho Brahé pour déduire de manière empirique trois lois mathématiques gouvernant l'orbite d'un objet par rapport à un autre. Pour une lune tournant autour d une planète, la troisième loi est
où
En 1609, l'invention du télescope par Galilée permet l'observation d'objets invisibles à l'oeil nu. Galilée découvre que Jupiter est entouré de 4 satellites. Il les observe longuement. Le système de Jupiter était particulièrement important par sa ressemblance avec le système des planètes orbitant autour du Soleil. Son étude a aidé à comprendre les mouvements dans le système solaire. Le système de Jupiter montrait que le modèle héliocentrique du système solaire proposé par Copernic était physiquement possible. Malheureusement, l'inquisition s'inquiéta de ses découvertes et Galilée fut forcé de se renier. Ce sont les observations de Galilée et les calculs de Kepler que vous allez refaire ici.
Nous allons observer les quatre lunes de Jupiter, vues au travers d'un télescope. Elles furent nommées Io, Europe, Ganymède et Callisto, par ordre de leur distance à Jupiter. Si vous regardez avec un petit télescope, vous verrez ceci
Les lunes apparaissent alignées parce que le plan orbital des satellites est vu par la tranche. Avec le temps, les lunes bougent par rapport à Jupiter. Les lunes suivent une orbite à peu près circulaire mais on ne voit, de la Terre, que la projection du mouvement dans le plan du ciel. On ne peut pas connaître la distance de la lune à Jupiter mais seulement la distance apparente (cf. figure 1), autrement dit, la distance de la lune à la droite joignant Jupiter à la Terre (ligne de visée).
La distance de la lune à la ligne de visée en fonction du temps est une courbe sinusoïdale (cf. figure 2). En prenant assez de mesures de la position apparente de la lune, on peut ajuster une sinusoïde aux points de données et déterminer le rayon de l'orbite (l'amplitude de la courbe) et la période de l'orbite (la période de la sinusoïde). Quand vous connaissez le rayon et la période de l'orbite de cette lune, et que vous l'avez converti dans les bonnes unités, vous pouvez déterminer la masse de Jupiter en utilisant la troisième loi de Kepler. Vous déterminerez la masse de Jupiter pour chacune des quatre lunes. Les erreurs associées à chaque lune feront que les résultats seront différents d'une lune à l'autre.
Le programme Jupiter simule l'utilisation d'un télescope contrôlé automatiquement et équipé d'une caméra CCD qui fournit une image vidéo sur l'écran de l'ordinateur. Le programme qui permet de faire ces mesures et d'ajuster le taux d'agrandissement de l'image du télescope est complexe mais il simule de façon réaliste cette expérience et vous permet de comprendre comment les astronomes collectent leurs données et contrôlent le télescope. Au lieu d'utiliser un télescope et d'observer les lunes de Jupiter pendant plusieurs jours, ce programme simule l'aspect des lunes telles que vous les verriez au télescope avec l'intervalle de temps que vous fixerez.
Les différentes actions à entreprendre dans cet exercice sont :
Lancez le programme et entrez vos noms en sélectionnant « Log in ». Chaque groupe d'élèves réalisera et enregistrera une session différente d'observations. Les dates de début d'observations de chaque groupe seront écrites au tableau. Notez sur la feuille de données les rendeignements vous concernant (groupe, année, mois, jour, nombre d'observations et intervalle entre chaque) puis sélectionner « Start » et entrez ces données dans le programme comme montré en section 4 de Utilisation du programme Jupiter.
Après avoir cliqué sur « OK », vous verrez apparaître la figure 3.
Jupiter est au centre de l'écran et les points de part et d'autres sont les lunes. Il arrive qu'une lune soit derrière Jupiter et ne soit donc pas visible. Même avec un très fort grossissement, elles sont beaucoup plus petites que Jupiter. Le grossissement effectif est affiché dans le coin gauche de l'écran. La date, le UT (Temps Universel) et J.D. (Diamètre de Jupiter) sont aussi donnés à l'écran.
Cliquez sur chaque lune pour connaître à quelle distance du centre de Jupiter se trouve la lune (l'unité est le diamètre de Jupiter). Vous pouvez vérifier que le bord de Jupiter est à 0.5 J.D. Pour mesurer précisément la position de chaque lune, choisissez l'agrandissement optimal qui laisse la lune sur l'écran. Si une lune est derrière Jupiter, notez 0 pour la distance de cette lune. Le tableau suivant montre un exemple d'enregistrement de données.
(1) | (2) | (3) | (4) | (5) | (6) | (7) |
date | heure | jour | Io | Europe | Ganymède | Callisto |
24/07 | 0.0 | 1.0 | +2.95 | +2.75 | -7.43 | +13.15 |
24/07 | 12.0 | 1.5 | -0.86 | +4.7 | -6.3 | +13.15 |
Enregistrez vos 18 lignes de données sur la feuille prévue à cet effet (1ère page de feuilles.pdf), en suivant le modèle du tableau précédent. Pour les positions, utilisez + pour Ouest et - pour l'Est. Si le programme donne comme position pour Europe x=2.75W, vous entrerez +2.75 dans la colonne (5).
Vous devez maintenant analyser les données. En portant les positions en fonction du temps, vos données vous permettront d'obtenir un graphe semblable au graphe de la figure 4 (ce dessin concerne une lune imaginaire appelée CLEA).
Chaque point de la figure est une observation de la lune CLEA. Notez l'espacement irrégulier des points, dû au mauvais temps ou à un autre problème d'observation durant certaines nuits. La courbe continue joignant les points est ce que vous observeriez en réduisant assez l'intervalle de temps entre les observations. La forme de la courbe est une sinusoïde. Vous devez déterminer la sinusoïde qui s'ajuste le mieux à vos données pour déterminer les propriétés orbitales de chaque lune. Il faut se rappeler que :
La sinusoïde que vous dessinez doit donc être régulière. Elle doit passer par tous les points. Les valeurs des maxima doivent être constantes et la distance entre ces sommets doit être constante.
Les données de la lune CLEA permettent de déterminer le rayon et la période de l'orbite. La période est le temps mis pour aller d'un point à un point semblable sur la courbe. En particulier, le temps entre deux maxima est la période. Le temps entre deux croisements de l'axe horizontal (position =0) est la moitié de la période parce que c'est le temps que met le satellite pour aller de devant Jupiter à derrière Jupiter, (ou l'inverse).
Pour votre lune, il ne vous est pas nécessaire d'avoir des données couvrant une période entière ; Vous pouvez trouver la période en déterminant le temps entre deux points position =0. et le multipliant par deux. Vous pouvez aussi obtenir une meilleure détermination de la période en déterminant le temps mis par la lune pour effectuer par exemple 4 périodes, puis en divisant ce temps par 4. Quand une lune est dans une position extrême à l'est ou à l'ouest, la distance apparente est maximale. Rappelez-vous que les orbites sont presque circulaires, mais que, vues de côté, on ne peut trouver le rayon de l'orbite que quand le satellite est dans une position extrême d'un côté ou de l'autre.
Reportez les données de chaque lune sur les graphiques des pages 2, 3, 4 et 5 de feuilles.pdf. Sur l'axe horizontal, portez les numéros des jours de vos observations. L'échelle verticale est déjà donnée. Chaque mesure de la distance apparente de la lune à Jupiter vous donne un point à porter sur le graphique. Il faut s'assurer qu'un point correspond bien à une session d'observation.
Pour chaque lune, dessiner une courbe passant par les points. Marquez les maxima et les minima par des croix. Ils ne tombent pas forcément sur une ligne verticale de la grille. La courbe doit être symétrique par rapport à l'axe horizontal, c'est-à-dire que les maxima et les minima doivent avoir les mêmes valeurs, au signe près.
Commencez par les lunes extérieures (Ganymède et Callisto), puis faîtes les lunes intérieures (Io et Europe).
Estimez la valeur de la période, , et du rayon orbital, , sur les graphes, avec la méthode expliquée pour la lune CLEA (cf. figure 4).
Si vouz avez trop de mal à déterminer les périodes d'Io et d'Europe, vous pouvez recommencer la prise de données en faisant une observation toutes les 12 heures.
Les unités de ces valeurs sont le jour pour et J.D. pour . Pour pouvoir utiliser la troisième loi de Kepler, vous devez changer d'unités :
Écrivez ces valeurs sous chaque graphique. Vous avez maintenant toutes les informations pour appliquer la troisième loi de Kepler et calculer la masse de Jupiter : Où est la masse de Jupiter en masse solaire, est le rayon de l'orbite en U.A. et est la période de l'orbite en années terrestres.
Calculer la masse de Jupiter pour chaque cas. Si une valeur est très différente des autres, recherchez une source d'erreur. S'il n'y a pas d'erreur, c'est que les données ne permettent pas une meilleure estimation. Gardez alors la valeur que vous avez obtenue. Reportez toutes les valeurs calculées dans sur la feuille de TP.
Voici quelques données (distances, périodes de rotation et masses) qui pourront vous servir pour vérifier vos résultats ou pour comparer les ordres de grandeur du système Terre-Lune avec le système Jovien.
Distance moyenne Terre - Lune | 384 000 km |
Distance moyenne Jupiter - Io | 422 000 km |
Distance moyenne Jupiter - Europe | 671 000 km |
Distance moyenne Jupiter - Ganymède | 1 070 000 km |
Distance moyenne Jupiter - Callisto | 1 883 000 km |
Période de la Lune | 27,32 jours |
Période d'Io | 1,77 jours |
Période d'Europe | 3,55 jours |
Période de Ganymède | 7,15 jours |
Période de Callisto | 16,69 jours |
Masse de Jupiter | 1,900 1027 kg |
Masse de la Terre | 5,972 1024 kg |
Masse du Soleil | 1,989 1030 kg |
Champ: Système solaire
Niveau: *
Temps: 2 à 3 heures
Notre Soleil est une étoile vieille de 4,5 milliards d'années. Neuf planètes gravitent autour de lui : Mercure, Venus, la Terre, Mars, Jupiter, Saturne, Uranus, Neptune et Pluton. Mais la grande famille du système solaire ne s'arrête pas là. Il existe plus d'une centaines de satellites tournant autour de ces planètes, et plusieurs centaines de milliers de petits corps (comètes et astéroïdes) orbitant autour de notre étoile.
Sixième planète du Système Solaire, Saturne est la plus lointaine des planètes visibles à l'oeil nu (sa distance au Soleil est 9,5 fois la distance Terre - Soleil). Avec un diamètre 9,5 fois plus grand celui de la Terre, Saturne est la 2 ème plus grosse planète du système solaire, après Jupiter.
Elle possède de plus la particularité d'être entourée d'un spectaculaire système d'anneaux, identi- fiés par Huygens en 1659. Même s'ils ont l'air d'être pleins et continus, ils sont en réalité constitués de petits corps (composées essentiellement de glaces) situés sur des orbites différentes, et dont la taille varie de quelques centimètres à plusieurs mètres. L'origine de ces anneaux est encore mal connue. Ils résultent soit de la désagrégation de satellites qui se sont approchés trop près de la planète, soit de résidus du nuage primitif qui a donné naissance à tout le système solaire.
Depuis la Terre (cf. figure 2), on peut distinguer deux anneaux très brillants (notés A et B) séparés par la division Cassini, et un troisième plus sombre (C). Les sondes Voyager I et II, au début des années 1980, ont permis l'identification de 4 anneaux supplémentaires (D, le plus interne, et E, F, G, les plus externes). La figure 3 montre ces différents anneaux, et leur localisation. Finalement, le tableau 1 (ci-dessous) donne les caractéristiques de Saturne dont vous aurez besoin pour ce TP
nom de l'anneau | rayon interne | rayon externe |
---|---|---|
anneau E | 180 000 km | 480 000 km |
anneau G | 165 800 km | 173 800 km |
anneau F | 140 200 km | 140 700 km |
anneau A | 122 000 km | 136 800 km |
anneau B | 92 000 km | 117 500 km |
anneau C | 74 500 km | 92 000 km |
anneau D | 67 000 km | 64 500 km |
rayon de Saturne | 60 500 km |
Les élèves vont construire une maquette de Saturne et de ses 3 anneaux les plus visibles : A, B et C. Ils vont ensuite utiliser cette maquette pour comprendre et expliquer les jeux d'ombre que l'on peut voir sur la photo en dernière page du TP (figure 1). Cette photo a été prise par la sonde Voyager I en 1980, à une distance de 5 millions de kilomètres de Saturne.
La première tâche est de calculer la taille des anneaux à tracer sur la feuille de plastique. Elle va dépendre du diamètre de la boule de polystyrène que vous avez choisi. La règle de proportionnalité est la suivante :
Donc la largeur d'un anneau en plastique vaut :
Maintenant, calculez et reportez dans le tableau ci-dessous les rayons internes et externes des anneaux A, B et C.
nom de l'anneau | rayon interne | rayon externe |
---|---|---|
anneau A | .................... cm | ..................... cm |
anneau B | ..................... cm | ..................... cm |
anneau C | ..................... cm | ..................... cm |
Sur l'une des feuilles plastique, tracez les 1/2 cercles correspondant aux bords internes et externes des anneaux, et à la périphérie de Saturne. Tracez un 1/2 cercle supplémentaire 1 cm plus petit que le rayon de Saturne. Cette bordure nous permettra de fixer l'ensemble des anneaux à la boule. Reportez par transparence les 1/2 cercles sur la seconde feuille. Découpez les 2 feuilles en suivant les pointillés de la figure 5. Ne séparez surtout pas les anneaux les uns des autres.
Découpez des bandes de papier crépon de la largeur des anneaux. Marron foncé pour le C, jaune pour le B et marron clair pour le A, par exemple. Collez les bandes de papier crépon sur les 2 faces de chaque feuille plastique. Pour cela, commencez par fixer le crépon sur le bord extérieur de l'anneau, et froncez vers le bord intérieur.
Ouvrez la boule en 2. Si vous avez une boule en un seul morceau, tracer au feutre l'équateur de la sphère, et découpez-la selon le trait avec un couteau bien aiguisé. Cette opération n'est donc pas conseillée aux petites mains...
Recouvrez séparément les 2 hémisphères de crépon clair. Collez ensuite la bordure interne des anneaux sur la bordure interne de l'une des hémisphères (indiquée par la flèche sur la figure 5).
Refermez la boule en collant les bordures entre-elles. Si vos anneaux ne sont pas assez rigides et qu'ils tombent, il faut consolider l'ensemble.
Fixer les chenilles entre-elles en les tortillant sur 2 ou 3 cm, afin de former une grande chenille qui a la longueur du périmètre externe de l'anneau A. Refermez la chenille sur elle-même et collez-la sur le bord externe de l'anneau A.
Attachez un fil de nylon à un endroit de la chenille. Faites passer ce fil au-dessus de la planète (en le scotchant éventuellement) et attachez son autre extrémité au point diamétralement opposé au premier point d'attache (cf. figure 6). Tendez-bien le fil pour que les anneaux ne tombent plus. Répétez cette opération de façon perpendiculaire. Fixez d'autres fils de cette manière si la rigidité n'est pas satisfaisante.
Eteignez les lumières et fermez les rideaux de la classe. Chaque groupe d'élèves doit avoir une maquette et une lampe torche. Laissez-les d'abord expérimenter les différentes ombres qu'ils peuvent obtenir en bougeant la planète ou la lampe. Faites-leur ensuite recréer les ombres de la photo.
Les élèves doivent découvrir que :
Faites-leur ensuite projeter l'ombre de Saturne et de ses anneaux sur les murs ou sur une feuille blanche. Ils pourront également dessiner le contour de l'ombre chinoise obtenue sur une feuille, pour différentes situations. On pourra alors introduire les notions d'opacité, de transparence.
La notion de cône d'ombre pourra aussi être abordée en fabriquant une petite boule avec du crépon clair suspendue avec du fil de nylon. En la faisant passer derrière Saturne, on s'aperçoit qu'il y a toute une zone qui est privée de la lumière du Soleil. C'est le cône d'ombre de Saturne. Avec la boule, faites suivre aux élèves la limite du cône d'ombre. C'est une droite. Le but est de leur montrer que la lumière se propage en ligne droite.
Champ: Soleil Terre Lune
Niveau: **
Temps: 3 heures
Le but de ce TP est de réaliser une maquette permettant d'expliquer les phénomènes célestes liés à la position respective de la Terre, de la Lune et du Soleil comme l'alternance jour/nuit, les saisons, les phases de la Lune et les éclipses.
Le but de ce TP est de réaliser une maquette permettant d'expliquer les phénomènes célestes liés à la position respective de la Terre, de la Lune et du Soleil comme l'alternance jour/nuit, les saisons, les phases de la Lune et les éclipses.
Le matériel nécessaire revient à peu près à 10 € par maquette.
La visserie (vis, rondelles, écrous) est de diamètre 5 mm sauf avis contraire (tige T5).
Les têtes des vis T2, T3 (et éventuellement T4 si c'est une vis) doivent être de préférence fraisées si les trous des pattes de fixation sont fraisés. Sinon, choisir des têtes dont la face côté filetage est plate (têtes hexagonales, cylindriques...).
La maquette est finie et permettra d'illustrer le mécanisme des saisons, des éclipses, la précession des équinoxes, le cycle du Saros...
Poser une lampe à environ un mètre de la maquette et de manière à ce qu'elle soit dans le plan de révolution de la Terre (à la même hauteur). Faire le maximum d'obscurité dans la pièce.
Matérialiser l'orbite de la Terre autour du Soleil par un cercle autour de la lampe et y indiquer la position du point vernal et éventuellement la position des constellations zodiacales. La Terre pourra ainsi être déplacée sur le cercle au cours de son trajet annuel en maintenant l'intersection du plan équatorial et de l'écliptique parallèle à la direction Soleil-point vernal.
Pour étudier la durée des jours au cours de l'année en fonction de la latitude prendre une épingle et un petit morceau de bristol circulaire de quelques centimètres de diamètre que l'on fixera sur la boule de polystyrène représentant la Terre. Le morceau de papier représentera l'horizon à l'endroit où sera plantée l'épingle et l'ombre de l'épingle sur le papier sera comparable à l'ombre d'un gnomon planté dans le sol. On pourra ainsi représenter directement la hauteur et la position du Soleil dans le ciel au cours d'une journée et au cours de l'année. On pourra ainsi vérifier, par exemple, que le Soleil se lève plutôt au nord-est en été et au sud-est en hiver à la latitude de Paris. On pourra également regarder ce qui se passe aux pôles ou à l'équateur.
La différence entre jour sidéral et jour solaire se montre facilement en combinant le mouvement diurne et le mouvement annuel de la Terre. On voit ainsi qu'en un point de la Terre, une étoile se retrouvera au méridien plus rapidement que le Soleil.
En faisant tourner la Lune autour de la Terre, les phases sont clairement visibles. La maquette est utile pour se rendre compte des moments de la journée où l'on peut voir ces différentes phases (toute la nuit pour la pleine Lune, l'après-midi et le début de nuit pour un premier quartier...).
Il y a éclipse lorsque la ligne des noeuds de la Lune (intersection du plan d'orbite de la Lune avec l'écliptique) est alignée avec la direction Terre-Soleil. Il ne peut donc pas y avoir éclipse tout les mois. On vérifiera aisément qu'une éclipse de Soleil ne peut se produire qu'à la nouvelle Lune et qu'une éclipse de Lune ne peut se produire que lors d'une pleine Lune. De même, il est évident avec la maquette qu'une éclipse de Soleil est un phénomène local pour un observateur situé à un endroit privilégié alors qu'une éclipse de Lune est un phénomène global visible de n'importe quel endroit où l'on voit la Lune.
Il est également possible d'illustrer la précession des équinoxes en modifiant la position du point γ le long des constellations zodiacales.
Difficulté : ☆ Temps : 10 minutes
Dans quel sens tourne la Terre sur elle-même, la Lune autour de la Terre et la Terre autour du Soleil ?
Avec une Terre de 10 cm de diamètre, quels doivent être le diamètre de la Lune, du Soleil, la distance Terre-Lune et la distance Terre-Soleil pour que la maquette soit à l'échelle ?
Difficulté : ☆ Temps : 15 minutes
Dessiner le tropique du Cancer et les cercles polaires.
Quelle est la durée du jour aux pôles ?
Quelle est approximativement la durée des jours en France ?
Dans quelles directions le Soleil se lève-t-il et se couche-t-il en France ?
Dessiner le tropique du Capricorne.
Quelle est la durée du jour aux pôles ?
Quelle est approximativement la durée des jours en France ?
Dans quelles directions le Soleil se lève-t-il et se couche-t-il en France ?
Quelle est la durée des jours en France et à l'équateur ? Qu'en conclure ?
Dans quelles directions le Soleil se lève-t-il et se couche-t-il en France ?
Quelle est la durée des jours aux différentes latitudes ?
Dans quelles directions le Soleil se lève-t-il et se couche-t-il en France ?
Difficulté : ☆ Temps : 10 minutes
De quelles régions de la Terre voit-on la Pleine Lune ?
Que peut-on dire des positions de la pleine Lune à minuit en France aux solstices d'été et d'hiver ?
De quelles régions de la Terre voit-on le premier quartier ?
Où se situe le premier quartier par rapport au Soleil ?
De quelles régions de la Terre voit-on le dernier quartier ?
Où se situe le dernier quartier par rapport au Soleil ?
De quelles régions de la Terre voit-on la nouvelle Lune ?
Où se situe la nouvelle Lune par rapport au Soleil ?
Difficulté : ☆ Temps : 5 min
Pourquoi n'y a-t-il pas éclipse tous les mois ?
Créer une éclipse de Soleil.
Créer une éclipse de Lune
Quelle est la différence fondamentale entre une éclipse de Lune et une éclipse de Soleil ?
Cette maquette de conception simple est idéale pour expliquer qualitativement et d'un point de vue extérieur les phénomènes célestes liés aux mouvements relatifs de la Terre, du Soleil et de la Lune. Elle illustre un certains nombre de concepts comme les plans de l'équateur et de l'écliptique, les méridiens, la ligne des nœuds, le point vernal...
Pour avoir une compréhension locale des phénomènes illustrés par cette maquette, on pourra également réaliser le TP sur le calendrier de la Poste, qui est un parfait complément de celui-ci.
Champ: Astronomie Soleil Terre Lune
Niveau: **
Temps: 4h00
Le but de ce TP est de comparer la taille du disque lunaire avec la taille de l'ombre de la Terre et d'en déduire le rayon lunaire et la distance Terre-Lune.
Les calculs développés dans ce TP supposent que la Lune est à une distance fixe de la Terre, et la Terre à une distance fixe du Soleil.
La figure 1 montre le schéma d'une éclipse de Soleil et d'une éclipse de Lune. Par le plus pur hasard, les diamètres apparents de la Lune et du Soleil vus depuis la surface de la Terre sont presque égaux (nous les supposerons strictement les mêmes dans la suite).
En supposant que le rayon de la Terre est très petit devant celui du Soleil, on voit sur la figure 2 que l'angle du cône d'ombre de la Lune est approximativement égal à l'angle du cône d'ombre de la Terre.
donc
alors et comme
on obtient :
On voit alors sur la figure 3, en reportant le cône d'ombre de la Lune à côté de celui de la Terre, que le diamètre de la Terre est égal à la somme du diamètre de l'ombre de la Terre (à la distance de la Lune) et du diamètre de la Lune.
Si DO est le diamètre de l'ombre de la Terre à la distance de la Lune, DL le diamètre de la Lune et DT le diamètre de la Terre, on a
DT = DL+DO qui donne , en posant . Or k est également égal au rapport du diamètre angulaire de l'ombre de la Terre (à la distance de la Lune) par le diamètre angulaire de la Lune, et peut être estimé observationnellement. Connaissant alors le diamètre absolu de la Lune et son diamètre apparent, il est aisé de calculer sa distance.
Cette méthode utilise une photo d'une éclipse de Lune pour estimer le rapport k précédemment défini. Trois photos de l'éclipse du 9 novembre 2003 sont fournies ci-contre. Sur chaque photo, nous allons mesurer le rayon de l'ombre et celui de la Lune. Pour cela on préfèrera utiliser les photos après avoir inversé les couleurs. Imprimer les images en les mettant dans le coin bas gauche de la page, de telle sorte que le centre du cercle (ombre de la Terre) soit sur la feuille de papier.
Commencer par tracer des points sur le bord de la Lune et sur le bord de l'ombre. Choisir ensuite des couples de points sur l'un ou l'autre des bords et tracer la médiatrice à la règle et au compas. Ceci donnera une zone possible pour le centre de la Lune et pour le centre de l'ombre, le centre d'un cercle devant être sur la médiatrice de n'importe quel segment composé de deux point du cercle. Choisir un centre pour la Lune et un pour l'ombre et mesurer le rayon de la Lune et celui de l'ombre. Estimer l'erreur sur chacune de ces mesures. Donner une estimation de k puis du rapport entre le rayon de la Lune et celui de la Terre.
Le rapport k peut être déduit des éphémérides en calculant le rapport du rayon de l'Ombre (U. Radius) par le demi diamètre de la Lune (S.D.).
Comparer avec les résultats observationnels et commenter.
Voir aussi leséphémérides de l'éclipse en français (ne contiennent pas la valeur U. Radius)
Lors d'une éclipse de Lune, on peut définir différents moments correspondant aux contacts du bord lunaire avec l'ombre de la Terre comme le montre la figure ci-contre.
Si l'on arrive à mesurer les instants de ces contacts, il est alors possible de calculer k. En effet, le temps mis par la Lune pour parcourir son diamètre angulaire est égal à O2-O1 ou O4-O3. De même, le temps mis par la Lune pour parcourir l'ombre de la Terre est O3-O1 ou O4-O2. Le rapport k est donc égal, par exemple, à .
Ces calculs ne sont exacts que si le centre de la Lune passe par le centre de l'ombre de la Terre. C'est rarement le cas comme le montre les éphémérides des éclipses des 21 janvier 2000 et 9 janvier 2001. On voit sur les graphiques de ces éclipses que O2-O1 ou O4-O3 est plus grand que le temps mis par la Lune pour parcourir son diamètre et que O3-O1 ou O4-O2 est au contraire plus petit que le temps mis pour parcourir l'ombre de la Terre sur un de ses diamètre. Le calcul précédent donne donc une valeur majorante de la taille de la Lune.
Quelles valeurs trouve-t-on pour ces deux éclipses ?
Une fois la taille absolue de la Lune connue, sa distance peut être calculée aisément pour peu que l'on connaisse son diamètre angulaire.
Une méthode assez simple à mettre en oeuvre consiste à masquer la Lune avec une bille de diamètre connu et à l'éloigner jusqu'à ce qu'elle coïncide avec la Lune. Le rapport entre le diamètre de la bille et sa distance par rapport à l'oeil de l'observateur est égal à celui du diamètre de la Lune et de la distance Terre-Lune (d'après le théorème de Thalès).
Un montage simple peut être imaginé pour réaliser cette expérience qui peut être faite sur la pleine Lune avant ou après l'éclipse.
Le diamètre angulaire de la Lune peut également être calculé par chronométrage. Sachant que la Lune met 29,5305882 jours pour se retrouver à la même phase (mois synodique ou lunaison), c'est-à-dire pour faire 360 degrés par rapport au Soleil, le diamètre angulaire de la Lune (en degrés) est égal à :
avec O2-O1 mesuré en minutes.
La distance Terre-Lune est alors égale au diamètre absolu de la Lune divisé par la tangente de son diamètre angulaire. Faire le calcul avec les données fournies par les éphémérides. Comparer avec les distances réelles données par la parallaxe de la Lune (valeur H.P. dans les tables) dans les éphémérides.
Conclusion ?
La distance moyenne Terre-Lune peut également être déduite par la gravitation. Connaissant le rayon de la Terre par la méthode d'Érathostène (RT ≈ 6 400 km) et la valeur de l'accélération de la pesanteur à la surface de la Terre (g = 9,78 m.s-2 à l'équateur), on peut en déduire la valeur de la constante GM par la formule .
En supposant que la masse de la Lune est négligeable devant celle de la Terre (elle est de 1/81 masse terrestre), la troisième loi de Kepler nous donne : où a est la distance Terre-Lune et P est la période de rotation anomalistique de la Lune autour de la Terre (P=27,55 jours correspondant au temps écoulé entre deux passages au périgée).
Calculer la masse de la Terre et la distance Terre-Lune par cette méthode.
C'est Aristarque de Samos (310-230 avant J.-C.) qui utilisa le premier les éclipses de Lune pour calculer la distance de la Lune et sa taille, relatives à la taille de la Terre. Hipparque (190-120 avant J.-C.) puis Ptolémée (120-180 après J.-C.) améliorèrent cette méthode de sorte que les astronomes anciens avait une bonne idée de ces grandeurs. Aristarque et de nombreux astronomes jusqu'au 17 ème siècle, mesurèrent également la distance du Soleil en mesurant l'angle que faisait la Lune avec le Soleil lors du premier ou du dernier quartier. Mais cette méthode, bien que rigoureusement exacte du point de vue géométrique, était en réalité inapplicable et donnait une distance 20 fois trop petite de sorte que, jusqu'au 17ème siècle, la distance de la Lune fut la seule distance astronomique connue avec une certaine précision. L'avènement des lunettes et télescopes permis ensuite de mesurer précisément des angles plus petits et de déterminer la parallaxe diurne des planètes proches et d'en déduire la distance du Soleil. De nos jours, la distance de la Lune est mesurée avec des radars ou des lasers dont la lumière est réfléchie par des petits miroirs posés sur le sol lunaire par les missions Apollo.
Les méthodes présentées ici permettent de déterminer la distance de la Lune à quelques dizaines de pourcents près, en supposant que la Lune et la Terre ont des orbites circulaires. En réalité, les excentricité de l'orbite de la Terre (e=0,017) et de celle de la Lune (e=0,05) font varier la taille de l'ombre de la Terre et le diamètre apparent de la Lune respectivement. De plus, l'excentricité de l'orbite de la Lune est telle que la distance Terre-Lune varie de 7 pourcents (de 356 400 à 406 700 km) autour de sa valeur moyenne (384 401 +/- 1 km).
Niveau: *
Temps: 1h30
Le but de ce TP est de se familiariser avec :
Le contenu du TP peut être adapté selon le niveau des élèves (de l'école primaire au collège). Pour les plus jeunes élèves, certains points ne seront pas abordés (laissé à l'appréciation de l'enseignant).
La deuxième solution est moins pédagogique, car certains élèves pourraient imaginer que la Lune est réellement recouverte de noir sur la moitié de sa surface. Cette solution peut néanmoins être envisagée si l'utilisation d'une lampe ou d'un rétroprojecteur ne donne pas des résultats satisfaisants. La première solution est donc la plus fortement conseillée.
Pour l'étape 3 de l'étude des différentes phases, et l'étape 3 de l'étude des heures de lever et de coucher, on peut fournir à chaque élève ou à chaque binôme une balle de ping-pong dont une face est peinte en noir, enfilée au bout d'une pique en bois (de type brochette).
ou bien
Au cours d'une période d'environ un mois, demander aux élèves de regarder régulièrement la Lune (depuis chez eux le matin et le soir, dans la cour de récréation dans la journée).
Demander aussi de noter l'apparence de la Lune (en dessinant la partie éclairée tous les deux ou trois jours par exemple) ainsi que les moments de la journée où l'on peut (ou ne peut pas) la voir.
Au cours d'une petite séance, confronter les résultats collectés par les élèves et noter les différentes questions et remarques.
Cette partie du TP sur l'étude des différentes phases se veut interactive. Les élèves vont bouger dans la classe pour se placer dans les configurations correspondantes aux différentes phases de la Lune que l'on désire étudier.
Dans le cas de l'utilisation d'une lampe, veiller à faire le noir complet dans la salle.
Les 3 étapes proposées correspondent à ce que l'on observe depuis l'hémisphère nord. En effet, dans l'hémisphère sud, toutes les phases de la Lune seront inversées. Notamment, un premier quartier de Lune sera éclairé « par la gauche » (alors que dans l'hémisphère nord, il est éclairé « par la droite »).
De la même façon, l'apparence d'une phase donnée sera différente selon le point du globe Terrestre où l'on se place pour observer (terminateur plus ou moins incliné). Un petit exercice sur le sujet est présenté à la fin de ce TP.
Cette première étape a pour but de faire apprendre aux élèves les phases de la Lune, en reproduisant les différentes positions de celle-ci par rapport au Soleil et à la Terre.
Demander à un élève de figurer la Terre. L'élève-Terre se place alors à environ 1m50 de la lampe, face à celle-ci. Placer les autres participants derrière l'élève-Terre de façon à ce qu'ils puissent également suivre ce qu'il se passe.
Vous allez ensuite faire tourner la Lune autour de l'élève-Terre dans le sens inverse des aiguilles d'une montre. Pour chaque phase à étudier, placer la Lune dans la position adéquate relativement au Soleil et à la Terre.
Demander à l'élève-Terre de dessiner au tableau la Lune telle qu'il la voit (par exemple en nouvelle Lune, il dessinera donc un disque entièrement noirci).
Confronter les résultats aux commentaires des autres élèves. Demander d'inscrire en dessous du dessin le nom de la phase correspondante.
Dans l'hémisphère nord, se rappeler que la Lune est menteuse pour savoir si sa phase est croissante ou décroissante. En effet, en phase Croissante, la partie éclairée de la Lune ressemble à la lettre D, alors qu'en phase Décroissante, elle ressemble à la lettre C (voir figure 1).
Démarrer l'exercice avec la Lune en phase de nouvelle Lune (position 1 sur la figure 2).
Attention : selon le type de tableau sur lequel on travaille, il est important de choisir une convention. Sur un tableau blanc, il n'y a pas d'ambiguïté, on noircit au marqueur la partie du disque lunaire qui est dans l'ombre. A la craie blanche sur un tableau noir, on remplira plutôt à la craie la partie éclairée du disque lunaire.
On effectue maintenant l'exercice inverse par rapport à l'étape précédente, qui va permettre aux élèves, pour une phase de la Lune donnée, de savoir placer celle-ci par rapport au Soleil et la Terre.
Choisir une liste de phases dans le désordre, comme par exemple : gibbeuse décroissante, premier croissant, dernier quartier, pleine Lune, etc.
Demander alors à un élève-Terre de placer la Lune par rapport au Soleil et à la Terre, de façon à ce qu'elle soit dans la phase proposée.
Poursuivre l'exercice avec différents élèves, jusqu'à ce que les hésitations sur le placement de la Lune diminuent.
Cette étape se réalise par écrit à l'aide de la figure 3. Il permet de valider ce qui a été appris dans les deux étapes précédentes.
Pour chaque position de la Lune (de 1 à 10), noircir la partie non-éclairée de la Lune (tableau en bas de la figure 3) et indiquer en-dessous le nom de la phase correspondante.
Pour que chaque élève puisse retrouver par lui-même les phases demandées, on peut lui fournir une pique en bois sur laquelle est enfilée une balle de ping-pong à moitié peinte en noir. En la tenant à bout de bras dans la position adéquate, l'élève peut reconstituer la configuration Soleil-Terre-Lune demandée par l'exercice et visualiser ainsi directement la phase lunaire résultante.
Le but est maintenant de déterminer les moments de lever et de coucher de la Lune dans les quatre phases suivantes : nouvelle Lune, premier quartier, pleine Lune et dernier quartier.
les mouvements du Soleil et de la Lune par rapport à la Terre sont supposés uniformes et dans un même plan.
La première étape s'effectue seulement avec le Soleil et un élève-Terre, et consiste à visualiser les différents moments d'une journée.
Demander à un élève-Terre d'ouvrir les bras en croix, avec le Soleil (lampe) placé à sa gauche (voir figure 4). Le bout de son bras gauche figure ainsi l'horizon est, le bout de son bras droit figure l'horizon ouest. En regardant droit devant lui, l'élève-Terre visualise la direction du zénith.
Faire tourner l'élève-Terre sur lui-même. On réalise ainsi un lever du Soleil (6h), midi, un coucher du Soleil (18h), et minuit (figure 4).
Un jour s'est écoulé lorsque l'élève-Terre a fait un tour sur lui-même. On suppose implicitement que le jour est aussi long que la nuit. Cela n'est pas vrai qu'au moment des equinoxes, mais cet exercice simple permet de comprendre les phénomènes de lever et de coucher.
On répète à présent l'étape précédente, mais en rajoutant la Lune, placée dans l'une des quatre phases proposées.
Demander à l'élève-Terre de faire un tour sur lui-même doucement (afin de simuler la durée d'une journée), toujours les bras en croix.
Noter à quel moment approximatif de la journée se lève et se couche la Lune.
Recommencer pour les trois autres phases.
Cet troisième étape est un exercice écrit, effectué individuellement ou en binôme, qui permet de valider ce qui a été vu à l'étape précédente.
Il s'agit de remplir un tableau dans lequel pour chaque phase, on donnera l'aspect, la position dans le ciel, le lever, le coucher, et les heures de visibilité de la Lune. Cet exercice est corrigé à la fin du TP.
Dans la ligne « Aspect », dessiner un cercle représentant le disque lunaire et noircir la partie dans l'ombre.
Dans la ligne « position dans le ciel », choisir entre : à 90° du Soleil, à l'opposé du Soleil, dans la direction du Soleil.
Pour les rubriques « lever » et « coucher », indiquer le moment de la journée : vers midi, vers minuit, à l'aube, au crépuscule.
Dans la ligne « heures de visibilité », il faut indiquer la période de la journée ou de la nuit où l'on peut voir la Lune. La Lune peut être levée, mais invisible (par exemple à midi).
On pourra s'aider d'un camarade, des balles de ping-pong et des piques en bois, afin de refaire les manipulations de l'étape 2.
Cette partie est destinée aux plus grandes classes, ou aux élèves qui soulèvent spontanément le problème.
L'apparence de la Lune varie selon la position géographique, principalement à cause de l'inclinaison (environ 23°) de l'équateur de la Terre par rapport à l'écliptique (plan de l'orbite terrestre autour du Soleil).
Le but de cette étape est de s'en rendre compte facilement en utilisant un ballon-Terre.
Placer le Soleil, la Terre et la Lune dans une configuration donnée. Incliner le ballon-Terre d'environ 23°. Quelle est la saison dans l'hémisphère nord ? Réponse : si le pôle nord est dans l'ombre, alors on est en hiver.
Choisir un point géographique dans l'hémisphère nord (par exemple la France). Penchez la tête de manière à se retrouver comme si l'on était debout sur le point choisi (verticale du lieu). On peut s'aider d'un crayon ou d'une pique en bois pour déterminer la direction de la verticale du lieu choisi.
Comment apparaît (par exemple) le premier quartier ? Garder la même phase de la Lune et recommencer l'expérience depuis un point situé dans l'hémisphère sud.
On donne ici quelques exemples illustrant l'étape prédédente. Nous avons utilisé une balle de ping-pong pour faciliter la prise de photographie. Il est cependant recommandé de réaliser l'exercice avec une lampe en guise de Soleil et une balle blanche en guise de Lune.
La limite entre la zone sombre et la zone éclairée de la Lune est appelée le terminateur.
Le premier quartier est aussi appelé quadrature est, le dernier quartier est la quadrature ouest. La pleine Lune et la nouvelle Lune sont aussi appelées les sysygies.
L'adjectif gibbeuse signifie bossue, et provient du mot latin gibba. En effet, quand on regarde la partie éclairée de la Lune dans une phase gibbeuse, on a l'impression que la Lune est bossue.
Le cycle des phases est de 29,53 jours, soit 29j 12h 44mn. C'est donc le temps que met la Lune à reprendre la même position par rapport au Soleil, vu de la Terre (période de révolution synodique). Cette période de 29,5 jours est aussi appelée mois lunaire synodique, ou encore lunaison.
Le cycle des phases diffère de la période de révolution sidérale de la Lune, qui est de 27, 32 jours, soit 27j 7h 43mn. C'est le temps que met la Lune pour tourner autour de la Terre, c'est-à-dire le temps que met la Lune à reprendre la même position dans le ciel par rapport aux étoiles. Cette période est également appelée mois lunaire sidéral.
Explication: Au cours du cycle des phases, la Terre se déplace sur son orbite annuelle d'environ 27°. Il en résulte un déplacement angulaire apparent du Soleil de 27°. Si nous partons d'un moment de nouvelle Lune, au bout d'une période sidérale de 27,3 jours, la Lune a accompli un tour complet autour de la Terre, mais elle ne se trouve pas exactement entre celle-ci et le Soleil, celui-ci s'étant déplacé de 27°. Il lui faut encore environ 2,2 jours pour parcourir cette distance angulaire de 27°.
Elle est visible les jours qui précèdent et suivent la nouvelle Lune. La Lune, plongée dans l'obscurité, est légèrement éclairée par la réflexion de la lumière du Soleil par la Terre. En dehors de cette période, la lumière cendrée est difficile à voir, car la luminosité globale de la partie de la Lune éclairée directement par le Soleil éblouit l'observateur et l'empêche de distinguer la faible lueur de la partie sombre. La Terre parvient à éclairer la Lune, car sa surface est recouverte de nuages et d'océans qui réfléchissent bien la lumière (au contraire des continents). Ainsi, l'albédo de la Terre est de 0,37 (c'est-à-dire qu'elle réfléchit 37 % de la lumière incidente).
Elle a lieu lors d'une éclipse de Lune, à savoir lorsque la Lune passe dans le cône d'ombre ou dans le cône de pénombre de la Terre. Au cours d'une éclipse totale de la Lune, les rayons lumineux passant dans l'atmosphère terrestre sont déviés par la réfraction atmosphérique et éclairent la Lune. Ce flux lumineux se traduit par une coloration rougeâtre, qui rappelle un peu la couleur du ciel terrestre au moment du coucher du Soleil. L'aspect, les couleurs et l'intensité de l'éclairement sont très variables d'une éclipse à l'autre. Ils sont imprévisibles et dépendent fortement des conditions météorologiques et atmosphériques de la Terre à l'endroit où les rayons lumineux solaires sont réfractés.
Au moment de la pleine Lune, le Soleil, la Terre et la Lune sont quasiment alignés. Si le plan de l'orbite de la Lune était le même que le plan de l'orbite de la Terre (écliptique), il y aurait une éclipse de Lune à chaque pleine Lune. Or le plan de l'orbite de la Lune est incliné de 5° 13' sur le plan de l'orbite terrestre. L'intersection de ces deux plans est une droite appelée ligne des nœuds, et les intersections de cette droite avec l'écliptique sont appelées nœuds de l'orbite lunaire. Pour qu'il y ait une éclipse, il faut donc que la Lune soit près de la ligne des nœuds au moment de la pleine Lune.
Nouvelle Lune | Premier quartier | Pleine Lune | Dernier quartier | |
Position dans le ciel | près du Soleil | 90° du Soleil | opposé du Soleil | 90° du Soleil |
Lever | aube | midi | crépuscule | minuit |
Coucher | crépuscule | minuit | aube | midi |
Heures de visibilité | invisible | fin d'après-midi et soirée | toute la nuit | fin de nuit et début de matinée |
Il est relativement aisé d'observer la Lune à l'œil nu. Avec une paire de jumelles, on peut déjà explorer les différents cratères et « mers » visibles à la surface. On peut aussi remarquer clairement d'un soir sur l'autre la progression du terminateur. Il peut donc être intéressant de proposer aux élèves de dessiner la progression quotidienne du terminateur au cours d'une lunaison.
Sur la figure 8 sont présentées des images de la Lune acquises lors d'une nuit du stage de Saint-Véran (été 2004). On peut voir les différentes étapes d'un coucher de Lune sur la montagne.
Quelle est la phase de la Lune ? Est-elle croissante ou décroissante ? On peut proposer aux élèves des exercices de reconnaissance de phases, à partir de clichés photographiques.
Ce TP permet à des élèves de primaire ou de collège de se familiariser essentiellement avec les phases de la Lune, ainsi qu'avec les heures de coucher et de lever (pour l'hémisphère nord).
Plus précisément, les objectifs suivants devraient être atteints :
Champ: Soleil
Niveau: **
Temps: de 30 minutes à 2 heures selon niveau
Le but du TP est de mettre en évidence (niveau primaire) et mesurer (niveau secondaire) la rotation différentielle du Soleil en suivant lévolution de taches solaires sur un jeu d'images de la photosphère.
L'essentiel de la lumière visible qui nous vient du Soleil est émis par la photosphère. C'est la couche la plus profonde de l'atmosphère et également la zone la plus froide, entre 6000 K et 4200 K. Elle s'étend sur environ 330 km de profondeur. La photosphère est composée de granules plus brillantes et plus chaudes que la moyenne de la photosphère entourées de zones inter-granules plus froides. Ces structures sont les témoins de la convection de la matière sous la surface visible. La durée de vie des granules est de l'ordre d'une dizaine de minutes.
En plus de ces structures, on distingue des zones beaucoup plus sombres et donc froides (environ 3900 K), de quelques milliers à quelques dizaines de milliers de kilomètres, appelées taches solaires. Elles sont le résultat de la déformation de boucles du champ magnétique interne qui sont déformées par la rotation différentielle du Soleil et atteignent l'atmosphère. Le champ magnétique intense dans les taches bloque le mouvement convectif et diminue les apports d'énergie, ce qui explique l'absence de granule et la température plus basse.
Les taches apparaissent généralement par couple de polarités opposées, les lignes de champ magnétique semblant se boucler de l'une à l'autre. Il existe également des taches isolées ainsi que des groupes complexes pouvant contenir plus d'une dizaine de taches.
La durée de vie des taches est varie de un à quelques mois, ce qui permet de suivre leur évolution sur plusieurs rotations solaires. C'est cette durée de vie qui va nous permettre de mettre en évidence et de mesurer la rotation du Soleil.
Il faut tout d'abord récupérer et imprimer les images ci-contre (cliquer sur l'image pour la voir en grand et l'imprimer).
Ces images ont été prises du 20 au 29 août 1990 par le spectrohéliographe de Meudon. Cet instrument utilise des filtres très étroits (dit filtres interférentiels) qui permettent d'observer le Soleil à une température particulière et donc, à une profondeur donnée. Le filtre utilisé pour ces clichés particulier permet d'observer la zone de la photosphère où les taches sont bien visibles (bande Ca KIvl proche de la raie du calcium une fois ionisé). Chaque image est orientée de manière à avoir le nord en haut et une grille de coordonnées a été superposée pour pouvoir repérer les taches.
Nous pouvons procéder de différentes façons. La plus simple est d'utiliser un papier calque et de reproduire chaque tache en utilisant les photocopies du disques solaire jointes. On prendra soin de numéroter les jours d'observation et de les indiquer à cté de chaque tache.
Une fois que l'on aura décalqué les taches visibles sur les 12 photos du Soleil, on verra clairement le mouvement de chaque tache au cours du temps sur le calque. En regardant les positions extrêmes de deux taches prises à des latitudes différentes, on verra que la tache dont la latitude est la plus grande a "avancé" plus vite que l'autre.
Une autre manière de procéder est d'utiliser des diapositives et de les projeter sur un papier blanc ou, mieux, sur une demi-sphère blanche sur lesquels on dessinera les taches à chaque date d'observation.
Nous allons maintenant mesurer la vitesse de rotation des taches et essayer de mettre en évidence la rotation différentielle du Soleil. Pour cela, il faut mesurer précisément la position des taches à plusieurs latitudes et à plusieurs époques.
Numéro du cliché | Date jj/mm/aa | heure | écart par rapport au 18/08/1990 à 00H00 | longitude de la tache numéro | |||||||
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | ||||
1 | 18/08/1990 | 15h32 | 0.647 jours | ||||||||
2 | 19/08/1990 | 13h35 | 1.566 jours | ||||||||
3 | 20/08/1990 | 10h08 | 2.422 jours | ||||||||
4 | 21/08/1990 | 09h31 | 3.396 jours | ||||||||
5 | 22/08/1990 | 08h01 | 4.334 jours | ||||||||
6 | 23/08/1990 | 07h51 | 5.327 jours | ||||||||
7 | 24/08/1990 | 06h56 | 6.289 jours | ||||||||
8 | 25/08/1990 | 13h16 | 7.553 jours | ||||||||
9 | 26/08/1990 | 08h35 | 8.358 jours | ||||||||
10 | 27/08/1990 | 11h50 | 9.493 jours | ||||||||
11 | 28/08/1990 | 09h53 | 10.412 jours | ||||||||
12 | 29/08/1990 | 07h47 | 11.324 jours | ||||||||
latitude de la tache |
Choisir une belle tache que l'on peut suivre sur plusieurs jours. Mesurer, en interpolant dans la grille superposée au disque solaire, la latitude de la tache ainsi que sa longitude à différentes dates. Les porter dans le tableau 1. Recommencer pour d'autres taches à d'autres latitudes.
La vitesse de rotation Ω est définie par Ω = [d l / dt] ou l est la longitude. La période de rotation P est alors donnée par P = 360 / Ω. À partir des valeurs portées dans le tableau 1, on peut calculer la vitesse de rotation de plusieurs manières selon le niveau des élèves.
La manière la plus simple (pour le collège) consiste à prendre la différences des valeurs extrèmes de la longitude d'une tache et de la diviser par la durée séparant les taches. Par exemple, si la longitude d'une tache est -26,0 degrés le 18/08/1990 à 15h32 et 36,0 degrés le 23/08/1990 à 07h51, la vitesse de la tache est [36,0 - (-26,0)] / [5,327 - 0,647] = 13.24 °/jour ce qui donne une période de rotation de 27,2 jours.
Une estimation de l'erreur pourra être donnée si l'on connait l'incertitude sur les mesures individuelles de la longitude. Si, par exemple, on donne les longitudes à un demi degré près, l'incertitude sur la vitesse de rotation sera [2 x 0,5] / [5.327 - 0.647] = 0,2 °/jour. La période sera donc comprise entre [360 / (13.24 + 0,2)] et 360 / [13.24 - 0,2] c'est-à-dire entre 26,8 et 27,6 jours.
Une deuxième méthode (toujours niveau collège) consiste à tracer sur du papier millimétré la latitude des taches en fonction de la date. Pour chaque tache, les points sont alignés et la pente de la droite est égale à la vitesse de rotation de la tache. À l'aide d'une règle, on peut tracer la droite reliant au mieux les points. En menant des parallèles aux axes horizontaux et verticaux, on peut tracer un triangle rectangle dont l'hypothénuse est un segment de la droite reliant les points. La pente de la droite est alors égale au rapport des deux ctés formant l'angle droit.
Une méthode plus précise (niveau lycée-prépa) consiste à effectuer une régression linéaire par moindre carrés. On utilise ainsi l'information sur toutes les observations d'une tache et on obtient également une estimation de la précision de la vitesse de rotation calculée.
Toutefois, les calculs, qui sont plus du niveau 1er cycle universitaire ou prépa que du niveau lycée peuvent être remplacés par l'utilisation des fonctions statistiques d'une calculatrice (que les élèves savent parfaitement utiliser au lycée).
Pour les braves, les équations (un peu compliquées) sont les suivantes :
Supposons que la longitude li (l1, l2, ... ln) d'une tache ait été observée n fois à des dates ti (t1, t2, ... tn) et on cherche à exprimer l comme une fonction affine de t
l = Ωt + t0, où Ω est la pente de la droite et t0 est une constante dépendant de l'origine des temps choisie. Le calcul par moindres carrés consiste à chercher Ω et t0 qui minimisent la somme des écarts quadratiques .
Calculons les sommes suivantes
La pente de la droite est alors donnée par
et la constante t0 est donnée par la formule
et une estimation de l'erreur sur Ω est
Une fois que l'on a mesuré, par l'une des trois méthodes, la période de rotation du Soleil à différentes latitudes, on vérifiera que le Soleil tourne plus vite à l'équateur.
Les périodes trouvées varient de 27 jours environ à l'équateur à 30 jours environ à 60 degrés de latitude.
La structure d'une tache évolue avec le temps, ce qui rend un peu délicat la mesure de sa position. Plutt que de mesurer la position des bords de taches, il vaut mieux essayer de mesurer leur centre.
Évitez de mesurer des taches trop au bord du Soleil car l'effet de perspective rend la mesure de la longitude moins précise.
La Terre tournant autour du Soleil dans le même sens que la rotation du Soleil sur lui-même, les périodes que nous avons mesurées sont rapportées à un repère tournant à la vitesse de révolution de la Terre et dont un axe est dirigé dans la direction Terre-Soleil. Elles sont appelées périodes synodiques. Si l'on veut des périodes dans un repère absolu galiléen, ou périodes sidérales, il faut effectuer la correction suivante :
Appelons ω, la vitesse angulaire de rotation de la Terre autour du Soleil, ΩS la vitesse de rotation synodique que l'on vient de mesurer, c'est-à-dire par rapport à un repère tournant avec la Terre, et PS la période synodique correspondante, et ΩG la vitesse de rotation sidérale, par rapport à un repère galiléen, et PG la période correspondante.
En posant :
ω = 360 / 365,25 la Terre faisant un tour (360°) en un an (365,25 jours).
ΩS = 360 / PS
ΩG = 360 / PG
On a la relation :
ΩG = ΩS + ω
ce qui donne
PG = (365,25 x PS) / (365,25 + PS)
PG est 7-8 % plus petit que PS.
Utiliser un logiciel simple de traitement d'images pour faire ressortir les taches sur les images avant de les imprimer.
Un petit cours complet de physique solaire proposé par le DASOP (Département d'Astrophysique Solaire de l'Observatoire de Paris) est disponibleici
Les images servant de support à ce TP ont été extraites de la BAse Solaire Sol 2000 (BASS2000). De nombreuses autres images sont disponibles sur ce site.
Champ: Soleil, Relations Soleil-Terre
Niveau: ***
Temps: environ 2h
On se propose au cours de cette séance d'étudier le développement d'une éjection de masse coronale observée par l'instrument LASCO à bord du satellite SOHO
Il s'agit de montrer quelles méthodes on emploie pour déterminer les paramètres tels que la vitesse, la distance parcourue ou le temps de démarrage d'un événement solaire. Le but est de voir comment évoluent les différentes structures entre elles au cours de l'événement. Il est pour cela intéressant de sélectionner différents 'objets' visibles sur les images fournies.
Pour résumer ce TP a pour but:
Notion de vitesse, accélération, dynamique
Vitesse d'un CME (Ejection de Masse Coronale)
L'instrument LASCO à bord de SOHO comporte 3 coronographes de champs de vue croissants allant de 1.1 à 30 rayons solaires et appelés C1, C2 et C3. Un coronographe est un instrument optique inventé par le Français Bernard Lyot, dans les années 30, qui comporte un masque occultant le disque solaire. Par effet de contraste, cela permet de visualiser la couronne solaire externe, d'ordinaire totalement invisible. En plaçant un tel instrument dans l'espace, on s'affranchit en plus de la luminosité du ciel, ce qui permet de gagner quelques ordres de grandeur dans la détection des structures faibles.
On utilise ici deux des coronographes, C2 et C3 de champs de vue respectifs: 1.5-6 Rsol, 3.5-30Rsol
Comment procéder :
Les données SOHO/LASCO ont été obtenues par un consortium comprenant le Naval Research Laboratory (USA), le Max-Planck-Institut fÊr Aeronomie (Germany), le Laboratoire d'Astronomie (France), et l'Université de Birmingham (UK). Le film EIT est mis à disposition par le consortium EIT. SOHO est une coopération internationale entre l'ESA et la NASA.
On voit que les différentes structures n'évoluent pas à la même vitesse, que certaines sont accélérées et d'autres pas. La gamme de vitesses est comprise entre 500 et 900 km/s. Il faut bien avoir en tête qu'il s'agit là de vitesses projetées sur le fond du ciel, et donc de vitesses apparentes. Ceci dit, cet événement particulier est relativement proche du limbe, et les vitesses calculées sont relativement réalistes. Elles se situent dans la moyenne des vitesses de CMEs comprises entre qq 100 km/s et 2000~3000 km/s.
Quelques sites web:
D'autres images peuvent être chargées sur le site de SOHO et donner lieu à un nouveau TP.
Champ: Soleil, Spectroscopie
Niveau: ***
Temps: environ 1h
Ce TP se compose de deux parties :
L'analyse détaillée de la lumière provenant des astres constitue le plus puissant des outils de l'astrophysique. Cette étude, qui nous permet de connaître les conditions physiques régnant dans la région observée, s'appelle la spectroscopie. Le Soleil est l'étoile la plus proche de nous ce qui nous permet d'observer avec une bonne résolution spatiale le spectre de la photosphère qui est la couche solaire qui nous envoie l'essentiel du rayonnement visible.
Les différentes raies de ce spectre sont dues aux changement de l'orbite des électrons au sein des atomes et des ions présents à la surface du soleil. Un changement d'orbite est lié à l'émission d'un photon si le niveau d'arrivée est d'énergie plus basse que le niveau de départ. Inversement, l'électron passera sur une orbite d'énergie supérieure par absorption d'un photon. À l'équilibre thermodynamique, les deux processus d'émission et d'absorption se compensent exactement et dans ce cas on observe un spectre de rayonnement électromagnétique qui ne dépend que de sa température absolue T.
Dans l'atmosphère du Soleil, cela n'est pas vrai car il y a une variation de la température : les transitions entre les niveaux atomiques ne se compensent pas ce qui fait apparaître le spectre de raies solaires (en émission ou en absorption). Ce spectre contient donc la "signature" des éléments chimiques présents dans le Soleil. Si la température est décroissante avec l'altitude, comme c'est le cas pour la photosphère, les raies qui se forment sont des raies d'absorption : l'intensité au centre de la raie est inférieure à celle du continu.
Pour la première partie :
Pour la deuxième partie :
Réaliser un prisme creux par collage de trois plaques de verre de 4 mm d'épaisseur et de dimension 10 x 15 cm environ, posées sur une quatrième plaque de 15 x 15 cm ; l'ensemble étant collé avec du mastic-joint à base de silicone (voir figure ci-dessous).
Cette expérience permet de conduire l'élève à découvrir que la lumière blanche du soleil est composée de lumières colorées (7 en théorie ou 6 selon que l'on peut ou non voir la différence entre l'indigo et le violet). Orienter le prisme rempli d'eau de manière à obtenir sur l'écran toutes les couleurs : violet, indigo, bleu, vert, jaune, orangé, rouge.
Cette expérience illustre le principe de la formation d'un arc-en-ciel. Un miroir est plongé dans une cuvette remplie d'eau posée sous une source lumineuse. L'écran est placé devant le miroir. Il faut chercher l'inclinaison du miroir et la position de l'écran de manière à faire appraître un "arc-en-ciel". Chaque élève dessine dans son cahier l'expérience telle qu'il se la représente.
Les élèves peuvent de nouveau observer les couleurs de l'arc-en-ciel, vérifier leur nombre et leur ordre.
Ils remarquent qu'il faut orienter correctement le miroir face au Soleil pour obtenir correctement le spectre des couleurs et qu'en faisant varier l'inclinaison du miroir, l'arc-en-ciel peut être projeté sur le mur, le bord de la cuvette ou disparaître.
Ils observent que l'intensité des couleurs se modifie en fonction de la luminosité extérieure. Ainsi, ils remarquent que les couleurs du spectre pâlissent puis disparaissent lorsqu'un nuage s'approche du Soleil et le masque complètement. De la même façon pour l'opération inverse : plus le nuage s'éloigne plus les couleurs deviennent vives.
Enfin, ils remarquent que c'est la partie immergée du miroir qui projette l'arc-en-ciel : en effet, en cachant avec un carton la partie du miroir qui est hors de l'eau, ils s'aperçoivent que l'arc-en-ciel est toujours présent. Ils s'aperçoivent qu'en faisant bouger la surface de l'eau, les couleurs de l'arc-en-ciel se mélangent et bougent comme des vagues.
Cette expérience consiste à suivre la démarche inverse que celle de la dispersion de la lumière suivie dans les expériences I et II : la superposition de toutes les couleurs du spectre solaire reproduit la lumière blanche.
Sur un disque de 20 cm de diamètre, tracer 6 secteurs identiques. Dans les feuilles de couleur, découper un secteur de chaque couleur. Coller ces morceaux sur le disque, comme les couleurs de l'arc-en-ciel. Planter un crayon au centre du disque, puis faites-le tourner très vite comme une toupie : un blanc laiteux apparaît (voir figure ci-dessous)
La figure ci-dessous représente le spectre solaire allant de 378 à 735 nm (nm = nanomètre). Ce spectre contient plusieurs raies d'absorption (numérotées de 1 à 8 de gauche à droite) : ce sont des raies de Fraunhofer dues à l'absorption des rayonnements par les éléments présents dans les couches extérieures de l'atmosphère du Soleil.
L'étude des raies de ce spectre permet donc d'identifier des éléments présents dans le Soleil.
On se propose de mesurer les positions de 9 raies d'absorption du spectre solaire et de déterminer les longueurs d'onde afin de pouvoir identifier certains éléments chimiques présents dans le Soleil. Pour cela :
Elément chimique | Longueur d'onde en nm |
---|---|
H I (hydrogène neutre) | 388.9, 397.0, 410.2, 434.0, 486.1, 656.3 |
Na I (Sodium neutre) | 589.0, 589.6 |
Mg I (Magnésium neutre) | 309.7, 470.3, 516.7, 517.3, 518.4 |
Ca I (Calcium neutre) | 422.7, 458.2, 526.2, 527.0, 616.2, 616.9, 650.0 |
Ca II (Calcium une fois ionisé) | 393.4, 396.8 |
Cr I (Crome neutre) | 435.2, 461.3, 464.6 |
V I (Vanadium neutre) | 770.3 |
V II (Vanadium une fois ionisé) | 316.8, 399.7 |
F I (Fluor neutre) | 821.5 |
Ti I (Titane neutre) | 466.8, 469.1, 498.2 |
Fe I (Fer neutre) | 389.9, 404.6, 423.4, 425.1, 426.0, 427.2, 438.3, 452.9, 459.3, 489.1, 491.9, 495.7, 501.2, 508.0, 527.0, 532.8, 536.7, 536.9, 543.0, 543.4, 544.7, 545.6, 561.6, 822.0 |
Ba I (Baryum neutre) | 318.4 |
Mn I (Manganèse neutre) | 403.6, 403.1, 402.1 |
Ni I (Nickel neutre) | 508.0, 508.5 |
O IV (Oxygène trois fois ionisé) | 480.05 |
Eu I (Europium neutre) | 535.2 |
Sc I (Scandium neutre) | 769.5 |
O2 (Molécule de dioxygène présente dans l'atmosphère terrestre) | 686.7 |
CH (molécule de méthylidyne) | 430.5 |
Longueurs d'onde en nanomètre (nm) des raies caractéristiques des éléments chimiques fréquemment rencontrés.
Cette figure donne le nom ainsi que la longueur d'onde (en nanomètre) des éléments identifiés :
Les raies identifiées sont celles de l'ion Ca+ excité (notation spectroscopique Ca II), des atomes excités de fer (Fe I), d'hydrogène (H I), de magnésium (Mg I), de sodium (Na I) et de la molécule CH. Ces éléments sont présents dans les couches de l'atmosphère solaire au dessus de la photosphère. Par contre, la molécule O2 détectée est présente dans l'atmosphère de la Terre.
Tous ces éléments ont absorbé, dans des longueurs d'onde qui les caractérisent, une partie de la lumière émise au niveau de la photosphère au cours de son parcours jusqu'au spectromètre sur Terre qui a mesuré ce spectre.
La spectroscopie est donc un puissant moyen d'investigation qui nous a permis d'identifier des éléments chimiques dans l'atmosphère solaire.
La lumière dite "blanche" du Soleil est la combinaison de différentes longueurs d'ondes, c’est la synthèse additive des couleurs que tous les peintres et les photographes connaissent bien. En analysant cette lumière les astronomes peuvent déduire la plupart des propriétés de notre étoile.
L'observation du rayonnement photosphérique du Soleil et son analyse permettent de déterminer la composition chimique et aussi d'autres propriétés chimiques du Soleil. D'une manière générale, cette démarche est la plus puissante des outils d'analyse en astrophysique : plus de 99 % de notre connaissance actuelle de l'Univers provient de l'analyse de la lumière.
Le site de la BAse de données Solaire Sol 2000 : http://bass2000.bagn.obs-mip.fr/
Les fiches pédagogiques du CLEA : étude du spectre du Soleil Hors série n°7. Novembre 1994.
Niveau: *
La cosmologie, étude de l'Univers tout entier et de son évolution, est la science des sciences puisqu'elle englobe, par définition, toutes les autres. Elle est également une des plus complexes car les concepts qu'elle manipule dans le cadre de la théorie de la relativité générale, sont souvent au delà de l'entendement et de l'expérience sensible.
L'âge de l'Univers est d'environ 15 milliards d'années. Mais l'Univers est-il fini ou infini ? Est-il ouvert ou fermé ? Autrement dit, l'expansion de l'Univers découverte par Hubble continuera-t-elle indéfiniment ou bien l'Univers est-il suffisamment dense pour que l'expansion s'arrète et que l'Univers se recontracte pour finir en une singularité, le "Big Crunch", symétrique du "Big Bang" ? À ces questions, la science est pour l'instant incapable de répondre. Non pas que les outils théoriques manquent, mais ils ne sont pas suffisamment contraints par les observations. Les efforts sont constants. Bien qu'il n'y ait pas d'autre univers auquel comparer le nôtre, la puissance et la sensibilité toujours croissante des télescopes nous donnent accès à des régions de plus en plus lointaines de notre Univers. La vitesse de la lumière étant finie, nous voyons donc de plus en plus loin dans notre passé.
Les deux premiers TP essayent modestement de fixer quelques ordres de grandeurs des dimensions de l'Univers et des temps caractéristiques de son évolution. Le troisième TP essayera d'introduire quelques notions sur la géométrie et l'expansion de l'Univers.
Le but de ce TP est de donner un idée aux élèves du gigantisme de l'échelle de temps d'évolution de l'Univers comparé à l'échelle de temps humaine. Pour cela, on compresse le temps de manière à faire rentrer toute l'histoire de l'Univers en un an, le big-bang ayant lieu le 1er janvier à 0h00, et le temps présent se situant le 31 décembre à minuit. Dans ce cadre, l'homme ne fait son apparition sur Terre qu'à minuit moins 7 le 31 décembre et le début de l'ère chrétienne se situe 4,2 secondes avant minuit.
La seule connaissance nécessaire est de savoir faire une règle de 3. Mais cette connaissance peut être évitée. Le matériel nécessaire est du carton, des ciseaux et de la colle.
On suppose que l'univers a 15 milliards d'années (l'âge exact n'est pas connu avec une précision meilleure que quelques milliards d'années principalement à cause des erreurs de mesure sur les très grandes distances et les imprécisions sur les paramètres cosmologiques, H, q et Λ en particulier, de notre Univers).
Faire ensuite réfléchir les élèves sur les évènements qui se sont déroulés depuis le Big-Bang à de grandes échelles de temps. Une fois les évènements choisis, il faut les ordonner chronologiquement, d'abord par la déduction (la vie est apparue sur Terre après que la Terre s'est formée, l'Homme est apparu après la vie...). Les élèves pourront ensuite rechercher les dates exactes de ces évènenments ce qui pourra faire l'objets de recherche à la BCD, sur le web ou à la bibliothèque municipale.
Il faut ensuite réaliser un calendrier une longue bande de carton sur laquelle on indiquera les jours et les mois et les évènements que l'on aura choisis. Chaque évènement sera alors placé après avoir calculé avec une règle de 3 le jour de l'année correspondant à l'évènement. Par exemple, les premières galaxies se sont formées environ 1 milliard d'années après le Big-Bang, c'est-à-dire [1 Å~365/ 15] = 24.33 jours après le premier janvier, ou encore le 24 janvier.
On construira ainsi, par exemple, un tableau tel que celui-ci
Evènement | date réelle | date ramenée sur un an |
---|---|---|
Big Bang | - 15 milliards d'années | 1er janvier 00h00 |
premières galaxies | 1 milliard d'années après le BB | |
amas globulaires | il y a 13 milliards d'années | |
formation du système solaire | il y a 4,5 milliards d'années | |
apparition de la vie sur Terre | il y a 4 milliards d'années | |
premiers vertébrés | ||
premiers dinosaures | ||
derniers dinosaures | ||
apparition de l'homo sapiens | ||
Extensions, variantes
On peut élargir une période du tableau pour étudier plus précisément une ère particulière étudiée par ailleurs (dinosaures...).
On peut dédier tout un mur de la classe pour tracer la bande et y placer les évènements rencontrés tout au long de l'année scolaire.
Si les élèves ne sont pas encore capables de calculer des règles de 3, on peut procéder un peu différemment après que les élèves ont réfléchi aux évènements marquants, l'enseignant peut les inscrire sur des cartons avec, au dos, la date masquée par un autocollants. Les élèves classent alors les évènements chronologiquement (par déduction mais sans connaitre les dates exactes) et peuvent ensuite vérifier en retirant les autocollants qu'ils ne se sont pas trompés.
(ou comment vous faire retrouver par un extraterrestre).
Le but de ce TP est de donner aux élèves une notion des distances dans l'Univers en partant des distances dans leur classe.
Le matériel utilisé est un ensemble des cartes à différentes échelles, depuis une carte de leur classe jusqu'à une carte de l'Univers local.
Sur chaque carte, les élèves désignent l'endroit où ils se trouve. La succession de ces endroits donne leur adresse universelle.
L'adresse universelle est donnée en remplissant le tableau suivant à l'aide des cartes
Bureau |
Classe |
Ecole |
Rue |
Ville |
Département |
Pays |
Planète |
Système planétaire, bras spiral |
Galaxie |
Amas Galactique |
Superamas galactique |
Les échelles sont indiquées sur toutes les cartes en kilomètres ou en parsecs. 1 parsec est la distance à laquelle une étoile à une parallaxe trigonométrique de une seconde de degré. Un parsec est à peu près égal à 1,26 année lumière. 1 kpc est égale à un kiloparsec c'est-à-dire 1000 parsecs. De même 1 Mpc = 1 megaparsec = 1 million de parsecs. On a encore 1 pc = 3.1023 km. La carte du système solaire n'est pas à l'échelle. La distance Terre-Soleil est de 1 unité astronomique = 150 millions de km.
Les modèles relativistes d'univers les plus simples sont ceux de Friedmann-Lemaître pour lesquels la constante cosmologique est nulle, la topologie de l'Univers est la plus simple et dans lesquels on ne tient pas compte des propriétés quantiques de l'espace-temps. Ces modèles sont appelés modèles standards du big bang. Ils permettent une bonne description de l'évolution de l'Univers durant une grande partie de son évolution. Ils expliquent pourquoi le ciel est noir, pourquoi les galaxies s'éloignent les unes des autres. Ils rendent bien compte de le proportion des différents éléments chimiques légers (isotopes de l'hydrogène et de l'hélium), du nombre d'espèces différentes de neutrinos. Ils permettent enfin de comprendre l'existence du rayonnement diffus du corps noir à 2,73 K et ses fluctuations observées par le satellite COBE.
Dans de tels univers, l'évolution temporelle est liée à la courbure de l'espace créée par la matière qui y est contenue. Si la densité de cette matière est supérieure à une valeur critique (égale à 10-29 g/cm3), la courbure de l'Univers est positive et l'Univers est sphérique c'est-à-dire que la somme des angles d'un triangle de très grande dimension est supérieure à 180 degrés, comme à la surface d'une sphère. L'espace est alors dit sphérique. Dans ce cas, l'Univers est fermé, autrement dit, la masse qu'il contient est suffisante pour contrer son expansion initiale et la renverser. L'Univers finira donc par se contracter pour ``finir'' en une singularité, le ``big crunch''. Si la densité de matière est égale à la densité critique, la courbure de l'espace est nulle et la topologie à grande échelle est la topologie euclidienne que nous connaissons la somme des angles d'un triangle est égale à 180 degrés. L'expansion initiale de l'Univers est infiniment ralentie. Il n'aura pas de fin. Si la densité de matière est inférieur à la densité critique (ce que les mesures actuelles semblent montrer), la courbure de l'espace est négative. La somme des angles d'un triangle est inférieure à 180 degrés, comme sur une selle de cheval, et l'espace est dit hyperbolique. L'expansion de l'Univers sera infini.
Le caractère de finitude ou d'infinitude de l'espace n'est pourtant pas résolu pour autant, sauf dans le cas ou l'espace est fermé. Dans ce cas, toute les topologies possibles conduisent à un espace fini. Un exemple d'un tel Univers fini fait l'objet de ce TP. La relativité générale définie, en effet, le cadre d'application de la physique locale. Mais elle ne renseigne pas sur la forme globale de l'Univers qui est décrite par la topologie, branche de la géométrie qui classifie les espaces en fonction de leur forme globale. Deux espaces auront la même topologie si l'on peut obtenir l'un en déformant l'autre sans découpage ni déchirure. La surface d'un ballon de rugby aura ainsi la même topologie que celle d'un ballon de football mais pas la même qu'un plan infini ou qu'une chambre à air.
Si l'univers est ouvert, on ne peut pas savoir a priori s'il est fini ou infini à moins de supposé que la topologie de l'Univers est la plus simple, celle où l'Univers est simplement connexe auquel cas l'Univers est infini. Dans le cas euclidien, un espace infini est l'espace ordinaire auquel nous sommes habitué. Mais on peut imaginer ce qu'est un Univers fini l'hypertore. Un tore est obtenu en raboutant les extrémités d'un cylindre. L'hypertore dont il est question ici est plus difficile à conceptualiser. Il faut imaginer que l'on prend un cube et que l'on raboute les faces opposées deux à deux, ou encore que l'on identifie ces faces. On se retrouve alors un peu comme dans un palais des glaces de fête foraine, ou dans une pièce dont on aurait recouvert tous les murs de miroirs. La pièce est finie, mais chaque objet qui s'y trouve est répété à l'infini par un jeu infini de réflexions. Si l'espace est hyperbolique, on aura, comme dans le cas euclidien des topologies conduisant à des Univers finis (considérer par exemple un dodécaèdre régulier dont les faces pentagonales sont identifiées deux à deux) ou infinis (dans le cas, par exemple, d'un espace simplement connexe).
Pour visualiser un espace de courbure négative à deux dimensions, plaçons-nous à la surface d'une sphère ou, ce qui revient au même, à la surface d'un ballon de baudruche. Cette surface est un espace à deux dimensions et est clairement finie. Imaginons des êtres à deux dimensions qui vivent dans cet espace. L'espace à trois dimensions leur est aussi inimaginable qu'un espace à 4 dimensions pour nous. L'intérieur et l'extérieur du ballon n'existe donc pas pour ces êtres.
Traçons des galaxies à la surface du ballon. Comment varie la distance entre les galaxies si l'on gonfle le ballon? Pour en avoir une idée, choisir une galaxie et mesurer la distance avec 4 ou 5 autres galaxies. Recommencer en choisissant une autre galaxie de référence. Après avoir noté les distances dans le tableau ci-dessous, gonfler un peu le ballon et recommencer.
galaxie | distance initiale | distance après avoir gonflé le ballon | différence |
D1 | D2 | D1 - D2 |
galaxie | distance initiale | distance après avoir gonflé le ballon | différence |
D1 | D2 |
On voit dans le tableau que plus la distance initiale est grande, plus la distance a augmenté (plus la différence D1 - D2 est grande). On peut alors tracer la différence D1 - D2 en fonction de la distance initiale D1 avec une couleur différente pour chaque galaxie de référence. On voit que les points sont alignés sur une droite, quelle que soit la galaxie de référence choisie.
Cet univers à 2 dimensions simule bien, par certains aspects, l'Univers tel qu'il serait à 3 dimensions s'il était fermé. Si l'on suppose que le ballon se gonfle continuellement, la variation D1 - D2 en un temps T donné exprime une vitesse d'éloignement qui est d'autant plus grande que la distance entre les galaxies est importante, d'après le graphique que nous venons de tracer. C'est exactement ce que nous observons dans l'Univers avec la loi de Hubble.
On peut également tracer un triangle sur le ballon, en mesurer les angles et vérifier que leur somme est bien suppérieure à 180 degrés.
Champ: Etoiles
Niveau: *
Temps: 2 heures
Le but de ce TP est de construire une maquette en trois dimensions de la constellation du Lion à l'aide d'un dessin de la constellation, des caractéristiques de ses principales étoiles, de baguettes, de perles, de carton, de ciseaux, de colle et de ficelle. Les élèves pourront ainsi constater que les constellations ne sont que des groupements fictifs d'étoiles qui sont en fait à des distances différentes.
Parmi les étoiles de notre Galaxie, la Voie Lactée, seules 6000 à 7500 sont visibles à l'oeil nu. Pour se repérer dans le ciel, les astronomes des siècles passés ont dessiné arbitrairement sur la sphère céleste des figures reliant les étoiles les plus brillantes qu'ils ont nommées constellations. Les noms des constellations boréales (situées dans l'hémisphère nord) nous viennent principalement de l'antiquité, et sont des personnages (Andromède, Cassiopée...), des animaux (le Cygne, la Grande Ourse...), ou des objets (la Lyre, la Balance...) issus de la mythologie (principalement grecque et romaine). Mais les astronomes de l'antiquité n'ont pas observé la partie la plus australe du ciel (visible dans l'hémisphère sud) et ne l'ont donc pas organisé en constellations. Ce travail fut effectué par des astronomes comme Bayer au 17ème siècle qui choisit des noms d'animaux (le Phénix, le Poisson Volant...) et La Caille au 18ème siècle qui préféra des noms d'instruments scientifiques (le microscope, la machine pneumatique...).
Cependant, les limites des constellations restaient floues, et certains astronomes allèrent jusqu'à créer de nouvelles constellations mordant sur les anciennes. La situation fut réglée en 1922 par l'Union Astronomique Internationale qui découpa une bonne fois pour toute le ciel en 88 constellations. L'astronome belge Eugène Delporte en fixa précisément les limites selon des arcs de méridien ou de fuseaux horaires. Durant l'antiquité, les astronomes nommaient les étoiles d'après leurs positions dans la constellation auxquelles elles appartenaient. Au moyen-âge, les astronomes arabes fixèrent le nom des étoiles les plus brillantes sur le même principe (Rigel dans la constellation d'Orion, qui était pour l'astronome grec Ptolémée "l'étoile la plus brillante du pied gauche en contact avec l'eau", signifie simplement "le pied" en arabe) et ces noms sont restés d'usage courant. Au début du 17ème siècle, l'astronome allemand Bayer classa les étoiles des constellations par luminosité décroissante en suivant l'alphabet grec puis l'alphabet latin suivi du génitif du nom latin de la constellation. Ainsi, Arcturus, l'étoile la plus brillante du Bouvier (Bootes en latin) se nomme-t-elle aussi a Bootis (ou a Boo). De même, Castor et Pollux, les deux étoiles les plus brillantes des Gémeaux (Gemini) sont respectivement a et b Geminorum (a et b Gem). Sur le même principe, l'astronome anglais Flamsteed poursuivit la nomenclatures des étoiles de chaque constellation par des numéros. La manière de nommer une étoile par une lettre grecque ou latine ou d'un numéro suivi du génitif du nom latin de la constellation à laquelle elle appartient s'appelle ainsi dénomination de Bayer-Flamsteed. De nos jours, où le catalogage des étoiles n'est plus une fin en soi, et où le nombre d'étoiles connues est considérable, les étoiles sont nommées d'après leur numéros dans des catalogues spécifiques (catalogues d'étoiles brillantes, de binaires, de variables, d'étoiles observées avec tel ou tel instrument...). Une étoile appartenant à plusieurs catalogues a donc plusieurs noms.
Le Lion, en latin Leo (génitif Leonis) est une des 13 constellations du zodiaque. Le zodiaque est l'ensemble des constellations qui sont traversées par l'écliptique. Il comporte, par ascension droite croissante : les Poissons (Pisces), le Bélier (Aries), le Taureau (Taurus), les Gémeaux (Gemini), le Cancer (Cancer), le Lion (Leo), la Vierge (Virgo), la Balance (Libra), le Scorpion (Scorpius), le Porteur de Serpents (Ophiuchus) improprement appelé Serpentaire, le Sagittaire (Sagittarius), le Capricorne (Capricornus) et le Verseau (Acquarius).
Le Lion tient son nom de la mythologie grecque. Il s'agit du Lion de Némée qui vint de la Lune par l'intermédiaire d'une comète. Aucune arme ne pouvait le blesser et il terrorisait la population de la vallée de Némée. Ce fut Hercule qui l'étrangla à mains nues, accomplissant ainsi le premier de ses douze travaux. Une fois le lion tué, Hercule récupéra sa peau dont il se vêtit et fut ainsi protégé des flèches ennemies. Lorsque qu'Hercule mourut, il fut envoyé au ciel avec le lion où ils formèrent deux constellations voisines.
Les deux tables suivantes donnent les caractéristiques des principales étoiles formant le corps du Lion.
Nom | signification | lettre | magnitude |
---|---|---|---|
Regulus | le prince(1) | a | 1.36 |
Denebola | la queue du Lion | b | 2.14 |
Algieba | le front | g | 2.01 |
Zosma | la ceinture | d | 2.56 |
Ras elased Australis | sud de la tête du Lion | e | 2.97 |
Adhafera | boucle (de cheveux) | d | 3.43 |
Al Jabhah | le front | h | 3.48 |
Chort | la cte | q | 3.33 |
Al minliar Al Assas | le nez du Lion | k | 4.47 |
Alterf | le coup d'oeil | 1 | 4.32 |
Ras Elased Borealis | nord de la tête du Lion | m | 3.88 |
Subra | patte griffe (?) | o | 3.52 |
Nom | type spectral | couleur | distance | rayon |
---|---|---|---|---|
Unité | a.l . | Rayons solaires | ||
Regulus | B7V+K2V+M5 | bleue+jaune+rouge | 78 | 3+0,8+0,3 |
Denebola | A3V | bleue/verte | 36 | 2 |
Algieba | K1III+G7III+M4V | orange+orange+rouge | 126 | 16+11+0,3 |
Zosma | A4V | bleue/verte | 58 | 1.8 |
Ras elased Australis | G1II | jaune/orange | 250 | 7 |
Adhafera | F0III | verte | 260 | 4 |
Al Jabhah | A0Ib | bleue | 2000 | 40 |
Chort | A2V | bleue | 178 | 2 |
Al Minliar Al Assad | K2III | orange | 213 | 20 |
Alterf | K5III | rouge | 337 | 25 |
Ras Elased Borealis | K2III | orange | 133 | 20 |
Subra | A5V | bleue/verte | 135 | 1.7 |
(1) Regulus est également appelée Al Kalb al Asad c'est-à-dire le coeur du Lion.
Pour commencer, plusieurs cartes du champs sont distribuées de manière à pouvoir faire découvrir aux enfants la constellation. Ces cartes peuvent être aisément créées à partir d'un logiciel de planétarium comme Voyager © ou RedShift ©. Une séquence de découverte peut commencer par la carte avec uniquement les étoiles et la question: "trouvez où se cache le lion?". À l'aide de la signification de chaque nom, les enfants pourront dessiner le lion (quoique le front, le nez et le coeur soient bizarrement placés ; mais rien n'empèche de faire un dessin cubiste...).
Une maquette à 3 dimensions de la constellation est ensuite construite pour montrer aux élèves que le dessin n'est qu'une illusion due à la projection des étoiles sur la sphère céleste. Le matériel nécessaire pour la maquette est décrit au début du TP. Il faut commencer par imprimer l'image de la constellation du Lion et l'agrandir au format A3 avec une photocopieuse, puis la coller sur le petit carton.
Ci-contre, une telle carte à imprimer, créée avec le logiciel Voyager © (cliquer sur l'image pour voir la version en grand).
Sur le grand carton, fixer la position du Soleil à environ 1 cm du milieu d'un des petits côtés. Tracer des traits radiaux centrés sur le Soleil correspondant au pas de grille des angles horaires dessinés sur la constellation (5 degrés sur l'image fournie). Placer ensuite le petit carton portant la constellation perpendiculairement au grand carton de manière à ce que les traits tracés correspondent approximativement à ceux du dessin (en raison d'un effet de projection - le carton est plat et pas sphérique - les traits à 5 degrés ne tombent pas exactement sur la grille de l'image). L'échelle du dessin étant d'environ 4 cm pour 5 degrés, le Soleil se trouvera à environ 45 cm (= 4 cm / tg(5°)) du petit carton. Le petit carton sera fixer verticalement par exemple avec avec des équerres en carton et de la colle.
Fixer une baguette à l'endroit du Soleil, perpendiculairement au carton et la couper de manière à ce que son extrémité arrive à la hauteur de l'équateur sur le dessin de la constellation. Si l'équateur arrive au bord du petit carton, coller simplement une perle de la taille du Soleil à l'emplacement de celui-ci sans mettre de baguette. Mettre une perle au bout de la baguette qui symbolisera le Soleil.
On fixe ensuite une échelle de distance. Parmi les étoiles retenues, la plus lointaine est h Leonis qui se situe à 2000 années-lumière. Mais la seconde plus lointaine est l Leonis qui se situe 6 fois plus près. Il est donc judicieux de laisser de cté la première et de prendre comme étoile la plus lointaine la seconde. Le Soleil étant à environ 45 cm du second carton, on peut fixer comme échelle simple 1 cm = 10 AL. Denebola, étoile la plus proche de notre échantillon, sera donc à 3,6 cm du Soleil et l Leonis sera à 33,7 cm.
Pour placer les étoiles dans la maquette, fixer au Soleil une ficelle assez longue pour atteindre la constellation et graduée à l'échelle fixée, en mettant des marques le long de la ficelle tout les centimètres. En tirant la ficelle jusqu'à sa projection sur le dessin de la constellation, et connaissant sa distance, il est facile de la placer. Il suffit ensuite de couper une baguette à la bonne taille, de la fixer sur le grand carton et d'y mettre au bout une perle (ou plusieurs pour les étoiles multiples) de la bonne taille et de la bonne couleur (voir une photo d'illustration ci-contre). Il faut cependant noter que les proportions réelles sur les tailles des étoiles sont impossibles à reproduire.
Voici quelques photos d'une telle maquette :
On peut alors voir que le dessin caractéristique de la constellation n'existe que vu du Soleil.
Il est également intéressant de donner la taille de notre Galaxie, la Voie Lactée, à l'échelle. Le disque galactique est d'environ 40 kiloparsecs c'est-à-dire 130.000 années-lumière environ. À l'échelle, il ferait donc 13.000 cm ou encore 130 m. À cette échelle, le diamètre du Soleil (environ 1,4 millions de km) ferait 1,5 10 Å, c'est-à-dire la taille d'un atome.
Logiciels de planétarium :
Voyager II, Carina software, pour Macintosh
Redshift 3, Alsyd multimedia, pour PC et Macintosh
Champ: Planètes extra-solaire
Niveau: ***
Temps: environ 2h
Lire l'article en entier, tout en faisant des rapprochements avec les concepts physiques vus en cours. Dans le texte, des numéros ont été ajoutés pour les besoins du TP. Ces numéros correspondent à des résultats donnés par l'auteur de l'article, sans justification. Le but de ce TP est de reprendre ces résultats point par point, en les démontrant.
Données utiles :
Dans un système binaire, les corps suivent des ellipses dont un des foyers est occupé par le barycentre du système. Ainsi, la présence dune planète provoque autour de ce barycentre un mouvement de l'étoile centrale de même période de révolution P que la période de la planète (voir figure ci-dessous). En général, Mp<< M*, et on peut considérer que les orbites ont été circularisées par effet de marée. Le plan orbital faisant avec le plan du ciel un angle i (O < i < 90°), l'orbite est vue en projection sur le plan du ciel. L'observateur sur Terre ne voit que la vitesse radiale de l'étoile : vrad.
On mesure ainsi |vrad max|= v* . sin i. (Rq : si lorbite est elliptique, vrad n'est plus une fonction sinusoidale du temps et vmax ≠ vmin.
D'après la définition du barycentre, l'étoile parcourt donc une orbite de rayon a* = ap . Mp / M* Après avoir exprimé v* pour un mouvement circulaire de l'étoile, utiliser la 3ème loi de Kepler pour trouver l'expression de vrad max en fonction de M*, Mp, ap, sin i et G.
Calculer les vitesses radiales du Soleil engendrées par la présence de Jupiter et de la Terre, (on prendra i = 90°).
Une méthode spectroscopique de détection d'exoplanètes consiste à mesurer le décalage Doppler périodique des raies stellaires induit par le mouvement de l'étoile. Evaluer le formidable pouvoir de résolution (λ/Δλ) nécessaire pour atteindre les performances actuelles de 3m/s. En réalité, on n'a pas de tels pouvoirs de résolution, mais ils sont atteints en augmentant un pouvoir de résolution initial de 2-3 ordres de grandeur. Ceci grâce à l'étude simultanée d'un très grand nombre de raies.
L'étoile HD209458 a la même luminosité que le Soleil, ce qui implique qu'elle est similaire à notre soleil, de même masse et de même rayon. En appliquant la troisième loi de Kepler, déterminer la taille de l'orbite de la planète, ap.
A partir de la relation trouvée en 1), retrouver la masse de la planète HD209458.
Soit une planète en orbite circulaire de rayon ap autour de son étoile de rayon R*. La probabilité Ptransit dobserver un transit planétaire sécrit :
Calculer Ptransit dans le cas de Venus, la Terre, et Jupiter.
Retrouver la valeur de 1/10 trouvée dans le cas de la planète HD209458.
En déduire le rayon de la planète, puis sa densité et sa gravité à la surface.
Soit L le flux de l'étoile de rayon R*. Trouver l'expression de la baisse de luminosité de létoile par rapport au flux total (ΔL / L), lors du transit d'une planète de rayon Rp. Dans le cas de l'étoile HD209458, on a mesuré une baisse de luminosité de 1,6 %.
Calculer pour comparaison, la chute de luminosité dans le cas de la Terre et de Jupiter.
En déduire le rayon de la planète, puis sa densité et sa gravité à la surface.
Remarquer que le journaliste a commis une erreur dans la figure du bas, page 50. On observe un transit lorsque la vitesse radiale de la planète est nulle et NON maximale, comme il l'est figuré. En effet, lorsque la planète passe devant son étoile (transit ou eclipse), sa vitesse est perpendiculaire à la ligne de visée, et donc la composante radiale de la vitesse (la seule composante auquelle nous avons accés par les observations) est nulle!
A la fin de cette activité, l'élève aura appris à lire de façon critique un article de vulgarisation.
On pourra introduire ce TP par un petit cours sur les planètes extra-solaires et les principales méthodes de détection (vitesses radiales et transit planétaire). Se référer à l'index bibliographique. Les applications numériques ne présentent pas de difficultés particulières, mais nécessitent un grand soin dans leur mise en oeuvre. L'enseignant devra s'assurer que les élèves maîtrisent bien leur calculatrice, avec en particulier l'usage des parenthèses et la touche "puissance de dix".
Champ: Interférométrie
Niveau: **
Temps: environ 2h
S'installer dans une pièce qui peut être assombrie, et permettant un dégagement d'au moins 3 ou 4m (un couloir sans fenêtre fait très bien l'affaire). Découper le papier alu en carrés de 4.5x4.5cm. Disposer la lampe de poche (sans l'allumer) à hauteur des yeux au fond de la pièce.
On peut aussi réaliser ce TP qualitativement sans faire les calculs. Il peut ainsi être adapté au niveau primaire.
Pour simuler la présence de l'atmosphère et donc de la turbulence, on peut intercaler entre la source et l'interféromètre un morceau de transparent dépoli. On ne voit plus les franges! Faire remarquer à l'élève que la présence de l'atmosphère complique les observations interférométriques, et que en pratique, pour s'en affranchir, l'astronome utilise l'optique adaptative ou des instruments en orbite.
attention aux aiguilles!!
Les mesures de distances et de temps donnent accès à un très grand nombre de paramètres fondamentaux en astrophysique.
L'accès au temps est souvent immédiat et complexe à la fois : les phénomènes astrophysiques sont à la base des premières unités temporelles - la rotation de la Terre sur elle-même a servi à définir la seconde - et restent une base pour les unités usuelles du jour et de l'année. Par ailleurs, les distances à considérer dans l'Univers mélangent les notions de temps et d'espace, la lumière mettant un certain... temps à se propager de tout objet à la Terre (1.3 s de la Lune, 8 min pour le Soleil, 4 ans pour l'étoile la plus proche).
Les distances astronomiques se caractérisent non seulement par leurs grandes valeurs, mais aussi par le fait que leur mesure représente toujours, dès que l'on quitte la Terre, une extrapolation. Si la Terre est à un bout de la règle, l'autre bout de la règle reste inaccessiblement lointain. Il a donc fallu inventer des techniques d'extrapolation solides, pour mesurer les distances avec des règles infiniment plus courtes que les distances à mesurer.
Enfin, distance et temps permettent conjointement de définir les multiples référentiels d'étude des questions astronomiques.
Le sous-chapitre Outils développe les notions indispensables pour se repérer dans l'espace et mesurer des distance.
Le sous-chapitre Repérer et observer reprend ces notions, et les étend à des applications plus pointues.
Le sous-chapitre L'échelle des distances parcourt l'Univers à toute échelle, pour l'arpenter de proche en proche.
Ce sous-chapitre introduit les outils indispensables pour :
La notion de triangulation, à la base de l'arpentage de l'Univers, est amplement développée.
Se repérer, dans le temps comme dans l'espace, est à la base de toute bonne astrophysique.
Il suffit, pour s'en convaincre, de penser à l'étape première de l'analyse d'un problème mécanique : la nécessaire identification d'un référentiel, càd d'un solide sur lequel appuyer l'étude, muni d'une horloge fiable et précise. Pour permettre des mesures, ce référentiel doit s'accompagner d'un repère.
Ce chapitre aborde ainsi les mesures de temps et d'espace qui serviront de cadre de travail à tout le cours.
Lorsque l'on parcourt la littérature astrophysique, les longueurs ou distance apparaissent souvent exprimées dans des unités inhabituelles.
Les distances sont couramment rapportées :
La liste ci-jointe et le tableau ci-dessous proposent une promenade dans les distances et longueurs, par pas de 10, pour passer du mètre à l'échelle la plus vaste que l'on puisse imaginer dans l'Univers.
Comme le parcours de l'échelle du mètre à celle de l'Univers s'étend sur 26 ordres de grandeurs, il apparaît rapidement que le mètre est une unité malcommode pour estimer la plupart des longueurs et distances rencontrées. D'où la nécessité d'introduire des unités appropriées, qui permettent d'exprimer les distances avec des nombres plutôt voisins de l'unité que de milliards de milliards de mètres.
Le temps de lumière permet d'estimer les distances, qu'elles soient courtes (la Terre est à 8 minutes de lumière du Soleil), ou longues (les galaxies les plus lointaines observées sont à environ 12 milliards d'années de lumière).
Dans le système solaire, ou pour des dimensions dans un environnement stellaire, on s'appuie sur le demi-grand axe de l'orbite de la Terre, et on utilise couramment l'unité astronomique (UA).
Par définition, il s'agit du demi-grand axe de l'orbite terrestre, soit environ 150 millions de km (plus précisément : 149 597 870 km)
Le mouvement de la Terre autour du soleil se traduit par un mouvement apparent des étoiles du proche voisinage solaire, qui semblent parcourir une petite ellipse sur le fond des étoiles plus lointaines, fixes.
La parallaxe annuelle mesure le demi-grand axe angulaire de ce mouvement apparent.
Les parallaxes sont usuellement exprimées en millièmes de seconde d'arc (mas). L'étoile la plus proche, Proxima du Centaure, a une parallaxe de 772 mas.
Une unité propre à l'astrophysique est le parsec, noté pc.
Le parsec est la distance à laquelle 1 unité astronomique sous-tend 1 seconde d'arc.
On emploie couramment les unités multiples du parsec : kpc, Mpc, Gpc.
Cette définition du parsec est opérationnelle : elle est reliée au mouvement de parallaxe annuelle des étoiles proches.
Une étoile présentant une parallaxe , exprimée en seconde d'arc, est à une distance , exprimée en parsec.
En application directe de la définition, un objet de taille angulaire exprimée en seconde d'arc vu à une distance exprimée en parsec possède une taille linéaire , exprimée en unité astronomique (dans l'approximation des petits angles) :
Le tableau ci-dessous présente les passages d'une unité à l'autre.
Unité | m | UA | AL | pc | |
---|---|---|---|---|---|
m | mètre | 1 | |||
UA | demi-grand axe de l'orbite terrestre | 1 | |||
AL | année de lumière | 63 000 | 1 | ||
pc | 206 000 | 3.26 | 1 |
Plus une étoile est éloignée, moins sa parallaxe est marquée.
Le mouvement apparent parallactique, créé par la rotation de la Terre autour du Soleil, dépend de la position de l'étoile par rapport à l'écliptique.
Difficulté : ☆ Temps : 15 min
Un peu d'exercice sur les ordres de grandeurs.
Rayon du Soleil | ||
Rayon de la Terre | ||
Diamètre d'une pomme |
La taille du Soleil étant rapportée à celle d'une pomme, quelle est à cette échelle la taille de la Terre ?
A quelle distance se situe la pomme la plus proche, l'étoile Proxima du Centaure éloignée de 1,31 pc du Soleil.
Difficulté : ☆ Temps : 20 min
Faire un schéma de la Galaxie vue par la tranche.
Faire un schéma de notre Galaxie dans le groupe local, comprenant entre autres la galaxie d'Andromède, située à et de taille comparable à notre galaxie, et le Grand Nuage de Magellan, situé à et de diamètre . Respecter une même échelle pour les tailles et distances.
Difficulté : ☆☆ Temps : 30 min
Le bulbe galactique présente une densité moyenne de 3 étoiles par . On suppose que ces étoiles sont toutes de même type, de rayons identiques.
Diamètre du bulbe | 5.4 kpc | |
Rayon stellaire moyen | m | |
Diamètre du vaisseau | 1 km |
Estimer la probabilité de collision entre une étoile et un vaisseau intergalactique de rayon traversant le bulbe de part en part.
Etes-vous partant pour piloter le vaisseau ? Pourquoi le bulbe d'une galaxie présente-t-il cet aspect si dense?
Difficulté : ☆ Temps : 20 min
Un télescope laser-lune mesure la distance Terre-Lune par la mesure du trajet aller-retour d'un faisceau laser envoyé par le télescope, réfléchi par des rétro-réflecteurs (déposés sur la Lune par des missions américaines et des sondes soviétiques), et reçu par le télescope.
Le principe des rétroréflecteurs correspond au schéma ci-joint. Expliquer le fonctionnement en illustrant le trajet des rayons lumineux sur ce schéma. On étudiera le cas de plusieurs angles incidents différents. Quelle est la propriété du faisceau réfléchi ? Est-elle utile ?
[1 points]
La distance Terre-Lune valant en moyenne 380 000 km, déterminer la durée du trajet du faisceau lumineux. La précision temporelle de la mesure étant de l'ordre de quelques dizaines de picosecondes, en déduire l'ordre de grandeur de la précision en distance par le faisceau laser.
[1 points]
Difficulté : ☆☆ Temps : 40 min
On souhaite mesurer le décalage temporel entre 2 images d'une même source, résultant du phénomène de lentille gravitationnelle : la lumière d'une source lointaine (typiquement un quasar) est défléchie par la présence d'une masse élevée (typiquement un amas de galaxies) sur la ligne de visée. Cette déflexion s'interprète dans le cadre de la relativité générale : la présence d'une très grande masse courbe l'espace-temps, ce qui infléchit la trajectoire de la lumière. On suppose la géométrie de l'observation fixée par le schéma ci-joint, avec le quasar et l'amas de galaxies et T la Terre.
Déterminer la distance correspondant au trajet dévié quasar-lentille-Terre. On note le petit angle entre l'image directe et l'image déviée.
[2 points]
Expliciter la différence de chemin optique entre les 2 rayons.
[1 points]
Faire l'application numérique. On prendra et . Donner le résultat en pc ainsi qu'en temps de lumière.
[2 points]
Certains quasars présentent des variations rapides de flux et sont vus sous différents angles, suite à de multiples chemins optiques possibles, plus ou moins déviés selon la géométrie (potentiellement complexe) du déflecteur. Estimer l'ordre de grandeur du délai maximal entre 2 images du quasar ?
[1 points]
Difficulté : ☆☆ Temps : 1 h
Dans cet exercice, l'étoile céphéide RS Pup éclaire des globules de son environnement. On détecte la courbe de lumière de l'étoile. Les globules montrent une courbe de lumière avec les mêmes variations mais décalées d'un temps qui correspond au temps mis par la lumière pour aller de l'étoile au globule. Le but de l'exercice est d'estimer quel déphasage est attendu pour chaque globule.
Pour cela, on se propose d'abord, à l'aide de l'appliquette ci-jointe, d'estimer la distance angulaire entre la céphéide RS Pup et les globules de la nébuleuse de son environnement. On suppose que les globules et l'étoile sont dans le même plan.
RS Pup
À partir de l'échelle, étalonner le rapport d'unité u, pour retranscrire directement une mesure non pas en pixel mais en seconde d'arc.
[1 points]
Estimer la distance angulaire de chaque globule et remplir la colonne correspondante du tableau présenté par la 2ème appliquette.
[1 points]
Traduire ces distances angulaires en distances en UA, sachant que le système étoile et globules est à 2.0 kpc de la Terre.
Puis calculer les phases des globules, sachant que la période de la céphéide est P=41,44 jours.
[1 points]
Les cartes du ciel ci-jointes repèrent les étoiles les plus brillantes par 2 coordonnées angulaires, pour 2 régions du ciel, sur l'équateur céleste ou proche du pôle nord céleste.
L'une de ces coordonnées angulaires, appelée ascension droite, est exprimée en unités horaires (h, min, s).
La pleine échelle vaut 24 h, équivalant à 1 tour de ciel, ou 360 degrés.
Les constellations réunissent de façon arbitraire des étoiles voisines. Les histoires que racontent les constellations ou les groupes de constellation offrent un support à la mémoire.
Les tracés de constellation peuvent joindre les étoiles (la Grande Ourse devenant ainsi une casserole), ou peuvent les délimiter (les représentations du cours ont choisi cette convention de l'Union Astronomique Internationale).
Le ciel, sans la dimension de profondeur, est analogue à la surface d'une sphère. Usuellement, on y repère un astre par son ascension droite et sa déclinaison. Ces 2 coordonnées sont définies dans un repère lié à la Terre : un des axes s'appuie sur l'axe polaire terrestre, l'autre sur l'équateur.
La déclinaison, équivalant à la latitude, varie de -90 à +90 degrés, ces limites pointant respectivement les pôle sud et nord célestes.
L'ascension droite est comptée en heure, minute et seconde. L'origine des ascensions droites est la direction du point vernal.
La conversion entre heure, minute et seconde d'une part, et degré, minute d'arc et seconde d'arc d'autre part, est donnée par la table ci-jointe.
La conversion entre heure, minute et seconde d'une part, et degré, minute d'arc et seconde d'arc d'autre part, est donnée par la table ci-jointe qui propose une conversion entre les unités horaires et angulaires. Le facteur 15 provient simplement de la division du jour (1 tour, ou 360 deg), en 24 heures, soit une rotation de 15 deg/h. Attention à bien respecter les unités, afin de ne pas confondre minute horaire et minute angulaire, qui ne sont pas égales.
1 heure = 15 deg | 1 deg = 4 min | 1 deg = 0.0174 rad |
1 minute= 15' | 1 ' = 4 s | 1' = 0.29 mrad |
1 seconde= 15" | 1" = 1/15 s | 1" = 5 microrad |
Il est nécessaire de distinguer l'écriture décimale de l'écriture développée dans ces systèmes d'unités qui reposent sur une base non décimale.
Par exemple : , mais
L'unité angulaire dans le système international d'unités (SI) est le radian. Vu l'usage intensif de la seconde d'arc en astronomie, il est utile d'avoir en tête l'ordre de grandeur :
Exemple d'utilisation de l'appliquette : galaxie NGC1316, elliptique, en train de cannibaliser une petite galaxie elliptique.
A l'aide du curseur, estimer les coordonnées angulaires des points du champ dans la constellation d'Orion, pour en déduire l'ordre de grandeur de ses dimensions angulaires.
Vérifier l'accord avec les coordonnées 2000 de 4 objets du champ, et repérer la nébuleuse d'Orion M42.
étoile | (h, min, s) | (deg, ', ") |
Bételgeuse | 05 55 10 | +07 24 25 |
Rigel | 05 14 32 | -08 12 06 |
Bellatrix | 05 25 08 | +06 20 59 |
M 42 | 05 35 17 | -05 23 28 |
Reprendre le relevé pour la carte synthétique de la région d'Orion. Pourquoi l'accord est-il meilleur ?
Difficulté : ☆ Temps : 20 min
En unité naturelle angulaire, le ciel, comme toute sphère, couvre stéradians (pour s'en convaincre si besoin est, se rappeler l'aire de la sphère de rayon ). L'astronome préfère exprimer les angles en degré, heure et minute d'angle . Les instruments astronomiques ont des champs de vue qui varient typiquement de à pour les instruments grand champ.
Traduire en degré carré, puis en minute et seconde carrée.
Un instrument imageur couvre un champ carré de 12' de côté (projet DENIS, mené à l'Observatoire Austral Européen (ESO), pour la cartographie infrarouge du ciel austral). Il pose en 3 couleurs dans l'infrarouge (filtres I, J, K à respectivement 0.85, 1.25 et 2.15 micromètres), avec des temps de pose de l'ordre de 10 à 30 s, soit environ 1 minute pour les 3 filtres. Il permet ainsi de cartographier une moitié du ciel, jusqu'aux magnitudes limites 18.5 à 14. Estimer la durée du programme d'observation (5 h/nuit pour compter les aléas divers et météorologiques).
Difficulté : ☆☆ Temps : 20 min
La surface de la Lune a été observée par le système d'optique adaptative (OA) de l'ESO. Les clichés ci-joints permettent de comparer l'apport de cette technique. La largeur totale du champ représente 26", pour 201 pixels.
Quelle est la taille angulaire d'un pixel ? En déduire la taille linéaire, en km, du champ de vue d'un pixel et du champ de vue total, la Lune étant à 384 000 km de la Terre lors de l'observation.
[2 points]
À l'aide de l'appliquette, estimer le diamètre apparent du gros cratère, les tailles des plus petits détails visibles, avec ou sans optique adaptative.
[1 points]
La mesure du temps, comme la définition des unités de temps, s'appuie sur des rotations régulières : la rotation propre de la Terre, sa révolution autour du Soleil.
La découpe des jours en 24 heures est une longue histoire... A l'époque où le temps n'était défini qu'à la précision d'une clepsydre ou d'un cadran solaire, la définition même de l'heure est restée vague, et sa durée variable.
Quantitativement, la base 24 provient des Egyptiens, pour qui 24 h = 12 h de jour + 12 h de nuit, avec 12 = 1 + 10 + 1. Le jour et la nuit égyptiens comptaient invariablement 10 heures, auxquelles étaient rajoutées 2 heures extrêmales "entre chien et loup".
Pourquoi compte-t-on 60 secondes par minute, et 60 minutes par heure ? Plus encore que pour l'heure, l'usage des minutes et secondes est récent (XVIIe siècle), vu qu'il nécessite un chronométrage précis du temps.
Quantitativement, la base 60 provient d'un héritage babylonien, et date de la fin du 3e millénaire avant notre ère. Le nombre 60 présente en effet l'avantage de posséder un grand nombre de diviseurs (2, 3, 4, 5, 6, 10, 12, 15, 20, 30), ce qui est commode pour les calculs de fraction lorsque les techniques de calcul d'une division ne sont pas connues.
C'est pour cette raison que 60 servait de base de calcul, en complément ou à la place de la base 10 ; cet usage a perduré de nos jours pour les mesures de temps et d'angles.
La mesure du temps s'est longtemps appuyée sur les mouvements les plus réguliers observables : la rotation propre de la Terre (le jour), sa révolution autour du Soleil (l'année). Ce n'est qu'en 1969 que le Bureau international des poids et mesures a abandonné la rotation de la Terre pour la définition de la seconde comme unité de temps.
La seconde correspond à l'intervalle de temps comprenant 9 192 631 770 oscillations entre les deux niveaux hyperfins de l'état fondamental de l'atome de césium 133.
Il n'y a pas d'unités temporelles spécifiques en astrophysique, contrairement aux nombreuses unités de distance.
La seconde apparaît une unité ni mieux ni moins bien appropriée que pour d'autres domaines que la physique.
L'année est de facto une unité pratique pour les problématiques circum-stellaires, vu qu'elle a été définie comme unité "circumsolaire". Il suffit juste de s'habituer, dans certains cas, à l'usage des grands nombres, et de compter en millions, voire milliards d'années.
L'usage du temps de lumière est sans ambiguïté, dès lors que la célérité de la lumière est une constante universelle. Un temps de lumière est une distance, et correspond à la durée du trajet si l'on chevauche un photon.
La célérité de la lumière dans le vide est un invariant, fixé par définition à 299 792 458 m/s.
Les unités dérivées les plus utiles sont des échelles de temps caractéristiques, appropriées à l'étude précise d'un problème. Ces échelles de temps sont définies par :
On définit ainsi, pour un système donné, des échelles de temps caractéristiques telles :
Difficulté : ☆☆ Temps : 20 min
On considère un objet autogravitant de masse , rayon , et on s'intéresse à son échelle de temps dynamique.
Quelle constante fondamentale de la physique intervient nécessairement dans toute formulation de la physique du problème.
Montrer, avec le minimum de calcul possible, que est homogène à une vitesse, et en déduire que est homogène à un temps.
Montrer que peut s'exprimer en fonction de la masse volumique moyenne de l'objet.
Faire l'application numérique pour la Terre, la Galaxie, un petit noyau cométaire. On choisira une constante multiplicative :
Objet | Masse (kg) | Rayon (km) |
noyau cométaire | 1 | |
la Terre | 6400 | |
la Voie Lactée | 15 000 pc |
Difficulté : ☆ Temps : 30 min
La formation du système solaire | en an après le Soleil |
L'apparition du dioxygène atmosphérique | an |
La disparition des dinosaures | an |
Notre ancêtre Lucy | an |
La maîtrise de l'écriture | avant JC |
Votre naissance | ... |
Hier |
Reporter dans un graphe en échelle logarithmique les événements suivants de l'histoire de la Terre depuis la naissance du Soleil [ an].
Déterminer leur date, sur la base d'une année, la formation du Soleil débutant le 1er janvier à 0 heure, et aujourd'hui correspondant à minuit du 31 décembre.
Difficulté : ☆☆ Temps : 20 min
L'échelle de temps dynamique d'un objet autogravitant donne un bon ordre de grandeur de la durée caractéristique de l'éventuel effondrement de cet objet.
Masse (kg) | Rayon (km) | |
Soleil | 700 000 | |
Étoile à neutrons | 10 | |
Nuage d'hydrogène moléculaire | 10 AL |
Rappeler l'expression de cette échelle de temps, fonction de la masse , du rayon et de la constante gravitationnelle .
[2 points]
Calculer l'échelle de temps pour les 3 objets proposés. Commenter.
[3 points]
Difficulté : ☆☆ Temps : 20 min
Estimer le réservoir d'énergie gravitationnelle, fonction de la masse , du rayon du Soleil, et de la constante gravitationnelle . Faire l'application numérique.
Masse (kg) | Rayon (km) | Luminosité (W) | |
Soleil | 700 000 |
[2 points]
En déduire l'échelle de temps associée à ce réservoir d'énergie. Est-elle compatible avec l'âge du Soleil ?
[2 points]
On s'intéresse au réservoir d'énergie nucléaire. Le rendement énergétique de la fusion de l'hydrogène en hélium est de 0.007, ce qui signifie que la fusion d'une masse d'hydrogène dégage une énergie . On estime, pour une étoile telle que le Soleil, qu'un dixième seulement de sa masse fusionnera. En déduire une estimation de la durée de vie du Soleil.
[2 points]
Cette section a permis d'introduire des ingrédients indispensables pour un champ d'activité fécond de l'astrophysique : l'étude des objets binaires dans le voisinage solaire (cf systèmes binaires et multiples).
Pour un tel système binaire, repéré par 2 angles directement obtenus par l'observation (parallaxe et séparation angulaire ) et mesurés en seconde d'angle, on connaît alors immédiatement la distance en parsec :
et la séparation linéaire en unité astronomique :
La triangulation permet de mesurer des distances... à distance, la géométrie euclidienne rapportant à une mesure angulaire une mesure de distance.
Mesurer une hauteur ou une distance ... à distance est souvent nécessaire, et nombreuses sont les illustrations mettant en pratique la mesure de distances par triangulation. Remarquer l'esthétique de ces représentations !
Relations trigonométriques
Dans un triangle de côtés , et et d'angles opposés , et , la relation du triangle s'énonce :
Il en découle que la mesure de seulement deux angles et d'un côté du triangle permet de calculer les autres côtés.
En effet, le 3e angle est alors connu, par la relation dans un triangle, en géométrie plane :
La relation liant côtés et angles permet alors de connaître la mesure de chaque côté.
Si, p.ex, le côté est directement accessible à la mesure (p.ex. une distance sur Terre), ainsi que, que les angles et , on a accès aux distances et (attention, les notations de la figure de principe sont différentes).
Difficulté : ☆ Temps : 15 min
On mesure la parallaxe d'une étoile . A quelle distance est cette étoile ? Avec quelle précision ?
[2 points]
Le satellite européen HIPPARCOS a mesuré des parallaxes stellaires avec une précision moyenne de l'ordre de 1 mas (0.001 seconde d'arc). Jusqu'à quelle distance les mesures ont pu être obtenues avec une précision relative meilleure que 20% ?
[2 points]
Le projet GAIA doit atteindre une précision de l'ordre de 0.001 mas. Jusqu'à quelle distance pourra-t-on espérer la même précision relative ?
[1 points]
Par triangulation, les astronomes Delambre et Méchain ont mesuré la Terre, et défini le mètre, à la fin du XVIIIe siècle. Ils ont parcouru un arc de méridien, de Dunkerque à Barcelone, par une succession d'étapes formant des triangles juxtaposés. La mesure d'un seul des côtés d'un seul des triangles, la base, et de l'ensemble des angles a permis de déterminer la longueur de l'arc du méridien de Barcelone à Dunkerque, en passant par Paris.
L'extrapolation de la mesure du méridien, de l'équateur au pôle nord, a alors été effectuée. Par définition, la longueur de ce quart de méridien a été posée égale à 10 000 km, ou 10 millions de mètres. Le mètre est à la mesure du quart de méridien terrestre (aujourd'hui : le mètre est devenu une unité dérivée, définie à partir de la seconde et de la vitesse de la lumière).
Ce n'est donc pas un hasard si l'équateur mesure 40 000 km. Le léger résidu provient d'une meilleure mesure, ultérieure, de la figure de la Terre, la mesure du mètre étant définitivement figée.
L'importance de la mesure par triangulation se retrouve dans bien des thématiques.
C'est en opérant des triangulations astucieuses que Kepler a déterminé la nature de l'orbite de Mars, pour en dériver ses lois ; il lui fallut se positionner dans le bon référentiel, héliocentrique, et considérer différents événements à différentes dates pour conduire les mesures.
De manière plus moderne, c'est à une sorte de triangulation que se livrent les astrophysiciens pratiquant l' interférométrie pour mesurer de très petits diamètres angulaires : en élargissement la base d'observation, ils arrivent à retrouver l'information de la distance.
La mission Gaia , lancée fin 2013 développe le sens de la triangulation à l'échelle de notre Galaxie.
Cette section traite plus spécialement de questions spécifiques à l'astronomie, liées au fait que le lieu d'observation, la Terre, a la fâcheuse habitude de tourner !
Les cartes et les éphémérides donnent les positions des objets dans des coordonnées particulières, le plus souvent les coordonnées équatoriales.
Dans un système d'axes liés à la Terre, avec un axe parallèle à l'axe polaire et un autre perpendiculaire, on travaille en coordonnées équatoriales, comme avec un télescope en monture équatoriale. Un cas particulier de monture équatoriale est la monture en berceau, utilisée pour la plupart des grands instruments de la classe 4-mètres construits dans les années 1970-80.
Les coordonnées locales servent au pointage d'un télescope en monture azimutale : l'un des axes est selon la verticale locale, l'autre lui est perpendiculaire. Pour des raisons techniques, les grands télescopes récents ont tous une monture azimutale.
Illustrer les référentiels utilisés, munis de leurs repères, et y définir les coordonnées des objets.
Si l'on se repère dans un système d'axes liés à la Terre, avec un axe parallèle à l'axe polaire, et un autre perpendiculaire, on travaille en coordonnées équatoriales, comme un télescope en monture équatoriale.
Les coordonnées équatoriales ne dépendent pas du lieu d'observation. Ce sont elles qui sont données par les catalogues d'objets ou les éphémérides. L'origine des ascensions droites est le point vernal. La déclinaison est nulle sur l'équateur céleste.
Si l'on se repère par rapport au zénith et à l'horizon local, qui n'est qu'une extension du référentiel du laboratoire, les coordonnées locales permettront de rendre compte de l'élévation d'un astre, et de sa position par rapport au méridien. Ces coordonnées, azimut , hauteur , servent au pointage d'un télescope en monture azimutale.
Les coordonnées galactiques sont définies par rapport au plan de la galaxie. Elles sont évidemment bien utiles pour décrire notre galaxie, mais également pour se repérer dans le ciel profond. Il est en effet plus facile d'observer le ciel profond au voisinage des pôles galactiques, moins encombrés par les objets de la galaxie.
Le choix de la monture n'est pas sans incidence sur l'observation. Une monture équatoriale permet de suivre un champ sans rotation de champ, car elle fige la rotation totalement, contrairement à une monture azimutale. En effet, cette dernière propose une translation du champ, autour de l'objet central, parallèlement à l'horizon terrestre, et non le long d'une ligne d'égale déclinaison.
Les 2 animations illustrent ceci, en modélisant l'observation d'un même champ stellaire avec un collecteur sur monture équatoriale ou azimutale.
Difficulté : ☆ Temps : 30 min
Un peu de trigonométrie sphérique nous apprend que la distance angulaire entre 2 objets A et B de coordonnées équatoriales respectives et s'écrit :
Vérifier cette expression dans le cas particulier où A et B sont 2 objets sur l'équateur céleste.
[1 points]
Vérifier cette expression dans le cas particulier où A et B ont même ascension droite.
[2 points]
Vérifier cette expression dans le cas particulier où A et B sont séparés de 12 h en ascension droite. Préciser le résultat lorsque, en plus, les déclinaisons sont égales.
[3 points]
La rotation de la Terre autour du Soleil se combine à sa rotation propre pour définir la durée de 24 heures entre deux passages du Soleil au méridien.
La révolution de la Terre autour du Soleil entraîne le déplacement apparent de celui-ci par rapport aux étoiles, déplacement que l'on ne perçoit pas directement... sauf si l'on éteint un peu le soleil (on pourrait aussi souffler l'atmosphère).
Le temps sidéral, qui donne l'ascension droite d'une étoile culminant à minuit, varie de 24 h sur l'année. L'origine est à l'équinoxe de printemps.
Comment savoir si une étoile est visible ou non ? Il faut connaître le temps des étoiles.
C'est le Soleil qui définit le jour et la nuit. Mais comme la Terre tourne autour du Soleil, cette alternance jour/nuit n'est pas en phase avec les étoiles. Le temps sidéral, qui est plus à considérer comme un angle sidéral que comme un temps, permet de se repérer indépendamment du mouvement de rotation autour de la Terre.
Le temps sidéral, c'est, littéralement, le temps des étoiles, et non celui du Soleil. Si le passage du soleil définit, entre 2 midis successifs, la journée moyenne de 24 h, celui des étoiles définit une autre "journée" de seulement 23 heures et 56 minutes en temps solaire, mais 24h00 en temps sidéral.
Le temps sidéral est l'angle horaire entre le méridien sud et le point vernal.
De cette définition, on retient que le temps sidéral est plutôt une position angulaire qu'un temps. Il se note comme une ascension droite, en h, min et s. Mais comme la définition n'est pas très pratique, on peut donner un équivalent de définition.
Le temps sidéral est l'ascension droite des objets qui passent au méridien à un instant donné.
De cette définition, on retient que le temps sidéral est plutôt une position angulaire qu'un temps. Il se note comme une ascension droite, en h, min et s. Mais comme la définition n'est pas très pratique, on peut donner un équivalent de définition.
Les étoiles reviennent en une même position en 23h56min04s. Les 236 secondes manquantes par jour, cumulés sur un an, représentent 24 heures, soit l'équivalent d'une rotation, celle que la Terre a fait par rapport aux étoiles mais pas par rapport au Soleil.
Jour, heure, minutes et seconde sidérales ne valent pas leurs équivalents solaires. Le rapport vaut 366.25/365.25
Temps sidéral | Temps solaire |
---|---|
24h00 | 23h56min |
24h04 | 24h00min |
1.002738 s sidérale | 1 s solaire |
1 s sidérale | 0.997269 s solaire |
L'angle horaire d'un astre repère sa position par rapport au méridien. Une étoile de déclinaison nulle de lève avec un angle horaire de -6 h, et se couche à +6 h. A angle horaire nul, elle passe au méridien et culmine.
En pratique, le temps sidéral, exprimé en heure et minute, correspond à l'ascension droite d'un objet dans le plan méridien. Les éphémérides définissent le temps sidérale par les coordonnées.... du Soleil.
La relation entre l'ascension droite d'une étoile, son angle horaire et le temps sidéral s'exprime :
L'angle horaire est nul au méridien, et donc un astre culmine au méridien lorsque son ascension droite vérifie :
Comment calculer le temps sidéral.
Les éphémérides du Soleil donnent le temps sidéral à 0h00 TU à Greenwich.
On en déduit le temps sidéral , toujours à Greenwich, mais à toute heure TU du temps universel en augmentant le temps sidéral de TU à un facteur près ; ce facteur rend compte de la différence entre 24h00 et 23h56.
L'origine du temps sidéral est à minuit à l'équinoxe d'automne. Chaque jour, le temps sidéral prend environ 4 minutes d'avance sur le temps universel.
On passe ensuite au temps sidéral en tout lieu en la retranchant au temps sidéral à Greenwich la longitude du lieu d'observation :
Cette équation signifie que le temps sidéral dépend intimement du lieu d'observation. A un instant donné, chacun voit minuit à sa porte : les étoiles qui culminent au méridien dépendent du lieu d'observation, et donc le temps sidéral est partout différent (sauf pour les lieux de même longitude). Néanmoins, le temps sidéral correspondant au passage au méridien d'une étoile donnée est par définition le même en tout lieu. Par exemple : une étoile va culminer à Strasbourg (longitude 7°45' est) ou Brest (4°30' ouest) à même temps sidéral, mais ce passage au méridien va survenir environ 49 minutes plus tardivement à Brest. Entre ces deux dates, le temps sidéral à Greenwich aura dérivé de 8 s par rapport au temps universel.
Le tableau ci-dessous donne l'évolution du temps sidéral à Greenwich à 0h00, au cours de l'année 1997 (données de l'IMCCE).
S'en servir pour déterminer le temps sidéral à toute date.
Difficulté : ☆☆ Temps : 30min
Un observateur souhaite obtenir du temps de télescope à l'ESO (observatoire austral européen). Les appels d'offres sont ouverts chaque semestre, pour des observations courant respectivement du 1er avril au 30 septembre, puis du 1er octobre au 31 mars. Il faut choisir des cibles en conséquence.
Le programme d'observation requiert des cibles visibles toute la nuit. Traduire cette condition en une relation entre l'ascension droite de la cible et le temps sidéral à minuit.
[2 points]
Quelles cibles (définies par leur ascension droite) seront observable au semestre 01/04-30/09 ?
[1 points]
Un autre observatoire propose des semestres d'observation du 1er mars au 31 août, puis 1er septembre au 28 février. Comment est modifié le résultat ?
[1 points]
La mesure de la période d'un phénomène dépend du référentiel.
Selon le point de vue, vu de la Terre ou du Soleil, un phénomène périodique ne présentera pas la même période.
Un phénomène sidéral est décrit dans le référentiel héliocentrique. Il se repère en pratique sur un fond d'étoiles, fixe.
Un phénomène synodique est décrit dans un référentiel lié à la Terre, mais non géocentrique. Il se repère par rapport à un système d'axes dont l'un pointe en permanence vers le Soleil.
C'est évidemment la définition du jour moyen (24 h en moyenne s'écoulant entre deux passages successifs du Soleil au méridien) qui impose le point de vue synodique.
Entre les points de vue sidéral et synodique, il y a donc un désaccord d'un tour par an !
La période de révolution sidérale de Jupiter est de l'ordre de 12 ans : une révolution complète de Jupiter autour du Soleil dure 12 ans. Pratiquement, l'ascension droite de Jupiter va évoluer de 360 deg en 12 ans. Observé de la Terre, Jupiter va mettre 12 ans pour revenir dans une constellation donnée.
Mais la période de révolution synodique de Jupiter est de 13 mois seulement. Si à une date donnée, Jupiter est à l'opposition, il s'écoulera 13 mois avant l'opposition suivante. Au bout de 13 mois, Jupiter à l'opposition sera dans une constellation différente, à environ 30 deg (360/12) de la précédente.
Temps des étoiles, temps mesuré depuis la Terre... il est important de s'y retrouver. De manière générale, une mesure depuis la Terre sera synodique ; mais une loi physique s'exprimera avec une grandeur sidérale.
Retenir du temps sidéral que c'est un angle plus qu'un temps.
L'astronomie s'intéresse au repérage des objets. Ce repérage dépend intimement du lieu d'observation, et son interprétation nécessite le plus souvent un changement de référentiel.
Les observations du ciel sont effectuées, pour la plupart, depuis la Terre. Les mesures qui en résultent sont analysées, pour la plupart, dans un référentiel héliocentrique, le référentiel géocentrique n'offrant pas un cadre suffisamment galiléen (référentiel dans lequel un corps soumis à aucune force est en mouvement rectiligne uniforme) .
Les pages de cette section traitent des changements entre les différents référentiels utiles à l'astronomie et à l'astrophysique.
Passer des coordonnées équatoriales, données par les catalogues, aux coordonnées azimutales, liées au lieu d'observation.
En un lieu d'observation de latitude, , les équations de passage des coordonnées équatoriales (ascension droite , déclinaison ) vers les coordonnées locales (azimut , hauteur ) s'expriment par :
avec l'angle horaire, étant le temps sidéral.
La visibilité d'un astre nécessite au moins (astre au dessus de l'horizon), et en pratique , la limite dépendant des contraintes d'observation.
Les conditions posées sur l'angle horaire , et donc , sont estimées en exercice. Les équations précédentes montrent que le passage au méridien, l'altitude maximale, est atteint pour , càd .
Difficulté : ☆ Temps : 40 min
D'après les équations de changement de système de coordonnées, un astre est levé si sa hauteur est positive, ce qui signifie :
(voir la page cours pour le rappel de la définition des symboles).
Ceci conduit à une condition sur l'angle horaire :
qui doit pouvoir être satisfaite.
Dans quel cas cette équation n'admet-elle jamais de solution ?
Dans quel cas cette équation admet-elle toujours une solution ?
Représenter, pour un lieu de latitude moyenne, un diagramme avec les étoiles circumpolaires (une étoile circumpolaire est suffisamment proche du pôle pour ne jamais descendre sous l'horizon) et les étoiles toujours invisibles.
Un référentiel, c'est aussi une horloge. La période apparente d'un phénomène périodique dépend donc de cette horloge.
Changer de référentiel, c'est changer de point de vue !
Comme ici, les différents référentiels concernés s'appuyant sur la rotation de la Terre autour du Soleil, ou sur la rotation de la Terre sur elle-même ou sur les étoiles fixes, sont en rotation angulaire les uns par rapport aux autres, il est nécessaire de s'intéresser à la composition des vitesses angulaires.
Les mesures d'une vitesse angulaire exprimée dans deux référentiels différents 1 et 2, identifiées par les indices /1 et /2, vérifient la "relation de Chasles" :
En considérant des mouvements de rotation coplanaires, l'égalité pour les périodes devient :
Les signes dépendent des sens respectifs des mouvements, selon que l'entraînement, la rotation du référentiel 1 par rapport au référentiel 2, s'ajoute ou se retranche au mouvement du système considéré.
Dans les cas des référentiels terrestre tournant et sidéral, la rotation propre et la révolution étant le plus souvent sur des axes parallèles et dans le même sens, on a :
et donc :
le signe dépendant de la planète considérée, d'orbite intérieure ou extérieure à la Terre.
Par exemple, on retrouve la relation entre le jour synodique moyen (temps qui sépare deux passages du Soleil au méridien) et le jour sidéral (temps pour que la Terre fasse un tour exact sur elle-même):
Ces 4 minutes de différence entre 23h56 et 24h00, en fait plutôt 3min56.3s, représente de l'ordre d'une fraction 1/365 de 24h.
A l'aide de l'appliquette, convertir les périodes sidérales des planètes (Tsid) en périodes synodiques (Tsyn).
L'évolution de Mercure a conduit à figer ses périodes de rotation propre et de révolution dans une résonance de type 3:2, ce qui signifie que Mercure accomplit, dans un référentiel sidéral, 3 rotations propres en 2 révolutions autour du Soleil.
Cette configuration particulière conduit, pour une hypothétique habitant mercurien (hermien), à des jours valant deux années mercuriennes (voir exercice), comme le montre l'animation.
Difficulté : ☆ Temps : 20 min
Le tableau ci-joint donne les période de révolution sidérale des planètes du système solaire. On veut calculer leurs périodes de révolution synodiques.
Planète | ||
UA | an | |
Mercure | 0.3871 | 0.2408 |
Vénus | 0.7233 | 0.6152 |
Terre | 1.0000 | 1.0000 |
Mars | 1.5237 | 1.8808 |
Jupiter | 5.2026 | 11.862 |
Saturne | 9.5547 | 29.457 |
Uranus | 19.218 | 84.020 |
Neptune | 30.109 | 164.77 |
Le cas des planètes internes (Mercure, Vénus) est-il analogue à celui des planètes externes?
Calculer les révolutions synodiques.
Pourquoi les périodes synodiques ci-dessus calculées tendent-elles vers un an lorsque l'on s'éloigne dans le système solaire ?
Difficulté : ☆☆☆ Temps : 20 min
En quelle durée le Soleil parcourt-il son diamètre, du fait de la rotation diurne ?
En quelle durée la Lune parcourt-elle son diamètre ?
Déterminer la durée moyenne d'une éclipse, entre les premier et dernier contacts ? La période de révolution synodique de la Lune est de 29.5 j ; les premier et dernier contacts correspondent aux tout début et toute fin de l'éclipse (situation et ).
Difficulté : ☆☆ Temps : 30 min
Déterminer la période sidérale de rotation, avec comme unité l'année hermienne sidérale.
Définir les référentiels d'étude, et l'entraînement angulaire de l'un par rapport à l'autre. Montrer alors que le jour hermien vaut 2 années sidérales.
Difficulté : ☆☆ Temps : 20 min
La période de révolution synodique de la Lune, durée s'écoulant entre deux nouvelles lunes, vaut 29 j 12 h 44 min.
Calculer la période de révolution sidérale de la Lune.
[2 points]
Déterminer l'intervalle de temps moyen entre 2 passages consécutifs de la Lune au méridien.
[2 points]
La coordonnée locale , la hauteur d'un astre, nous renseigne si un astre est levé . L'angle horaire nous renseigne sur sa position par rapport au méridien (passage au méridien à ).
Le tracé de est utile pour estimer les conditions d'observations.
La hauteur détermine si l'astre est levé, mais cela ne suffit pas pour assurer la visibilité de l'objet : il faut que le soleil soit couché (sauf si c'est lui que l'on souhaite observer, évidemment).
Cela dépend de l'ascension droite. Les éphémérides et logiciels de l'IMCCE permettent de calculer positions, visibilités...
Les objets internes du système solaire, Mercure et Vénus, mais aussi tout petit corps de périhélie inférieur à 1 UA, ne peuvent être visibles toute la nuit (le contraire signifierait que la Terre se situe entre eux et le Soleil, ce qui est contradictoire), ce qui réduit leur durée d'observation.
Ainsi, le coucher de Mercure suit de peu celui du Soleil.
Comment savoir si une étoile est visible ou non, et comment la pointer, càd diriger le télescope vers elle ? Cela dépend de ses coordonnées (ascension droite et déclinaison), mais aussi du lieu, de la date et de l'heure d'observation, comme cela a été montré aux pages traitant des coordonnées et du temps sidéral.
Observer un astre dans les meilleures conditions, c'est l'observer lorsqu'il passe au méridien à minuit, et donc lorsque son ascension droite vaut le temps sidéral de référence (Greenwich) à minuit.
Un paramètre couramment mesuré est la masse d'air, qui n'est pas une masse mais rend compte de l'épaisseur d'atmosphère traversée. C'est la tangente de la distance zénithale, distance angulaire séparant le zénith de l'altitude de l'objet.
Difficulté : ☆ Temps : 20 min
Aller rechercher les coordonnées des planètes Vénus, Mars, Jupiter et Saturne sur le site de l'Institut de Mécanique Céleste (CNRS, Observatoire de Paris). Choisir l'objet, la date, et laisser de côté le reste des informations demandées.
Déterminer, pour 20h00 ce soir (heure locale), le temps sidéral (pour un observatoire de votre choix), à l'aide des données de site de l'Institut de Mécanique Céleste.
Quelles planètes seront visibles (s'il fait beau) ?
Difficulté : ☆☆ Temps : 15min
Pour une bonne qualité d'observations, on souhaite qu'une cible stellaire étudiée culmine à une hauteur supérieure à 60 deg. Quelle contrainte cela pose-t-il sur la cible, fonction de la latitude du lieu d'observation ?
Interpréter le terme culmine.
Quelle contrainte cela pose-t-il sur la cible, fonction de la latitude du lieu d'observation ?
Difficulté : ☆☆☆ Temps : 40 min
Un programme d'observation à l'Observatoire de Paris, sur le campus de Meudon, comprend les cibles stellaires ci-jointes :
nom | sép. | remarque | |||
(h, min) | ( | (") | |||
Cas | 00 49.1 | 57 49 | 12.2 | 3.4, 7.5 | |
Ari | 01 53.5 | 19 18 | 7.8 | 4.8, 4.8 | |
Tau | 04 22.6 | 25 38 | 19.4 | 5.5, 7.6 | |
Ori | 05 38.7 | -02 37 | 12.9,43 | 4,7,7.5 | quadruple en fait |
Cnc | 08 46.7 | 28 45 | 30.7 | 4.4, 6.5 | |
38 Lyn | 09 18.8 | 36 48 | 2.7 | 3.9, 6.6 |
Vers quelle date va-t-on pouvoir observer dans la même nuit chacune de ces cibles, dans des conditions optimales, en première partie de nuit vers 22h00 heure locale?
[2 points]
On souhaite passer 1/2 h par cible. Dans quel ordre les cibles devront-elles être observées ?
[1 points]
Pour éviter un premier quartier de Lune et tester une webcam sur la cible Tau, des observations en fin de nuit (4h heure locale) se sont imposées : vers quelle date l'observation a-t-elle été menée, alors que Tau culminait ?
[1 points]
Ces pages permettent de faire le lien entre 2 étapes caractéristiques de la démarche scientifique : dans un cadre donné (p.ex. lié à la Terre entraînée autour du Soleil) mener des observations ou rendre compte de phénomènes ; puis énoncer ou valider une loi physique dans un cadre général (p.ex. dans le référentiel héliocentrique).
Les points techniques associés aux changements de référentiel ne doivent pas rebuter ; ce ne sont que des points techniques. Il existe d'ailleurs de nombreux outils qui permettent de se faciliter la tâche. Voir par exemple le serveur d'éphémérides de l'ESO (par exemple pour les étoiles), ou bien celui de l'IMCCE (par exemple pour les objets du système solaire).
Les alignements d'objet, au-delà de leur côté parfois spectaculaires, apportent des mesures inédites, précieuses pour l'astrométrie.
Cette section traite ainsi des éclipses, occultations et transits, dans l'optique (réductrice) de faire le lien entre ces phénomènes et diverses mesures de distances, de longueur ou de position.
Une éclipse totale de soleil est un événement très ponctuel géographiquement et temporellement, donc exceptionnel.
La prédiction précise des éclipses est un exercice difficile, maîtrisé par un nombre restreint d'instituts dans le monde, qui relève de la métrologie du temps et de l'espace la plus poussée.
Voir les pages de l'IMCCE.
Difficulté : ☆ Temps : 30
La durée de la rotation de la Terre est très proche de 86400 secondes (24 heures), mais sa valeur exacte est variable dans le temps. Le frottement provoqué par des effets de marées est à l'orgine d'un très lent ralentissement (de l'ordre de quelques millisecondes par siècle). Cela paraît peu, mais cumulé sur une période longue, il en resulte un décalage important.
Un des meilleurs moyens de mesurer cette variation consiste en l'étude d'observations historiques d'éclipses. Le décalage temporel () du moment précis d'une éclipse dû au ralentissement de la rotation de la Terre peut atteindre plusieurs heures! On trouve la relation mathématique suivante : . Ici, est la date de l'événement (compté en siècles avant 1820), et est mesuré en s par siecle2.
Un texte babylonien conservé au British Museum à Londres décrit une éclipse solaire totale, observée à Babylone le 15 avril de l'an 136 avant notre ère. En comparant l'heure de début et de fin décrits dans ce texte à un calcul des positions de la Terre et du Soleil, on trouve pour une valeur entre 11200 et 12150 secondes. Déduisez-en la valeur de la constante ainsi que son incertitude!
[ points]
Un autre texte décrit une observation d'une éclipse totale, en Mésopotamie, il y a 40 siècles. A priori, l'observation état plus ancienne ( plus élevé), on pourrait espérer avoir une mesure plus précise de la valeur de et du coup de mieux caractériser la rotation de la Terre.
Le problème est que, dans ce cas, le texte ne mentionne pas le lieu d'observation. L'incertitude spatiale est de l'ordre de 1000 km le long de la bande de totalité, quasiment parallèle au parallèle de latitude 35 deg. Traduire l'incertitude spatiale en incertitude temporelle. Calculez aussi l'incertitude sur qui résulte de l'incertitude sur calculée à l'exercice précédent (1 s/siècle2).
La date précise de l'éclipse est connue, par la mécanique céleste, plus précisement que la rotation de la Terre. Cette éclipse permet-elle de préciser la rotation de la Terre ?
Lorsque qu'un objet du système solaire entouré d'une atmosphère occulte une étoile, la haute atmosphère joue le rôle de lentille. La phase d'extinction présente des fluctuations d'intensité, reliées à la stratification des couches atmosphériques.
L'observation de l'occultation sur plusieurs sites permet de déterminer les positions et longueurs des diverses cordes correspondant aux conditions locales d'observation de l'occultation. On en déduit la taille et la forme de l'objet occultant.
Montrer comment une occultation conduit, entre autres, à des mesures inaccessibles par ailleurs : taille et forme de l'objet occultant, sondage de son atmosphère...
Les occultations stellaires sont des phénomènes rares qui mettent en jeu le passage d'une planète ou d'un satellite devant une étoile. Pendant quelques minutes, il est alors possible de sonder avec une très grande précision l'atmosphère du corps, s'il en possède une, de détecter ses anneaux éventuels, ou de mesurer sa taille avec une précision kilométrique.
Une occultation, comme une éclipse, se caractérise par une ombre et une pénombre. La durée de l'ombre dépend essentiellement de la taille de l'objet du système solaire.
La durée de la pénombre dépend du diamètre stellaire (voir en exercice le principe de la mesure, et les échelles de temps associées). Il s'agit là d'une mesure très simple d'une grandeur par ailleurs inaccessible sans interférométrie.
La taille finie, non nulle, de l'étoile occultée implique une phase de pénombre, durant laquelle le disque stellaire disparaît ou réapparaît peu à peu.
Difficulté : ☆ Temps : 45 min
On cherche à estimer le diamètre angulaire d'une étoile occultée par un astéroïde.
On note la vitesse angulaire de déplacement sur le ciel de l'objet du système solaire, son diamètre angulaire, celui de l'étoile. On suppose l'occultation centrale (l'étoile, l'objet occultant et la Terre parfaitement alignés au centre de l'occultation).
Dans une 1er temps, on fait l'hypothèse que le diamètre angulaire de l'étoile est négligeable. Déterminer la durée de l'occultation.
On ne suppose plus nul. Déterminer la durée des phases d'ombres et de pénombre. Déterminer les dates ... des premier contact, début puis fin de la totalité, dernier contact, en les repérant par rapport à la centralité.
Tracer l'allure de la courbe d'occultation.
A quelle condition peut-on mesurer les diamètres angulaire et linéaire de l'objet, de l'étoile ?
Les objets du système solaire ont typiquement une vitesse angulaire, notée en "/h, de , avec leur distance au soleil exprimée en UA. La distance a été mesurée à 9.6 UA ; en déduire le rayon de l'objet pour un transit de durée moyenne (repérée par la mi-occultation) de T=12 s.
Chaque phase de pénombre a duré . En déduire le diamètre stellaire, l'étoile étant à . Comparer le rayon stellaire calculé au rayon solaire.
Les transits sont des phénomènes rares et localisés. Les observer a longtemps relevé du défi scientifique.
Un transit apparaît simplement comme une ombre chinoise.
La superposition de plusieurs clichés trace la trajectoire - une corde - du transit.
Les dernièrs transits de Mercure visible de la Terre ont eu lieu en mai 2016 et en novembre 2019. Les suivants auront lieu en 2032 et 2039.
Vénus étant plus grande et plus proche de la Terre, son ombre apparaît bien plus importante sur le Soleil. L'inclinaison des orbites de Vénus et de la Terre conduit à un nombre très limité de transits. Les derniers transits de Venus ont eu lieu en 2004 et 2012. Pour les prochains, il faudra être patient : ce ne sera que en 2117 et 2125!
On parle de transits lorsque Mercure ou Vénus passent devant le disque du soleil. Ces événements sont, comme les éclipses, rares mais instructifs.
Historiquement, les transits de Mercure et Vénus ont permis la mesure de l'unité astronomique.
La trace du disque planétaire sur le disque solaire est une simple projection. Il s'ensuit que différents observateurs verront des traces différentes, mais parallèles entre elles, évoluant à la même vitesse angulaire. La différence entre les dates des premier et dernier contacts est proportionnelle à la longueur de la corde parcourue sur le disque.
Les transits ont permis la mesure de l'unité astronomique, comme l'a proposé l'astronome Halley. En effet, si la 3e loi de Kepler permet de figer le rapport entre les demi-grands axes de Vénus et de la Terre, elle ne permet pas d'en donner une mesure absolue.
Plutôt que de longs calculs, une animation montre le principe de la mesure.
Le point de vue de 2 observateurs différents permet de mettre en oeuvre le principe de mesure de distance par triangulation .
La valeur de l'UA a pu être déterminée à partir de différentes observations d'un même transit. Les observables indépendantes sont :
L'écartement des cordes tracées par les ombres est d'autant plus grand que la distance terre-soleil est petite. La mesure de cet écartement (repéré par les dates des début et fin de transit à une époque où la photographie n'existait pas) permet de mesurer l'unité astronomique.
Lorsque la distance Terre-Soleil, inconnue a priori, notée A, croît :
Difficulté : ☆☆ Temps : 30
Déterminer la période de révolution synodique de Vénus. En déduire sa vitesse angulaire synodique autour du Soleil, puis sa vitesse linéaire synodique .
[3 points]
Quelle distance Vénus doit-elle parcourir sur son orbite pour un transit total le long du diamètre solaire . En déduire la durée maximale d'un transit.
[2 points]
Estimer l'ordre de grandeur de la différence angulaire entre les traces de Vénus lors du transit du 8 juin 2004, pour 2 observateurs (l'un à Lille, l'autre à Perpignan, villes séparées de 1000 km).
[2 points]
Le transit dure 5h24min28s à Lille, et 5h24min58s à Perpignan. Situer schématiquement l'allure des cordes correspondant au transit vues de Lille ou Perpignan : passent-elles proche d'un pôle (lequel ?) ou plutôt par l'équateur.
[2 points]
Au-delà de l'aspect événementiel, éclipses, occultations et transits sont des phénomènes scientifiques utiles et utilisés en astrophysiques. Ils permettent, comme on l'a vu, des mesures astrométriques extrêmement précises.
Ouverture sur ce sujet : l'observation et l'étude des phénomènes mutuels de Jupiter et Saturne, menées à l'IMCCE.
Les unités définies dans les chapitres précédents reposent sur l'observation de phénomènes périodiques, par rotation (l'année, la circonférence de la Terre...). Mais en fait, si l'on scrute ces phénomènes plus précisément, leur définition se doit d'être approfondie.
La définition du jour est basée sur la rotation de la Terre, et mesurée par le passage au méridien du soleil, qui définit un intervalle de temps de 24 heures. Et pourtant !
Si l'on repère chaque jour le passage au méridien du soleil, et que l'on repère cet instant par rapport à une valeur moyenne, on note au fil de l'année une modulation. Midi arrive en avance ou en retard, avec une amplitude de l'ordre d'un quart d'heure au plus, due à la variation du mouvement annuel de la Terre autour du Soleil. Cette modulation peut être observée à toute heure.
L'équation du temps correspondant à un déphasage entre midi solaire et midi local moyen, les lever et coucher du soleil sont également déphasés. Ceci est particulièrement sensible au voisinage d'un solstice. Ce n'est pas pile au solstice d'été (d'hiver) que le soleil se lève le plus tôt (tard) et se couche le plus tard (tôt)... mais c'est bien aux solstices que la durée du jour est extrêmale.
Les 24 heures séparant deux midis solaires dépendent de la rotation propre de la Terre. Comme son orbite n'est pas circulaire, l'entraînement n'est pas régulier (cf. 2ème loi de Kepler).
Il s'ensuit un phénomène appelé équation du temps : midi n'arrive pas à midi régulièrement.
Les étoiles n'ont pas la réputation d'être volages, et pourtant on voit dans la littérature des coordonnées différentes pour un même objet, repérées par des dates différentes.
Des époques standard ont été définies, pour s'y retrouver.
C'est la précession de l'axe polaire qui explique la majeure part des dérives repérées.
L'orbite de la Terre n'est ni circulaire, ni rigoureusement elliptique (malgré ce que nous a appris Newton).
L'axe de rotation de la Terre n'est pas fixe, mais animé d'un mouvement de précession (de période 26000 ans), car il évolue sous l'effet de termes gravitationnels non inclus dans le problème à 2 corps, dus par exemple au fait que la Terre n'est pas un point matériel. Il s'ensuit que les coordonnées angulaires d'un astre évoluent dans le temps. Elles sont données pour une époque de référence (p.ex. , ).
Epoque | ||
1950 | ||
2000 |
Coordonnées aux époques 1950 et 2000 de l'étoile Véga.
Il s'ensuit diverses définitions de l'année, selon que l'on se réfère à l'intervalle de temps entre 2 solstices, 2 périhélies, 2 passages au point vernal.
On définit ainsi des années de durées légèrement différentes. Pour plus de précision, voir le site de l'Institut de Mécanique Céleste
Les coordonnées polaires, c'est simple a priori. Sauf que faire les mesures à partir de la surface de la Terre, et non du centre, change le point de vue. La Terre n'étant pas ronde, la définition des coordonnées angulaires par rapport à la verticale locale ne coincide pas avec une définition centrale.
Difficulté : ☆☆ Temps : 30 min
Au milieu du XVIIIe siècle, les missions de La Condamine au Pérou et de Maupertuis au Laponie ont conduit à la mesure de la longueur d'un degré du méridien en Laponie (aux alentours de la latitude ) ainsi qu'au Pérou (vers ). Il s'agissait de lever une controverse concernant la "figure" de la Terre, c'est à dire sa forme : aplatie aux pôles, ou bien en forme de ballon de rugby ?
Expliquer pourquoi la longueur d'un degré le long du méridien diffère entre ces 2 régions. Faire un schéma.
La Terre étant aplatie aux pôles, le rayon de courbure local est-il plus important au pôle ou à l'équateur ? Quel degré de méridien correspond à la plus grande longueur ?
La longueur d'un arc de méridien d'ouverture s'écrit en fonction du rayon de courbure :
En représentation paramétrique, on repère un point de l'ellipse de révolution par
avec le paramètre marquant l'aplatissement. Le rayon de courbure s'écrit, au 1er ordre en :
[on peut retrouver ce résultat en appliquant la définition : , avec et ].
Les mesures pour tourner de 1 degré donnant respectivement 57395 toises en Laponie, et 56735 toises au Pérou (57097 au sud de Paris), en déduire un ordre de grandeur de l'aplatissement de la Terre, exprimé comme la différence relative entre les rayons au pôle et à l'équateur.
En astronomie, on n'a en général accès qu'à la position apparente d'un objet sur le ciel, décrite par deux angles sur la sphère céleste, et il est très difficile d'obtenir des informations sur la troisième dimension, le long de la ligne de visée.
Au-delà du Système Solaire, les seules mesures de distance de nature géométriques sont les mesures de parallaxes annuelles des étoiles, mais on ne peut les mesurer que pour les étoiles les plus proches du soleil (plusieurs milliards d'étoiles, quand même, depuis la mission du satellite astrométrique européen Gaia). On utilise donc des méthodes indirectes, appelées indicateurs de distance.
Ces méthodes font en général appel à des distances photométriques : de la comparaison de l'éclat apparent - observé - et de la luminosité intrinsèque de l'objet - induite par une information indépendante - découle la détermination de la distance .
La construction de l'échelle des distances extragalactiques est fragile. Elle repose sur une succession d'étapes, chacune étant calibrée sur la précédente :
On voit bien là la difficulté : toute erreur systématique à l'une des étapes se transmet à toute la chaîne.
Voir également les pages dédiées aux mesures de distance à d'autres échelles : sur Terre et dans le système solaire ; lien vers la notion de parallaxe; définition du parsec.
Le principe de base de la mesure des distances repose sur l'utilisation de chandelles standards que l'on sait reconnaître à distance et dont on a calibré la luminosité. Il s'agit donc de choisir une catégorie d'astres :
On distingue principalement deux grandes classes d'indicateurs, primaires et secondaires, selon qu'ils sont basés sur des propriétés d'étoiles individuelles ou d'objets bien connus de notre Voie Lactée, ou qu'ils dépendent de propriétés globales des galaxies... Les premiers donnent accès aux distances à l'intérieur de notre propre Galaxie et jusqu'aux quelques quarante galaxies les plus proches, les seconds atteignent des échelles beaucoup plus grandes et concernent plusieurs milliers d'objets.
Parmi les indicateurs primaires les plus utilisés, on compte la parallaxe spectroscopique, basée sur le diagramme de Hertzsprung-Russell, les étoiles variables de type RR-Lyrae ou céphéides et les étoiles explosives (novae, supernovae).
A priori, rien ne ressemble plus aux étoiles d'un amas que les étoiles d'un autre amas. Si les étoiles d'un amas paraissent moins lumineuses que celles d'un deuxième, cette différence est largement due à sa distances plus importante par rapport à la Terre. Cette propriété statistique peut donc être mise à profit pour comparer les distances desdits amas.
La mesure de la magnitude apparente et l'identification de la magnitude absolue d'un objet permettent de mesurer sa distance.
Si l'on est capable de déterminer précisément la température effective d'une étoile, à partir de sa couleur ou de son type spectral, et que l'on peut lui affecter une classe de luminosité, le diagramme de Hertzsprung-Russell donne alors un moyen de déterminer sa distance.
Pour une supergéante bleue comme Rigel ( Orion), de type spectral B8 et de classe de luminosité Ia, avec une température de surface de 11500 K, on trouvera par exemple une magnitude absolue de , ce qui, confronté à la mesure de sa magnitude apparente de 0.14, lui confère une distance de 268 pc.
On appelle parallaxe spectroscopique ce type de mesure de distance, qui s'obtient par comparaison de la magnitude apparente d'un objet, mesurée, à la magnitude absolue, induite indépendamment.
Une autre façon de mesurer des distances à partir du diagramme H-R est d'utiliser des diagrammes couleur-magnitude d'amas d'étoiles, tout comme l'avait fait Hertzsprung au moment de sa découverte.
Les étoiles d'un amas étant toutes à la même distance, on peut tracer le diagramme H-R des étoiles de l'amas en utilisant seulement la magnitude apparente (m). Le diagramme, par rapport à un diagramme en magnitude absolue (M), se trouve simplement décalé le long de l'axe vertical de la quantité :
( étant exprimée en parsec).
En comparant la position en magnitude apparente de la séquence principale de l'amas à un diagramme de référence calibré en magnitude absolue, on obtient donc une mesure de sa distance. De même, en comparant les positions en magnitude apparente des séquences principales de différents amas, on obtient directement leurs distances relatives.
On note cependant que, comme pour la parallaxe spectroscopique, il faut en plus connaître la composition chimique des étoiles (que l'on caractérise par leur métallicité, c'est-à-dire le taux d'éléments plus lourds que l'hélium présents dans leur atmosphère) pour avoir une mesure réellement précise à mieux que quelques dixièmes de magnitude.
L'appliquette ci-jointe permet l'ajustement des étoiles de l'amas M67 sur la séquence principale.
Solution :
Même exercice que ci-dessus, avec les étoiles de l'amas des Pléiades.
Solution :
La courbe de lumière d'une étoile de type RR Lyrae présente des variations très régulières.
Les étoiles RR Lyrae, du nom de la première d'entre-elles identifiée, se situent dans la bande d'instabilité du diagramme HR. Leur position précise dans le diagramme HR correspond à une région très peu peuplée de la branche horizontale.
Les différentes RR Lyrae dans un amas sont identifiées par leur courbes de lumière caractéristiques (ici repliées sur une seule période). À égale distance du Soleil, elles présentent des magnitudes apparentes très semblables.
Identifier un objet via une propriété caractéristique peut permettre la détermination de sa magnitude absolue, et donc de sa distance.
Les étoiles variables RR-Lyrae constituent un groupe très homogène et ont toutes à peu près la même magnitude absolue moyenne (de l'ordre de 0.7 en bande V). Ce sont des étoiles vieilles que l'ont trouve près du centre Galactique, dans le halo, ou dans les amas globulaires.
Elles occupent une place caractéristique dans le diagramme HR, dans une zone très pauvre en étoiles, au niveau de ce que l'on appelle la branche horizontale et que l'on observe dans les amas évolués. Cette zone, ou trou de Hertzsprung-Russell est facilement reconnaissable dans le diagramme HR des amas globulaires.
Type spectral | A - K |
Classe | III |
période | de 0.3 à 1 j |
de 0.6 à 1.3 | |
de 0.5 à 1.2 |
Les étoiles RR Lyrae présentant toute la même magnitude absolue, la mesure de leur distance découle de :
C'est en utilisant les RR-Lyrae comme indicateurs de distance que Shapley détermina la distribution des amas globulaires dans notre Galaxie et mesura la distance du Soleil au centre de la Voie Lactée, situé dans la direction de la constellation du Sagittaire. Il montra que les amas globulaires sont répartis dans un halo sphérique autour d'un disque plat vu par la tranche. Les distances qu'il mesura pour les amas globulaires (jusqu'à 30 kpc pour l'amas d'Hercule) lui donnèrent pour la Galaxie le diamètre de 100 kpc.
Une étude complète est proposée en exercice.
Difficulté : ☆☆ Temps : 1.5 h
On se propose de mesurer la taille et la position du centre de notre Galaxie, la Voie Lactée, à partir des amas globulaires (méthode de Shapley, 1914). On dispose de diagrammes magnitude-couleur (V, B-V) de différents amas globulaires. Les coordonnées galactiques (données en deg) de ces amas permettent de repérer leur direction dans le ciel. On connaît de plus l'extinction totale (la correction d'absorption, donnée en magnitude) due au gaz et aux poussières rencontrés le long de chaque ligne de visée.
Le but est de déterminer la position des amas globulaires en utilisant les étoiles RR-Lyrae comme indicateurs de distance. A partir de sa distance et de sa direction, on peut localiser chaque amas dans l'espace et déterminer le centre de symétrie du système des amas globulaires. On obtient ainsi la position du centre de notre Galaxie par rapport au Soleil, ainsi qu'une mesure des dimensions de la Voie Lactée.
Le diagramme magnitude-couleur des amas globulaires comporte une branche horizontale avec une zone vide entre B-V=0.2 et 0.4 environ, où sont localisées les étoiles variables RR-Lyrae. Sur chaque diagramme, à lire avec les appliquettes ci-jointes, on peut, selon les conditions d'observation, reconnaître la série principale, la branche des géantes, la branche horizontale et la région vide.
47Tuc
M68
NGC5466
IC4499
NGC5824
Palomar5
NGC5897
M80
M13
NGC6723
M75
M72
NGC7006
M15
M30
Tableau
Dans quels amas ces séquences sont-elles plus difficilement discernables ? Pourquoi ?
Les diagrammes HR de IC4499, NGC5824, M75 ou NGC7006 apparaissent très bruités. Montrer que cela est lié à leur position dans la Voie Lactée.
Mesurer, pour les amas où cela est possible, la magnitude apparente visuelle observée correspondant au bord bleu du trou de la branche horizontale, à 0.1 magnitude près.
Remplir la colonne V du tableau à l'aide de ces données (ne simplement rien marquer pour les amas éventuellement laissés de côté).
Compte tenu de la correction d'extinction interstellaire, en déduire la magnitude apparente moyenne corrigée des RR-Lyrae dans chacun des amas.
En adoptant pour les RR-Lyrae une magnitude absolue moyenne égale à +0.6, en déduire la distance (en parsec) de chaque amas. On rappelle l'expression du module de distance :
avec la distance exprimée en parsec. Quelle est la précision sur si l'incertitude sur est de 0.1 magnitude ?
Déduire des coordonnées galactiques et de la distance (question 5) les coordonnées rectangulaires , , et (en parsec) de chaque amas.
On utilise les relations :
Analyser la répartition des amas dans le plan (SX, SZ), en réalisant une coupe de notre galaxie vue par la tranche, passant par le Soleil S suivant SX. Quelles sont les dimensions du halo ? Quelle est la position du centre de symétrie du système ? (calculer les valeurs moyennes de X et Z). Comparer aux valeurs admises actuellement : la Galaxie a un diamètre de 30 kpc ; le Soleil se trouve à 8.5 kpc du centre.
Les céphéides, du nom de l'étoile de la constellation de Céphée, sont de véritables phares : leur éclat , modulé, porte loin, si bien que leurs variations sont observables dans des galaxies à grande distance.
Les céphéides occupent une position particulière dans la bande d'instabilité du diagramme HR.
La courbe de lumière d'un céphéide retranscrit sa pulsation radiale.
La magnitude absolue des étoiles variables céphéides varie linéairement avec le logarithme de leur période. Cet étalonnage permet de mesurer la distance d'objets plus lointains, pour lesquels on mesure les périodes et magnitude apparente.
On donne sur la figure le résultat des mesures de magnitude apparente et de période obtenues à partir des courbes de lumières de céphéides de quatre galaxies sélectionnées dans l'amas de galaxies de la Vierge (amas Virgo): NGC4321, NGC4496A, NGC4639 et NGC4536. Parmi elles, la galaxie NGC4639 fut en particulier observée parce que l'on y a observé une supernova de type Ia.
Identifier un objet via une propriété caractéristique peut permettre la détermination de sa magnitude absolue, et donc de sa distance.
Les étoiles céphéides sont des étoiles pulsantes dont la luminosité varie périodiquement au cours du temps. Elles tiennent leur nom de l'étoile Céphée, identifiée en 1784 par John Goodricke.
En étudiant les céphéides du Petit Nuage de Magellan, Henrietta Leavitt découvrit en 1912 que la période de variation de leur éclat apparent est corrélée à leur magnitude absolue moyenne.
Les étoiles du Petit Nuage de Magellan étant toutes à la même distance de nous, leur éclat apparent (magnitude apparente ) est donc un indicateur de leur luminosité intrinsèque (magnitude absolue ) par la relation :
où la distance est exprimée en parsec.
La relation énoncée par H. Leavitt est de la forme :
avec la valeur moyenne de la magnitude absolue et la période. Comme le coefficient est négatif, plus une céphéide est lumineuse, plus sa période est longue. Pour les céphéides de type I, .
La relation admise aujourd'hui s'exprime avec les coefficients suivants, pour diverses bandes (B, V, I) :
Cette relation constitue bien un indicateur de distance puisque la mesure de la période permet de déterminer et donc la distance par comparaison avec la magnitude apparente médiane. La pente de la relation pouvait être établie avec les céphéides du Petit Nuage de Magellan, mais la détermination du coefficient , qui fixe le point zéro de la relation nécessite un étalonnage avec des céphéides de distances connues. Cet étalonnage fut réalisé par E. Hertzsprung en 1913, puis par H. Shapley en 1918 en utilisant une population de céphéides observées dans des amas globulaires de notre Galaxie. Quand, en 1924, Edwin Hubble mesure pour la première fois des céphéides dans M31, puis M33 et NGC6822, il utilisa cet étalonnage pour déterminer leurs distances.
Type 1 | Type 2 | |
Type | F - G | F-G |
Classe | Ia | Ia |
période | de 3 à 50 j | de 5 à 30 j |
de -2 à -6 | de 0 à -2 | |
de 0 à -6 | de 0 à -4 |
Les céphéides ont l'avantage d'être intrinsèquement très lumineuses et donc de pouvoir être observées à grande distance ( 25 Mpc avec le télescope spatial Hubble). Leur mécanisme de pulsation est de plus physiquement bien connu, ce qui en fait un indicateur de distance très fiable. Ces étoiles sont observables essentiellement dans les galaxies spirales ou irrégulières, où il existe des populations stellaires jeunes.
Les céphéides sont des étoiles en phase de combustion centrale de l'hélium. Lorsque l'étoile entre dans la phase d'instabilité, ses couches externes sont soumises à de légères variations de pression. Une compression conduit à l'ionisation du gaz, en particulier l'hélium présent proche de la surface. Or l'hélium ionisé est très opaque au rayonnement et agit donc comme un écran, qui, poussé par la pression de radiation, fait gonfler l'enveloppe de l'étoile comme un ballon.
La luminosité de l'étoile est fonction à la fois de sa température superficielle et de son rayon d'après la loi de rayonnement du corps noir. Quand l'enveloppe enfle, la surface émettrice augmente. En se détendant, l'enveloppe se refroidit et les ions d'hélium se recombinent avec les électrons. L'atmosphère redevient alors perméable aux photons et retombe vers l'étoile.
L'accroissement du rayon et la baisse de température induisent des effets opposés pour ce qui est de la luminosité. En pratique, les variations de rayon et température sont en quadrature, et la luminosité est en phase avec la température.
La durée de vie d'une céphéide dans cet état d'oscillation est de l'ordre de un million d'années. La plupart des étoiles entre 3 et 15 masses solaires passent par cette phase. Les étoiles les plus massives ont les périodes les plus longues : ayant un rayon plus important, elles mettent plus de temps à se dilater.
A l'aide de l'appliquette ci-dessous, déterminer la relation période-luminosité d'un échantillon de céphéides de notre galaxie.
Solution :
Difficulté : ☆☆ Temps : 1 h
On se propose d'estimer les distances des galaxies M31, M33 et NGC 6822 à partir des observations de Hubble de 1923-1928 et de la relation période-luminosité des céphéides établie pour le Petit Nuage de Magellan. On dispose de courbes de lumière d'étoiles variables céphéides observées par Hubble entre 1923 et 1928 pour la nébuleuse d'Andromède M31, ainsi que pour M33 et NGC 6822. Ces données sont extraites de trois articles de Hubble dans les "Contributions from the Mount Wilson Observatory" publiés en 1924, 1926, et 1929. Les magnitudes utilisées par Hubble sont des magnitudes photographiques mesurées sur des photographies obtenues au foyer des télescopes de 1.52 m et 2.54 m du Mont Wilson. Ces magnitudes photographiques sont proches de celles du filtre bleu (B) utilisées plus tard dans le système photométrique UBVRI .
On dispose par ailleurs de courbes de lumières de céphéides du Petit Nuage de Magellan mesurées en magnitudes B et V par Halton Arp en 1955 et 1956, ainsi que d'une formule de correction pour remettre ces magnitudes dans le système des magnitudes photographiques de Harvard qu'utilisait Harlow Shapley en 1918. Dans ce système de magnitude, la relation période-luminosité des céphéides de Henrietta Leavitt (1912) s'exprime comme suit :
où est la période mesurée en jour.
On donne dans la table les magnitudes médianes en bande B et les périodes des courbes de lumière des céphéides du Petit Nuage de Magellan. Convertir ces magnitudes dans le système des magnitudes photographiques de Harvard, à l'aide de la relation de conversion :
Calculer le logarithme de la période, donnée en jours.
Mesurer la pente de la relation période-luminosité obtenue. Identifier et éliminer les points qui s'écartent de la distribution. Commenter et comparer le résultat à celui de Henrietta Leavitt.
Le point zéro absolu (ordonnée à l'origine) de la relation période-luminosité calibrée par H. Shapley en 1918 à partir des céphéides observées dans divers amas globulaires dont il connaît la distance par les RR-Lyrae est égal à -0.65.
Calculer le module de distance et la distance en années de lumière du Petit Nuage de Magellan.
A période égale, les céphéides des galaxies M31, M33, et NGC6822 présentent des magnitudes apparentes respectivement 5.90, 5.90 et 5.65 magnitudes moins brillantes. En déduire leur distance.
A l'époque de Hubble, on ne connaissait pas encore les effets de l'extinction interstellaire, découverts par Trumpler quelques années plus tard. Le tableau donne les valeurs de l'extinction galactique et extinction interne moyenne pour diverses galaxies, ainsi que les valeurs admises actuellement pour leur module de distance. Corriger le module distance des extinctions galactiques et internes, et comparer à la valeur admise aujourd'hui .
Nom | ext. galactique | ext. interne | |
PNM | 0.37 | 0.35 | 18.70 |
M31 | 0.41 | 0.70 | 24.45 |
M33 | 0.32 | 0.38 | 24.60 |
NGC 6822 | 0.86 | 0.09 | 23.50 |
Difficulté : ☆☆ Temps : 45 min
On se propose de calculer la distance de l'amas de galaxies de La Vierge en utilisant des mesures de céphéides obtenues avec le télescope spatial.
Nom | site | |
NGC 4321 | 31.15 | HST |
NGC 4496A | 31.13 | HST |
NGC 4639 | 32.00 | HST |
NGC 4536 | 31.10 | HST |
NGC 4571 | 30.76 | Sol |
La table ci-jointe fournit, pour 5 galaxies attribuées à l'amas de La Vierge, les modules de distance déterminés par les céphéides, ainsi que la provenance de la mesure (HST ou terrestre). Par ailleurs, on connaît la valeur moyenne des vitesses radiales observées de l'amas :
et la vitesse de chute de notre Groupe Local de galaxies en direction de l'amas de La Vierge :
Déterminer la distance des objets de cet amas. Semble-t-il ramassé ou étendu ?
[3 points]
On cherche à déterminer la valeur moyenne de la distance de cet amas, qui présente une grande extension. Montrer que l'identification des céphéides favorise la détection des composantes les plus proches. Quel biais cela peut-il introduire ?
[1 points]
Calculer la valeur moyenne de la distribution des distances.
[0.5 points]
En appliquant la loi de Hubble, déduire une estimation de la constante d'expansion de l'Univers .
[1 points]
Difficulté : ☆☆ Temps : 45 min
La céphéide RS Pup est entourée d'une nébuleuse circumstellaire, qu'elle éclaire. Les courbes de lumières des globules dans cette nébuleuse présentent la même périodicité que celle de la céphéide, mais avec un retard dû à la propagation de la lumière de l'étoile aux globules. Ce délai se traduit par un déphasage de leur courbe de lumière. Les globules très proches du plan perpendiculaire à la ligne de visée ont été sélectionnés : ils apparaissent sur les "coquilles" de la nébuleuse entourant la céphéide. La période de la céphéide, mesurée suite aux observations régulières sur la céphéide, vaut P = 41.4389 j.
L'exercice se propose de reprendre les travaux d'un groupe d'astronomes, principalement de l'Observatoire de Paris, qui ont abouti à la mesure de la distance de cette étoile. Ces mesures effectuées en 2007 constituent à ce jour la mesure de distance la plus précise pour une céphéide.
Montrer que la distance linéaire entre RS Pup et un globule s'écrit : avec la distance angulaire observée entre l'étoile et le globule, et la distance du système par rapport au Soleil. Pourquoi n'a-t-on sélectionné que des globules dans le plan perpendiculaire à la ligne de visée ?
[2 points]
Montrer que l'on peut écrire , avec un entier et la phase du signal, exprimée en fraction de période. Exprimer le facteur en fonction de la période de la céphéide, puis le calculer pour une distance exprimée en UA.
[1 points]
Montrer que la phase peut être mesurée, mais que le nombre entier de périodes reste a priori inconnu.
[1 points]
L'appliquette ci-jointe donne, pour les globules sélectionnés, les mesures de . Le nombre a été retrouvé par essai/erreur sur quelques valeurs. Déduire alors de la nouvelle appliquette la distance (en prenant soin d'éliminer l'une des mesures qui apparaît visiblement contradictoire avec les autres). Montrer qu'elle est directement donnée en parsec. Est-elle compatible avec la valeur rapportée par les auteurs de ce travail : ?
[2 points]
Le phénomène de nova est souvent récurrent, mais jamais régulier. Il n'y a pas de loi avérée entre période et maximum de luminosité.
A son maximum d'éclat, une supernova rayonne autant qu'une galaxie. La supernova la plus proche et la plus récente se révéla en 1987 dans le Grand Nuage de Magellan.
Identifier un objet via une propriété caractéristique peut permettre la détermination de sa magnitude absolue, et donc de sa distance.
Le phénomène de nova n'est ni strictement périodique, ni remarquable par la constance de quelque grandeur photométrique. Mais il est intéressant dans l'histoire de la mesure des distances en astronomie.
Les variables explosives de type nova sont des objets très lumineux, suite au transfert de masse entre deux composantes d'un système binaire. Leur luminosité au maximum d'éclat peut être reliée au taux de décroissance de leur courbe de lumière.
L'éclat d'une nova peut augmenter d'une dizaine de magnitudes en quelques heures. En 1910, F.W. Very compara l'éclat de la nova observée en 1885 dans Andromède (S Andromedae) à celui d'une nova galactique de distance connue, Nova Persei. La différence de magnitude lui fournit pour Andromède une distance de 1600 AL. En prenant pour la Voie Lactée un diamètre de 120 AL, ce qui même pour l'époque était très petit, Very situa donc M31 bien à l'extérieur de notre Galaxie. La nova en question était en fait une supernova, d'une luminosité mille fois supérieure à celle d'une nova.
Le phénomène de supernova résulte de l'explosion globale d'une étoile. Les supernovae sont donc très brillantes, puisque c'est toute l'énergie contenue dans l'étoile qui est libérée en une fois.
Il existe deux catégories de supernovae :
Les supernovae de type Ia constituent une sous-classe homogène des supernovae de type I, caractérisée par leur spectre qui ne comporte dans le visible aucune raie de l'hydrogène ni de l'hélium. Elles résultent de l'explosion thermonucléaire d'une naine blanche composée de carbone et d'oxygène, qui a accrété suffisamment de masse en provenance de son étoile compagnon pour atteindre la limite maximale possible pour une naine blanche (1.4 masse solaire), dite de Chandrasekhar.
Leur magnitude absolue est remarquablement constante au maximum d'éclat, évaluée dans le visible à :
Pour cette raison, les supernovae de type Ia sont les indicateurs primaires à plus longue portée, puisqu'elles permettent d'atteindre des distances cosmologiques, au delà de , soit presque 10 milliards d'années de lumière !
La seconde classe d'indicateurs de distances est basée non plus sur les caractéristiques physiques d'un objet, mais sur les propriétés statistiques de familles d'objets galactiques ou sur les propriétés globales des galaxies elles-mêmes.
Les amas globulaires regroupent un grand nombre d'étoiles nées au sein d'un même nuage d'hydrogène. Ils sont majoritairement composés d'étoiles vieilles, et présentent une distribution à symétrie sphérique, contrairement aux amas ouverts.
La distribution des amas dans notre Galaxie présente la symétrie sphérique.
Les nébuleuses planétaires n'ont rien à voir avec une planète ... mis à part l'héritage de leur nom, lorsqu'elles apparaissaient semblables à un objet étendu de type planète. Mais il s'agit d'étoiles entourées de coquilles de gaz, matière éjectée par une étoile en fin de vie.
L'identification de propriétés statistiques permet de faire le lien entre une classe d'objets observée à faible ou grande distance. Ceci est bien sûr mis à profit pour la mesure de distance.
L'étude des amas globulaires dans le halo d'une galaxie dont on connaît la distance permet de construire la distribution de leurs luminosités. D'une galaxie à l'autre, on retrouve la même distribution, et cette uniformité est encore renforcée lorsque les galaxies hôtes ont des métallicités et des types morphologiques voisins.
De même, on observe pour les galaxies d'un même amas de galaxies que le pic de la distribution correspond à une même magnitude apparente. La position de ce maximum, calibrée dans notre galaxie au moyen de 100 amas globulaires correspond à une magnitude absolue de , pour un écart type .
On peut ainsi en principe, en comparant la distribution des magnitudes apparentes des amas globulaires de différentes galaxies, obtenir des distances relatives. La réalité est bien sûr plus complexe, puisqu'il faut être capable d'estimer la métallicité moyenne de chaque galaxie, mesure difficile à réaliser car indissociable des effets de l'extinction ou du rougissement interstellaire. L'autre difficulté relève du fait qu'il faut pouvoir isoler chaque amas globulaire et corriger des éventuelles et probables superpositions d'étoiles extérieures, et aussi disposer de mesures photométriques suffisamment profondes pour que le maximum de la distribution de la fonction de luminosité des amas globulaires soit atteint.
Sur le même principe, la luminosité moyenne ou la taille moyenne des régions HII représente également un bon indicateur de distance. Ce sont des nuages de gaz très lumineux, ionisés par le rayonnement ultraviolet intense d'étoiles jeunes et très chaudes (de type spectral O ou B).
Les régions HII sont généralement observées dans les nuages moléculaires, sites privilégiés de la formation stellaire. Leur forme est à peu près sphérique si le milieu est homogène, et leur extension spatiale relativement uniforme, de l'ordre de 200 pc.
Enfin, on peut considérer la fonction de luminosité des nébuleuses planétaires D'après la théorie de l'évolution stellaire, elle possède une limite supérieure universelle, indépendante du type morphologique, de la métallicité, de l'âge, ou de la taille de la galaxie hôte.
Les nébuleuses planétaires sont des enveloppes gazeuses qui entourent une étoile chaude. Elles forment une coquille en expansion autour du résidu de l'étoile qui se contracte pour former une naine blanche. Repérer les nébuleuses planétaires les plus brillantes d'une galaxie permet donc estimer sa distance. Cette méthode souffre cependant de quelques biais systématiques : les étoiles les plus massives évoluant très rapidement, il est rare de pouvoir observer une nébuleuse planétaire vraiment très lumineuse. A cela s'ajoute un effet de population : on a plus de chance d'observer une nébuleuse planétaire très lumineuse dans une galaxie géante qui compte de nombreuses étoiles, que dans une galaxie naine. Les galaxies géantes apparaîtraient donc plus proches que les petites...
Localisation des régions HII dans une paire de galaxies en collision et comparaison avec une nébuleuse à émission, une région HII de notre propre Galaxie : la grande nébuleuse d'Orion.
E. Hubble proposa en 1926 une classification des galaxies selon trois grandes catégories : elliptiques (E), spirales (barrées SB ou non S) et irrégulières. On y distingue des sous-classes selon le degré d'ellipticité ou le développement des bras spiraux des galaxies.
Les galaxies elliptiques ont l'aspect de sphéroïdes plus ou moins aplatis. Elles contiennent une population d'étoiles plutôt vieilles et très peu de gaz ou de poussières. Les galaxies les plus massives sont des galaxies elliptiques, mais il existe aussi une classe de galaxies elliptiques naines, en général satellites de galaxies plus grosses.
Les galaxies spirales sont disposées en deux séquences parallèles. Elles contiennent une grande quantité de gaz et de poussières, concentrée dans leur disque, en particulier le long des bras spiraux. On y distingue plusieurs populations d'étoiles d'âges différents, les plus vieilles étant concentrées dans le bulbe central et dans le halo, les plus jeunes étant réparties dans le disque. Les galaxies spirales sont caractérisées morphologiquement par l'importance relative du bulbe, qui décroît du type Sa (ou SBa) vers le type Sc (ou SBc), et le degré d'enroulement des bras autour du noyau. Les bras sont très serrés pour les Sa (ou SBa) et s'ouvrent progressivement jusqu'aux Sc (ou SBc).
Dans les galaxies spirales barrées, le noyau est traversé par une barre d'étoiles, aux extrémités de laquelle débutent les bras spiraux. La présence de gaz et de poussières, de régions ionisées et d'étoiles jeunes s'accroît régulièrement vers les Sc (ou SBc).
Les galaxies irrégulières ont, comme leur nom l'indique, une forme mal définie.
A la classification de Hubble s'est rajoutée la classe des lenticulaires ou S0. Ce sont des galaxies à très gros bulbe central possédant aussi un disque aplati d'étoiles. Ce disque ne contient pas de bras spiraux, et en général pas ou peu de gaz et de poussières.
Enfin, il existe une dernière catégorie, découverte récemment et qui pourrait représenter en nombre presque 50% de la population totale des galaxies, c'est la classe des naines irrégulières. Ce sont des objets à faible brillance de surface, donc difficiles à détecter en optique, mais qui comptent pourtant parfois presque autant d'hydrogène atomique que certaines spirales géantes.
La relation de Tully-Fisher relie la magnitude absolue d'une galaxie à sa vitesse de maximale de rotation.
La relation de Tully-Fisher, du nom des deux astronomes anglais qui l'ont découverte en 1977, relie la vitesse maximale de rotation d'une galaxie spirale à sa luminosité. Cette loi empirique prend la forme suivante :
où les coefficients et représentent la pente et le point-zéro de la relation. Pour la bande photométrique B, les valeurs acceptées actuellement sont : et .
La mesure du maximum de la vitesse de rotation observée permet alors d'estimer la magnitude absolue, et par comparaison avec l'éclat apparent mesuré, d'en déduire la distance. C'est une relation de type masse-luminosité qui rend compte du fait que, plus une galaxie est massive :
La vitesse de rotation est mesurée à partir de l'émission du gaz contenu dans le disque. Cette mesure se fait essentiellement soit à partir d'une courbe de rotation de la galaxie obtenue en spectroscopie optique (analyse de la raie de l'hydrogène en émission), soit à partir du spectre radio autour de 1420 MHz (analyse de la raie à 21 cm de l'hydrogène neutre). Ce critère permet d'atteindre une précision de 15 à 25 % sur les distances.
On obtient un bon étalonnage de la relation Tully-Fisher en utilisant les étoiles céphéides qui ont été observées par le télescope spatial Hubble dans une bonne trentaine de galaxies spirales proches.
La méthode des galaxies sosies suppose que deux galaxies ayant le même type morphologique et la même vitesse de rotation ont aussi en moyenne la même luminosité. Il suffit alors de comparer l'éclat observé à l'éclat d'un étalon de distance connue pour avoir la distance de la galaxie. Il n'est pas nécessaire alors de mesurer la pente de la relation. Il existe aujourd'hui des mesures de vitesse de rotation pour environ 16600 galaxies de notre univers proche.
La relation Faber-Jackson peut comme la précédente être assimilée à un relation masse-luminosité. Elle relie la luminosité intrinsèque d'une galaxie elliptique ou lenticulaire (mais aussi du bulbe d'une spirale) à la dispersion des vitesses des étoiles mesurées en son coeur. Cette dispersion centrale des vitesses est mesurée à partir de l'élargissement de certaines raies d'absorption dans le spectre optique des galaxies. Ces mesures sont très délicates car il faut pouvoir séparer l'élargissement provenant des mouvements des étoiles dans la galaxie, de l'élargissement provoqué par la rotation ou les turbulences dans les enveloppes des étoiles elles-mêmes. La relation possède une dispersion relativement importante d'environ 0.6 magnitude, qui se traduit par une incertitude d'environ 30 % sur les distances estimées. Ce type de mesure est disponible pour environ 4000 galaxies.
L'appliquette ci-jointe décrit la morphologie d'une galaxie spirale.
A l'aide de l'appliquette ci-dessous, on se propose d'étalonner la relation de Tully-Fisher.
La solution :
Difficulté : ☆ Temps : 20 min
PGC | (deg) | |
49157 | 13.03 | 66.6 |
49322 | 15.20 | 67.8 |
49275 | 13.34 | 64.1 |
48925 | 15.23 | 82.3 |
PGC49157
PGC49322
PGC49275
PGC48925
Mesurer la largeur de la raie à 21 cm des galaxies PGC 48925, PGC 49157, PGC 49322 et PGC 49275 à partir des spectres disponibles.
La mesure se fait habituellement à 20% de la hauteur de la raie, par rapport à une ligne horizontale passant au milieu du bruit de fond.
Les largeurs de raies sont perturbées par la turbulence . En déduire les valeurs en prenant en compte l'effet de projection et la composante de turbulence de qui élargit la raie. Comparer aux données de la base.
Difficulté : ☆☆ Temps : 45 min
Cet exercice repose sur la consultation de divers documents issus de l'interrogation de la base de données extragalactiques LEDA qui contient les données de près de 3 millions de galaxies. L'exploration est faite dans une région du ciel au voisinage de la galaxie spirale PGC 49347 (NGC5350) pour montrer un exemple de recherche de groupement physique de galaxies et un exemple d'application de la relation de Tully-Fisher à un amas. Les galaxies sont repérées par un numéro PGC (principal galaxy catalog). Les paramètres sont les suivants :
On dispose d'un tableau des objets répertoriés, classés par ascension droite croissante, et de quatre "zooms" centrés sur quelques galaxies ou groupes intéressants. Dans le tableau, l'inclinaison est donnée en degré, la vitesse radiale en km/s.
A l'aide des appliquettes, identifier les principales galaxies. Repérer les différents types morphologiques représentés et les comparer à la table. Identifier la signification des paramètres angulaires pa et i de la table.
Vérifier que PGC 49354 est presque vue de face, et que PGC 49389 est quasiment vue par la tranche.
Peut-on dire que PGC 49356 et PGC 49389 forment une paire de galaxies ?
Comment identifier à partir des divers documents les galaxies formant un petit groupe avec PGC 49347 ?
Rechercher les groupements physiques de galaxies présents dans le champ. Y a-t-il des galaxies qui sont proches sans être associées ?
Difficulté : ☆ Temps : 45 min
Cet exercice est basé sur le résultat de l'exercice analysant un champ galactique, c'est à dire de la liste des membres de l'amas principal du champ extragalactique extrait de la base LEDA et centré sur la galaxie PGC 49347 (NGC 5350). Dans le tableau, l'inclinaison est donnée en degré, la vitesse radiale en km/s.
Expliciter les critères qualitatifs définissant les galaxies utilisables pour appliquer la relation de Tully-Fisher. Peut-on utiliser des galaxies vues quasiment de face ?
Quantitativement, on fixe pour les critères précédents, une vitesse radiale dans l'intervalle 2000 - 2600 km/s, une inclinaison . Sélectionner les galaxies en conséquence.
Calculer pour chaque galaxie sa magnitude apparente bleue corrigée des effets d'extinction. Le tableau représente les corrections galactique et intergalactique. Représenter les points (logvrot, mbc)sur un graphe et évaluer la pente de l'estimation linéaire observée .
Dans le tableau, l'inclinaison est donnée en degré, la vitesse radiale (vrad) en km/s, et la vitesse de rotation (logvrot ) en échelle logarithmique, avec également comme unité de vitesse le km/s.
Calculer l'ordonnée à l'origine en forçant une pente de -5.8, d'après la pente théorique.
Calculer la distance de l'amas en utilisant la relation calibrée en magnitude absolue :
Estimer la vitesse radiale moyenne de l'amas et en déduire une valeur de la constante de Hubble (constante d'expansion).
Difficulté : ☆ Temps : 25 min
Un exercice précédent a permis de repérer les galaxies du groupe de PGC 49347 (NGC 5350).
A l'aide des valeurs tabulées dans les 2 appliquettes de ce précédent exercice, identifier dans les galaxies du groupe de PGC 49347 une galaxie sosie de M31 (galaxie Sb, d'inclinaison 77 deg, de vitesse maximale de rotation 250 km/s), présentant un triplet de paramètres le plus voisin possible. Calculer son module de distance en fonction de celui de M31.
[2 points]
Calculer la distance de cette galaxie sosie, sachant que la magnitude apparente de M31 vaut 3.20 et son module de distance 24.6. En déduire une valeur du taux d'expansion .
[2 points]
L'expansion de l'Univers a été décelée par l'examen de raies galactiques sur des objets de plus en plus lointains.
Ce décalage varie en fonction de la distance, selon la loi de Hubble.
Un projet d'envergure a cartographié les galaxies, en déduisant leur distance de leur éloignement Doppler.
Le plus utilisé des estimateurs de distance reste certainement la loi de Hubble. En 1929, analysant les raies dans les spectres des galaxies, Edwin Hubble montre que les spectres apparaissent systématiquement décalés vers le rouge. Ce décalage spectral, interprété via l'effet Doppler dû à la vitesse de fuite des galaxies, est proportionnel à la distance des galaxies.
Plus une galaxie est éloignée, plus vite elle s'éloigne. Cela signifie que l'Univers est en expansion.
Ce concept d'un univers évolutif, en expansion, est contenu dans les équations de la relativité générale. La relativité générale explique que ce ne sont pas les galaxies qui se déplacent dans l'espace, mais le tissu spatial lui-même qui se dilate.
Les mesures actuelles de la constante de proportionnalité (ou constante de Hubble) donnent une valeur comprise entre 50 et 70 km/s/Mpc.
La valeur mesurée par le satellite Planck est de
La proportionnalité entre vitesse et distance n'est cependant valable qu'aux petites échelles (inférieures à 5 milliards d'années de lumière), où les effets de la courbure de l'espace ne se font pas sentir.
Inversement, les mouvements particuliers des galaxies étant de l'ordre de quelques centaines de km/s, la vitesse radiale observée n'est un bon indicateur de la vitesse cosmologique qu'au-delà d'une certaine distance, quand ces mouvements deviennent négligeables devant l'expansion (au-delà d'une centaine de millions d'années de lumière). Ce sont donc les redshifts, même s'ils donnent une mesure de distance quelque peu "floue" à cause des mouvements locaux, qui ont permis les premières cartographies 3D de notre univers proche et la découverte des grandes structures : amas, filaments, bulles et grands murs que l'on observe jusqu'à des échelles de quelques centaines de millions d'années de lumière.
Les observations extragalactiques portent sur des objets certes intrinsèquement très lumineux, mais apparemment très peu lumineux, et souvent si peu lumineux que la non détection des moins lumineux d'entre eux peut provoquer un biais dans les résultats observationnels. Ce biais peut affecter toute mesure statistique supposant, à tort, une population homogène d'objets.
Les premiers travaux utilisant la relation Tully-Fisher conduisirent dans les années 1980 à une valeur élevée de la constante de Hubble - de l'ordre de 100 km/s/Mpc - ainsi qu'à une croissance de avec la distance. Ces résultats proviennent de la nature statistique de la relation Tully-Fisher et du fait que les échantillons sont toujours limités en magnitude apparente.
A toutes les galaxies ayant la même vitesse de rotation (ou appartenant à une classe de sosies), on attribue la même magnitude absolue (ou luminosité) selon la relation linéaire :
Chaque détermination individuelle souffre en fait d'une imprécision due à l'écart entre la magnitude absolue exacte et la valeur moyenne adoptée. Si on considère maintenant un grand nombre d'objets, on détermine donc un ensemble de distances dont chacune est affectée d'une erreur, les unes étant surestimées, les autres sous-estimées. On espère cependant qu'elles soient exactes en moyenne.
K.G. Malmquist (1920) a montré que ce n'est pas le cas si l'échantillon utilisé est limité en magnitude apparente : l'échantillon contient alors en effet une plus grande proportion de galaxies intrinsèquement plus lumineuses que , et une moins grande proportion de galaxies moins lumineuses. La magnitude absolue moyenne de l'ensemble des galaxies du catalogue n'est donc pas égale, mais inférieure à .
Il s'ensuit qu'en sous-estimant ainsi la luminosité moyenne des galaxies observées, on sous-estime leurs distances, et l'on surestime la constante de Hubble.
Si on suppose que les galaxies sont réparties uniformément dans l'espace, l'erreur statistique sur la magnitude absolue et donc sur le module de distance des galaxies peut s'exprimer de manière simple en fonction de la dispersion du critère de distance (l'incertitude moyenne par rapport à ) :
Pour une dispersion de l'ordre de 0.6 magnitude, typiquement ce que l'on obtient par la relation Tully-Fisher ou la méthode des sosies, cela donne sur le module de distance une erreur de - 0.5 magnitude. On obtient finalement sur la distance une sous-estimation de l'ordre de 23%, et une valeur de surestimée d'autant.
L'animation ci-jointe montre comment le biais de Malmquist dépend de la magnitude limite d'observation. Plus elle est élevée, moins le biais est important.
Difficulté : ☆☆☆ Temps : 1 h
On se propose d'estimer la constante de Hubble et l'âge de l'univers en utilisant les sosies d'une galaxie bien connue : la galaxie d'Andromède (M31). Le tableau donne les paramètres d'une trentaine de galaxies sélectionnées dans la base de données extragalactiques LEDA selon les critères de morphologie (spirale), d'inclinaison ou de rapport d'axe ( est le rapport du grand au petit axe, repéré à l'isophote de magnitude 25), vitesse de rotation (en km/s) dont le logarithme vérifie , et avec un seuil en magnitude . est le maximum de la vitesse de rotation dans le disque, et est la magnitude apparente dans la bande .
La magnitude apparente de M31 (PGC 2557) vaut 3.20 ; sa distance, déterminée au moyen de céphéides observées par le télescope spatial Hubble, est estimée à 0.841 Mpc, ce qui représente un module de distance de 24.6 (avec la distance exprimée en Mpc, ). Le tableau fournit, pour chaque galaxie repérée par son numéro PGC : la magnitude apparente mb, une valeur corrigée , le logarithme de la vitesse maximale de rotation de la galaxie (logv), et sa vitesse radiale héliocentrique (vrad).
Déterminer la magnitude absolue de M31. Quelle hypothèse fait-on sur les magnitudes absolues de ses sosies ?
Déterminer pour chaque galaxie son module de distance et en déduire la valeur de la constante de Hubble associée :
Déterminer le module de distance mu2 par application de la relation de Tully-Fisher, avec les coefficients . En déduire une autre estimation de .
Calculer dans chaque cas la moyenne des valeurs et en déduire une valeur de la constante de Hubble. Commenter.
Représenter les valeurs en fonction de la vitesse radiale pour les galaxies sosies de M31. Commenter.
Appliquer la correction de Malmquist et calculer la valeur corrigée de . Comparer aux valeurs obtenues précédemment, par le module de distance ou par la relation Tully-Fisher.
Dans le modèle standard , l'âge de l'univers est égal à 2/3 du temps de Hubble . Calculer cet âge à partir des valeurs de obtenues précédemment. On rappelle que la constante est exprimée en km/s/Mpc.
Dans un modèle d'univers non-statique à espace temps variable, la loi de Hubble existe, même si toutes les galaxies sont comobiles avec le système de coordonnées, i.e. si leur énergie cinétique est nulle, aux mouvements propres près. La métrique non-statique la plus générale est la métrique de Robertson-Walker qui s'écrit:
où , , sont les paramètres d'espace et le temps. La fonction représente le rayon de l'univers à l'instant .
C'est la densité massique de l'univers qui détermine son type de géométrie. Une forte densité courbe l'espace au point de le refermer sur lui-même en un modèle sphérique ; toute densité plus faible qu'une certaine densité critique (univers parabolique) conduit à un modèle hyperbolique infini. La détermination de la fonction de métrique permet de décrire l'évolution de l'univers au cours du temps. L'application des équations d'Einstein à la métrique de Robertson-Walker conduit aux deux équations différentielles suivantes :
auxquelles on ajoute l'intégrale première:
où est la pression du fluide de galaxies, la densité de la matière, et la constante cosmologique. et représentent respectivement les dérivées première et seconde du rayon de l'univers par rapport au temps. On définit:
Si on suppose que l'univers est homogène et isotrope (principe cosmologique), le modèle est entièrement défini par trois paramètres : la valeur de la constante cosmologique , la valeur actuelle de la constante de Hubble , et la valeur actuelle du paramètre de densité (ou du paramètre de décélération actuel ). On considère généralement que la pression du fluide de galaxie est nulle, ce qui implique d'après les équations (1.1) et (1.2) que , et donc que et sont interchangeables.
Dans les modèles de Friedman caractérisés par une constante cosmologique nulle (), l'expansion se ralentit au cours du temps; il en résulte que l'âge de l'Univers est toujours inférieur au temps de Hubble .
L'effet Sunyaev Zel'dovich se caractérise pas un déficit de photons du fond diffus cosmologique.
L'effet de lentille gravitationnelle démultiplie spectaculairement les images d'un objet très lointain situé derrière une forte concentration de masse.
A très grande échelle, on fait souvent appel à des propriétés générales des amas de galaxies. Ainsi, un des premiers indicateurs à longue portée utilisé fut la galaxie la plus brillante d'un amas, ou la moyenne des luminosité des 5 galaxies les plus brillantes.
Une autre méthode fait appel à la taille caractéristique des amas de galaxies, qui est de l'ordre de 10 à 20 millions d'années de lumière. On trouve aussi un critère équivalent à la relation de Faber-Jackson pour les amas de galaxies en comparant la luminosité du gaz chaud du milieu intergalactique à la dispersion des vitesses des galaxies à l'intérieur de l'amas.
Deux autres méthodes très prometteuses ont fait des progrès récents. Il s'agit de l'utilisation de l'effet Sunyaev-Zel'dovich et des lentilles gravitationnelles.
L'effet Sunyaev-Zel'dovich peut être décrit comme l'interaction du plasma d'électron chaud baignant les amas de galaxies avec le fond diffus cosmologique à 2.7 K : les photons froids prennent de l'énergie aux électrons chauds par un effet appelé Compton inverse. Il en résulte que lorsque l'on étudie le fond diffus cosmologique dans la direction d'un amas, on observe un déficit de photons à la température habituelle de ce fond et un excédent de photons plus chauds.
Cette observation permet de mesurer la profondeur de l'amas le long de la ligne de visée de façon indépendante de la distance. En comparant cette mesure à l'image du même amas en rayonnement X, on peut, en supposant que l'amas est sphérique, en déduire sa distance.
L'effet de lentille gravitationnelle est basé sur la déviation de la lumière par la gravitation. Ce principe a été décrit dans la théorie de la relativité générale. L'utilisation des lentilles gravitationnelles repose sur la mesure des délais temporels entre les différentes images d'une même source dont le trajet des rayons lumineux a été perturbée par un fort potentiel gravitationnel comme par exemple celui d'un amas de galaxies. Si l'on est capable de modéliser la distribution de la masse dans l'amas déflecteur en question, on peut alors estimer la distance de la source.
Au terme de cette revue des méthodes de détermination des distances dans l'univers, on peut se demander pourquoi on continue de perfectionner ces techniques si compliquées et indirectes, alors que, pour les galaxies, la loi de Hubble et les mesures du décalage vers le rouge seules suffiraient...
En fait, en mesurant de manière indépendante la distance des galaxies (à partir d'indicateurs photométriques) et leur vitesse radiale (à partir de mesures spectroscopiques), on peut accéder à des paramètres d'importance cosmologique comme :
Comment peser l'Univers et ses différents constituants ? Plus exactement, comment mesurer une grandeur fondamentale de tout objet physique, sa masse ?
Ce chapitre répond (partiellement) à cette question. Il n'a pas pour ambition de montrer que, conformément aux mesures les plus récentes, l'essentiel de la masse de l'Univers est sous d'autres formes que la matière usuelle que nous côtoyons tous les jours... Il s'intéresse à l'étude dynamique des objets en interaction gravitationnelle, et montre comment cette analyse du mouvement des objets permet de mesurer leurs masses.
Une part belle est dévolue au système à 2 corps et à la 3ème loi de Kepler
Le sous-chapitre Outils développe les notions indispensables pour l'analyse du mouvement dans le cadre de l'approximation du système à 2 corps.
Le sous-chapitre Systèmes binaires traite des multiples cas astronomiques dominés par le système à 2 corps : étoiles doubles, planètes extrasolaires...
Le sous-chapitre Marée et problème à N corps propose une extension vers des cas où il n'est décidément pas possible de considérer que le système étudié correspond à 2 corps isolés sans structure interne.
Quand bien même les lois physiques décrivant l'interaction gravitationnelle entre 2 objets sont connues depuis 400 ans, elles participent aux découvertes astrophysiques les plus récentes, telle la mesure de la masse du trou noir qui prospère au centre de notre Galaxie. Ce sous-chapitre revisite les lois de Kepler, de Newton, avec également quelques incursions, pas nécessairement chronologiques, auprès de leurs collègues précurseurs.
Les 3 lois énoncées par Johannes Kepler il y a 4 siècles ont apporté une alternative au paradigme alors en vigueur, les épicycles de Ptolémée, pour décrire le mouvement des planètes.
Elles ont substitué à une version idéalisée du monde des lois physiques basées sur une idée fertile, l'héliocentrisme, développée par Nicolas Copernic, et un concept novateur, la primauté de l'observation (Tycho Brahe).
Un rappel du formalisme mathématique et physique des trajectoires rencontrées dans le problème à 2-corps est donné en fin de sous-chapitre.
Ptolémée (100-170) au deuxième siècle après J.-C., mettait la Terre au centre du système solaire (et donc au centre de l'Univers, à cette époque), et reproduisait le mouvement des planètes par une succession de mouvements circulaires emboîtés. Il contribua à faire admettre pendant plus de quatorze siècles l'idée que la Terre est immobile au centre de l'Univers.
Les travaux astronomiques de Ptolémée sont regroupés dans un ouvrage majeur, la grande syntaxe mathématique, plus connu sous le nom arabe de l'Almageste. L'Almageste reprend dans ses grandes lignes la vision aristotélicienne du monde physique, avec les mêmes dogmes et principes : dichotomie Terre/Univers, immobilité de la Terre, etc.
Ptolémée rejeta le modèle des sphères emboîtées et perfectionna grandement les modèles grecs en introduisant la notion de point équant, un point fictif symétrique de la Terre par rapport au centre excentrique de l'orbite d'une planète. Le système résultant est extrêmement complexe, mais d'une précision mathématique remarquable (le modèle de Ptolémée permet ainsi de prédire des éclipses de Soleil). La perfection de ce modèle fera qu'il ne sera globalement pas remis en cause avant le XVIème siècle.
Copernic (1473-1543), frappé par la complexité du système de Ptolémée, va bâtir une nouvelle représentation du monde, dans laquelle le Soleil est fixe au centre du système solaire. Cette révolution de pensée ne s'imposera qu'après les observations de Galilée.
Dans le système de Copernic, le Soleil remplace la Terre comme centre du monde.
Nicolas Copernic a publié son ouvrage De Revolutionibus orbium caelestium l'année de sa mort. Tous les mouvements planétaires sont centrés sur le Soleil, et la Terre n'est ni immobile, ni au centre du monde.
Elle est en effet animée de 2 mouvements : l'un sur elle-même en 24 h (qui remplace le mouvement de la sphère des fixes des Grecs anciens) et l'autre autour du Soleil en un an, faisant de la Terre une planète comme les autres.
Contrairement à ce que l'on croit parfois, Copernic ne va pas démontrer l'héliocentrisme, car il faudra attendre plus de 150 ans pour avoir une preuve du mouvement de la Terre. L'argument de Copernic est que son modèle est plus simple, plus logique et plus "harmonieux" que celui de Ptolémée (même si dans le détail le fonctionnement mathématique du système copernicien est assez complexe). Le De Revolutionibus, malgré son côté fondamentalement révolutionnaire, fut reçu avec relativement d'indifférence par les savants de l'époque. Les travaux de Copernic connurent dans un premier temps la célébrité grâce aux éphémérides des planètes qui en furent déduites.
Divers éléments d'histoire sont proposés au fil des pages, tel que le présente le tableau suivant.
Tycho Brahe a introduit une composante essentielle dans l'histoire de l'astronomie : des observations de qualité hors pair, menées pourtant sans l'aide d'aucun instrument optique.
Dans sa démarche, Tycho Brahe fut grandement aidé par le roi du Danemark, qui subventionna largement l'observatoire d'Uraniborg.
Jean Kepler est né en Allemagne en 1571. Elève brillant, il devient professeur de mathématiques en 1594 ; il a pour maître en astronomie l'astronome Michel Maestlin, qui l'initie au système de Copernic.
En dessinant une figure au tableau noir en juillet 1595, Kepler eut la révélation d'une idée à laquelle il attacha une importance considérable : pourquoi le système solaire comporte-t-il six planètes, et quel lien existe entre les dimensions de leurs orbes ? Euclide ayant montré qu'il existait cinq polyèdres réguliers, chacun inscriptible dans une sphère et circonscriptible à une autre sphère de même centre, les cinq intervalles qui existent entre les six planètes ne peuvent pas, aux yeux de Kepler, être le fruit du hasard : le Créateur a agi en géomètre et l'homme est en mesure de découvrir le plan et la perfection du monde créé.
Kepler publia ses théories en 1596, ce qui lui valu une certaine notoriété, notamment celle d'être appelé auprès du plus grand astronome-observateur de l'époque, Tycho Brahe. Lorsque Kepler arrive à Prague en février 1600, il se voit confier par Tycho Brahe l'étude de l'orbite de Mars. Cette planète présentait depuis l'Antiquité des anomalies dans son mouvement, alors impossibles à expliquer.
A partir des observations accumulées par Tycho Brahe, Kepler se rend compte qu'il faut rejeter la théorie des mouvements circulaires uniformes. Pour résoudre le problème de l'orbite de Mars, Kepler choisit quatre positions de la planète et, après de laborieux calculs entachés d'erreurs qui, par chance, se compensent, parvient à obtenir une orbite circulaire où le Soleil occupe le point équant. Ce point équant, inventé au IIe siècle de notre ère par l'astronome Ptolémée, est un point symétrique du Soleil par rapport au centre de l'orbite. Pourtant, si d'autres positions de Mars s'insèrent parfaitement dans la nouvelle orbite ainsi définie, deux observations s'écartent de près de 8' de la position théorique : cette différence est supérieure à la précision des mesures. Au lieu de les rejeter, Kepler renonce à son hypothèse : l'orbite ne peut pas être un cercle.
Avant de se replonger dans la quête du mouvement de Mars, Kepler décide de revoir dans le détail le mouvement de la Terre autour du Soleil. En effet, pour passer d'une position géocentrique à une position héliocentrique de Mars, il est nécessaire de traiter correctement le mouvement orbital de la Terre : si celui-ci est entaché d'erreurs, elles se répercuteront sur le mouvement de Mars.
La vision géocentrique est nécessaire - c'est ce que l'on voit - mais pas suffisante : elle ne permet pas une approche totalement raisonnée. Mettre le soleil au centre, comme l'a fait Copernic, permet non seulement de simplifier la forme de l'orbite, mais de plus a conduit Kepler à mesurer précisément la trajectoire de Mars.
En effet, si l'on observe Mars à des dates différentes, mais espacées d'un multiple de la période de révolution sidérale de Mars, alors la position de Mars par rapport au Soleil et aux étoiles est fixe. Il n'en est rien pour la Terre, qui en une durée non reliée à sa propre période de révolution a parcouru une portion de son orbite.
Cette situation permet d'observer Mars dans la même position par rapport au Soleil et aux étoiles, mais sous un angle différent. On peut alors mesurer la distance à Mars par triangulation.
Kepler imagine une méthode pour obtenir l'excentricité de l'orbite de Mars à partir de trois observations de Mars faites à 687 jours d'intervalle (période de révolution sidérale de Mars). Il sait en outre que plus les planètes sont proches du Soleil, plus elles se déplacent vite, tandis que plus elles s'en éloignent, plus leur mouvement ralentit. Kepler en déduit que l'action du Soleil doit varier en fonction de la distance de la planète au Soleil ; il la suppose inversement proportionnelle à la distance. Première erreur.
Kepler cherche ensuite à calculer la durée que met la Terre pour passer d'une position à une autre. Il décompose pour cela une portion de l'orbite en petits segments et s'aperçoit que la durée passée par la Terre sur de petits arcs est approximativement proportionnelle à la distance de ces arcs au Soleil. Il assimile donc une surface à une somme de lignes. Deuxième erreur.
Mais il transforme ces deux déductions en une loi correcte, la loi des aires : le rayon vecteur qui joint une planète au Soleil balaie des aires égales en des intervalles de temps égaux. Historiquement, Kepler découvrit donc en premier la loi que nous appelons la deuxième loi.
Kepler reprend alors son étude de l'orbite de Mars. En calculant avec son hypothèse des aires un grand nombre de positions, il obtient un ovale, qu'il assimile à une ellipse. Il constate alors que les positions de Mars sont correctement représentées. La trajectoire elliptique, appelée aujourd'hui la première loi, est découverte : les planètes décrivent autour du Soleil des ellipses dont ce dernier occupe l'un des foyers. Kepler publie ses découvertes en 1609 dans un ouvrage difficile, l'Astronomia nova ("l'Astronomie nouvelle").
Si la chance a favorisé Kepler dans ses recherches (forte excentricité de l'orbite de Mars, erreurs de principe qui se compensent), on doit reconnaître en lui un travailleur acharné et inspiré. On lui doit surtout l'abandon du mouvement circulaire uniforme -- principe remontant à l'Antiquité auquel Tycho Brahe accordait encore une valeur absolue -- et un souci constant de vérifier que les hypothèses s'accordent avec les observations (ce qui n'était pas le cas de Copernic), en quoi il mêle intimement faits et théories, deux composantes fondamentales de la démarche scientifique.
Toujours attaché à trouver des harmonies dans les orbites planétaires, Kepler essaye d'associer les intervalles musicaux aux diamètres des orbites planétaires. Cette idée qui nous semble aujourd'hui un peu étrange le conduit à la troisième loi en 1618 : les cubes des demi-grands axes sont proportionnels aux carrés des périodes de révolution. La troisième loi de Kepler contribuera à stimuler les découvertes ultérieures de Newton sur la gravitation universelle et le mouvement des deux corps.
Kepler a reconstruit l'orbite de Mars en analysant son orbite sous une double approche : le mouvement de Mars autour du Soleil est à considérer dans un référentiel héliocentrique ; l'observation de ce mouvement est réalisée depuis la Terre, et apporte un point de vue différent à chaque période sidérale de Mars.
L'appliquette ci-jointe explicite ce point de vue :
Reconstruire l'orbite de Mars
La première loi de Kepler énonce que la trajectoire des planètes est plane. C'est ce que dévoile la trace d'une orbite planétaire, lors d'une révolution sidérale.
Référentiels - Notion sur les coniques
Les 3 lois de Kepler expriment les conclusions que Kepler a tirées des observations de Tycho Brahe. Leur caractère empirique -- elles décrivent le mouvement d'une planète autour du soleil, mais ne l'expliquent pas -- n'obère en rien leur portée. Elles ont permis la formalisation par Newton de la loi de gravitation universelle.
Ces lois, obtenues dans le cas particulier du système solaire, se généralisent à tout système analogue, correspondant à un potentiel central. L'objet considéré, dans ce potentiel, ayant une masse très inférieure à la masse du potentiel central, et n'étant pas perturbé par d'autres satellites de , présente alors les propriétés suivantes :
La 2ème loi de Kepler, ou loi des aires, illustrée dans plusieurs cas.
Les différentes "aires balayées" par le rayon vecteur en des durées égales sont égales. Le secteur angulaire correspondant est donc bien plus grand au voisinage du périhélie que de l'aphélie, et cet effet est d'autant plus marqué que l'excentricité de la trajectoire est proche de 1.
La 2ème loi de Kepler permet la détermination de l'équation horaire du mouvement le long de la trajectoire de l'objet.
Les positions des objets (comète de Halley, satellite sur orbite de transfert géostationnaire) sont ici représentées à des dates équiréparties le long d'une période orbitale. Le mouvement est d'autant moins uniforme que l'excentricité de l'orbite est proche de 1 ; la vitesse orbitale est plus rapide au périastre qu'à l'apoastre.
La 3ème loi de Kepler entraîne une période d'autant plus rapide que la planète est proche de l'étoile. L'animation ci-jointe, supposant de manière uniquement illustrative qu'à une date donnée les planètes telluriques pourraient être en phase, montre leur avancée respective au bout d'une durée égale à la période de révolution de Mercure.
Vérifier à l'aide de l'appliquette la 3ème loi de Kepler pour les planètes du système solaire.
On remarque que la validité est moins bonne pour les planètes au-delà de Jupiter, qui ressentent en fait un champ de force moyen de masse totale la masse du Soleil complétée par celle de Jupiter.
Difficulté : ☆☆ Temps : 20 min
Cet exercice vous propose une lecture commentée de l'histoire de l'obtention des lois de Kepler. Il se réfère au texte présentant les aspects historiques de l'oeuvre de J. Kepler.
Pourquoi 6 planètes seulement sont-elles citées ? Les identifier.
Que signifie "traduire correctement le mouvement orbital de la Terre" à l'époque de Kepler?
Que représentent 8' (8 minutes d'angle) dans le ciel ? Traduire cette distance angulaire en : fraction du diamètre lunaire, diamètre martien maximal, longueur rapportée sur l'orbite martienne, durée de parcours sur l'orbite martienne. On donne :
Difficulté : ☆☆ Temps : 20 min
Préciser les conditions dans lesquelles les lois de Kepler s'appliquent.
[1 points]
Que représente et signifie le terme "constante", dans l'équation
qui traduit la 3ème loi de Kepler.
[1 points]
A quelle(s) condition(s) pourrait-on appliquer les lois de Kepler à une étoile au sein d'un amas stellaire ?
[1 points]
Comme le montrent les observations de Kepler, le mouvement de Mars, vu de la Terre et décrit dans un référentiel géocentrique, n'est pas des plus simples à comprendre. Ce qui ne va pas ? Le référentiel !
Vue de la Terre, l'orbite apparente de Mars dessine une boucle. Cette vision géocentrique complique la perception du phénomène. Vue du Soleil, à la conjonction planétaire, la Terre se contente de doubler Mars.
Problème : comment avoir, lorsque l'on est observateur terrestre, autre chose qu'une vision géocentrique ?
Les astronomes Copernic et Kepler ont résolu ce problème, en conceptualisant ces mouvements, Copernic, en mettant le soleil au centre du système solaire, Kepler en décrivant les mouvements planétaires par ses 3 lois.
La page "Des lois de Newton aux lois de Kepler" montre comment l'on dérive aujourd'hui les lois de Kepler des lois de la gravitation et du formalisme de mécanique classique. Mais historiquement, les 3 lois de Kepler sont antérieures au formalisme newtonien, comme le plus souvent le fait observationnel précède la formalisation théorique. Il est important de voir comment les lois de Kepler portent en elles les germes de la loi de gravitation.
La 1ère loi de Kepler donne un rôle particulier au soleil, qui peut être doublement interprété.
Du point de vue dynamique, le rôle central du soleil est clairement énoncé. Si aujourd'hui la prépondérance du soleil au sein du système solaire est un fait avéré et reconnu, il n'en était rien au XVIIe siècle. Le Soleil est centre de force, et ce d'autant plus que toute masse dans le système solaire est négligeable devant la masse du soleil.
En terme de référentiel d'étude, la 1ère loi introduit clairement le référentiel héliocentrique, qui est le "bon" référentiel d'étude, car bien mieux galiléen que le référentiel géocentrique. La première loi identifie donc clairement un centre de force supposé immobile, ainsi que le bon référentiel associé.
La 2ème loi de Kepler énonce la loi des aires, càd la conservation du moment cinétique du système. Ceci est spécifique des forces centrales. Des 1ère et 2ème lois ressort donc l'idée que le soleil est centre de force. Cette force peut s'écrire , le vecteur étant un vecteur unitaire radial défini par rapport au centre de force.
Le lien entre la période et le demi-grand axe donné par la 3ème loi de Kepler est spécifique à une dépendance particulière du module de la force vis à vis de la variable radiale. Cette loi n'apparaît que pour une force variant en .
L'ensemble des lois de Kepler conduit finalement à une force s'écrivant de la forme :
Les lois de Kepler n'en disent pas plus sur ce paramètre . Ce sont les lois de la gravitation, dues à Isaac Newton, qui permettent d'expliciter sa forme.
En coordonnées polaires planes, définies dans le plan de l'orbite par rapport au foyer décrit par la 1ère loi de Kepler, on exprime les rayon vecteur, vitesse et accélération de l'objet par :
La composante orthoradiale de l'accélération s'identifie, à une constante près, à la dérivée temporelle du moment cinétique (perpendiculaire au plan de la trajectoire) :
La nullité de la composante orthoradiale de l'accélération est bien la signature d'une force centrale.
La démonstration de la 3ème loi de Kepler, dans le cas d'un mouvement circulaire, dérive du jeu d'écriture suivant, avec le rayon de l'orbite, la période et la vitesse de l'objet :
Si, historiquement, les lois de Newton ont été dérivées des lois de Kepler, on retrouve aujourd'hui les lois de Kepler comme application des lois de Newton.
L'examen des masses des principaux objets du système solaire dévoile un poids lourd, le soleil, entouré d'un cortèges de petits objets, les planètes. Ceci définit le cadre des approximations usuellement faites pour décrire le mouvement d'une planète : on la considère de masse négligeable par rapport à la masse du soleil, et l'on néglige les interactions interplanétaires.
Le problème se résume à l'interaction entre 2 corps, le soleil de masse et la planète de masse . Le référentiel d'étude est héliocentrique, de centre . On y repère la planète par le rayon vecteur . La planète subit de la part du soleil une force , exprimée par :
L'étude complète du mouvement est un peu technique. La résolution par les formules de Binet ne sera pas menée dans ce cours ; un autre mode de résolution, introduisant le vecteur excentricité, est proposé en exercice.
La relation fondamentale de la dynamique permet de retrouver que la trajectoire est plane. Si l'on note et les position et vitesse de la planète à un instant donné, et le plan défini par ces 2 vecteurs, la relation annonce que l'accélération , colinéaire à , est également dans ce plan. Aucun terme d'accélération ne conduisant hors de ce plan, toute la trajectoire s'y inscrit nécessairement.
Comme il suffit que la force soit centrale pour que le moment cinétique du système soit conservé, la dérivation de la 2ème loi de Kepler est immédiate.
On retrouve enfin facilement la 3ème loi de Kepler dans le cas particulier d'un trajectoire circulaire. La démonstration en proposée en exercice.
Difficulté : ☆☆☆ Temps : 40 min
Une façon très performante de faire de la physique consiste à associer à une loi physique un invariant.
Pour une particule dans un champ de force gravitationnel, le champ de force étant à circulation conservative (voir la signification de ces termes dans le cours de physique), l'énergie mécanique se conserve ; la force étant centrale, le moment cinétique se conserve.
Le but de cet exercice est de montrer quel invariant est associé au fait que le module de la force gravitationnel varie comme l'inverse du carré de la distance. Il permet par ailleurs de retrouver l'équation de la trajectoire elliptique d'un satellite dans un champ de force central, moyennant un peu de gymnastique calculatoire. On considère un satellite, de masse , dans le champ de force central d'un corps de masse . On repère sa position par le vecteur radial . On note le vecteur orthonormé normal au plan de la trajectoire, et portant le moment cinétique du satellite, tel que le trièdre forme un trièdre orthonomé direct.
Exprimer les vecteurs accélération et moment cinétique dans la base (, , ).
On construit le produit vectoriel . Donner son expression en fonction du vecteur .
Intégrer l'équation précédemment obtenue pour .
On multiplie scalairement l'équation précédemment obtenue par le vecteur position . Montrer que ceci permet de retrouver l'équation de la trajectoire
en choisissant pour origine de la variable angulaire la direction et le sens du vecteur excentricité
Faire un schéma, représentant le vecteur excentricité et la trajectoire.
L'observation des systèmes doubles est cruciale en astronomie, car elle donne accès à la mesure de la masse du système. On en voit deux exemples, à des échelles différentes :
La 3ème loi de Kepler porte en elle, comme toute loi physique, une potentialité énorme : généraliser le particulier, pour mieux comprendre comment fonctionne l'univers.
Il se trouve que sur ce point de vue, elle fonctionne extraordinairement bien. Elle permet de "peser" tout objet de l'Univers, à la seule condition qu'un objet moins massif tourne autour de lui.
Trajectoires elliptiques
Peser est à prendre ici non dans son sens physique (mesurer le poids), mais dans son sens de la vie courante : mesurer la masse. La mécanique newtonienne permet de préciser la constante intervenant dans la 3ème loi de Kepler appliquée à un système ressemblant au système solaire : un ou des objets peu massifs tournant dans le potentiel central d'un corps plus massif.
Cette loi implique 3 paramètres physiques : la période de révolution et le demi-grand axe de l'orbite, et la masse du corps central.
La mesure de 2 parmi ces 3 paramètres permet d'en déduire le 3ème : ceci est mis à profit pour déterminer la masse du centre de force à partir des paramètres orbitaux et . Ces 2 termes sont en effet observables, alors que la masse ne l'est pas.
La mesure de la période nécessite de repérer le mouvement le long de la trajectoire.
La mesure du demi-grand axe de l'orbite découle de la mesure de sa taille angulaire, et nécessite de connaître la distance du système. On voit une fois encore l'importance de la mesure des distances en astronomie.
Planète | |||||
UA | an | deg | |||
Mercure | 0.3871 | 0.2408 | 7.0 | 0.206 | 0.9996 |
Vénus | 0.7233 | 0.6152 | 3.4 | 0.007 | 1.0002 |
Terre | 1.0000 | 1.0000 | -- | 0.017 | 1 |
Mars | 1.5237 | 1.8808 | 1.8 | 0.093 | 1.0000 |
Jupiter | 5.2026 | 11.862 | 1.3 | 0.048 | 0.9992 |
Saturne | 9.5547 | 29.457 | 2.5 | 0.056 | 0.9948 |
Uranus | 19.218 | 84.020 | 0.8 | 0.046 | 0.9946 |
Neptune | 30.109 | 164.77 | 1.8 | 0.009 | 0.9946 |
Indépendamment de l'inclinaison sur l'écliptique et de l'excentricité de l'orbite de chacune des 8 planètes, la relation est vérifiée, avec la période de révolution sidérale. Les désaccords proviennent des écarts aux hypothèses de Kepler. Remarque : dans le système solaire, les masses des planètes et de la plupart de leurs satellites sont connues avec une précision relative de l'ordre de . Il s'agit de la précision à laquelle est mesurée la constante gravitationnelle . Le produit est souvent déterminé avec une précision bien meilleure.
Lorsque l'on choisit le système d'unités où les temps se comptent en année, les distances en unité astronomique, et les masses en masse solaire, la 3ème loi de Kepler se réécrit, pour le système solaire.
Sans mener aucun calcul, il suffit pour s'en convaince d'examiner le cas de l'orbite terrestre, pour lequel = 1 UA, = 1 an, qui valide le cas de tout autre planète.
Pour un autre système caractérisé par un centre de force de masse , la 3ème loi devient, toujours dans le système d'unités (UA, an, ) :
Une application de cette loi sur différents exemples illustre comment une loi physique peut étendre sa validité sur une très large gamme de valeurs.
Difficulté : ☆ Temps : 15 min
Une équipe dirigée par W. Merline a observé en 1998 l'astéroïde (45)Eugénie avec l'optique adaptative du télescope CFH. Les observations ont mis en évidence la présence d'un petit satellite.
Période | 4.7 j |
Demi-grand axe | 1190 km |
Diamètre de Eugénie | 215 km |
Diamètre du satellite | 13 km |
Déterminer la masse de (45)Eugénie
En déduire la masse volumique moyenne de Eugénie. Estimer sa composition.
Peut-on estimer la masse du petit satellite ?
Difficulté : ☆☆ Temps : 20 min
Notre galaxie, la Voie Lactée, a la forme d'une galette d'environ 30000 pc de diamètre et 2000 pc d'épaisseur. La région centrale est formée d'un bulbe d'allure sphérique de 2 700 pc de rayon, qui contient l'essentiel de la masse galactique. Le Soleil orbite à 8000 pc du centre galactique. D'après les mesures Doppler effectuées sur la raie à 21 cm de l'hydrogène, l'orbite du Soleil est approximativement circulaire, et la vitesse orbitale du Soleil est d'environ .
Déterminer la période du mouvement du soleil autour du centre galactique. L'exprimer en années.
Estimer la masse du bulbe galactique, en unité de masse solaire .
Difficulté : ☆ Temps : 20 min
Retrouver l'expression de la 3ème loi de Kepler d'après le cas particulier d'une orbite circulaire, lorsque l'on suppose que les masses des 2 objets vérifient .
[1 points]
Difficulté : ☆ Temps : 20 min
La comète de Halley a une période sidérale de 76 années. En déduire le demi-grand axe de son orbite.
[1 points]
Suite aux idées de Copernic, aux observations de Tycho Brahe, aux lois empiriques de Kepler et aux lois du mouvement de Galilée, Newton expose sa théorie de la gravitation. Incontournable, à plus d'un titre, pour comprendre les mouvements en astrophysique.
Un rappel du formalisme mathématique et physique des trajectoires rencontrées dans le problème à 2-corps est donné en fin de sous-chapitre.
Les epicycles de Ptolémée permettent de rendre compte de l'allure générale des mouvements planétaires vus depuis la Terre. Sans l'énoncer explicitement, l'introduction de ces epicycles permet rendre compte de 2 effets :
Par rapport à une vision géocentrique, dans le système héliocentrique la Terre cède sa position centrale au Soleil. Les orbites planétaires sont alors simplifiées, par rapport à une vue géocentrique : elles apparaissent à peu près circulaires, avec le Soleil au centre du système.
La combinaison des mouvements de la Terre et de Mars autour du Soleil introduit le phénomène de rétrogradation, lorsqu'à l'opposition la Terre "double" Mars, dans une vue géocentrique.
Reconsidérer l'orbite martienne dans le référentiel héliocentrique permet une description bien plus simple de la trajectoire. Cette "simplicité", synonyme d'un formalisme efficace et prédiction, a conduit au succès du système construit sur une vision héliocentrique, un cadre galiléen, une explication newtonienne de la gravitation.
Passer de Ptolémée à Newton représente un changement de paradigme. La vision du monde est changée. Le désir de comprendre le monde supplante une vision systématique du monde. L'observation prime sur l'idée préconçue, le formalisme suit les observations.
On peut résumer le passage de Ptolémée à Copernic par un changement de référentiel.
Un mouvement épicycloïdal est décrit par une succession de mouvement circulaires imbriqués. Différents cas sont possibles : roulement d'un cercle sur un autre, entraînement d'un cercle autour d'un autre.
La comparaison du mouvement de Jupiter vu par Ptolémée ou Copernic montre le gain qualitatif de l'approche copernicienne. Les épicycles décrivant l'orbite jovienne dans un référentiel géocentré ne sont jamais que la combinaison de 2 mouvements circulaires successifs.
La vision héliocentrique de Copernic a permis à Kepler de déterminer précisément l'orbite de Mars.
Galilée, ayant acquis une lunette précise (pour l'époque), l'a tournée vers le ciel. Il a remarqué combien le voisinage de Jupiter était changeant, avec le ballet des 4 satellites... galiléens.
Un bon cadre théorique, de bonnes observations, et beaucoup de patience... les ingrédients qui ont permis d'identifier une loi physique universelle.
Galilée (1564-1642) était un physicien. Il étudia la mécanique et la dynamique des corps en mouvement, démontra l'invariance du module du champ de pesanteur terrestre à la surface du globe, et établit la loi de l'inertie : tout corps isolé, non soumis à une force extérieure, est animé d'un mouvement rectiligne uniforme.
Durant l'hiver 1609/1610, Galilée pointa le ciel avec une lunette construite par ses soins. Ses nombreuses découvertes vont bouleverser la vision de l'univers de l'époque : il observa des taches sur le Soleil, des cratères sur la Lune, les phases de Vénus, une multitude d'étoiles dans la Voie lactée et des satellites autour de Jupiter. Cette dernière découverte donnait le coup de grâce au géocentrisme.
Isaac Newton (1643-1727) réussit à unifier les diverses théories de ses prédécesseurs. En 1687, il publia l'ensemble de ses travaux reliant la mécanique et l'astronomie dans son oeuvre majeure, Philosophiae Naturalis Principia Mathematica, désignée par "Les Principes".
Il montra le caractère universel de la loi de la gravitation, expliquant aussi bien la chute d'un corps sur Terre, l'oscillation du pendule que les mouvements de la Lune et des planètes. Il fut également l'inventeur du premier télescope à miroir exempt des aberrations des lunettes réfractrices utilisées jusqu'alors.
Le ballet des satellites galiléens (observations (sans interruption diurne !) et reconstruction du mouvement horaire) a montré à Galilée que décidément le Soleil n'était pas le seul centre de force.
En 1610, Galileo Galilei utilise, pour la première fois, une lunette pour l'observation du ciel. Il découvre un étrange ballet autour de Jupiter, qui évolue au fil des nuits. Cette découverte conforte les idées coperniciennes : il existe visiblement d'autres centres de force que le Soleil ou la Terre.
L'approximation du système à 2 corps consiste à supposer le système isolé du reste de l'univers, càd à négliger toute autre interaction. Cette approximation est souvent vérifiée, au moins en première approximation, à ne nombreuse échelles.
Cette prégnance du système à 2 corps est ici illustrée à diverses échelles :
Mécanique newtonienne ; interaction gravitationnelle
Le but de cette page n'est pas de reprendre le formalisme du système à 2 corps (se référer à un cours de physique), mais de voir en quoi il est fécond, et cerner son domaine de validité.
Difficulté : ☆ Temps : 20 min
Le tableau ci-dessous présente les caractéristiques orbitales de la Lune et de la Terre, ainsi que
objet | masse | distance | distance |
(kg) | au soleil (km) | à la Terre (km) | |
Soleil | |||
Terre | |||
Lune |
Déterminer l'énergie potentielle et la force d'interaction gravitationnelle entre le Soleil et la Lune, puis entre la Terre et la Lune. Les calculer et les comparer.
Autour de quel corps la Lune tourne-t-elle ?
L'hypothèse 2-corps est bien commode... mais s'avère la plupart du temps trop restrictive, à toute échelle : systèmes planétaires, stellaires, galactiques...
La dynamique des anneaux planétaires nécessite un cadre formel plus complexe que le problème à 2 corps. Souvent, les satellites présentent des orbites résonantes, tels Prométhée et Pandore, gardiens de l'anneau F, avec une résonance 121:118 (Prométhée accomplit 121 révolutions quand Pandore n'en fait que 118).
Les perturbations du problème à 2-corps, typiquement lorsqu'un 3e s'en mêle, ont conduit à de beaux résultats, comme par exemple la découverte de Neptune.
L'orbite d'Uranus apparaissant perturbée par rapport au mouvement attendu (képlérien autour du Soleil, déjà perturbé par les géantes Jupiter et Saturne), le calcul a permis de localiser le perturbateur, en l'occurrence Neptune ainsi dévoilé.
L'écart entre les positions angulaires observée et prédite de Neptune résultait essentiellement de l'indétermination sur le demi-grand axe de sa trajectoire.
Mécanique newtonienne ; interaction gravitationnelle
Contrairement au problème à 2 corps, les problèmes à 3 corps et N-corps ne sont pas analytiquement solubles. Ils sont ici très simplement présentés.
On devine que le problème à 3 corps, c'est le problème à 2 corps avec un 3ème que l'on n'arrive pas à négliger.
P.ex., l'évolution à long terme du système Terre-Lune doit tenir compte du Soleil.
L'interaction entre 2 satellites autour d'une planète s'inscrit dans ce cadre également.
Le problème à N-corps va recouvrir tous les autres cas, où l'approximation 2 ou 3 corps ne marche pas.
On note par exemple :
Modélisations numériques et méthodes statistiques permettent une approche du problème à N-corps.
Difficulté : ☆ Temps : 20 min
La dynamique des satellites et anneaux planétaires présente de nombreux cas de résonance, lorsque les périodes orbitales des différents objets sont dans des rapports simples, souvent du type .
L'orbite du satellite Galatea de Neptune a un demi-grand axe de 61953 km. Les arcs d'anneaux de la planète Neptune occupent une orbite plus éloignée de 984 km.
Montrer que, si le rapport des demi-grands axes des anneaux et de Galatea s'écrit sous la forme , avec petit, alors le rapport des périodes vaut .
[1 points]
Déterminer la résonance en cause, en identifiant l'entier naturel tel que le rapport des périodes soit égal à . Montrer au préalable que .
[1 points]
Faire l'application numérique et identifier l'entier .
[1 points]
Que signifie universel dans l'expression gravitation universelle ? Que la loi semble s'appliquer à toute échelle dans l'Univers, de la pomme de Newton à la Lune et aux systèmes les plus lointains.
Aujourd'hui, on ne dirait plus universelle, mais unifiée.
Relation fondamentale de la dynamique ; notion de référentiel galiléen
L'interaction gravitationnelle entre deux corps et de masse et , séparés par la distance :
Un objet sphérique de masse , rayon , crée un potentiel gravitationnel :
Cette expression suppose implicitement un potentiel nul à l'infini. Cette convention, arbitraire comme toute convention, peut se justifier par divers arguments :
Il est commode de traduire les spécificités d'un problème physique en termes de grandeurs invariantes.
On peut ajouter un autre invariant, pour un système supposé isolé, la conservation de la quantité de mouvement totale du système.
Quatre termes rendent compte de la même réalité, avec quatre dimensions différentes. L'énergie potentielle gravitationnelle est bien évidemment une énergie, et la force gravitationnelle une force.
Exemples de trajectoires dans le système à 2 corps.
Retrouver rapidement les différentes trajectoires possibles dans un potentiel gravitationnel, en analysant le mouvement radial d'une particule test.
L'écriture explicite de la trajectoire est établie en exercice.
Dans un potentiel gravitationnel de masse , un objet de masse garde une énergie mécanique constante, somme des énergies cinétique et potentielle, égale à :
En coordonnées polaires, le carré de la vitesse s'écrit : .
Par ailleurs, la conservation du moment cinétique s'énonce :
Et la vitesse angulaire s'exprime donc en fonction de l'invariant et de la variable radiale par :
En éliminant la variable angulaire de l'équation de conservation de l'énergie, on aboutit à une équation reliant l'énergie cinétique radiale à un potentiel uniquement radial :
On décide alors d'étudier le mouvement radial du système muni de l'énergie potentielle effective :
On identifie la somme de 2 contributions :
Le mouvement radial s'étudie alors à l'aide de la courbe de potentiel effectif. Les différentes excursions radiales dépendent de l'énergie du système.
Les exemples de trajectoires quasi-circulaires autour d'un centre de force sont légions, et méritent d'être étudiés de près. D'autant plus que l'observation de paramètres liés au mouvement circulaire autour d'un centre de force est un des nombreux moyens de peser les objets de l'univers.
On considère un objet de masse négligeable, placé dans un potentiel central de masse , sur une orbite circulaire de rayon parcourue à la vitesse .
Le principe fondamental de la dynamique donne directement le lien entre la vitesse et le rayon , en évaluant l'accélération centrale :
D'où la relation entre la vitesse et le rayon orbital :
La relation donnant la vitesse orbitale en fonction du rayon d'une orbite circulaire permet, comme la 3e loi de Kepler, de "peser" la masse du centre de force. Rien d'étonnant à cela, il s'agit de la même loi réécrite sous une autre forme (voir exercice). La mesure des 2 observables et permet de déterminer la masse du centre de force, qui doit rendre compte de la relation:
Difficulté : ☆ Temps : 20 min
Le tableau ci-dessous présente les caractéristiques orbitales des 2 satellites de Mars, Phobos et Deimos.
Phobos | |
Deimos | |
Mars | |
Calculer les vitesses orbitales des 2 satellites.
En déduire leurs périodes orbitales. Comparer à la journée martienne (24.5 h) et conclure.
Difficulté : ☆☆ Temps : 30 min
On cherche à évaluer la durée de transit d'un satellite artificiel en orbite basse. On suppose l'horizon totalement dégagé, et le satellite visible dès lors qu'il surmonte l'horizon. On donne :
rayon terrestre | |
masse de la Terre | |
altitude du satellite |
Estimer la vitesse et la période orbitale du satellite.
Faire un schéma montrant quelle portion de la trajectoire du satellite est visible.
Estimer la taille angulaire de cet arc de trajectoire. En déduire la durée de visibilité du satellite.
Difficulté : ☆ Temps : 10 min
Reprendre les expressions de la 3e loi de Kepler et de la vitesse d'un objet en orbite circulaire autour d'un centre de force de masse , et montrer, comme il s'agit de la même physique, que l'on peut les déduire l'une de l'autre.
[2 points]
Difficulté : ☆☆☆ Temps : 30 min
La recherche des objets lointains du système solaire, p.ex. les objets de Kuiper, est basée sur la détection de leur mouvement par rapport aux étoiles.
Déterminer les vitesses orbitales, linéaire puis angulaire, d'un objet de Kuiper sur une orbite circulaire à 40 UA. Donner sa période de révolution sidérale.
[2 points]
Cette question s'intéresse au mouvement orbital autour du Soleil. Déterminer la vitesse angulaire relative de l'objet par rapport à la Terre. Quel terme domine dans ce mouvement apparent ?
[3 points]
Déterminer le déplacement angulaire apparent sur fond de ciel de cet objet de Kuiper en 2 heures. Quel est l'intérêt d'observer à l'opposition ?
[3 points]
Difficulté : ☆☆ Temps : 40 min
Un grand nombre de galaxies présentent un profil de luminosité qui varie en loi de puissance en fonction de la distance au centre galactique :
Cette donnée observationnelle permet d'écrire le profil de masse volumique de la galaxie sous la forme:
Déduire du profil de masse volumique la masse de la sphère galactique de rayon . Montrer d'une part que la constante doit vérifier , d'autre part que le profil de masse volumique doit nécessairement être tronqué au delà d'un certain rayon.
[3 points]
Déduire de le champ gravitationnel , ainsi que la vitesse de rotation circulaire au sein de la galaxie s'écrit :
[2 points]
La plupart des galaxies montrent, pour large intervalle en rayon, un profil de vitesse plat. Quelle valeur de l'exposant cette donnée observationnelle privilégie-t-elle ? Quelle conséquence pour le champ gravitationnel et la masse au rayon ?
[2 points]
Dans le voisinage solaire, à 8.5 kpc du centre galactique, la vitesse de rotation est de l'ordre de 220 km.s. En déduire la valeur de la masse galactique comprise dans la sphère de rayon 8.5 kpc. La traduire en masse solaire. Cette valeur vous semble-t-elle plausible ?
[3 points]
De manière très pratique, la notion de vitesse de libération se pose dès lors que l'on veut quitter la Terre.
Qu'il s'agisse de lancer une sonde interplanétaire, de faire revenir cette sonde de Mars, d'estimer la vitesse d'entrée dans la haute atmosphère terrestre d'une "étoile filante", ....une notion importe : la vitesse de libération d'un corps.
La vitesse de libération d'un objet correspond à la vitesse à communiquer à un corps initialement à la surface de l'objet pour l'éloigner à l'infini.
La détermination de la vitesse de libération est aisée via la conservation de l'énergie mécanique de l'objet.
Le bilan énergétique au sol s'écrit :
avec et les masse et rayon du corps à quitter, la masse de la particule test, et l'origine des potentiels ayant été choisie nulle à l'infini.
Le bilan énergétique à l'infini s'écrit :
On demande juste au corps de pouvoir aller à l'infini, càd accepter une énergie potentielle nulle, et une énergie cinétique nulle également.
La conservation de l'énergie cinétique conduit alors à :
Seuls apparaissent dans cette expression de la vitesse de libération de l'objet ses masse et rayon. On voit que cette vitesse est égale à la vitesse de rotation à altitude nulle, multipliée par .
La vitesse de libération est une notion essentielle pour la dynamique dès lors qu'il s'agit d'extraire un objet (une sonde, un caillou martien) d'un champ de gravitation.
Le problème considéré à l'envers - venir de loin et arriver à la surface d'un astre -- permet d'estimer la vitesse de chute libre sur un corps.
Enfin, cette notion permet d'introduire tout naturellement ce qu'est un trou noir.
Difficulté : ☆ Temps : 30 min
Les fragments de la comète Shoemaker-Levy 9 ont brûlé dans l'atmosphère de Jupiter entre les 16 et 20 juillet 1994. Ils provenaient du noyau d'une comète capturée par la planète géante, fragmenté par effet de marée lors d'un premier passage à bas périjove (périastre, lorsque l'astre est Jupiter) en 1992. Pour la suite, on considère l'orbite très elliptique de la comète analogue, énergétiquement parlant, à une orbite parabolique.
Traduire la description de l'orbite en termes énergétiques.
Calculer la vitesse de collision.
Que vaut la vitesse de libération de Jupiter ?
L'environnement du centre de la Galaxie dévoile de nombreux objets en rotation képlérienne très rapide.
L'observation de l'étoile S2 autour du centre galactique, menée sur une dizaine d'années, permet de mesurer, via la 3e loi de Kepler, la masse concentrée autour de ce dernier (calculée en exercice). La concentration de masse, alliée à l'absence de rayonnement visible et infrarouge, laisse suspecter la présence d'un trou noir supermassif.
Il a été établi, pour tout corps de masse et rayon , une vitesse de libération . Plus un corps est massif et petit, plus sa vitesse de libération va être élevée. Or toute vitesse est physiquement limitée à la célérité de la lumière.
On définit un trou noir comme un objet dont la vitesse de libération vaut , la vitesse de la lumière.
Le trou noir de masse est limité par un horizon de rayon :
C'est peu dire que ce genre d'objet fait couler beaucoup d'encre. Que peut-on en dire, qui reste physique, juste et simple ?
Les mesures astrométriques dans la direction du centre de notre Galaxie ont mis en évidence des objets présentant de très rapides mouvements.
Difficulté : ☆ Temps : 30 min
L'observation du mouvement de l'étoile S2 autour du centre galactique permet de dégager les propriétés orbitales suivantes.
Il s'agit d'une ellipse de demi-grand axe 0.119", parcourue en une période de 15.2 ans, avec une excentricité de 0.87.
Pourquoi l'approximation du système à 2 corps semble-t-elle convenable ?
Le Soleil se situant à 8000 pc du centre galactique, estimer le demi-grand axe de l'orbite en UA
En déduire la masse du centre galactique, en masse solaire.
Estimer la valeur du péricentre , en UA
L'orbite de S2 apparaissant rigoureusement elliptique, comme le prévoit la mécanique képlerienne, on peut supposer que la taille caractéristique du corps central permet l'application de la mécanique du point. En d'autres termes, ce centre de force s'inscrit dans un rayon bien moindre que le péricentre... et serait un trou noir. Estimer alors l'horizon de ce trou noir de masse .
Estimer la vitesse de S2 au péricentre (le rayon de courbure de la trajectoire au péricentre est égal au paramètre de l'ellipse, soit ).
Difficulté : ☆ Temps : 20 min
Le tableau ci-dessous présente la masse et le rayon de différents objets.
Objet | Masse (kg) | Rayon (m) |
Soleil | ||
Vous | ||
Bulbe galactique |
Calculer leur vitesse de libération
[2 points]
Déterminer leur horizon s'ils étaient candidats trous noirs.
[2 points]
Dans le système à 2 corps, les orbites accessibles sont des coniques. Ce terme provient du fait que ces courbes correspondent aux intersections possibles d'un cône de révolution avec un plan.
Les orbites elliptiques observées n'ont aucune raison d'être dans le plan du ciel ; seule leur projection est accessible. Ceci pose problème, car ni l'excentricité ni le demi-grand axe sont conservés par projection. Retrouver ces paramètres nécessitent une reconstruction sérieuse.
Restent néanmoins invariant par projection : le centre, et le rapport OF/OP, qui donne l'excentricité de l'orbite dans son plan
Présentation des éléments définissant les trajectoires possibles dans le système à 2 corps.
excentricité | trajectoire | mouvement | énergie mécanique |
---|---|---|---|
cercle | lié | minimale et | |
ellipse | lié | ||
parabole | libre | ||
hyperbole | libre |
Nature de l'orbite selon l'excentricité, dans le cadre du système à 2 corps. La valeur de l'énergie mécanique suppose une référence des énergies potentielles nulle à l'infini.
Les trajectoires qui sont solution du problème à 2 corps dépendent de l'énergie mécanique totale du système et de son moment cinétique, et peuvent être circulaires, elliptiques, paraboliques ou hyperboliques.
En coordonnées polaires, la trajectoire d'un système dans le cadre du problème à 2 corps a pour équation paramétrique :
Cette expression peut être obtenue à partir des équations du mouvement du système à 2 corps par l'étude des équations de Binet (voir un cours de physique), ou par le vecteur excentricité.
Deux paramètres suffisent à définir la trajectoire dans son plan.
astre | périastre | apoastre |
---|---|---|
Soleil | périhélie | aphélie |
Terre | périgée | apogée |
Les animations ci-jointes permettent de visualiser l'évolution d'une conique en fonction de son excentricité
À retenir absolument de ces pages :
Les sections sur les lois de Kepler et Newton ont montré l'importance astrophysique du système à 2 corps. On se propose, dans ce sous-chapitre, de parcourir les nombreux cas où l'étude de systèmes multiples permet de faire de la belle astrophysique, en balayant les systèmes stellaires doubles et les planètes extrasolaires.
L'image de l'étoile Gliese 229 montre à elle-seule l'intérêt d'observer le voisinage d'une étoile : on y a découvert une naine brune.
Le phénomène d'étoile double est très commun : on estime en effet que plus de la moitié des étoiles appartiennent à des systèmes binaires ou multiples.
Certaines des paires observées résultent de l'alignement fortuit de deux étoiles sur la ligne de visée, alors que les deux composantes sont en réalité à des années lumières l'une de l'autre (on parle alors de couples optiques), mais la grande majorité sont de réels systèmes binaires, les deux étoiles étant liées gravitationnellement.
Les mouvements de ces objets sont képlériens, chaque étoile décrivant une ellipse autour du centre de masse commun. Ce sont en fait les caractéristiques du mouvement qui permettent de distinguer les couples optiques des vraies étoiles doubles.
L'étude des systèmes doubles est précieuse pour de nombreuses mesures : masses, rayons....
Les étoiles binaires ou multiples sont majoritaires.
L'étoile la plus proche du Soleil, Proxima Centauri, à 1.3 pc, est une étoile triple. Les deux composantes les plus brillantes A et B ont une séparation maximale de 35", correspondant à un demi-grand axe de 23.5 UA et une période de révolution de 80 ans. Ce sont deux étoiles de la séquence principale de types spectraux respectifs G2 et K1. Le mouvement de la troisième composante (C) n'est pas connu avec une précision suffisante pour conclure définitivement, mais l'on pense qu'elle est physiquement associée aux deux autres, car elle partage les mêmes parallaxe et mouvement propre. Elle est située à 2.2 deg des deux autres, avec une période orbitale d'au moins 250 000 ans...
De nombreux systèmes multiples, avec deux, trois étoiles ou plus, forment un système gravitationnellement lié. De tels systèmes ont tendance à former une paire centrale, les autres composantes jouant un rôle de perturbateur par rapport au mouvement orbital de celle-ci.
Sur 3 étoiles, 2 sont dans un système multiple.
Les étoiles se forment suite à l'effondrement d'un nuage de matière interstellaire. Celui-ci, de masse très supérieure à la masse stellaire moyenne, conduit à une formation d'un groupe d'étoiles. Ce processus favorise la binarité.
La classification des étoiles doubles est essentiellement liée aux moyens observationnels qui ont servi à leur découverte.
On parle ainsi de binaires visuelles ou astrométriques, de binaires à éclipse et de binaires spectroscopiques, selon qu'elles ont été découvertes ou étudiées à partir de leur mouvement apparent sur le ciel, des variations de leur éclat ou des caractéristiques de leur spectre.
Notion de classification spectrale et de type spectral.
L'étude des étoiles doubles apporte un grand nombre d'informations importantes sur les étoiles, en particulier en termes de masse, de rotation, de rayon, de densité, de luminosité et de température superficielle. Ces informations, elles sont souvent les seules à pouvoir nous les donner, et leur étude est par là même indispensable pour comprendre la formation et l'évolution stellaire.
Dans le cas des étoiles binaires visuelles, si la parallaxe du système est connue, la reconstitution de l'orbite de l'une des deux étoiles et de son demi-grand axe permet de calculer la somme des masses des deux composantes.
Si, par ailleurs, on est capable de repérer le mouvement de chacune des deux composantes par rapport au centre de masse du système, on est alors en mesure de calculer la masse de chaque étoile.
L'analyse de la forme des courbes de lumière des étoiles binaires à éclipse permet de connaître certains paramètres physiques de l'atmosphère des étoiles du système. Lors d'une éclipse totale, on peut déterminer le rapport des températures effectives des deux composantes, sous couvert d'une modélisation réaliste du profil de brillance pour chacun des disques stellaires.
Si l'orbite est circulaire, on peut accéder au rapport des rayons des étoiles, ou aux rayons eux-mêmes si l'on connaît également, grâce à l'analyse de leur spectre, la courbe de variation des vitesses radiales. Ce type de situation est très rare puisqu'il faut que l'étoile soit à la fois binaire à éclipse et binaire spectroscopique. Les rayons n'ont ainsi pu être mesurés en valeur absolue que pour un très petit nombre d'étoiles, et cette mesure est fondamentale car c'est, avec l'interférométrie, le seul moyen de mesurer directement des rayons stellaires.
Certains systèmes particuliers permettent une analyse plus fine de l'atmosphère d'une des composantes. C'est le cas par exemple de l'étoile zeta Aurigae qui est un système formé d'une étoile géante de type K (245 fois la taille du Soleil) et d'une étoile naine de type B appartenant à la séquence principale. L'étoile de type B, la plus lumineuse, est périodiquement éclipsée par l'étoile géante dont l'atmosphère est très étendue et très diffuse, en particulier dans ses régions les plus externes. L'analyse spectroscopique de l'étoile B, vue par transparence au travers de l'atmosphère de l'étoile K permet une analyse fine des différentes couches de cette dernière. L'analyse détaillée de la courbe de lumière peut parfois donner la vitesse de rotation de l'étoile éclipsée.
Hasard des alignements, ou système double ? Une image seule ne suffit pas à répondre.
Deux figures de diffraction signent également la présence de deux objects non résolus... mais ça ne suffit pas pour conclure sur la binarité. Une bonne signature, en plus de la proximité angulaire, est fournie par des parallaxes communes.
On appelle binaire visuelle un couple d'étoiles qui peut être résolu en deux composantes au moyen d'un télescope, qui montrent des paramètres communs (parallaxe, ou mouvement propre typiquement). Typiquement, ce sont des étoiles relativement éloignées l'une de l'autre, dont la période orbitale varie entre un an et plusieurs milliers d'années.
Ici, et dans la plupart du chapitre, on parle uniquement d’étoiles, mais la majorité des reflexions s’appliquent également aux exoplanètes.
Un cas particulier de binaire visuelle est celui des binaires astrométriques. Il s'agit d'étoiles doubles dont on ne voit qu'une des deux composantes : c'est le mouvement apparent périodique de l'étoile visible qui permet de détecter indirectement l'existence d'un compagnon. Celui-ci est très peu lumineux et en général de faible masse. Ce type d'étude très fine du mouvement apparent est un terrain propice pour la découverte de nouveaux systèmes planétaires.
Les raies du spectre de 57 Cyg présentent un dédoublement périodique. Ceci est interprété comme la signature d'un système double.
Si le rapport des luminosités est important, seule l'une des composantes est visible. Ses raies apparaissent modulées au cours de la période orbitale. Cette modulation n'est pas à confondre avec celle liée au mouvement annuel de la Terre autour du Soleil.
Les étoiles binaires spectroscopiques forment des couples en général très serrés, constituant une image unique au foyer d'un télescope. Elles sont détectées grâce à l'analyse de leur spectre, où l'on observe un déplacement périodique des raies.
Deux composantes suffisamment brillantes ou de type spectral semblable constituent un système à doubles raies, mais il arrive souvent que l'on n'observe qu'une seule des deux composantes. Comme dans le cas des binaires astrométriques, ceci permet de deviner indirectement la présence du compagnon. Les binaires spectroscopiques ont typiquement des périodes orbitales de quelques heures à quelques mois.
Si les 2 composantes sont de type spectral identique, le dédoublement de la binaire spectroscopique apparaît très symétrique. Mais ce n'est pas nécessairement le cas : deux étoiles de type spectral ou magnitude différentes vont montrer un dédoublement non symétrique, voire pas de dédoublement mais une simple modulation si seulement la composante la plus brillante est visible.
Un système double peut être dévoilé par analyse de sa courbe de lumière, par la présence d'éclipses.
Un système binaire à éclipse est un système où les deux composantes s'éclipsent mutuellement et périodiquement au cours de leur mouvement orbital. Ce que l'on observe est alors une courbe de lumière correspondant à la variation périodique de la magnitude apparente du système. On qualifie aussi ces étoiles de binaires photométriques.
S'il y a occultation, l'observateur se trouve forcément au voisinage du plan de l'orbite.
Le phénomène est le même que les transits de planètes ou d'exoplanètes.
La forme de la courbe de lumière dépend :
L'appliquette ci-jointe permet de faire varier ces paramètres. Examiner dans différents cas (binaire composée d'une géante rouge et naine bleue, ou composée de naines rouge et bleue) les phénomènes suivants concernant l'allure conjointe du mouvement et de la courbe de lumière (lancer la visualisation avec la commande Figure+Graphe) :
Vous devez ensuite pouvoir répondre aux questions :
Les binaires de type Algol sont nettement séparées, alors que celles de type W Ursae sont très proches.
L'observation des étoiles binaires visuelles est limitée par la qualité d'image des observations au sol. La plus petite séparation angulaire détectable depuis le sol est d'environ 1 seconde d'arc. Cette limite imposée par la turbulence atmosphérique est améliorée grâce à l'optique adaptative. L'interférométrie sur les VLT permet d'atteindre une séparation de quelques millièmes de seconde d'arc.
L'effet de sélection dans l'observation de ces couples est très important. Deux catégories d'objets sont en particulier très difficile à observer : les binaires à longue période d'une part, et d'autre part les étoiles qui forment au contraire un système très serré.
La séparation caractéristique de tels couples varie d'une fraction d'unité astronomique à quelques centaines d'unités astronomiques, quand leurs périodes s'échelonnent de quelques années à plus d'un siècle. Les périodes plus longues (quelques siècles) ou les orbites plus grandes sont très difficiles à mettre en évidence, essentiellement pour des raisons de recul dans le temps.
Un grand intérêt de l'observation des étoiles binaires visuelles est que la mesure des paramètres apparents de l'orbite permet de calculer la masse des deux composantes du système, via la 3e loi de Kepler :
La définition du barycentre du système conduit à :
où représente le demi-grand axe de l'orbite relative du corps de masse par rapport au corps de masse et et sont les demi-grands axes des orbites absolues de chacun des corps par rapport au barycentre du système.
La mesure de , et de la position du barycentre du système (c'est-à-dire des demi-grands axes et ) permet alors de déterminer et .
Difficulté : ☆ Temps : 30 min
On observe une étoile double visuelle dont les caractéristiques observées sont les suivantes :
séparation angulaire maximum | 5" |
séparation angulaire minimum | 1" |
parallaxe | 0.1" |
période de révolution | 30 ans |
L'étoile primaire se trouve au foyer de l'orbite observée ; le compagnon est observé à une distance du barycentre 5 fois plus grande que celle de l'étoile primaire.
Montrer que l'inclinaison du plan de l'orbite est nulle.
Déterminer le rapport des masses des deux étoiles.
Exprimer la loi du mouvement des deux corps (troisième loi de Kepler) en prenant comme unités de masse, la masse du Soleil, de temps, l'année, et de distance, la distance Terre-Soleil (unité astronomique).
Calculer la distance en parsec à partir de la parallaxe, puis le demi-grand axe en UA.
Déterminer la masse de chaque composante en unité de masse solaire.
Dans le cas des binaires visuelles, on observe à chaque instant la séparation angulaire apparente entre les deux composantes et l'angle de position de la composante la plus faible par rapport à une direction de référence (celle de la direction du pôle céleste Nord) passant par l'étoile la plus brillante et repérée par rapport aux autres étoiles.
Trajectoire apparente de Sirius B autour de Sirius A, et animation correspondante.
Ce que voit en général l'observateur, ce n'est pas l'orbite elle-même mais sa projection sur un plan perpendiculaire à la ligne de visée. Dans cette projection, les orbites sont toujours des ellipses et la loi des aires est conservée. Par contre, le foyer de l'ellipse projetée (ou orbite apparente) n'est pas la projection du foyer de l'orbite vraie et le demi-grand axe apparent n'est pas non plus la projection du demi-grand axe vrai. Pour remonter aux paramètres de l'orbite réelle, il est donc nécessaire de reconstituer cette orbite à partir de l'ellipse observée.
Reconstituer les éléments géométriques de l'orbite vraie du système.
Eléments géométriques définissant une trajectoire elliptique.
L'observation donne une série de positions relatives des deux étoiles sur le ciel. En choisissant l'étoile la plus brillante (E2) comme origine des coordonnées, les positions de l'étoile la plus faible (E1) s'agencent sur une ellipse, mais il apparaît que E2 n'est pas au foyer de l'orbite projetée.
Soit O le centre de l'ellipse apparente et A à l'intersection de la droite OE2 avec l'ellipse, au plus proche de E2 ; O est la projection du centre de l'orbite vraie et A est la projection de son périgée. Le segment [OA] est alors la projection du demi-grand axe de l'orbite vraie.
L'excentricité n'est pas plus conservée par la projection que le demi-grand axe, mais la détermination de l'excentricité de l'orbite réelle découle directement des paramètres de l'orbite projetée. Cette excentricité est en effet définie par la distance du foyer (E2) au centre (O), rapportée au demi-grand axe (0A). Ce rapport se mesure directement par OE2/OA, qui est conservé par la projection (par application du théorème de Thalès).
On retrouve l'inclinaison de l'orbite vraie avec le plan du ciel en reconstituant la projection du cercle principal de l'ellipse vraie : ce cercle se projette suivant une ellipse dont le rapport d'axes est égal à .
On utilise pour cela une propriété de l'ellipse et de son cercle principal : la direction parallèle au diamètre conjugué du grand axe passant par un point de l'ellipse coupe le cercle principal en un point et le grand axe en un point , tels que . Cette propriété se conservant par projection on peut donc reconstituer l'ellipse projection du cercle principal point par point à partir de la trajectoire observée et de la direction conjuguée, i.e. la direction de la tangente à l'ellipse observée aux points et .
Le demi-grand axe de l'orbite vraie est donc finalement égal à .
La projection du plan de l'orbite sur le plan du ciel modifie les paramètres de l'orbite apparente. Si le centre de l'ellipse est conservé par projection (la projection du centre de l'ellipse est égale au centre de l'ellipse projeté), le foyer ne l'est point : le demi-grand axe apparent se distingue (sauf dans certains cas très particuliers) de la projection du demi-grand axe.
L'animation met ce phénomène en évidence : elle montre l'apparence de la projection dans le plan du ciel d'une orbite elliptique, pour différentes inclinaisons. Étonnamment, l'effet est moins marqué dans le cas d'une excentricité plus grande.
L'appliquette donne la position de Sirius B par rapport à Sirius A.
Difficulté : ☆☆ Temps : 30 min
En 1844, F.W. Bessel découvrit que Sirius présentait un mouvement propre, non linéaire, mais dont la modulation ressemblait à celle d'une étoile double visuelle. Il en conclut que le mouvement propre de Sirius était affecté par l'interaction gravitationnelle avec une seconde étoile de luminosité trop faible pour être observée. Ce compagnon fut observé pour la première fois en 1862 par A.G. Clark : cette étoile appelée Sirius B a une magnitude de 8.7 alors que celle de Sirius A vaut -1.4.
demi-grand axe | 7.24" | |
excentricité | 0.765 | |
distance entre les foyers | 11.08" |
Sirius A, à l'intersection des axes, est-il au foyer de l'ellipse apparente ? Quelle conséquence en tire-t-on pour le plan de l'orbite ?
[1 points]
Déterminer la valeur de la période (en années).
[1 points]
Déterminer graphiquement le grand axe de l'ellipse vraie (il contient le centre de l'ellipse projetée (le centre est conservé par projection) et bien sûr Sirius A). Déterminer les positions apparentes P et A du périastre et de l'apoastre et les dates qui leur correspondent.
[2 points]
Déterminer l'excentricité de l'orbite vraie.
[1 points]
Difficulté : ☆☆ Temps : 30 min
La figure trace le mouvement vrai de la composante Sirius B par rapport à Sirius A dans le plan orbital.
Etalonner la figure de l'appliquette, en tenant compte du fait que les portions de cercle centrés sur Sirius A sont espacés de 1 seconde d'angle, et définir le rapport d'unité permettant de lire directement des secondes d'angle sur la figure.
Estimer le demi-grand axe de l'orbite relative et la période.
La parallaxe du système vaut 0.379". En déduire la somme des masses des deux composantes (en unités de masse solaire).
Le mouvement de Sirius A par rapport au barycentre présente une demi-amplitude de 2.35" au cours d'une orbite (corrigée de la projection du plan orbital sur le plan du ciel). Comparer cette amplitude au mouvement relatif des 2 composantes, et en déduire la masse de chaque composante.
Quand l'orbite d'une étoile double est vue par la tranche ou sous un angle très petit, et que l'on a affaire à un couple relativement serré, chacune des étoiles s'interpose périodiquement entre l'observateur et l'autre composante. Un phénomène d'éclipse, ou plus exactement d'occultation, se produira donc pour l'observateur qui reçoit la lumière de la binaire sans pouvoir séparer les deux composantes stellaires. On détecte ainsi ces étoiles doubles par la variation périodique de la magnitude apparente du système.
Du fait que les deux composantes sont très proches, les binaires à éclipse sont aussi très souvent en même temps des binaires spectroscopiques. Dans ce cas, l'étude de la variation d'éclat permet de calculer le rapport des rayons, et l'étude du spectre, s'il est à doubles raies, donne la vitesse orbitale de chaque composante. On peut alors calculer le rayon des deux composantes, mais aussi leurs masses et la distance qui les sépare, sans faire aucune mesure de diamètre apparent.
La première binaire à éclipse qui a été observée est Algol ( Persei). Ses variations d'éclat sont connues depuis 1670 par les observations de Geminiano Montanari. La première étude systématique a été faite par John Goodricke en 1783. On connaît actuellement plus de 4000 systèmes de binaires à éclipse. Les périodes de ces systèmes sont en général courtes, variant de quelques heures à une dizaine de jours. La plus petite période actuellement mesurée est celle de WZ Sagittae (1h22min), et la plus longue est celle de Aurigae avec ses 9883 jours (27 ans).
Il est maintenant possible, avec les télescopes de la classe des 8 mètres, de mesurer les paramètres des binaires à éclipse extragalactiques, ce qui améliore la précision sur la mesure de la distance de ces galaxies.
Algol, dont le nom vient de l'arabe Al Guhl esprit changeant est l'étoile de la constellation de Persée ( Persei). Son comportement est connu depuis plusieurs siècles car ses variations d'éclat sont spectaculaires et particulièrement visibles à l'oeil nu.
Sa luminosité totale diminue en effet en quelques heures jusqu'au tiers de sa valeur habituelle, puis remonte pour rester quasiment stable pendant deux jours et demi. Puis le cycle recommence... Algol est un couple de binaires à éclipse, dont la plus brillante est de type spectral B (blanc bleuté), et la plus faible est de type K (jaune orangé).
Les observations de la courbe de lumière donne la magnitude totale du système en fonction du temps. La périodicité de la série temporelle est analysée, pour conduire à la courbe de lumière en fonction de la phase.
classes de binaires correspondent à des couples très serrées, présentant alors des périodes très courtes, bien plus rapides que le type Algol, telles les variables de type Beta Lyrae ou W Ursae Majoris. Ces dernières, moins massives, sont le plus souvent tellement proches l'une de l'autre qu'elles remplissent leur lobe de Roche, et échangent de la matière.
Les variations de la magnitude en fonction du temps donnent la courbe de lumière. L'étude de la forme de cette courbe permet en principe de reconstituer les paramètres de l'orbite. On notera cependant que ces couples d'étoiles étant serrés, la courbe de lumière peut parfois être déformée par les interactions entre les deux composantes : par exemple des effets de réflexion de lumière entre les deux étoiles ou des déformations des étoiles elles-mêmes qui, sous l'effet des forces de marées, ne sont plus sphériques.
L'occultation sera partielle ou totale selon les diamètres relatifs des étoiles et l'inclinaison du plan de l'orbite par rapport à la ligne de visée : il y a en effet éclipse (partielle ou totale) lorsque la distance entre les étoiles est telle que
où et sont les rayons de chaque étoile.
Dans le cas où , les deux éclipses sont centrales, l'une étant totale (quand la plus grosse passe devant la plus petite), l'autre étant annulaire. On remarquera par ailleurs que lorsqu'il y a éclipse totale les minima de la courbe de lumière montrent un plateau, qui correspond à la durée effective de totalité de l'éclipse ou de l'occultation.
On reconnaît que l'orbite est circulaire quand les deux éclipses se produisent exactement toutes les demi-périodes. Dans ce cas, il est alors possible de déterminer l'inclinaison et les rayons relatifs des étoiles .
L'animation ci-jointe montre l'évolution de la série temporelle à la phase orbitale, par balayage de la période. La période adéquate est celle qui assure une moindre dispersion des valeurs.
Les binaires de type Algol sont nettement séparées, alors que celles de type W Ursae Majoris sont très proches. Les membres d'un couple W Ursae Majoris présentent un profil déformé par le champ gravitationnel du compagnon ; la courbe de lumière présente des formes très arrondies.
Difficulté : ☆ Temps : 30 min
On observe un système binaire à éclipse dont les orbites sont circulaires. La courbe de lumière correspond à la figure ci-dessus. Soient et les rayons des deux étoiles, étant le rayon de la plus grosse. On notera la vitesse relative du mouvement orbital de la plus petite par rapport à la plus grosse.
Calculer et en fonction des dates , , et et de la vitesse relative des deux étoiles.
La période P du mouvement orbital est de 2 jours et 22 heures. La durée de chaque éclipse est par ailleurs de 18h00min, et la totalité dure 7h19min. En déduire le rapport des rayons .
La vitesse relative est de 200 km/s. Calculer , et la distance entre les deux étoiles.
Montrer que, d'après la figure, l'étoile la plus chaude est la plus petite.
Difficulté : ☆☆ Temps : 30 min
Cet exercice s'intéresse à mesurer la durée d'une éclipse dans un système stellaire binaire. Pour simplifier, on suppose l'orbite circulaire. Les observables sont : la période orbitale et la durée du transit .
Montrer que la durée d'un transit est inversement proportionnelle à la vitesse orbitale.
[1 points]
Montrer que la durée d'un transit varie comme .
[1 points]
Expliquer la dispersion des points sur la courbe jointe.
[1 points]
Pourquoi les planètes découvertes par CoRoT ont-elles des durées de transit légèrement inférieures ?
[1 points]
En supposant la brillance de chaque disque uniforme, dans les cas où l'éclipse est totale, la comparaison du maximum principal et du maximum secondaire de la courbe de lumière permet de déterminer le rapport des températures des deux étoiles.
Si est le rayon de la plus petite étoile, les deux minima se produisent lorsque la même aire est occultée. Lorsque l'aire occultée appartient à l'étoile la plus chaude, de température , la courbe de lumière passe par son minimum principal. De même, lorsque la surface occultée appartient à l'étoile la plus froide, de température , la courbe de lumière passe par son minimum secondaire. Ainsi, si est l'éclat apparent correspondant à la phase où les deux étoiles sont visibles simultanément et sans occultation, l'éclat du minimum principal et celui du minimum secondaire, on a :
d'où :
On mesure ainsi le rapport .
Lorsque le contraste en température est marqué, les minima des deux éclipses diffèrent sensiblement ; la baisse de flux est plus forte lorsque la composante chaude est occultée.
L'allure des minima apporte des renseignements comparatifs sur les 2 composantes. La première appliquette explicite les arguments permettant de comparer les tailles : lorsque la plus petite étoile du couple disparaît, le flux est uniformément bas.
La deuxième appliquette explicite les arguments permettant de comparer les températures : lorsque c'est l'étoile la plus chaude du couple qui disparaît, le minimum est plus profond.
Difficulté : ☆ Temps : 30 min
Une des composantes d'une binaire à éclipse a une température effective de 15000 K, l'autre de 5000 K. La plus froide est une géante de rayon 4 fois plus grand que celui de la plus chaude.
Quel est le rapport des luminosités des deux étoiles ?
Quelle est l'étoile éclipsée au minimum primaire ?
Le minimum principal correspond-il à une éclipse totale ou à une éclipse annulaire ?
Quel est le rapport de profondeur entre les minima ?
Difficulté : ☆ Temps : 30 min
On considère l'étoile double AR Lacertae, dont on a observé la courbe de lumière et les vitesses radiales des deux composantes. La période du système vaut 1.983 j.
Commenter la forme des deux minima. Les températures des 2 étoiles peuvent-elles être identiques ?
[3 points]
Justifier que l'inclinaison est proche de et que les orbites sont circulaires.
[3 points]
Représenter schématiquement les positions de l'étoile compagnon sur l'orbite relative en fonction des phases d'éclipse observées sur la courbe de lumière.
[2 points]
A l'aide de l'appliquette, estimer la durée de la phase de totalité, celle de l'éclipse principale dans son ensemble, ainsi que la profondeur (en magnitude) du minimum primaire.
[2 points]
Difficulté : ☆ Temps : 30 min
On se propose d'analyser la courbe de lumière de AR Lacertae pour en déduire les paramètres physiques des deux composantes : rayons, températures, éclats apparents et luminosités intrinsèques...
mesurant la séparation des deux étoiles, le rayon de la plus grosse, celui de la plus petite, déterminer et à partir de la figure.
[2 points]
Préciser laquelle des deux étoiles est la plus chaude.
[1 points]
Déterminer le rapport des luminosités des deux étoiles. Commenter.
[2 points]
L'étude spectroscopique de l'étoile 1 indique que son type spectral est K0 et sa classe de luminosité IV (sous-géante). Sa magnitude absolue peut donc être estimée à 3. Déterminer la luminosité de l'étoile 1 et celle de l'autre composante en unité solaire (la magnitude absolue visuelle du Soleil vaut 4.8).
[1 points]
Le premier système d'étoiles binaires spectroscopique fut découvert en 1889 par Antonia C. Maury, qui remarqua un dédoublement des raies dans le spectre de l'étoile Aurigae. Les positions de ces raies, en longueur d'onde, varient au cours du temps, témoins de la variation de la vitesse radiale de chaque composante, par suite de leur mouvement orbital relatif.
Les étoiles doubles spectroscopiques sont très nombreuses : on estime qu'en moyenne une étoile sur trois ou quatre est une double spectroscopique. Leurs périodes observées s'échelonnent entre quelques heures et quelques années. A partir de l'étude de la courbe de vitesse radiale, on peut calculer les paramètres définissant l'orbite elliptique d'une étoile par rapport à l'autre. Cette détermination se fait toutefois à l'effet de projection près, car on ne connaît pas a priori l'orientation du plan orbital dans l'espace. Actuellement, on connaît précisément les paramètres orbitaux pour environ un millier de ces objets.
La courbe de vitesse radiale de l'étoile double 55Uma, est construite à partir de la série temporelle des vitesses Doppler issues de mesures spectrométriques.
Le mouvement orbital, dans le cas où l'inclinaison de l'orbite sur le ciel n'est pas nulle, produit des variations périodiques de la vitesse radiale (vitesse projetée le long de la ligne de visée) des deux étoiles par rapport à l'observateur. L'effet Doppler-Fizeau induit des oscillations de la même période pour la longueur d'onde observée des raies émises à par le couple d'étoiles.
où est la vitesse radiale d'une des composantes et est la vitesse de la lumière.
On peut ainsi représenter la variation de la vitesse des deux composantes (ou d'une seule, si une seule est détectable) en fonction du temps. Selon la forme de l'orbite et son orientation dans l'espace, les caractéristiques de la courbe de vitesse radiale observée seront différentes. L'analyse de cette courbe permet de remonter aux paramètres du mouvement et aux masses des composantes.
L'appliquette ci-joint permet de retrouver la période du système double 57 Cyg.
La situation la plus simple est celle où l'orbite est circulaire et vue par la tranche, soit (le plan de l'orbite contient la ligne de visée). Les deux courbes de vitesse radiale sont alors des sinusoïdes qui oscillent en opposition de phase, autour de la vitesse de leur barycentre, avec une même période .
Chacune des étoiles A et B étant animée d'un mouvement circulaire et uniforme, de période autour de G, les vitesses et sont liées aux distances et par les relations :
Par définition du centre de masse : . On obtient alors le rapport des masses :
qui est donné par le rapport des amplitudes des deux courbes. D'autre part, d'après la troisième loi de Kepler, on a :
On obtient :
Si l'inclinaison est différente de , l'amplitude de la courbe de vitesse radiale est diminuée d'un facteur .
Dans les équations précédentes, est donc remplacé par (respectivement ).
Si l'orbite n'est pas circulaire mais elliptique avec une excentricité non nulle, les courbes de vitesse radiale ne sont pas sinusoïdales, bien que toujours en opposition de phase et avec un rapport d'amplitude égal au rapport des masses.
Difficulté : ☆ Temps : 5 min
Comment se révèle à l'observation une étoile double spectroscopique dans le cas où ?
Difficulté : ☆☆ Temps : 20 min
On cherche à analyse un spectre d'étoile spectroscopique double, enregistré avec une résolution dans le domaine visible de l'ordre de .
Quelle limitation cela impose-t-il sur les vitesses radiales que l'on peut effectivement mesurer ?
Observer des grandes vitesses orbitales favorise-t-il ou non les systèmes serrés ?
Difficulté : ☆ Temps : 10 min
Comment peut-on vérifier que l'hypothèse est vraie ou non ?
Quand l'inclinaison est inconnue, peut-on obtenir des limites inférieures ou supérieures pour les masses des deux composantes ?
Difficulté : ☆ Temps : 30 min
On considère l'étoile double AR Lacertae, dont on a observé les courbes des vitesses radiales des deux composantes. La période du système vaut 1.983 j.
Commenter les courbes. Que dire des caractéristiques du mouvement des deux étoiles ?
[1 points]
Quelle est la vitesse radiale du barycentre ?
[1 points]
Trouver le rapport des masses des deux composantes.
[1 points]
Trouver la séparation (en km) des deux composantes.
[1 points]
Déterminer la masse de chaque composante en unité solaire
[1 points]
Dans quel cas serait-il possible de calculer les rayons de chaque étoile ?
[1 points]
La découverte d'exoplanètes, planètes orbitant autour d'une étoile autre que le Soleil, a constitué l'un des principaux événements astronomiques de la fin du XXe siècle. Cette section aborde la quête des exoplanètes sous deux angles : les propriétés de ces exoplanètes, et les techniques instrumentales utilisées pour les détecter et les étudier.
Effet Doppler, mécanique du point.
Ces pages présentent une grande découverte des années 90, les planètes extrasolaires, et décrivent :
Ces méthodes sont basées sur l'observation des perturbations produites sur le mouvement de l'étoile par ses compagnons planétaires, ou sur la baisse du flux stellaire occulté par un compagnon. C'est à partir de ces perturbations que l'on est capable d'obtenir certaines des caractéristiques de la planète.
Les tentatives de détection de compagnons planétaires ont été nombreuses... dès le début du XXe siècle, par astrométrie, et non moins nombreuses furent les tentatives infructueuses. Une planète est par essence très peu massive par rapport à son étoile, et excessivement moins lumineuse...
Diverses détections ont été annoncées en 1988 puis démenties. Certaines ont été confirmées depuis (autour de Ceph, Eri)... En 1989, Latham et ses collègues identifièrent un compagnon d'environ dix fois la masse de Jupiter, autour de HD 114762. Mais ces auteurs évoquèrent alors la détection d'une naine brune et non d'une planète.
En 1992, trois planètes furent détectées sans ambiguïté par Wolszczan & Frail, autour du pulsar PSR 1257+12. Mais l'environnement d'un pulsar ne laisse guère espérer que des planètes brûlées par l'évolution de leur étoile.
En 1995, on retient la découverte de la première planète extrasolaire autour d'une étoile semblable à notre Soleil, par Michel Mayor et Didier Queloz, de l'Observatoire de Genève. Elle fut détectée à l'Observatoire de Haute-Provence, et immédiatement confirmée par Geoff Marcy et Paul Butler, des Universités de San Francisco et Berkeley, qui eux l'avaient observée à l'Observatoire Lick en Californie.
Ces mesures ont vraiment lancé l'un des grands sujets de l'astrophysique actuelle : la quête des exoplanètes. Depuis, plusieurs milliers de planètes ont été recensées. Ce nombre est en constante augmentation, les projets de recherche se multipliant, si bien que tenir un décompte précis est impossible.
La découverte de ces planètes apporte aux astrophysiciens des données permettant de mieux comprendre la formation des systèmes planétaires, avec d'autres exemples que notre système solaire.
Plusieurs dizaines de planètes ont été vues directement, mais la plupart des découvertes sont basées sur des détections indirectes, soit la détection de l'influence gravitationnelle de la planète sur l'étoile soit la baisse de luminosité de l'étoile due au passage de la planète sur sa ligne de visée.
A ce jour (2018), cinq méthodes ont permis de découvrir ou redécouvrir l'essentiel des exoplanètes :
Les méthodes de vitesse radiale et transit, les plus productives, sont décrites plus loin, ainsi que la méthode par astrométrie.
Les exoplanètes sont un sujet à la mode, pour les raisons que l'on devine aisément. Désolé si ces pages n'annoncent pas en temps réel les dernières découvertes !
L'histogramme des masses montre que la très grande majorité des planètes découvertes sont des planètes géantes. Cela n'est pas dû au caractère unique de la présence de planètes telluriques dans notre système solaire, mais au fait que les méthodes de détection favorisent les fortes masses planétaires.
La limite à 13 fois la masse de Jupiter est une limite physique : au-delà, l'objet commence à brûler son deutérium, c'est alors une naine brune.
Stricto sensu, les masses ici considérées sont affectées d'un facteur de projection inconnu, égal au sinus de l'angle entre la normale au plan orbital et l'axe de visée. On parle non de masse , mais de .
L'histogramme des demi-grands axes montre qu'ont préférentiellement été découvertes des planètes orbitant très près de leur étoile, bien plus près que Mercure dans le cas du système solaire. Là encore, ce sont les méthodes de détection et la 3ème loi de Kepler qui favorisent cette situation. Une nouvelle classe d'objets a été mise en évidence : les planètes géantes chaudes.
L'histogramme des périodes orbitales aboutit à la même analyse.
L'histogramme des excentricités orbitales dévoile une très grande variabilité de ce paramètre. Contrairement au cas du système solaire, où les planètes présentent des excentricités quasi nulles, les exoplanètes peuvent suivre des orbites très excentrées. Et contrairement aux effets précédents, ceci est un phénomène réel et non un biais observationnel, qui dénote une grande variété dans la formation et l'évolution des systèmes planétaires.
L'histogramme de la métallicité de l'étoile hôte montre qu'une metallicité solaire favorise la présence d'une planète autour d'une étoile.
À ce jour, un grand nombre de systèmes planétaires ont été identifiés, présentant des caractéristiques différentes de notre système solaire. Les planètes les moins massives sont détectées par les perturbations qu'elles exercent sur les plus massives.
Considérons un système binaire constitué d'une étoile et d'une planète. Chacun des objets décrit une orbite elliptique dont le foyer est le centre de masse du système.
Les raies spectrales stellaires qui nous parviennent (à travers un spectromètre) sont en conséquence tantôt décalées vers le bleu (longueur d'onde plus courte), tantôt vers le rouge (longueur d'onde plus grande), par effet Doppler.
Pour toute la suite :
On suppose que, d'après les modèles stellaires, la mesure du spectre de l'étoile permet d'estimer sa masse . Mais une variable reste inconnue : l'inclinaison sous laquelle on voit le système orbital. Les principales caractéristiques de l'orbite de la planète peuvent être déduites de la mesure de décalage Doppler.
L'analyse du spectre de l'étoile modulé par effet Doppler fournit le graphe de la vitesse radiale de l'étoile en fonction du temps, . Ce type d'observation spectrométrique fournit deux observables :
Ces observables sont des caractéristiques liées à l'orbite du système. On ne sait toujours rien sur la planète elle-même. La loi de Kepler appliquée au couple planète-étoile relie le rayon de l'orbite à la période de rotation :
En utilisant la loi de conservation de la quantité de mouvement (le système est isolé), on peut accéder à la masse de la planète :
où est la masse de la planète affectée du facteur géométrique , inconnu. Le calcul complet est proposé en exercice.
Statistiquement, la probabilité d'avoir une inclinaison dépend de l'ouverture du cône de demi-angle au sommet : elle vaut . La probabilité de voir un système de face (i=0) est bien moindre que celle de le voir par la tranche (i=π/2). En effet, il y a une seule direction qui pointe de l'étoile vers la Terre, donc confondue avec l'axe de visée, mais une infinité qui lui sont perpendiculaires.
En moyenne, le paramètre vaut ; ce calcul est proposé en exercice.
Animation des mouvements orbitaux planétaires et stellaires, et signature spectrale due à la vitesse radiale de l'étoile.
Difficulté : ☆☆ Temps : 20 min
On s'intéresse à la distribution du facteur multiplicatif qui intervient dans la détermination de la masse .
Rappeler la définition de l'angle .
Statistiquement, trouve-t-on plus de systèmes avec ou bien ?
Montrer, en faisant un schéma, que la probabilité de voir un système sous une inclinaison est proportionnelle à .
Calculer la valeur moyenne de .
Difficulté : ☆☆ Temps : 45 min
Cette technique permet la détection de planètes, via la perturbation en vitesse (vitesse réflexe) qu'elles induisent sur leur étoile.
On observe un système constitué d'une planète de masse , en orbite circulaire autour d'une étoile de masse . La composante de vitesse de l'étoile , parallèle à l'axe de visée, ainsi que la période de rotation du système découlent de l'observation. La masse de l'étoile est supposée connue.
Définir la position du barycentre du système étoile-planète.
Montrer que, dans le référentiel barycentrique, les vitesses de l'étoile et de la planète satisfont à la relation :
Donner la relation liant au module de la vitesse de l'étoile et à l'angle entre l'axe de visée et la normale au plan de rotation du système. Faire un schéma.
Exprimer la 3ème loi de Kepler en fonction des variables et , puis montrer que la masse de la planète s'exprime en fonction des observables et par :
Quelle information inédite apporte cette relation?
Substituer à l'observable la variable , et montrer que l'on aboutit à l'égalité suivante entre les variables et :
La mesure de ce décalage spectral est traduite en une vitesse. Ce décalage, apparaissant comme un phénomène périodique et d'amplitude bien inférieure à ce que l'on attendrait d'une perturbation due à un compagnon stellaire, s'interprète comme la signature d'une perturbation due à la présence de la planète autour de l'étoile.
Lorsque l'orbite de la planète est quasi-circulaire, le graphe de la vitesse a la forme d'une sinusoïde. L'excentricité de l'orbite a pour effet de déformer cette sinusoïde.
Lorsque l'étoile réagit à plusieurs compagnons planétaires, la complexité de la courbe de vitesse radiale s'accroît.
Dans certain cas, comme pour le système observé autour de HD 82943, on observe une résonance, avec pour ce système des périodes orbitales planétaires dans un rapport 1:2.
La méthode des vitesses radiales ne permet d'obtenir qu'une limite inférieure de la masse des planètes, , car l'angle sous lequel le système est observé, , reste en général inconnu. Cela a bien sûr été un obstacle à l'interprétation du premier cas qui annonçait la découverte d'une d'exoplanète. Cependant, une centaine d'objets avec une masse les rangeant dans la catégorie des planètes ont été détectés, et, statistiquement, la masse réelle de la plupart d'entre eux est bien une masse planétaire. Cette méthode est biaisée, car elle favorise la détection des planètes massives et relativement proches de leur étoile. En effet :
Il est commode de réécrire sous la forme :
où et sont, respectivement, les masses de Jupiter et du Soleil.
On rappelle, qu'avec les mêmes unités :
où est exprimé en unité astronomique.
La limite de détection des instruments utilisés actuellement est de l'ordre de . Cela ne signifie qu'une planète similaire à la Terre autour d'une étoile de type solaire induisant une modulation de vitesse reste largement indétectable.
Néanmoins, il ne suffit pas que la vitesse réflexe de l'étoile soit supérieure à cette limite pour détecter une planète. En effet, une planète de masse égale à la masse de Jupiter va induire un effet Doppler de cet ordre pour une distance étoile-planète de UA. Cependant, la période de révolution d'une telle planète est de 1000 ans, et il est donc exclu de l'observer ! Notons que la même planète située à la distance de Jupiter entraîne , ce qui est largement observable.
Les mesures de vitesses radiales pour la recherche de planètes extrasolaires sont menées systématiquement depuis 1995. Ceci limite la détection aux planètes de période orbitale inférieure à 15 ans en 2010, 30 ans en 2025...
Jusqu'à ce jour, la plupart des planètes extrasolaires détectées l'ont été par cette méthode. Un exercice traite de cette limite de détection.
Difficulté : ☆☆☆ Temps : 45 min
Un exercice précédent a montré que la vitesse réflexe de l'étoile dépend de la masse et de l'orbite de la planète via la relation :
Un graphe ( - rayon orbital ) est utile afin de déterminer quel type de planète est détectable par vélocimétrie Doppler. La masse de l'étoile étant de l'ordre d'une masse solaire, le champ de planètes détectables dépend essentiellement de la sensibilité des instruments de recherche.
objet | masse (kg) |
---|---|
Soleil | |
Jupiter | |
la Terre | |
1 UA | km |
Les mesures en 2000 atteignaient une précision en vitesse de l'ordre de . En déduire la relation numérique entre les variables et correspondant à la limite de détection, et pour une étoile d'une masse solaire. Exprimer le résultat en UA et .
[3 points]
Reporter la relation trouvée sur le diagramme masse-distance, avec comme unités la masse de Jupiter pour , et l'unité astronomique pour . Quelles planètes de notre système solaire sont détectables au vu de cette ancienne performance de ) ?
[3 points]
Même question, si l'on parvient à détecter des amplitudes en vitesse de .
[1 points]
Montrer que Saturne, de période orbitale sidérale de l'ordre de 30 ans, ne pourrait tout de même pas être détecté avant l'année 2025.
[1 points]
Montrer que cette technique d'observation comporte un biais, car elle favorise la détection de planète ayant des paramètres orbitaux particuliers.
[1 points]
Le passage répété d'une planète devant son étoile provoque une diminution périodique de la luminosité de l'étoile. La forme de la figure de transit dépend du diamètre relatif de la planète par rapport à celui de l'étoile, de l'inclinaison du système par rapport à la ligne de visée, de l'épaisseur et de la composition de l'éventuelle atmosphère de la planète.
On retire des observations : la période orbitale, le demi-grand axe, et surtout l'inclinaison de l'orbite (voisine de 90°). Cette dernière n'est pas mesurable par la méthode des vitesses radiales.
Potentiellement, la comparaison des mesures spectroscopiques de l'étoile avant et pendant le transit peut donner accès à la composition de l'atmosphère planétaire.
Le transit de l'étoile HD 209458 a conduit à la détection d'une atmosphère planétaire étendue, qui explique l'allure de la courbe d'occultation dans la raie Lyman alpha de l'hydrogène.
Le passage récurrent d'une planète devant son étoile parente provoque une diminution périodique du flux reçu de l'étoile si le système est observé sous un angle adéquat, i.e. si la planète traverse la ligne de visée de l'observateur.
La diminution relative du flux émis par l'étoile dans la direction de l'observateur lors du transit de la planète est :
où est le rayon de la planète et celui de l'étoile. On suppose ici que le flux était uniforme à la surface de l'étoile (le détail du calcul est traité en exercice).
Les systèmes les plus facilement détectables, avec une planète de type Jupiter chaud, ont un rayon de l'ordre de 10 à 20% du rayon stellaire d'une étoile froide de la séquence principale. Ils induisent des baisses de flux de l'ordre de quelques pourcents.
La variation relative de flux pour un système de type Soleil-Jupiter est de 1%, et de pour un système tel que Soleil-Terre.
L'intérêt d'observer le transit d'une planète déjà détectée par la méthode des vitesses radiales est qu'on peut ainsi déterminer sa masse réelle. En effet, un transit ne se produit que si la ligne de visée de l'observateur est à peu près dans le plan orbital du système, i.e. pour . La masse est donc dans ce cas égale à la masse réelle . Le transit permet également de déterminer le rayon de la planète, le rayon de l'étoile étant estimé par une autre méthode.
Une information essentielle pourra également être apportée par cette méthode : la présence ou non d'une atmosphère autour de la planète, reliée à la pente de l'extinction du flux, progressive en présence d'une atmosphère. Cette détection est extrêmement importante, car on peut connaître la composition de cette atmosphère en comparant les mesures spectroscopiques de l'étoile avant et pendant le transit. Il est en principe possible de rechercher des signes d'activités exobiologiques en détectant des composants gazeux dont l'abondance est un indice de la présence d'organismes vivants... mais hors de portée des moyens actuels.
Animation reliant la courbe de lumière à l'évolution temporelle de la géométrie du système. L'inclinaison du plan orbital planétaire est un paramètre crucial. La signature photométrique diffère selon que l'inclinaison est très proche ou voisine de 90 degrés, ou trop éloignée.
Difficulté : ☆ Temps : 20 min
HD 209458 est une des nombreuses étoiles hébergeant une exoplanète. On cherche à caractériser le transit de cette dernière. Les notations sont les mêmes que celles des pages précédentes.
Retrouver l'expression de la diminution relative de luminosité :
On suppose le flux (équivalent à une luminosité, ou puissance, surfacique) stellaire uniforme :
.
Calculer le rayon de la planète HD 209458b, au vu des mesures reportées ci-dessous.
Masse de l'étoile | 1.03 | |
Rayon de l'étoile | 1.2 | |
Rayon de Jupiter | 0.1 | |
Rayon de Jupiter | ||
Masse de Jupiter | ||
Variation relative du flux | 1.58% |
Calculer la masse volumique de l'exoplanète, sachant que sa masse vaut . Quelle remarque vous inspire ce résultat ?
La probabilité de détection d'une planète étant faible, un programme de détection par transits doit nécessairement suivre simultanément un grand nombre de cibles, ce que permet la photométrie.
Un transit seul n'apporte pas d'information, et peut être confondu avec un événement non planétaire. Les séquences d'observation de CoRoT durent 5 mois, et la répétition de trois événements est attendue.
Distinguer un transit planétaire des multiples autres sources possibles de variation du flux stellaire n'est pas toujours simple. Les planètes les moins massives détectées, par transit et donc sans l'ambiguïté du facteur de projection , ont été observées par le satellite CoRoT puis Kepler.
La méthode de détection par transit n'est opérante que s'il y a ... transit. Pour qu'un transit ait lieu, il faut que la planète traverse la ligne de visée de l'observateur. La probabilité d'un tel événement vaut , étant le rayon stellaire, et le demi-grand axe de l'orbite planétaire. Ce résultat est démontré par un calcul complet en exercice ; un schéma permet de retrouver rapidement le résultat.
Si le rayon stellaire est égal au rayon solaire, alors la probabilité de détecter un transit vaut pour , c'est-à-dire pour les planètes détectées à ce jour qui sont sur les orbites les plus serrées. Cette probabilité décroît avec l'augmentation du demi-grand axe.
Le deuxième facteur limitant est photométrique. En effet, depuis le sol il est difficile d'obtenir une précision photométrique meilleure que 1 % (c'est-à-dire ) en raison de l'agitation atmosphérique. Les observations depuis l'espace, en revanche, permettent d'atteindre une précision aussi bonne que , et donc de détecter des planètes de type tellurique.
Il s'ensuit que, pour être efficace, les projets de détection d'exoplanètes par transit doivent observer un très grand nombre de cibles, avec la meilleure précision photométrique possible. De plus, pour éviter tout effet stroboscopique, il faut observer continûment. L'espace est l'endroit idéal pour ceci, comme l’ont démontré les mission CoRoT et Kepler.
Plusieurs artefacts observationnels peuvent imiter la signature d'un transit planétaire. Les plus courants sont l'observation d'un système stellaire double, ou d'une binaire à éclipses présente dans le champ d'observation de l'étoile principale. Dans ces deux cas, la baisse de flux peut être faible et confondue avec celle d'une hypothétique planète. Une vérification a posteriori s'impose pour déterminer les éventuels faux positifs, menée le plus souvent en vélocimétrie Doppler, et parfois par imagerie en optique adaptative.
Difficulté : ☆☆ Temps : 30 min
Avant les missions spatiales CoRoT et Kepler, peu de transits avaient été observés ; leur nombre a ensuite explosé. L'exercice se propose de déterminer la probabilité d'un tel événement, fonction du rayon de l'étoile et du rayon orbital de la planète , et d'établir .
L'angle de visée est défini comme l'angle entre la normale au plan de révolution de l'orbite et la ligne de visée. Exprimer l'angle maximum pour lequel une éclipse peut être observée, en fonction de et , en supposant le rayon planétaire négligeable.
En vous aidant des propriétés de symétrie du système, déterminer de quelle(s) variable(s) dépend .
La probabilité de détecter un transit est égale à la probabilité que la ligne de visée ne se trouve pas dans le demi-cône d'axe perpendiculaire au plan de l'orbite et de demi-angle au sommet . Calculer la mesure de l'angle solide d'un hémisphère et d'un cône de demi-angle au sommet .
Exprimer en fonction de et .
Application numérique pour le cas l'exoplanète 51 Peg.
Données : km, et .
Il est possible de détecter le mouvement de l'étoile perpendiculairement à la ligne de visée, c'est-à-dire sur la sphère céleste, et d'en déduire les caractéristiques de la planète et de son orbite.
L'astrométrie s'intéresse à la position des astres sur la sphère céleste. Cette technique peut être sensible à la modulation de la position d'une étoile légèrement perturbée par la présence d'une planète.
Il est possible de détecter le mouvement de l'étoile perpendiculairement à la ligne de visée, c'est-à-dire sur la sphère céleste, et d'en déduire les caractéristiques de la planète et de son orbite.
On se limite au cas d'une orbite circulaire, mais bien sûr cette méthode s'applique aussi à la détection de planètes sur des orbites elliptiques. Le mouvement de l'étoile projeté sur le plan du ciel, c'est-à-dire sur le plan perpendiculaire à la ligne de visée, est une ellipse de demi-grand axe . Comme la distance à l'étoile est grande devant , la déviation angulaire correspondante est , ou encore :
avec exprimé seconde d'arc, le rayon de l'orbite de la planète (en UA) et la distance Soleil-étoile. La masse de l'étoile et sa distance à la Terre étant connues par ailleurs, on peut déduire de la périodicité du mouvement, et donc la masse de la planète de la mesure de .
En pratique, la variation de la position d'un astre sur la sphère céleste n'est pas mesurée de façon absolue, mais différentiellement par rapport à un objet du champ, angulairement proche mais très lointain en distance, dont la position reste fixe.
Les mesures faites à l'heure actuelle depuis le sol ont une précision d'une milliseconde d'arc (mas), et devraient atteindre 10 dans le futur proche sur des champs d'observation réduits. Il ne sera donc pas possible de détecter des planètes semblables à la Terre, orbitant dans des zones habitables (i.e. UA), puisque les étoiles observées sont à une distance d'au moins quelque parsecs de la Terre. L'astrométrie est plus adaptée à la détection de planètes géantes et de rayon orbital grand.
Difficulté : ☆ Temps : 30 min
Un astronome extraterrestre regarde notre système solaire à une distance de 10 AL de notre Soleil. On souhaite dimensionner le télescope dont il aurait besoin pour distinguer Jupiter autour du Soleil.
On suppose le pouvoir de résolution de l'appareil limité par la seule diffraction : la tache de diffraction vaut angulairement radian, où est le diamètre du télescope.
Pour la suite, on prendra .
Déterminer la distance angulaire maximale entre le soleil et Jupiter .
Déterminer , le diamètre minimum du collecteur nécessaire.
Cela est-il suffisant?
Difficulté : ☆☆ Temps : 40 min
Le mouvement apparent d'une étoile voisine du soleil, corrigé de la parallaxe annuelle, est a priori rectiligne uniforme en l'absence de perturbation. On cherche à quantifier l'influence d'un compagnon planétaire.
On observe un système binaire composé d'une étoile de masse et d'une planète de masse ( avec ) de rayon orbital .
Justifier le caractère rectiligne et uniforme du mouvement stellaire, en l'absence de compagnon.
Exprimer l'amplitude de la perturbation angulaire maximale de la position de l'étoile, située à une distance du Soleil.
Retrouver l'expression :
A quelle distance se situe l'étoile si sa parallaxe annuelle vaut 0.1" ?
Quelles planètes du système solaire, supposé vu à 10 pc, pourrait-on détecter, si l'on est capable de mesurer des variations de position à 0.01" ou 0.001" près ?
Compléter le diagramme ci-joint, positionnant les objets en fonction de leur masse et de leur demi-grand axe , en définissant la frontière qui marque la limite de détectabilité (rappel ).
A terme, on imagine être capable de mesurer des écarts de position avec une précision de l'ordre de 50 millionièmes de seconde d'arc. En déduire le domaine observable dans le diagramme , pour un système à 10 pc et .
Quelles planètes du système solaire deviennent ainsi détectables ?
Alors que les méthodes de détection par transit et vélocimétrie Doppler donnent de plus en plus de résultats, plusieurs objets ont été détectés en imagerie directe. Cette population comprend des planètes flottantes ou des naines brunes sans qu'il soit facile/possible de faire la différence.
Un des premier objets décourts est GQ Lupi b qui orbite autour de l'étoile QG Lupi A. A une distance d'environ 100 UA, 270 fois moins brillant que GQ Lupi A, GQ Lupi b a une masse entre une et 30 fois la masse du Jupiter. Ni les observations, ni leur modélisation ne permettent de conclure à l'heure actuelle sur la nature exacte de cet objet.
L'examen des différentes méthodes de détection montre qu'elles ne donnent pas accès aux mêmes observables, et qu'elles ne subissent pas les mêmes biais observationnels. Ces différentes méthodes (et il y en a d'autres) sont donc complémentaires : le sujet astrophysique est d'ailleurs suffisamment important pour motiver de nombreux projets observationnels, au sol ou spatiaux.
La méthode des vitesses radiales favorise la détection des planètes massives et proches de l'étoile, alors que l'astrométrie favorise les planètes massives et de grands rayons orbitaux. Là encore, les méthodes apparaissent complémentaires.
L'existence de spectromètres performants et stables a favorisé jusqu'à ce jour la détection par vitesse radiale. L'accroissement du nombre de projets de recherche par transit fait augmenter le nombre de telles détections.
Méthode | Planètes | Systèmes planétaires |
---|---|---|
Vitesse radiale | 771 | 574 |
Transit | 2847 | 2127 |
Microlentille | 82 | 79 |
Imagerie | 100 | 82 |
Chronométrage | 29 | 23 |
Difficulté : ☆ Temps : 30 min
Distinguer les différentes techniques en fonction de leurs biais respectifs portant sur 1) la masse de la planète 2) son demi-grand axe 3) l'inclinaison orbitale.
[3 points]
Quelle technique est à votre avis la plus facilement spatialisable ?
[1 points]
L'étude des exoplanètes, champ de l'astrophysique en pleine effervescence, appartient de plain-pied à ces domaines scientifiques qui éveillent en chacun un intérêt qui n'est pas que purement scientifique.
De nombreux grands projets sont développés pour mieux détecter ou, plus difficile, voir directement les exoplanètes (ce qui demande alors d'éteindre la lumière stellaire avec une excellente efficacité, et motive des projets instrumentaux alliant interférométrie et coronographie).
Deux grands projets spatiaux ont apporté une moisson importante d'observations par transits. Le suivi au sol des candidats exoplanétaires doit se poursuivre avec des observations au sol pour vérifier qu'il s'agit bien de planètes vues en transit et non d'autres objets.
Différents observatoires ont mené des campagnes intensives de recherche d'exoplanètes par vitesse radiale :
Lister tous les projets en cours et oeuvrant prochainement est une tâche ardue tant la discipline progresse rapidement. On note :
Une technique prometteuse pour l'observation directe d'une planète est l'interférométrie annulante, où l'étoile est éteinte par interférométrie (ou là) destructive, quand la planète apparaît en revanche en opposition de phase.
Les pages précédentes ont essentiellement traité du problème à 2 corps, lorsque l'on peut s'intéresser à 2 objets en interaction gravitationnelle et négliger d'une part tout le reste de l'Univers, d'autre part la structure interne de ces objets en les considérant comme 2 points matériels.
Ce sous-chapitre présente différents cas où les hypothèses précédentes ne peuvent plus s'appliquer.
Le phénomène des marées est abordé dans le cadre très simplifié d'un modèle statique. Ce modèle, incapable de prédire l'heure et la hauteur d'une marée dans votre port préféré, est néanmoins en mesure de dévoiler le principe du phénomène.
Deux situations sont abordées :
Il est important de comprendre que le champ de marée est un champ différentiel, qui agit sur la structure d'un corps non ponctuel.
Pour en savoir plus : voir le site du SHOM (Service Hydrographique et Océanographique de la Marine), qui propose par exemple un modèle de calcul de marée.
L'examen des horaires de marée montre une nette corrélation entre l'orbite de la Lune et la marée. Ceci apparaît sur la figure ci-jointe, qui montre comment évoluent les horaires des marées hautes et basses, en fonction des levers et couchers de la Lune. Le phasage précis des marées avec la Lune est complexe, comme le montre la suite.
Le coefficient de marée, qui sur une échelle relative de 20 à 120, mesure l'amplitude de la marée, apparaît également corrélé à la Lune, à ses phases en fait.
Dans l'approche statique, développée plus loin, on ne s'intéresse pas à la dynamique de l'écoulement des eaux océaniques, mais seulement au champ de force qui crée la marée.
L'approche statique met en évidence le rôle joué par la Lune sur le champ de marée, et explique la périodicité des marées (de l'ordre de 12h25min).
Si l'approche statique permet de comprendre le phénomène des marées, elle est notoirement insuffisante pour calculer la hauteur de marée en un lieu donné. Un tel calcul nécessite :
On définit usuellement des coefficients de marée, sur une échelle de 20 (marée minimale, dite de morte-eau, d'amplitude 1.22 m à Brest) à 120 (marée maximale, dite de vive-eau, d'amplitude 7.32 m à Brest). L'approche statique permet de comprendre que :
En revanche, le phasage entre les courbes de marée et la course lunaire n'est pas direct. Ce n'est pas étonnant : la mise en mouvement des masses océaniques n'est pas immédiate, et ces dernières ne peuvent pas suivre instantanément, c'est à dire sans déphasage, la phase de l'excitation. On peut aussi noter qu'à la résonance, un système excité n'est pas en phase avec l'excitateur, mais en quadrature.
Les plus fortes marées sont observées aux équinoxes. Deux raisons à cela :
Les phénomènes de marée ont été étudiés depuis l'Antiquité (en particulier par les Grecs et les Romains). Dès 350 avant notre ère, Aristote attribuait les marées à la Lune et au Soleil, ceux-ci attirant l'eau des mers. Pline l'Ancien énonce au 1er siècle dans son Histoire Naturelle : "Sur la nature des eaux, enfin, beaucoup a déjà été dit; mais cette avance et le retrait des flots sont les plus extraordinaires; cependant si ce phénomène offre beaucoup de variété, sa cause réside dans le Soleil et dans la Lune". Il observe les deux marées par jour : "Entre deux levers de la Lune, la mer monte deux fois et redescend deux fois dans chaque intervalle de 24 heures" puis il remarque que "Jamais les marées ne se reproduisent au même moment que le jour précédent, comme si elles haletaient par la faute de l'astre avide qui attire à lui les mers pour s'abreuver".
Il décrit également fort bien le décalage de temps entre les pleines mers et le passage au méridien de la Lune "les phénomènes célestes faisant toujours sentir leurs effets à la Terre avec du retard sur la vue, comme l'éclair, le tonnerre ou la foudre", il décrit la corrélation entre les marées de vives-eaux et les syzygies et entre les marées de mortes-eaux et les quadratures "Au moment de la conjonction, elles égalent les marées de pleine Lune".
Si les faits observationnels semblaient clairs, le mécanisme moteur des marée a dû attendre Newton pour commencer à être dévoilé. Auparavant, c'est plutôt le principe de sympathie qui prévaut : l'eau de la Lune (!) attire l'eau de la Terre.
Galilée propose un modèle en analogie avec un pendule. Descartes (1596 - 1650) apporte une explication cohérente, qui relie les astres par de la matière et les fait se déplacer par des tourbillons. La Lune comprime la matière du ciel, qui écrase l'eau.
La gravitation universelle de Newton permet d'obtenir les bases de la théorie des marées terrestres : les marées sont dues à la différence d'attraction du champ gravitationnel de la Lune entre deux points du globe terrestre.
En ayant remarqué qu'une flaque d'eau ne subit pas de marée, serait-elle aussi grande que le Lac Léman, on s'intéressera à la marée à l'échelle planétaire, en allant jusqu'à supposer la présence d'un océan global couvrant uniformément toute la Terre. Une description plus précise des marées en un lieu donné du globe nécessite un cadre plus précis. Selon le lieu, les phénomènes de marée peuvent présenter des aspects fort différents, non abordés dans ce cours : la topographie des lieux, associée au phénomène de résonance, permet de comprendre les grandes marées rencontrées p.ex. dans la baie du Mont-Saint-Michel.
Du fait de sa masse, la Lune crée un champ gravitationnel dont l'intensité est d'autant plus faible que la distance à la Lune est grande. L'action de ce champ en chaque point de la Terre crée une force dirigée vers le centre de gravité de la Lune.
Pour comprendre l'action du champ gravitationnel de la Lune sur la Terre, on se place dans un référentiel quasi géocentrique, mais tournant avec la Lune.
Dans le référentiel terrestre, le centre de la Terre est au repos, les bourrelets de marée sont fixes, en permanence pointés vers la Lune. Sous ces bourrelets fixes, la Terre défile. Elle tourne en 24h50, soit la période synodique de la Lune. Autrement dit, dans le référentiel terrestre, on voit passer 2 marées hautes par 24h50.
Le champ de marée en un point du globe évolue en fonction de la phase de la Lune et de la rotation terrestre.
Dans un modèle dynamique, plus réaliste, il y a un décalage entre la position de la Lune et la marée.
Difficulté : ☆☆ Temps : 30 min
Le but de cet exercice est de calculer la période des marées sur Terre.
La période de révolution de la Lune autour de la Terre dépend du référentiel de l'observateur. C'est pourquoi on définit une période de révolution sidérale, et une période de révolution synodique, . La première, vue des étoiles, est la durée mise par la Lune pour faire un tour complet autour de la Terre (). La deuxième, vue de la Terre, est la durée entre deux pleines lunes.
La marée haute est en permanence dirigée vers la Lune.
D'où provient la différence entre les deux périodes ? Expliquez avec un schéma.
[2 points]
Connaissant , calculer .
[2 points]
Pourquoi est-il utile de connaître la période de rotation propre de la Terre vue depuis la Lune ? On appellera cette période.
[1 points]
Calculer .
[1 points]
Quelle est la périodicité des marées hautes?
[2 points]
Difficulté : ☆ Temps : 20 min
Le tableau ci-joint fournit les horaires et coefficients des marées sur 1 mois.
Déterminer à l'aide du graphe la période des marées.
[2 points]
Pourquoi certains jours n'y a-t-il qu'une seule marée haute ou qu'une seule marée basse ?
[2 points]
Les animations, dans le cadre d'une théorie statique de la marée et du modèle de l'océan global, montrent comment les bourrelets de la marée suivent la course de la Lune autour de la Terre.
L'approche statique suppose que les masses océaniques réagissent instantanément au champ de marée, ce qui n'est pas vrai, comme cela apparaît sur les prévisions. Les conditions géographiques locales entraînent un horaire des marées également local.
La Terre n'est pas un point, mais a une dimension finie. Or l'intensité du champ gravitationnel de la Lune varie comme l'inverse du carré de la distance à la Lune. Il en résulte une attraction différentielle qui déforme la Terre. On peut estimer la valeur du champ de marée dans le cadre du modèle de l'océan global. On démontre que le module de est de l'ordre de
Calcul du champ de marée. On estime la marée créée par la Lune en un point courant du globe terrestre, que l'on repère par rapport au centre de la Terre. On note la distance , et le rayon terrestre. La composante du champ de marée en représente la différence du champ lunaire entre les points et . Les calculs sont menés au 1er ordre par rapport au petit terme (car ) :
On estime alors le terme de l'équation précédente, en injectant la relation de Chasles , et toujours au premier ordre en :
On trouve alors pour le champ de marée , en introduisant les vecteurs unitaires et tels que et :
On peut comparer les modules des champs de marée et gravitationnel :
Il ressort de cette analyse que l'effet de marée :
Difficulté : ☆☆ Temps : 30 min
On exprime l'ordre de grandeur du module du champ de marée de la Lune sur la Terre de la façon suivante :
avec le rayon de la Terre, , la distance Terre-Lune (), et la masse de la Lune.
Dans le modèle de l'océan global, caractérisé par une distance mesurant l'étendue d'eau, la hauteur de la marée est de l'ordre de 1 m.
En supposant que est, comme le champ de marée, une fonction linéaire de , estimer la hauteur de marée dans les cas suivants :
En déduire pourquoi il n'y a pas de marée dans une flaque d'eau, ni même dans un grand lac.
[2 points]
On souhaite retrouver l'expression du champ de marée de la Lune sur la Terre.
[3 points]
Le Soleil, la Terre et la Lune sont en quadrature quand les axes Lune-Terre et Terre-Soleil sont perpendiculaires. Les effets conjugués de la Lune et du Soleil s'opposent.
Le Soleil, la Terre et la Lune, en conjonction, sont alignés. Les champs de marée de la Lune et du Soleil s'ajoutent.
Dans les 2 cas, la marée due à la Lune reste plus forte que celle due au Soleil (voir exercice ci-dessous).
Il faut aussi garder en tête le décalage entre la position de la Lune et la marée dû aux forces de frottement dans la planète et les océans en particulier.
On a pu remarquer que les champs de marée sont proportionnelles à la masse de l'astre perturbateur d'une part, et inversement proportionnelles au cube de la distance avec l'astre perturbateur.
Il s'ensuit que la Terre est soumise principalement au champ gravitationnel de la Lune. Bien que plus massif, le Soleil a une influence moindre sur les eaux de nos océans!
Toutefois, le Soleil n'a pas une influence nulle sur les marées. Pour certaines configurations, les champs de marée du Soleil et de la Lune s'ajoutent (marées de vive-eau), et pour d'autres, se retranchent (marées de morte-eau).
Le champ de marée en un point du globe évolue en fonction de la phase de la Lune et de la rotation terrestre.
Difficulté : ☆ Temps : 15 min
On se propose de calculer l'influence relative du Soleil sur les marées par rapport à celle de la Lune.
Exprimer les valeurs des champs de marées de la Lune sur la Terre et du Soleil sur la Terre
[1 points]
Ecrire, puis calculer le rapport des champs. Pour les applications numériques, on prendra les valeurs du tableau ci-joint :
Objet | masse (kg) | distance (km) |
---|---|---|
la Terre | ||
Lune | ||
Soleil |
[1 points]
Un corps non ponctuel dans un champ gravitationnel va ressentir le gradient de ce champ. Proche de l'objet massif créant ce champ, ce gradient devient suffisamment grand pour écarteler tout objet étendu qui s'y aventure.
Cet effet, dit effet de marée, rend compte des anneaux planétaires, de la rupture d'objets cométaires...
Io, satellite de Jupiter, possède pratiquement les mêmes masse, diamètre et rayon orbital que la Lune. Sa surface est couverte de volcans (actifs et inactifs) et de lacs de lave. L'activité volcanique est telle que les dépôts volcaniques s'accumulent au rythme d'environ 1 mm d'épaisseur par année sur toute la surface d'Io. De tous les objets du système solaire, Io est celui dont la surface se renouvelle le plus rapidement.
Les volcans d'Io expulsent du gaz à plus de 1 km/s, 20 fois plus vite que ne le fait un volcan terrestre. Ce volcanisme d'Io puise sa source dans l'effet de marée. A cause de la proximité de Io et de la masse de la planète, Jupiter étant 318 fois plus massif que la Terre, les renflements de marée que subit le satellite ont une amplitude de plusieurs kilomètres.
Si, comme la Lune, Io a ses périodes de rotation et de révolution synchronisées, son mouvement est de plus fortement perturbé par 2 autres lunes de Jupiter, Europe et Ganymède, avec lesquels son orbite est résonante.
Sous l'effet de l'attraction des autres satellites, Io est tantôt en avance, tantôt en retard par rapport à sa révolution moyenne, ce qui a pour effet de déplacer le bourrelet de marée, et conduit à une forte dissipation d'énergie : la variabilité et le déplacement des renflements de marée dégradent par friction suffisamment d'énergie pour faire fondre partiellement l'intérieur du satellite et engendrer ainsi une activité volcanique.
La Terre étant 81 fois plus massive que la Lune, l'effet de marée de la Terre sur la Lune est important : cette marée a synchronisé la rotation propre de la lune et sa révolution autour de la Terre. C'est pour cette raison que nous voyons toujours la même face de la Lune.
Sous l'action du champ de marée terrestre, la Lune a été déformée et le bourrelet de déformation est en moyenne aligné dans l'axe Terre-Lune.
Si la Lune ne tournait pas autour de la Terre de façon à présenter toujours la même face, ce bourrelet se déplacerait et créerait des frottements. La période de rotation propre de la Lune a diminué, et s'est ajustée à celle de révolution autour de la Terre, de telle façon que la Lune présente toujours la même face à la Terre. Ces frottements sont nuls lorsque le bourrelet ne se déplace plus.
Ce qui est vrai pour la Lune est aussi vrai pour la Terre : les effets de la marée lunaire continuent de freiner la rotation de la Terre. La journée s'allonge de 2 microsecondes par an.
A l'instar de la Lune, tous les gros satellites du système solaire présentent une rotation synchrone avec celle de leur planète.
Animation montrant la rotation synchrone. La lune présente ainsi toujours la même face à la Terre
Difficulté : ☆☆ Temps : 30 min
La sphère d'influence d'une planète de masse orbitant sur une orbite circulaire de rayon autour de son étoile de masse peut-être définie comme la zone à l'intérieur de laquelle un satellite reste piégé autour de la planète (à l'extérieur de cette sphère, le satellite est capturé en orbite autour de l'étoile). Pour déterminer le rayon de cette sphère, on cherche dans le référentiel tournant avec la planète la position d'équilibre entre les 2 corps et . On note cette position (1er point de Lagrange).
La distance de à la planète étant notée , déterminer les distances de à l'étoile et de au barycentre du système (planète-étoile) en fonction de et . On note cette dernière distance.
[2 points]
Montrer, en identifiant les différents termes, que la relation suivante définit l'état d'équilibre du satellite dans le référentiel barycentrique :
[3 points]
Développer cette relation en ne retenant que les termes d'ordre 0 ou 1 ( et ). En déduire que :
[3 points]
Application numérique :
Calculer pour la Terre () et comparer à la distance Terre-Lune (380 000 km). Calculer pour le Soleil qui orbite autour du centre galactique ( années de lumière, masse ), et comparer à la distance moyenne entre deux étoiles (distance Soleil-Proxima du Centaure = 4.2 AL), ainsi qu'à la distance du nuage de Oort (de l'ordre de ).
[2 points]
Toutes les planètes géantes ont à la fois des anneaux et des satellites. Les anneaux orbitent à proximité de la planète, accompagnés de tout petits satellites. Loin de la planète, il n'y a que des satellites (et des anneaux de poussière instables). La limite de Roche sépare ces 2 régions.
Le champ de marée brise les satellites qui s'aventurent à l'intérieur de cette limite. Elles empêchent aussi les anneaux de s'accréter en satellites.
En Juillet 1994, les fragments de la comète Shoemaker-Levy 9 ont percuté Jupiter. Lors du précédent périjove, la comète SL9 s'était fragmentée sous l'effet du champ de marée.
La limite de Roche marque la distance minimale à la planète d'existence de gros satellites. Au delà, un satellite peut subsister ; en deçà, il est fragmenté en anneaux. Un exercice permet le calcul de cette limite dans une modélisation simple, illustrée par les schémas suivants :
Difficulté : ☆☆☆ Temps : 45 min
La limite de Roche d'une planète est la distance à partir de laquelle la force de marée sur un satellite est plus importante que les forces de cohésion du satellite. La force du raisonnement de Roche, que nous allons reprendre ici, repose sur l'hypothèse simplificatrice suivante : bien que le satellite naturel soit généralement de forme patatoïdale, on l'imagine constitué de deux sphères ( et ) de rayons , maintenues ensemble par interaction gravitationnelle. On notera cette force de cohésion .
Nous supposons donc qu'un satellite de masse peut être assimilé à deux sphères de masse et de rayon . Ce satellite orbite autour d'une planète de masse (), et de rayon . La distance entre les centres de masse de la planète et du satellite est notée , avec .
Objet | Masse (kg) | Rayon (m) | Masse volumique () |
Soleil | 1400 | ||
la Terre | 5450 | ||
Lune | 3500 | ||
Saturne | 630 | ||
Comète | 200 | ||
Satellites de Saturne | Distance (km) | Rayon (km) | Masse (kg) |
Mimas | 186 000 | 196 | |
Encelade | 238 000 | 260 | |
Téthys | 295 000 | 530 | |
Dioné | 377 000 | 560 | |
Les anneaux de Saturne | Rayon Interne (km) | Rayon Externe (km) | Largeur (km) |
Anneau D | 60 000 | 72 600 | 12600 |
Division Guerin | 72 600 | 73 800 | 1200 |
Anneau C | 73 800 | 91 800 | 18000 |
Division Maxwell | 91 800 | 92 300 | 500 |
Anneau B | 92 300 | 115 800 | 23500 |
Division Cassini | 115 800 | 120 600 | 4800 |
Montrer que la 3ème loi de Kepler appliquée au satellite peut s'écrire :
avec la pulsation du mouvement.
[2 points]
Énoncer les forces d'interaction gravitationnelle et exercées par l'astre massif sur et .
[1 points]
L'étude du mouvement dans le référentiel tournant introduit une accélération d'entraînement. La déterminer, et exprimer le terme d'inertie qui va s'ajouter dans l'écriture de l'équilibre des forces exprimé dans le référentiel tournant. Pour simplifier les calculs, on confond le barycentre du système planète-satellite avec le barycentre de la planète.
[2 points]
On note et les contributions totales (gravitationnelle et inertielle) sur et . Comment appelle-t-on la force , définie comme étant la différence de et ? La calculer.
[2 points]
Calculer la force de cohésion entre et . Estimer d'abord son origine.
[1 points]
Déterminer la limite de Roche , distance à laquelle les termes de cohésion et marée s'équilibrent. L'exprimer en fonction de et de , les masses volumiques respectives de la planète et du satellite.
[2 points]
Calculer la limite de Roche pour le cas du système Terre-Lune. Comparer la limite de Roche de la Terre à la distance Terre-Lune.
[1 points]
Même question pour Saturne et son satellite Mimas, on suppose que le satellite en formation dans ses anneaux a une masse volumique identique à celle de Saturne. Calculer la limite de Roche dans ce cas. La comparer aux rayons des anneaux et aux rayons des satellites de Saturne.
[2 points]
Même question pour Soleil visité par une comète à son périhélie. Comparer au périhélie de la comète de Halley (on supposera que l'expression de l'accélération d'entraînement trouvée dans le cas d'une orbite circulaire garde ici un ordre de grandeur convenable, même si elle ne peut plus s'appliquer a priori).
[1 points]
Les points de Lagrange : un cas particulier du problème à 3 corps, où l'un des 3 corps est de masse négligeable devant les 2 autres.
Dans le référentiel tournant avec les 2 corps massifs, le potentiel résultant de la combinaison des potentiels gravitationnels et rotationnel présente 3 extrema sur la droite contenant les 2 corps. L'un de ces maxima se situe entre les 2 corps, ce que l'on attend intuitivement.
Deux autres maxima se trouvent sur la droite reliant les 2 objets, mais de part et d'autre ...ce qui est plus surprenant. Ils proviennent en fait de la contribution au potentiel du référentiel tournant.
Dans le plan orbital, les équipotentielles du champ montrent 5 point d'équilibre.
Trois de ces points (L1, L2 et L3) sont des selles. L4 et L5 sont des maxima.
Détermination du champ gravitationnel au voisinage des points de Lagrange, pour le système Soleil-Terre.
Illustrer le problème à N-corps dans un cas particulier : 3 corps, dont 1 de masse négligeable devant les 2 autres. Dans ce cas, on ne considère que le champ gravitationnel des 2 corps massifs.
Le problème à 3-corps est insoluble analytiquement dans le cas général. L'astronome mathématicien Joseph-Louis Lagrange en a proposé une solution dans un cas particulier, où l'un des corps est de masse négligeable devant les 2 autres, et subit leurs champs gravitationnels.
Les 2 corps massifs sont supposés en orbite circulaire ; on note la vitesse angulaire de rotation. Le potentiel gravitationnel créé par ces 2 corps est étudié dans le référentiel tournant avec les 2 corps, supposés en orbite circulaire. Les notations sont définis ci-joint.
Le corps de masse négligeable subit le potentiel :
avec les masses respectives des 2 corps massifs, les distances du système aux 2 corps, la distance à leur barycentre, et la vitesse angulaire de rotation des 2 corps. Le dernier terme est introduit par le référentiel tournant.
En posant le rapport des masses , et en notant la plus forte des masses, on obtient :
en ayant introduit la 3e loi de Kepler pour les 2 corps massifs : .
Le gradient de potentiel s'annule en des points particuliers : les points de Lagrange. Leur étude peut être menée analytiquement, mais l'on se contente ici de constater les résultats.
Ces points se situent dans le plan orbital des 2 corps. Les points L1, L2 et L3 sont alignés avec les 2 corps, et L4 et L5 forment avec eux 2 triangles équilatéraux.
Il faut noter que les positions d'équilibre trouvées ne sont pas statiquement stables : ils correspondent en effet à des maximum de potentiel, ou des selles. C'est dynamiquement, avec l'appoint de la force de Coriolis (le référentiel est tournant !) que les points L4 et L5 deviennent stables... et sont occupés par des satellites naturels ou artificiels.
Les animations proposées parcourent les équipotentielles du potentiel dans le référentiel tournant associé au problème de Lagrange, pour différents rapports de masse : 1, 3, 10.
Le balayage des équipotentielles remonte des potentiels les plus négatifs, autour des 2 corps, vers les potentiels croissants. L'animation met en évidence les points de Lagrange, à la jonction de différentes nappes équipotentielles.
L'étude de la stabilité des points de Lagrange n'est pas simple. Il est bienvenu d'exprimer le lagrangien du système, et de faire une analyse par perturbation... ce qui est hors de la portée de ce cours.
Les figures ci-jointes, réalisées par des étudiants du Master professionnel Outils et Systèmes de l'Astronomie et de l'Espace lors d'un projet d'analyse numérique, dévoilent la complexité de l'analyse.
Les astéroïdes troyens sont sur la même orbite que Jupiter, soit en avance de sur Jupiter (point L4), soit en retard de (point L5).
Pour observer continûment le Soleil, le point L1 est idéal. Il tourne autour du Soleil avec la Terre, avec le Soleil en permanence d'un côté et la Terre au côté opposé. C'est donc en L1 qu'a été logiquement installée la sonde SOHO, dédiée à l'observation du Soleil.
En revanche, s'il s'agit d'observer l'Univers froid, mission du satellite Planck, c'est le point L2 qui est idéal. Il tourne avec la Terre, avec le Soleil et la Terre en permanence opposés à la direction de visée. C'est donc en L2 qu'est installé Planck, et que sera le télescope spatial JWST, successeur de Hubble.
L'étude de la stabilité dynamique autour de L4 ou L5 relève d'une approche numérique. Cette dernière montre que le rapport des deux masses doit être assez élevé (contraste plus grand que ) pour permettre la stabilité.
C'est la force de Coriolis, qui apparaît dans le référentiel tournant, qui stabilise les objets autour de L4 ou L5. Elle correspond à une accélération :
avec la vitesse angulaire de rotation, perpendiculaire au plan orbital des deux corps massifs, et la vitesse relative dans le référentiel tournant. Ce rôle stabilisateur est très brièvement illustré en exercice.
Comme L4 et L5 sont dynamiquement stables, on y trouve de nombreux objets.
Difficulté : ☆☆ Temps : 45 min
Représenter l'allure du potentiel gravitationnel local autour de L4 dans le référentiel tournant avec les 2 corps, sachant qu'il y présente un maximum.
Montrer que toute composante de vitesse s'éloignant radialement de L4 donne un terme de Coriolis conduisant à un mouvement de rotation autour de L4.
Montrer que toute composante de vitesse orthoradiale autour de L4 conduit à un terme de Coriolis radial. Déterminer le seul sens de rotation possible pour une orbite stable.
Après l'étude des positions et distances des objets, puis de leur masse, ce chapitre traite de phénomènes qui peu ou prou ont à voir avec un paramètre plus intime des objets, leur température. Il aborde, entre autres questions :
La question de l'évolution stellaire - comment les étoiles naissent, vivent et meurent - est alors abordée.
Le sous-chapitre outils introduit des notions de spectroscopie, des outils physiques tels le rayonnement du corps noir ou l'effet Doppler, et des outils propres à l'astrophysique telle la Magnitude.
Le sous-chapitre diagramme HR propose de mettre de l'ordre dans le bestiaire stellaire, grâce à une représentation selon 2 paramètres : la température et la luminosité.
Le sous-chapitre évolution stellaire plonge dans l'intimité du milieu interstellaire, y déniche les étoiles en formation et les interroge sur leur évolution.
Le but de ce sous-chapitre consiste à introduire les outils qui permettront de comprendre la figure ci-dessous.
Les rappels sur le corps noir définissent les paramètres importants de ce modèle : lorsque l'on parle sans plus de précision de la température d'une étoile, c'est que l'on s'appuie sur le corps noir.
La notion de magnitude est incontournable en astrophysique : cette grandeur énergétique propre à l'astrophysique est très couramment utilisée pour mesurer un éclat lumineux. Elle se décline sous de nombreuses identités : magnitude absolue, apparente, monochromatique...
Les compléments sont à lire en 2ème lecture.
L'analyse de la lumière émise ou absorbée par les atomes d'un gaz nous renseigne sur la composition, la température et la densité de ce gaz. Cette analyse de la lumière en ses différentes longueurs d'ondes constitue ce qu'on appelle la spectroscopie.
Lorsque l'on décompose la lumière blanche du Soleil à l'aide d'un prisme on observe un évantail de couleurs. On dit que la lumière blanche possède un spectre continu, car on passe d'une couleur à une autre sans interruption dans la succession des couleurs.
Expérimentalement on constate que tout corps (gazeux ou solide) sous haute pression et à haute température, donne naissance à un spectre continu de lumière.
Si on analyse la lumière émise par une lampe à vapeur de sodium (gaz peu dense et chaud) à l'aide d'un prisme, on constate que le spectre de la lumière émise est constitué de deux raies fines très intenses dans la partie jaune du spectre, se détachant sur fond noir. Le spectre obtenu est discontinu et il est constitué d'un nombre limité de radiations.
Un gaz, à basse pression et à température élevée, émet une lumière constituée d'un nombre restreint de radiations : on obtient un spectre de raies d'émission.
Les couleurs et les positions des raies dans le spectre sont caractéristiques des atomes du gaz qui émettent ces radiations, autrement dit chaque élément chimique à l'état gazeux possède son propre spectre de raies.
Les atomes peuvent non seulement émettre de la lumière mais également en absorber. On peut constater ceci en faisant passer de la lumière blanche à travers un gaz froid avant de la disperser par un prisme. Lorsqu'un gaz à basse pression et à basse température est traversé par de la lumière blanche, le spectre de la lumière transmise est constitué de raies noires se détachant sur le fond coloré du spectre de la lumière blanche : c'est un spectre de raies d'absorption. La propriété importante de ce spectre de raies d'absorption est que ses raies se produisent au même endroit que les raies d'émission : le gaz absorbe les radiations qu'il serait capable d'émettre s'il était chaud.
Les conditions de formation des différents spectres sont regroupées sous forme de lois, que l'on appelle les lois de Kirchoff.
Ces lois sont fondamentales pour la spectroscopie et nous permettent ainsi de comprendre les spectres des astres. En effet, le Soleil et les étoiles émettent un spectre continu : on en déduit alors que les étoiles sont formées d'un gaz sous pression, à température élevée. Ils rayonnent comme les corps noirs.
Le spectre du Soleil présente des raies d'absorption, qui caractérisent les éléments chimiques constituant son atmosphère. En effet sa température varie de plusieurs millions de degrés, au centre, à quelques 5800 K en surface. Ainsi le rayonnement continu émis par le gaz chaud subit une absorption par le gaz qui constitue son atmosphère et qui est plus froid. On a ainsi accès la composition de son atmosphère car l'absorption est sélective, elle est caractéristique des éléments chimiques contenus dans celle-ci. On peut en conclure que l'atmosphère du Soleil est constituée d'un gaz sous basse pression.
Dans une grande variété de corps célestes, telles les comètes et certaines étoiles, on peut également observer des spectres d'émission. On en déduit que ces objets sont composés de gaz chaud à basse pression.
Difficulté : ☆ Temps : 5 min
Le spectre de la lumière émise par une lampe à vapeur de sodium présente deux raies très rapprochées. On les appelle doublet du sodium. Elles ont pour longueur d'onde 589,0 nm et 589,6 nm.
Quelle est la couleur de la lumière émise par cette lampe ?
Comment peut-on réaliser le spectre d'émission de cette vapeur et le spectre d'absorption de cette vapeur ?
Décrire l'aspect de ces deux spectres
Dans le modèle de Bohr semi-classique, l'électron tourne autour du noyau dans une orbite circulaire, comme une planète autour du Soleil. Un électron en orbite autour du noyau devrait rayonner et, perdant son énergie par rayonnement, tomber sur le noyau. Or ceci ne se produit pas, puisque les atomes sont stables. Bohr supposa alors qu'il existe certaines orbites où l'électron n'émet pas de rayonnement. Ceci arrive chaque fois que le moment de la quantité de mouvement de l'électron est un multiple entier de h/2π (où h est la constante de Planck ): on numérote par 1, 2, ...., n les orbites successives ainsi permises.
Considérons l'atome d'hydrogène. Son électron ne peut se trouver que sur l'une de ces orbites. Chaque orbite correspond à un niveau d'énergie donné de l'atome: le niveau d'énergie le plus bas, dit niveau fondamental, correspond à l'orbite la plus proche du noyau, qui porte le numéro n=1. Plus n est grand et plus l'orbite a un grand rayon, ce qui veut dire que l'énergie de l'atome est plus élevée. La valeur de n infinie correspond à une orbite de rayon infini, c'est-à-dire à l'ionisation de l'atome. L'énergie correspondante est de 13,6eV.
L'atome d'hydrogène ne peut absorbe ou émettre qu'un photon d'énergie bien définie.
Lorsque l'électron retombe d'un niveau excité dans un niveau de plus basse énergie, il y a émission d'un rayonnement qui transporte exactement l'énergie correspondant à la différence d'énergie entre les deux niveaux. Pour qu'il y ait émission il faut que l'énergie du niveau initial soit supérieur à l'énergie du niveau final c'est-à-dire que En > Em, n étant le niveau initial et m le niveau final. Or la mécanique quantique montre que pour l'atome d'hydrogène, l'énergie des différents niveaux est définie par l'expression :
où n est un entier (il s'agit des différents niveaux), et E0 l'énergie nécessaire pour ioniser l'atome d'hydrogène à partir de son niveau fondamental, (valeur est égale à 13,6 eV).
Le photon ainsi émis a une énergie égale à la différence d'énergie entre les deux orbites soit Em-En. Cette énergie correspond, par l'équation de Planck (E=hν), à une onde électromagnétique de fréquence ν bien définie. Le saut d'énergie se manifeste donc par une raie d'émission dans le spectre de l'atome. On en déduit alors :
ou encore
avec la constante de Rydberg :
L'atome d'hydrogène peut aussi absorber de l'énergie, ceci lui permettant de passer d'un niveau inférieur à un niveau supérieur, par exemple en absorbant un photon. Mais ceci n'est possible que si le photon possède exactement l'énergie nécessaire, c'est-à-dire la différence d'énergie entre le niveau d'arrivée et le niveau de départ.
Difficulté : ☆ Temps : 10 minutes
Calculer les énergies (en eV) des quatre premiers niveaux de l'atome d'hydrogène et donner le diagramme des niveaux d'énergie.
Difficulté : ☆☆ Temps : 15 minutes
Connaissant l'énergie d'ionisation E0=13,6eV, calculer la valeur de RH dans l'expression :
Difficulté : ☆ Temps : 5 min
Dans la lumière d'une lampe à vapeur de mercure on trouve les trois radiations monochromatiques caractérisées par leur longueur d'onde λ1=578 nm ; λ2=546 nm; λ3=436 nm
A quel domaine spectral appartiennent-elles ?
Calculer la fréquence de ces trois radiations.
Les premières raies spectrales de l'hydrogène qui furent étudiées sont situées dans le domaine visible du spectre, bien qu'elles aillent en se resserrant vers une limite située dans le proche ultraviolet. Cette série de raies s'appelle la série de Balmer. Les premières raies sont numérotées au moyen de l'alphabet grec. La première raie, Hα a une longueur d'onde 656,2 nm, elle est donc rouge; la seconde, Hβ, est bleue à 486,1 nm, la troisième, Hγ, est violette à 434,0 nm, et ainsi de suite, jusqu'à 364,6 nm. Cette dernière est la longueur d'onde limite de la série de Balmer.
L'hydrogène, constituant majoritaire, présente des signatures spectrales bien précises.
L'atome le plus simple est celui de l'hydrogène, et c'est également celui qui possède le spectre le plus simple. On va décrire le spectre de cet élément, qui est par ailleurs l'élément le plus répandu dans l'univers.
Les premières raies spectrales de l'hydrogène qui furent étudiées sont situées dans le domaine visible du spectre, bien qu'elles aillent en se resserrant vers une limite située dans le proche ultraviolet. Cette série de raies s'appelle la série de Balmer. Les premières raies sont numérotées au moyen de l'alphabet grec. La première raie, Hα a une longueur d'onde 656,2 nm, elle est donc rouge; la seconde, Hβ, est bleue à 486,1 nm, la troisième, Hγ, est violette à 434,0 nm, et ainsi de suite, jusqu'à 364,6 nm. Cette dernière est la longueur d'onde limite de la série de Balmer.
Quand le niveau inférieur est le niveau fondamental, la série de raies porte le nom de série de Lyman. Cette série de raies est située dans l'ultraviolet. La série de raies correspondant à un niveau inférieur de rang n=2 est située dans le visible et porte le nom de série de Balmer. La série de raies correspondant à un niveau inférieur de rang n=3 est située dans l'infrarouge : on l'appelle la série de Paschen.
Difficulté : ☆ Temps : 15 minutes
Calculer la longueur d'onde des premières et dernières raies de Lyman, Balmer et Paschen de l'hydrogène et indiquer dans quel domaine du spectre électromagnétique ces ondes se situent.
La notion de corps noir est simultanément simple et complexe.
Simple, car la situation du corps noir représente une situation d'équilibre thermodynamique entre la matière et son rayonnement. Et l'Univers comme les étoiles sont de bons corps noirs. Complexe, par les pièges du langage - rien de moins noir qu'un corps noir - et par les multiples accrocs à l'équilibre précédemment cité : l'étude d'un spectre stellaire est justement intéressante par ses écarts au corps noir.
D'où vient le terme corps noir? L'étude de quelques documents permet de comprendre cette dénomination. Notons tout d'abord que l'examen du spectre visible, qui ne comporte aucune partie noire et brillante, rappelle que le noir est, plutôt qu'une couleur, une absence de couleur.
Un corps absorbant apparaît noir.
La photo d'une façade montre des murs violemment éclairés, et des fenêtres très sombres dès lors que les vitres sont ouvertes. Il apparaît que les photons solaires sont bien réfléchis dans un cas, mais dans l'autre ont singulièrement disparu. Diffusés dans la pièce derrière la vitre, bien peu de ces photons sont ressortis, et ceci explique le contraste de luminosité entre la façade et les fenêtres ouvertes.
Les différents détecteurs, qui ont pour fonction de capter la lumière visible, apparaissent noirs : ils ne réfléchissent guère la lumière !
Les détecteurs optiques ont pour mission de rendre compte de l'information lumineuse. Cette opération nécessite l'absorption des photons. La figure de quelques détecteurs, dont la pupille de l'oeil humain, montre qu'effectivement ils apparaissent noirs.
Une étoile, le Soleil par exemple, est présenté comme un corps noir. A basse résolution spectrale, le spectre du soleil se superpose à celui d'un corps noir de température 5777 K. Et pourtant rien n'est moins noir que le soleil. Il apparaît donc nécessaire de donner une définition précise de ce qu'est un corps noir... qui peut être coloré.
On trouve comme définitions usuelles du corps noir :
Ces définitions n'aident pas directement à comprendre pourquoi un corps tel une étoile est un corps noir. Le lien peut déjà apparaître, si l'on compare comme dans le chapitre structure interne le rapport de 2 durées : celle prise par un photon pour traverser directement un rayon stellaire, et celle mesurant qu'effectivement l'énergie produite au sein du soleil est évacuée en surface.
La traversée directe du rayon solaire à la vitesse de la lumière prend à peine plus de 2 secondes, alors qu'il faut près d'un million d'années pour que l'énergie soit extraite du soleil. Cette durée est incomparablement plus longue, car le trajet de l'énergie est une marche au hasard entrecoupée d'incessantes absorptions et réémissions de photons.
En ce sens on comprend que le soleil est très absorbant pour ses propres photons. Son spectre a l'allure de celui d'un corps noir. Il est vrai que s'y superposent des raies d'absorption :
Il en résulte qu'un corps noir est défini par l'équilibre intime entre sa matière et son rayonnement. Sa température d'équilibre explicite à elle seule la distribution spectrale de son rayonnement.
Plusieurs phénomènes sont irréductibles au corps noirs :
L'observation de spectres stellaires, à basse résolution spectrale montre que l'allure de ces spectres suit effectivement celle d'un corps noir.
Cela n'est vrai que pour l'allure du spectre : à plus haute résolution, il apparaît clairement que se superposent à l'enveloppe du corps noir des raies en absorption. Si le spectre de corps noir ne dépend que de la température d'équilibre du corps, les raies signent la présence des éléments constitutifs de l'atmosphère stellaire.
Le spectre des étoiles chaudes s'écarte significativement de la courbe du corps noir, en raison de l'ionisation de l'hydrogène par des photons de longueur d'onde inférieure à 360 nm.
La loi de Planck décrit l'émission d'un corps noir de température :
Interviennent dans cette relation la constante de Planck , la constante de Boltzmann , et la célérité de la lumière dans le vide. Ceci indique que la loi de Planck est à l'intersection, respectivement, de la physique quantique, statistique et relativiste.
Dans le système d'unités international, s'exprime en , ou en unité dérivée ; est une luminance spectrale, càd une puissance rayonnée par unités d'angle solide, de surface et spectrale.
Le dénominateur de la loi de Planck est caractéristique d'une loi statistique de Bose-Einstein, à laquelle obéit un gaz de photons. Comme tout vecteur d'interaction fondamentale (l'interaction électromagnétique), le photon est un boson, une particule de spin entier.
La fonction dépend de la température comme de la longueur d'onde. Elle est notée ainsi, et non , pour mettre en évidence la variable spectrale, ici la longueur d'onde. Cette dépendance spectrale peut également s'exprimer en fonction non de la longueur d'onde, mais de la fréquence. La loi de Planck se réécrit alors dans ce cas (justification donnée en exercice).
L'unité de est alors : .
A l'aide de l'appliquette ci-dessous, vous pouvez tracer un spectre de corps noir en fonction de sa température.
Difficulté : ☆ Temps : 20 min
On considère la luminance du corps noir, dans un domaine spectral de largeur autour de la longueur d'onde . Exprimer les fréquence et intervalle de fréquence correspondant.
Exprimer la luminance du corps noir de 2 manières différentes, en fonction de ce qui précède.
La représentation de la superposition de plusieurs spectres de corps noir permet de faire le lien entre la température du corps noir et la longueur d'onde où a lieu l'émission maximale. On peut vérifier que les maxima sont simplement alignés, dans un diagramme en échelle logarithmique.
On en déduit la relation reliant , abscisse du maximum, et la température , en tenant compte de l'échelle logarithmique de la figure : en relation affine avec implique que ces 2 termes sont fonction monomiales l'un de l'autre, en fait inverse l'un de l'autre.
Le calcul du maximum d'intensité de la courbe de luminance spectrale du corps noir passe par une dérivation de cette fonction. Sans calcul, la présence au dénominateur, sous l'exponentielle, du produit , qui seul introduit la température, implique que la condition d'extremum va être une fonction de ce produit .
En notant la longueur d'onde du maximum de luminance spectrale, il apparaît donc :
Le calcul de cette constante donne :
Cette relation fait le lien entre une température et une longueur d'onde, et crée un lien entre une température et une couleur, ce qui permet de définir la température liée à la couleur de l'objet.
objet ( corps noir) | température (K) | domaine spectral | |
étoile type O | 50 000 | 60 nm | UV |
soleil | 6 000 | 0.5 | visible |
Terre | 300 | 10 | IR |
nuage moléculaire | 20 | 0.15 mm | submm |
fond cosmologique | 3 | 1 mm | mm |
La relation entre température et longueur d'onde du maximum d'émission, permet de définir une relation entre température et couleur, via la correspondance entre longueur d'onde et couleur.
On dispose ainsi d'un thermomètre : une étoile bleue est plus chaude qu'une étoile rouge.
La couleur apparente d'une étoile ne va pas exactement correspondre à la température de son maximum d'émission. En effet, la couleur perçue par le détecteur va intégrer une bonne part de l'énergie rayonnée, et pas seulement celle au maximum d'émission.
Il ne faut pas oublier que la perception des couleurs dépend intimement de la détection : derrière un filtre rose, on voit la vie en rose ! Les couleurs restituées par une image en couleur, obtenue par composition de 3 images dans 3 filtres différents, vont le plus souvent être très vives (pour des raisons esthétiques) que celles vues à l'oeil nu.
On peut néanmoins dégager quelques impressions générales :
La loi de Wien associe, via la relation précédente, une couleur à une température, par la relation entre la longueur d'onde et une couleur.
objet ( corps noir) | température (K) | couleur de température | |
étoile type O | 50 000 | 60 nm | UV |
soleil | 6 000 | 0.5 | visible |
Terre | 300 | 10 | IR thermique |
Attention, ceci n'a de sens que pour un corps dont le rayonnement est de type corps noir. La mer, même bleue, n'est pas à 8000 K !
Difficulté : ☆☆ Temps : 5 min
Le pull de votre voisin est jaune, quelle est sa température ?
[1 points]
La question précédente est-elle bien posée ?
[1 points]
Tracer l'allure du spectre de ce pull, à très basse résolution spectrale. Ne pas oublier que votre voisin en bonne santé a une température corporelle de C.
[2 points]
Etablir le bilan de la puissance rayonnée par un corps noir stellaire.
Quelle puissance rayonne une étoile de température d'équilibre , assimilable à un corps noir de température , supposée sphérique de rayon ? La réponse nécessite d'intégrer la luminance spectrale du corps noir sur toute sa surface, dans toutes les directions, à toute longueur d'onde.
Le calcul aboutit à la puissance :
avec la constante de Stefan : .
On peut justifier rapidement la présence des termes et dans cette puissance totale rayonnée. En effet, l'intégration de la luminance spectrale, spatiale, angulaire et spectrale :
implique, pour la dépendance en fonction du rayon, un terme proportionnel à la surface stellaire, variant donc comme , et pour le terme de température, un terme proportionnel à , mis en évidence par le changement de variable , qui conduit à :
Les termes non explicités dans cette équation ne dépendent pas de la température, pas plus que l'intégrale sur la variable , qui n'est plus qu'un simple nombre .
La loi en entraîne une grande diversité dans la vie des étoiles. Deux étoiles de rayons analogues mais avec des températures variant du simple au quintuple (4000 - 20000 K p.ex.) vont avoir des luminosités dans un rapport de 625, donc déjà des couleurs et luminosités très différents. Mais il s'ensuit également des conséquences très fortes sur leurévolution.
Difficulté : ☆☆☆ Temps : 45min
La puissance rayonnée par une étoile, assimilée à un corps noir de rayon et température , varie comme :
avec , et respectivement les rayon, température effective et luminosité du soleil.
Rappeler les valeurs de et
Une naine blanche présente une luminosité 100 fois inférieure à celle du Soleil, pour une température . Estimer son rayon , en fonction des données solaires et de .
Calculer pour = 30000 K, et .
Représenter sur le diagramme ci-joint les lignes iso-rayon, pour les étoiles de respectivement 0.1, 1 et .
Situer sur ce diagramme une supergéante rouge de rayon et une naine blanche de rayon , de température respective 4000 et 30 000 K.
Difficulté : ☆ Temps : 20 min
La loi de Stefan permet de calculer la température d'un corps noir à partir de sa luminosité et de sa taille. La difficulté est que ces deux termes dépendent de la distance de l'objet. L'exercice se propose de voir comment pallier cette difficulté, dès lors que l'on peut connaître, par interférométrie, le rayon angulaire de l'étoile. Par la suite, on note le flux relatif de l'étoile et le rayon angulaire de l'étoile.
Comment s'exprime-t-il en fonction du rayon et de la distance ?
[1 points]
Réécrire la relation de luminosité du corps noir en fonction des observables et . En déduire que l'on peut relier la température de corps noir à des grandeurs directement mesurables.
[2 points]
Le corps correspond à un équilibre entre un corps de température et un rayonnement de corps noir à cette même température.
L'exemple du soleil permet de définir la température effective d'un corps noir, ou température d'équilibre, ou température de brillance.
Le parcours de l'énergie au sein du soleil est, jusqu'aux couches supérieures, une succession ininterrompue d'absorption et de réémission des photons initialement produits par les réactions nucléaires au centre de l'étoile, dans le domaine , jusqu'aux photons finalement émis, majoritairement dans les domaines UV, visible et IR.
Arrivés dans la photosphère, les photons peuvent quitter le soleil, avec une distribution énergétique qui est celle du corps noir, de température donnée, que l'on appelle température effective.
En raison de l'équilibre entre le rayonnement de corps noir et la matière du corps noir, il y a concordance entre cette température et celle du milieu émetteur. D'après le second principe de la thermodynamique, les couches atmosphériques plus profondes qui ont fourni l'énergie ne peuvent être qu'à une température plus élevée. Il s'ensuit un certain nombre de conséquences :
Difficulté : ☆☆ Temps : 60 min
On s'intéresse au bilan radiatif d'une planète en orbite circulaire de rayon autour de son étoile. On suppose l'espace interplanétaire vide, ce qui entraîne la conservation du flux stellaire intégrée sur toute surface entourant l'étoile. La rotation propre de la planète est suffisamment rapide pour que l'on puisse considérer sa température comme uniforme sur toute la surface. On néglige toute autre source d'énergie que stellaire.
La planète réfléchit une fraction du rayonnement solaire, et en absorbe une fraction , où est l'albédo. On peut, en première approximation à basse résolution spectrale, considérer ce spectre comme la superposition du spectre de 2 corps noirs, dont on cherche à déterminer les températures. On note la composante énergétique directement réfléchie, et la composante absorbée puis rerayonnée.
Montrer que la puissance interceptée par la planète vaut :
où représente le rayon planétaire.
Calculer le rapport dans le cas de Jupiter et de la Terre.
Objet | (UA) | (km) |
Jupiter | 5.2 | 71000 |
Terre | 1 | 6400 |
Pour mémoire .
La planète étant à l'équilibre thermodynamique, exprimer et en fonction de la luminosité totale et de l'albédo .
Quelle est la température associée au rayonnement réfléchi , assimilé à un rayonnement de corps noir ?
Montrer que la température associée à la composante , voisine de la température d'équilibre de la planète, est alors:
Faire l'application numérique pour une exoplanète avec une albédo et un demi-grand axe . Pour l'étoile, on prendra : et .
En déduire la longueur d'onde correspondant au maximum de l'émission planétaire. A quel domaine spectral cette température correspond-elle?
Un spectre stellaire présente, superposées à un spectre continu de type corps noir, des raies en absorption. Leur présence conduit à répartir l'énergie différemment du spectre du corps noir, dont on retrouve néanmoins la trace dans l'allure générale du spectre à basse résolution.
La plupart des spectres des objets astrophysiques résultent de la somme des contributions spectrales superposées au corps noir. Sur la mosaïque d'images infrarouges de Jupiter ci-jointe, contributions spectrales et de corps noir s'entremêlent.
À 1.60 micromètres, le rayonnement de corps noir (le spectre solaire réfléchi) domine. À 3.41 micromètres, minimum entre les corps noirs jovien et solaire réfléchi, la contribution prépondérante provient de l'émission stratosphérique de l'ion . À plus haute longueur d'onde, le spectre de corps noir de Jupiter prend de l'importance, et révèle les inhomogénéités de la troposphère jovienne.
Un spectre stellaire présente, superposé à un spectre continu de type corps noir, des raies en absorption.
La température d'équilibre correspond à la température de la photosphère, d'où s'échappent les photons, qui correspond à un minimum local de température.
Un spectre planétaire présente, superposé à un spectre continu de type corps noir, des raies en absorption ou en émission. Contrairement à un spectre stellaire, le spectre planétaire voit 2 sources chaudes : son étoile et sa structure interne.
Le minimum de température correspond à la tropopause.
Les raies en absorption signalent un déficit énergétique par rapport au corps noir, et signent la présence d'un absorbant dans la troposphère : région où la température décroît avec l'altitude. Cet élément a ponctionné une partie de l'énergie dans la raie considérée. Dans cette région plus profonde que la tropopause, l'énergie est redistribuée à toute longueur d'onde, suite aux multiples interaction matière-rayonnement.
Les raies en émission signalent un surcroît énergétique par rapport au corps noir, et signent la présence d'un absorbant dans la stratosphère : région où la température croît avec l'altitude. Cet élément a ponctionné une partie de l'énergie solaire incidente dans la raie considérée, et la réémet.
L'observation spectroscopique du rayonnement du fond cosmologique met en évidence un rayonnement de corps noir, le corps noir cosmologique. Sa température d'équilibre est de l'ordre de 3 K (2.728 K pour être très précis).
La loi de déplacement de Wien associe cette température à un maximum d'émission dans les longueurs d'onde millimétrique.
L'allure d'un spectre planétaire montre une courbe "à 2 bosses". Les 2 maximas locaux piquent à 0.5 et , soit à des températures effectives de 6000 et 300 K approximativement.
Les 2 contributions du spectre ont clairement 2 origines distinctes :
Dans le cadre de la théorie du big-bang, l'Univers est en expansion et se refroidit. Il est passé dans le passé par des phases plus chaudes, et a connu diverses étapes, correspondant à des ruptures d'équilibre.
Pour des température de plus 3000 K, la matière et le rayonnement était à l'équilibre, suite à l'interaction entre les électrons, libres, et les photons. Aux températures plus faibles, la recombinaison des électrons avec les protons pour former l'hydrogène atomique a occasionné le découplage de la matière et du rayonnement.
Ce dernier garde une distribution énergétique de corps noir, mais s'est refroidi suite à l'expansion de l'univers. Il présente aujourd'hui une température, très homogène, de 2.728 K.
En première approximation, on peut distinguer 2 composantes dans un spectre planétaire :
Stricto sensu, le rayonnement n'est plus un rayonnement de corps noir. En fait, les 2 composantes sont proches de 2 corps noirs, l'un à la température du rayonnement stellaire, l'autre à la température d'équilibre planétaire.
Difficulté : ☆☆☆ Temps : 45 min
Il a été vu que la luminance spectrale du corps noir s'exprime, en fonction de la fréquence par :
Dans cet exercice, on se propose de montrer comment cela conduit les radio-astronomes à exprimer une luminosité radio comme une température, et donc à l'exprimer en Kelvin.
Les conditions d'observation de l'image, définies par la diffraction, énoncent que le faisceau élémentaire observable a une étendue égale à , et que la mesure ne peut donner accès qu'à une seule direction de polarisation. L'intégration sur et sur permet de passer de la luminance spectrale à la puissance spectrale.
La surface représente ici la surface collectrice, et l'angle solide sous lequel est vue la source élémentaire.
Montrer que, dans le domaine des radiofréquences, la fréquence d'observation , typiquement de l'ordre du GHz, vérifie pour les températures, même froides, rencontrées dans l'Univers :
On donne , et . On considère comme objet un nuage moléculaire à 10 K, et un rayonnement aux longueurs d'onde supérieures à 1 cm.
En déduire l'approximation de la loi de rayonnement dans le domaine radio :
Montrer que l'intégration de la luminance spectrale , vis à vis des variables angulaires et de surface, conduit à une densité spectrale de puissance égale à
Déterminer alors la puissance reçue dans l'intervalle de fréquence .
Difficulté : ☆☆ Temps : 10 min
Interpréter la figure ci-jointe, simulant un spectre exoplanétaire.
[1 points]
Estimer les températures effectives associées à ce spectre.
[2 points]
Cette planète est supposée de type tellurique, de rayon égal à celui de la Terre et située à 1 UA de son étoile, laquelle est de type à peu près solaire. Comparer sa température d'équilibre à celle de la Terre. Subit-elle un effet de serre important ?
[1 points]
L'application des lois concernant le corps (loi du rayonnement, loi de Wien, loi de Planck) est très souvent féconde... mais il faut tout d'abord retenir de ces pages les conditions physiques dans lesquelles peut s'appliquer le modèle du corps noir : le rayonnement doit traduire l'équilibre thermique de l'objet considéré. Sans cette hypothèse, l'application des lois précédentes reste vaine, et peut conduire à de gros contresens (que l'on retrouve souvent dans la littérature, lorsque la notion de température de couleur est utilisée tellement loin de son domaine de validité qu'elle en perd tout son sens).
En première approximation, les étoiles rayonnent comme des corps noirs... mais les nombreuses raies d'absorption peuvent conduire à un profil de rayonnement bien déformé. Le rayonnement du fond cosmologique est quant à lui un excellent corps noir.
Mesurer une grandeur énergétique n'est pas des plus simples. En fonction des besoins de l'astronomie et de l'astrophysique s'est développée la notion de magnitude.
Les pages qui suivent définissent cette échelle énergétique, et justifient son emploi en fonction des mesures effectuées.
Il n'y a pas de lien univoque entre la luminosité d'une étoile et sa taille. Dans le langage commun, une "grosse" étoile est une étoile lumineuse, et une "petite" une étoile moins lumineuse.
Historiquement est apparue la notion de grandeur, ici rendue par la représentation d'un champ stellaire.
Pour coder les magnitudes, souvent les cartes reprennent cette image (voir le cours corps noir pour la relation entre rayon et flux stellaires).
La magnitude exprime une mesure photométrique dans un système d'unités approprié à l'usage astrophysique. On peut ainsi comparer les étoiles les unes par rapport aux autres d'un point de vue énergétique.
Le père de la magnitude est Hipparque (2e siècle avant J-C) : les étoiles les plus brillantes étaient classées dans la catégorie "étoiles de première grandeur", les autres se répartissaient ensuite sur 5 échelons, jusqu'aux "étoiles de sixième grandeur" qui étaient les plus faibles visibles à l'œil nu.
L'utilisation d'instruments capables de mesurer les intensités lumineuses plus précisément qu'à l'oeil nu permit de préciser et de développer la notion de magnitude : la définition historique de la magnitude a été traduite en une échelle logarithmique, car l'oeil est un récepteur logarithmique. La limite de détection à l'oeil nu, correspond à des étoiles de magnitude 6.
La magnitude apparente mesure l'"éclat" apparent d'une étoile, c'est à dire la façon dont on la voit de la Terre.
Objet | Magnitude apparente |
---|---|
Soleil | -26,7 |
Lune | -12,7 |
Vénus | -4,4 |
Sirus | -1,4 |
Véga | 0 |
Antarès | 1 |
Etoile polaire | 2 |
Limite de perception à l'oeil nu | 6 |
Limite de perception aux jumelles | 10 |
Limite de perception au sol | 27 |
Limite de perception du télescope spatial Hubble | 30 |
Plus un objet est brillant, plus sa magnitude est petite. Une différence de magnitude de 2.5 unités correspond à un contraste de luminosité de 10.
La magnitude est une grandeur qui permet de mesurer la luminosité des astres.
La magnitude apparente d'une étoile est définie conventionnellement à partir de son flux par la relation :
où représente le flux d'une étoile de référence de magnitude nulle.
Le facteur 2.5 et la base logarithmique décimale ont été choisis afin de respecter la définition historique.
La définition du flux ici introduit n'est pas primordiale, vu que la définition se contente d'introduire un rapport de cette grandeur. On peut se référer à un tableau récapitulatif des grandeurs photométriques utilisées.
La différence de magnitude de deux étoiles, et , s'exprime par :
Elle est égale à 2.5 en valeur absolue si le rapport de leurs flux est 10.
La magnitude apparente ne nous renseigne en rien sur la luminosité réelle de l'astre et ne donne aucune indication sur sa nature, car la définition de la magnitude apparente :
Des définitions plus circonstanciées permettent de préciser la notion de magnitude. On introduit la magnitude absolue , qui indique la luminosité d'un objet rapporté à une distance de 10 parsec.
De même, la définition précédente néglige toute information sur la couleur de l'objet. Pour cela, on introduit la magnitude monochromatique et les indices de couleur.
Plus un détecteur est sensible, plus il va pouvoir observer d'objets, pour 2 raisons :
Décompte d'étoiles en fonction de lamagnitude
Le tableau ci-joint dénombre les objets stellaires en fonction de leur magnitude apparente. Plus précisément, en fonction de la magnitude , décompte du nombre d'étoiles de magnitude comprise dans l'intervalle , et total cumulé jusqu'à la magnitude .
On cherche à estimer la relation , et à montrer qu'elle est du type :
Difficulté : ☆ Temps : 10 min
La luminosité correspond à la puissance totale rayonnée par l'étoile. Lorsque cette puissance est considérée par unité de surface, on parle de puissance surfacique. On définit l'éclairement d'une étoile comme la puissance reçue d'une étoile par unité de surface, au sommet de l'atmosphère terrestre.
La luminosité intrinsèque d'une étoile de type solaire étant , en déduire l'éclairement de cette étoile située à une distance de la Terre.
Calculer la puissance surfacique reçue sur Terre d'une étoile de type solaire située à la distance de Proxima de Centaure, de parallaxe annuelle = 0.76". On donne .
De même, calculer la puissance surfacique du Soleil reçu sur Terre.
Difficulté : ☆ Temps : 15 min
Rappeler la définition de la magnitude apparente d'une étoile.
Deux étoiles ont des éclairements apparents et . Exprimer leur différence de magnitude.
Comparer les flux d'objets de magnitudes -26.7 (soleil), -2.55 (Jupiter), +6 (étoiles juste visibles à l'oeil nu), +27 (magnitude limite accessible au sol).
Difficulté : ☆ Temps : 25 min
En vision nocturne, le diamètre de notre pupille vaut de l'ordre de 6 mm, et la magnitude limite visible à l'oeil nu est .
On rappelle l'expression de , la magnitude apparente d'un objet :
avec pour le domaine visible.
Exprimer , le flux (puissance par unité de surface) rayonné traversant la pupille, en fonction de et , respectivement la puissance totale reçue et le diamètre de la pupille.
Calculer et pour une étoile de magnitude 6.
Montrer qu'avec un collecteur de diamètre , l'oeil a accès aux magnitudes jusqu'à :
avec exprimé en m. Identifier
Calculer , pour
Comment procède-t-on pour observer les objets de magnitude supérieure?
Difficulté : ☆ Temps : 20 min
Le but de cet exercice est de compter les étoiles en fonction de leur magnitude. Pour se faire, on pose deux hypothèses :
Déterminer la magnitude apparente d'une étoile à la distance .
Dénombrer le nombre d'étoiles dans une sphère de rayon autour du soleil.
A partir des deux relations précédemment établies, montrer que le nombre d'étoiles jusqu'à la magnitude évolue comme :
Identifier le coefficient de l'exposant
Estimer , sachant que l'on peut dénombrer environ 6000 étoiles à l'oeil nu, càd de magnitude inférieure à 6.
Ce résultat apparaît-il en accord avec le nombre d'étoiles plus brillantes que la magnitude 0
Difficulté : ☆ Temps : 20 min
Deux étoiles d'un système double présentent une différence de magnitude . Exprimer le rapport de leurs luminosités et
[2 points]
Faire l'application numérique pour = 1, = 10
[1 points]
Difficulté : ☆ Temps : 20 min
Le projet OWL (overwhelmingly large telescope) de l'ESO s'est attaché à étudier le concept d'un télescope avec un collecteur de diamètre . Devant l'accumulation de points durs techniques, le concept a été remplacé en 2006 par un projet moins démesuré, avec un collecteur de diamètre 42 m.
Estimer le gain attendu en magnitude limite observable avec un télescope de 100 m, par rapport à un télescope de 10 m.
[1 points]
Ce télescope étant muni d'une optique adaptative, il donnera accès à une résolution angulaire proche de la limite de diffraction . Calculer cette limite pour le visible.
[1 points]
Les étoiles présentent des couleurs différentes, ce qu'il va falloir retranscrire sur leur magnitude.
Les étoiles rayonnent pratiquement comme des corps noirs. Elles ont un maximum d'intensité lumineuse qui varie avec la température de leur couche externe. L'échelle de magnitude UBVRI (UV, Bleu, Visible, Rouge, Infrarouge), correspond aux magnitudes d'une étoile dans une gamme de longueur d'onde de l'UV à l'IR.
Imager dans différents domaines spectraux permet de distinguer des objets avec une couleur particulière.
Les variations de luminosité d'un objet permettent de remonter à la couleur de cet objet... à moins que le milieu interstellaire ne soit pas transparent.
Comme on peut le voir sur l'image de la constellation d'Orion, les étoiles ne sont pas de la même couleur. Il est nécessaire de tenir compte de la dépendance en fonction de la couleur.
On définit l'éclairement monochromatique, comme étant le rapport de l'éclairement dans un domaine spectral précis à la largeur de ce domaine, l'intervalle spectral étant divisé selon la longueur d'onde .
On obtient ainsi :
si l'intervalle spectral est décrit par la longueur d'onde.
On définit la magnitude monochromatique en comparant la densité spectrale de flux à une référence :
et sont exprimés en .
domaine spectral | indice de couleur | Référence | ||
UV | U | 0.36 | 0.068 | |
bleu | B | 0.44 | 0.098 | |
visible | V | 0.55 | 0.089 | |
rouge | R | 0.70 | 0.22 | |
proche IR | I | 0.90 | 0.24 | |
proche IR | J | 1.25 | 0.30 | |
IR | H | 1.65 | 0.35 | |
IR | K | 2.20 | 0.40 | |
IR | L | 3.40 | 0.55 | |
IR | M | 5.0 | 0.3 |
L'indice de couleur est la différence des magnitudes monochromatiques et . On codifie la couleur selon le standard UBVRI, correspondant aux intervalles spectraux définis ci-dessus.
Objet | B-V | |
soleil | -26.7 | 0.65 |
Sirius | -1.45 | 0.00 |
Véga | 0.00 | 0.00 |
Antarès | 1.00 | 1.80 |
Mimosa | 1.26 | -0.24 |
Adhara | 1.50 | -0.22 |
La magnitude et l'indice de couleur de Véga sont nuls, non pas par hasard, mais par choix : Véga a été choisi comme standard de référence.
Les étoiles chaudes (bleues) ont un indice de couleur B-V négatif, alors que les étoiles plus froides (rouges) ont un indice positif élevé.
Le centre galactique dans diverses couleurs
L'analyse multispectrale est indispensable pour caractériser complètement un objet : ce qui apparaît en émission dans un domaine spectral peut être absorbant dans un autre.
L'indice de couleur, corrigé de toute absorption, permet de remonter à la température de l'objet.
Magnitude et indice de couleur
A l'aide du tableau, identifier les températures d'un lot d'étoiles.
Difficulté : ☆☆ Temps : 20 min
La magnitude apparente en fonction de l'indice de couleur , notée , est reliée à la densité spectrale de flux , reçue dans la gamme de couleur centrée sur la longueur d'onde et de largeur , par :
avec les constantes données dans la partie de cours. On assimile l'oeil à un récepteur de diamètre . La magnitude maximum détectable à l'oeil est
A quel domaine de longueur d'onde l'oeil humain est-il sensible ? A quelle puissance minimale l'oeil est-il sensible ?
À combien de photons l'oeil réagit-il, sachant qu'une image se forme en de seconde?
Difficulté : ☆ Temps : 45 min
Détecter une source lumineuse, quelqu'elle soit, nécessite la collecte d'un nombre suffisant de photons, ce qui requiert un temps de pose adapté à la magnitude. On se place dans des conditions d'observation en bande V (largeur spectrale ), avec une chaîne de rendement total . Ce rendement tient compte de la collecte des photons jusqu'à leur transformation en photo-électrons. On note le diamètre collecteur.
Rappeler l'expression qui relie l'éclairement monochromatique à la magnitude de la source. Quelles grandeurs de la chaîne de collecte interviennent pour traduire cet éclairement monochromatique en puissance ?
[1 points]
Montrer que le nombre de photons à collecter s'exprime, en fonction des données et du temps de pose .
[2 points]
Faire l'application numérique avec les données concernant la bande V, pour une source de magnitude 10, un télescope de la classe 8 m, une pose de 1 s, un rendement de 10%.
[1 points]
Que devient le temps de pose pour une source de magnitude 20 ? Quel temps de pose faut-il viser pour collecter 1000 photons sur une source de magnitude 25 ? Et pour collecter 100 photons/pixel sur une source (supposée uniforme) de magnitude 25 étendue sur 100 pixels ?
[2 points]
La magnitude apparente, comme son nom l'indique, n'est qu'apparente pour un observateur donnée. Elle dépend de la source et de son identité, mais aussi de l'observateur : ce point est gênant si l'on s'intéresse à l'objet pour ses seules propriétés. Pour faire de la physique et ainsi s'affranchir de l'effet de distance, on utilise la notion de magnitude absolue.
La magnitude absolue est la magnitude conventionnelle qu'aurait l'étoile si sa distance était ramenée, par définition à 10 pc.
Il faut lier l'éclairement apparent de l'étoile à sa distance à la Terre, ce que l'on fait avec la luminosité de l'étoile, mesurant la puissance totale rayonnée par l'étoile :
Le flux d'une étoile varie comme l'inverse du carré de la distance, donc dans un système de magnitude donné, la relation entre magnitudes absolue et apparente s'écrit :
Objet | (pc) | ||
soleil | -26.7 | 4.9 | |
Sirius | -1.45 | 1.4 | 2.7 |
Véga | 0.00 | 0.5 | 8.1 |
Antarès | 1.00 | -4.8 | 130 |
Mimosa | 1.26 | -4.7 | 150 |
Adhara | 1.50 | -5.0 | 200 |
La quantité porte le nom de module de distance. En reliant la distance à une différence de magnitude, ce module indique la distance en échelle logarithmique.
Objet | module de distance | distance au Soleil (pc) |
référence | 0 | 10 |
L'amas des Hyades | 3.3 | 48 |
Les Nuages de Magellan | 18.5 | 50 000 |
La galaxie d'Andromède | 24.1 | 890 000 |
Le module de distance est nul, par définition, pour une distance de 10 pc ; il vaut 5 pour une distance de 100 pc, 10 pour une distance de 1000 pc.
Pour passer de la magnitude apparente à la magnitude absolue, on est amené à corriger, en plus de la distance, les effets dus à une éventuelle absorption interstellaire. Cette absorption est provoquée par divers éléments (poussières, gaz) présent sur la ligne de visée. Alors, la magnitude absolue s'exprime en fonction de la magnitude apparente par :
Le terme d'absorption ne peut être que positif ; ne pas en tenir compte conduit à surestimer la magnitude absolue, càd à sous-estimer la luminosité de l'objet.
A l'opposé de la magnitude monochromatique, la magnitude bolométrique mesure l'énergie rayonnée sur l'ensemble du spectre électromagnétique. Mesurer une telle magnitude n'est pas chose aisée, et s'obtient le plus souvent par extrapolation à partir de la magnitude absolue mesurée dans quelques bandes spectrales.
Etoiles proches et brillantes
On cherche à estimer les magnitudes absolues des étoiles les plus brillantes du ciel, leur distance étant mesurée par ailleurs.
Difficulté : ☆ Temps : 20 min
Rappeler la définition de la magnitude absolue d'un objet. Quelle relation lie la magnitude relative à la magnitude absolue et à la distance de l'étoile, exprimée en parsec?
La magnitude apparente visible du soleil est de -26.7. Que vaut sa magnitude absolue?
Que vaudrait la magnitude apparente du Soleil à la distance de Proxima du Centaure (1.33 pc)? A la distance du centre galactique (8 kpc)?
L'oeil humain peut distinguer les magnitudes inférieures à 6. Jusqu'à quelle distance une étoile de type solaire reste-t-elle visible à l'oeil nu?
Difficulté : ☆☆ Temps : 15 min
Rappeler la relation définissant la magnitude absolue, tenant compte de l'absorption .
[1 points]
Ne pas tenir compte de l'absorption revient-il à surestimer ou sous-estimer la magnitude absolue d'un objet?
[1 points]
Ne pas tenir compte de l'absorption revient-il à surestimer ou sous-estimer la distance d'un objet?
[1 points]
Sans tenir compte de l'absorption, on déduit pour une Céphéïde, d'après la relation magnitude absolue-période, une distance au soleil = 20 kpc. Comment est corrigée cette distance si l'on tient compte d'un coefficient d'absorption de 0.2 magnitude ? Conclure.
[1 points]
La magnitude apparente, qui mesure l'éclat apparent de l'étoile, est le paramètre observable ; mais elle ne renseigne pas sur le paramètre intrinsèque de celle-ci, qui est sa luminosité. Cette grandeur est retranscrite par la magnitude absolue.
Une étoile de magnitude absolue donnée apparaît à une magnitude apparente d'autant plus grande (= moins lumineuse) qu'elle est plus éloignée.
Enfin, s'il est possible d'attribuer une magnitude absolue à une étoile, à partir de critères d'observation, on peut déterminer sa distance en mesurant sa magnitude apparente et en la comparant à la magnitude absolue.
La luminosité et l'éclat apparente des objets tels que les planètes, les satellites et autres petits corps peuvent aussi être exprimées via la notion de magnitude. Comme la luminosité visible provient en grande partie de la réflexion du flux solaire, la magnitude de tels objets est très complexe, car elle dépend des distances objet-Soleil et objet-Terre, de la surface du corps, de la présence ou non d'une atmosphère, etc...
Plusieurs échelles énergétiques cohabitent en astrophysique, certaine classiques (eV et multiples...), d'autres spécifiques (Jansky, magnitude, K ...). Si d'une part les termes en usage en astronomie ne correspondent pas nécessairement aux définitions radiométriques, rien ne garantit dans un document donné l'adéquation exacte entre le sens local et la définition plus générale !
Pour s'y retrouver, il faut le plus souvent veiller à la cohérence d'un terme par rapport à sa définition donnée, et s'appuyer sur son unité.
Définitions, à propos du rayonnement d'une étoile :
Grandeur | (terme en radiométrie) | Définition | Unité |
---|---|---|---|
Puissance, luminosité | (flux) | Puissance | W |
Radiance | (émittance) | Puissance émise par unité de surface normale à la propagation | |
Eclairement, flux | (irradiance) | Puissance reçue par unité de surface normale à la propagation | |
Luminance, brillance | (radiance) | Puissance par unité de surface normale à la propagation, et par unité d'angle solide | |
Eclairement monochromatique | Puissance par unité de surface et par unité spectrale | ||
Intensité, luminance monochromatique | Puissance transportée par unité spectrale, par unité d'angle solide, et par unité d'élément de surface |
avec comme unité spectrale la longueur d'onde exprimée en micromètre.
Difficulté : ☆ Temps : 20 min
Reprendre les unités du tableau définissant les grandeurs photométriques, et les redéfinir dans le cas où l'unité spectrale choisie pour le rayonnement est la fréquence, en Hertz, et non le micromètre.
Magnitude apparente, monochromatique... toutes ces définitions prennent leur importance pour rendre compte des observations et donner accès à des mesure telle la magnitude absolue, corrigée de la distance d'observation, et propriété intrinsèque de l'objet.
L'effet Doppler-Fizeau est une conséquence directe de la relativité restreinte : la perception d'un signal dépend de la vitesse relative entre la source et le récepteur. En pratique, l'effet Doppler est mis à profit pour mesurer les vitesses radiales de multiples objets, à toutes les échelles dans l'Univers.
L'effet Doppler module les positions des raies spectrales. En cela, il constitue un traceur de vitesse.
L'effet Doppler-Fizeau est un effet relativiste, au sens qu'il ne s'explique que dans le cadre de la relativité restreinte. La perception d'un phénomène électromagnétique dépend de la vitesse relative entre la source et le récepteur.
La composante radiale de la vitesse relative entre l'émetteur et l'observateur étant notée , comptée positivement pour un éloignement de la source au récepteur, l'effet Doppler relie la longueur d'onde reçue à la longueur d'onde émise par :
avec la notation relativiste usuelle du terme .
Le terme au numérateur correspond à la translation relative entre l'émetteur et l'observateur ; le dénominateur introduit la correction relativiste. Pour des vitesses non relativistes (typiquement inférieures à c/10), les termes d'ordre supérieur à sont négligeables et l'on a simplement :
soit le décalage :
Un éloignement rougit la longueur d'onde perçue, un rapprochement la bleuit.
A faible vitesse, l'effet Doppler est du 1er ordre dans sa composante radiale, mais du 2e ordre en vitesse transversale.
Difficulté : ☆ Temps : 5 min
Pourquoi l'animation du champ de vitesse Doppler montre-t-elle un gradient de vitesse dans la photosphère ?
L'abondance en hydrogène atomique dans une galaxie peut être mesurée par l'observation de raies de l'hydrogène . Ces raies étant modulées par la vitesse relative entre la source et l'observateur, la mesure de la modulation donne accès au champ de vitesse de l'hydrogène dans la galaxie.
Historiquement, la vitesse de fuite des objets lointains, due à l'expansion de l'Univers, a été mise en évidence par le décalage vers le rouge de leurs raies spectrales. Ce décalage augmente avec la distance, selon la loi de Hubble.
C'est ainsi que l'on peut aujourd'hui sonder l'Univers à grande échelle avec les quasars.
Les champs d'application pratiques de l'effet Doppler en astrophysique sont nombreux : forts décalages spectraux (ex : loi de Hubble) ; modulation d'un champ de vitesse, temporelle (ex : astérosismologie) ou spatiale (ex : champ de rotation galactique).
L'effet Doppler permet de mesurer des vitesses radiales, càd alignées sur la ligne de visée. Si l'on dispose d'une observable spectrale adéquate, on bénéfie par l'effet Doppler d'un traceur de vitesse, l'effet Doppler reliant la longueur d'onde reçue à la longueur d'onde émise par :
avec la définition usuelle : .
On note le décalage vers le rouge des objets lointains ("redshift"). Sa définition est relié à la translation en longueur d'onde :
Ceci conduit par exemple au déplacement vers le visible de la raie d'objets très lointains.
Fin 2008, le plus grand décalage spectral mesuré approche la valeur 7. En 2009, l'observation d'une éruption gamma par le satellite Swift de la NASA fut suivie par l'observation à l'ESO du spectre infrarouge de l'objet en cause, qui a mis en évidence un décalage spectral de 8.2. Ce décalage correspondrait à un objet observé dans l'Univers âgé de seulement 600 millions d'années.
Voir la page dédiée aux exoplanètes.
L'astérosismologie étudie la propagation d'ondes mécaniques (ondes sonores, ondes de gravité) dans l'intérieur d'une étoile. Le champ de vitesse sismique dans la photosphère stellaire module les raies spectrales, comme le montre l'animation ci-contre.
Remarquer que vitesse d'oscillation et amplitude sont en quadrature. Les amplitudes et les couleurs codant la modulation par effet Doppler sont très exagérées.
A l'aide de l'appliquette, estimer la vitesse de rotation de Saturne, ainsi que la vitesse moyenne des anneaux. Le spectre a été obtenu en lumière solaire réfléchi, avec un fente sélectionnant la région équatoriale de Saturne et les anneaux de part et d'autre. Les raies d'émission en bordure du spectre correspondent à une lampe spectrale de référence.
Difficulté : ☆ Temps : 20 min
La raie du quasar PKS 2000-330 est observée à la longueur d'onde , et non à la longueur d'onde au repos .
Déterminer le module de ce quasar, ainsi que son facteur relativiste .
En déduire sa distance , en appliquant la relation de Hubble . avec .
Difficulté : ☆ Temps : 25 min
Le fond cosmologique présente actuellement une température de l'ordre de 3 K, alors qu'elle était de 3000 K à l'époque de la recombinaison. A cette époque, les électrons et les protons se sont recombinés pour former les atomes neutres d'hydrogène. Avant, l'agitation thermique liée à des températures plus élevées interdisait cette recombinaison et l'Univers était un plasma principalement composé de protons et d'électrons.
Déterminer le décalage spectral à l'époque de la recombinaison.
Déterminer le facteur correspondant.
Difficulté : ☆ Temps : 25 min
Le spectre ci-joint montre les raies de 7 galaxies différentiellement dispersées.
Spectres de galaxies
Etalonner le spectre, en pm/pixel, en sachant que les 3 raies principales sont identifiées à 580.0, 582.1 et 585.5 nm.
En déduire l'échelle en par pixel.
En déduire les dispersion en vitesse radiale de chacune des galaxies, par rapport au groupe des 3 galaxies homocinétiques.
Difficulté : ☆ Temps : 25 min
Le spectre ci-joint montre la raie à 21 cm de l'hydrogène d'une galaxie lointaine s'éloignant du Soleil. L'axe des abscisses suppose, ici, qu'une vitesse négative correspond à un éloignement.
Estimer la vitesse d'éloignement global de cette galaxie, puis sa distance (avec ).
[2 points]
A quelle position a été mesurée pour cette galaxie la raie (au repos : 486 nm) ?
[1 points]
Estimer la vitesse de rotation moyenne de la galaxie (en précisant le critère de mesure).
[1 points]
Difficulté : ☆ Temps : 10 min
Le spectre ci-joint montre la raie Lyman alpha d'un quasar très lointain (longueur d'onde au repos : 121.6 nm). Abscisse : longueur d'onde en nm ; ordonnée : flux en unité arbitraire.
Estimer le décalage spectral de ce quasar.
[1 points]
Traduire le décalage spectral en vitesse d'éloignement.
[1 points]
Difficulté : ☆ Temps : 30 min
Les quasars sont des sources extrêmement lumineuses et éloignées (), de diamètre apparent non-mesurable. Elles émettent un spectre continu, avec peu de raies d'émission. Les nuages de gaz intergalactique froid se trouvant sur la ligne de visée signent leur présence par un spectre de raies d'absorption.
Le constituant principal de ce gaz intergalactique étant l'hydrogène, dont le spectre est parfaitement connu (raies , ...) rend possible l'identification pour chaque nuage, de son décalage spectral et sa profondeur optique. Il faut évidemment pour cela un spectromètre à haute résolution.
Le quasar HE 2217-2818 présente une forêt de raies en absorption (voir l'appliquette basée sur des données de l'instrument UVES du VLT, avec en abscisse la longueur d'onde en nm et en ordonnée le flux en unité arbitraire), correspondant aux nuages d'hydrogène rencontrés sur la ligne de visée.
Déterminer les principales raies d'absorption, et en déduire les décalages spectraux de ces nuages, en supposant que la raie au repos est la raie de longueur d'onde au repos . En déduire les vitesses de fuite.
[3 points]
Quelle information apporte la profondeur optique du nuage (retranscrite par la profondeur de la raie), et que peut-on en tirer ?
[2 points]
La rotation de l'étoile mélange, sauf à résoudre spatialement ou spectralement l'objet, les diverses régions qui toutes contribuent au flux stellaire. Il s'ensuit un élargissement des raies.
L'élargissement des raies due à la rotation de l'étoile modifie drastiquement l'allure d'un spectre, comme le montre les simulations d'observation à faible ou grande résolution spectrale.
La largeur des raies stellaires est liée aux champs de vitesse Doppler.
Dans le cadre de la théorie cinétique du gaz parfait, la distribution de vitesse est donnée par :
avec la masse atomique moyenne et la constante de Boltzmann.
La largeur à mi-hauteur de cette distribution est de l'ordre de , du même ordre de grandeur que les vitesses moyenne ou la plus probable.
Avec une température stellaire entre typiquement 4000 et 40000 K, les vitesses d'agitation thermique sont de l'ordre de 8 à 25 km/s : elles concourent à un sensible élargissement des raies.
La rotation stellaire participe également à l'élargissement des raies stellaires. Le paramètre important pour mesurer cet effet est donné par la projection du vecteur vitesse de rotation équatorial sur la ligne de visée : . Les valeurs typiques de rotation varient de quelques km/s (rotateurs lents, tels le Soleil) à plusieurs centaines de km/s. Dans ce dernier cas, les signatures spectrales deviennent très peu marquées.
En effet, une raie fine à vitesse rotationnelle non nulle s'élargit par effet Doppler. Par application de la conservation de l'énergie, le manque de photons dans la raie est conservé, et donc l'élargissement de la raie s'accompagne d'une moindre profondeur.
La conservation de l'énergie (l'énergie qui manque dans la raie) entraîne une très nette diminution de la profondeur de la raie lorsque la vitesse rotationnelle augmente. Pour les rotateurs rapides, une raie fine devient invisible.
L'animation montre comme varie l'élargissement rotationnel des raies stellaires avec l'angle d'inclinaison . Lorsque l'axe de rotation de l'étoile se confond avec la ligne de visée, il n'y a pas d'élargissement rotationnel.
Les sondages radar permettent de mesurer la rotation d'un corps, comme le montre l'animation ci-jointe. L'onde plane incidente parcourt l'objet du point subterrestre jusqu'au limbe, en une durée ( est le rayon de l'objet, la célérité de la lumière) et donc scanne le champ de vitesse rotationnel.
Difficulté : ☆☆ Temps : 1.5 heure
Le but de l'exercice est d'interpréter les observations radio de la planète Mercure, menées au radio-télescope d'Arecibo en 1965 (Dyce et al. 1965, Astronomical Journal 72, 351-359). Il s'agissait alors de mesurer la période de rotation propre de Mercure, et de déterminer si elle était égale ou non à la période de rotation orbitale.
demi-grand axe | 0.39 UA | |
révolution sidérale | 88 j | |
rayon | 2420 km | |
diamètre du radiotél. | 305 m | |
fréquence émise | 430 MHz |
Propagation : L'écho d'un signal radio émis par le télescope d'Arecibo et réfléchi par Mercure est réceptionné 616.125 s après son émission. En déduire la distance Terre-Mercure lors de l'observation, et représenter la position relative de ces 2 planètes et du Soleil. Les observations effectuées pourraient-elles être menées en lumière visible ?
Le champ de vitesse : On repère un point de la surface visible de Mercure par ses coordonnées cartésiennes dans le repère , où est le barycentre de la planète, pointe vers la Terre et est parallèle à l'axe de rotation de la planète. On note le rayon de la planète Mercure, sa période de révolution sidérale, et sa période de rotation propre.
Donner les coordonnées du point sub-terrestre [i.e. le point de Mercure qui voit la Terre au zénith].
Montrer que la composante radiale (colinéaire à l'axe Terre-Mercure) de la vitesse d'entraînement de rotation ne dépend que de l'une des composantes de la position de .
L'analyse temps-fréquence de l'écho radar : Quelles régions de la surface contribuent au début () et à la fin () du signal d'écho. Déterminer la durée totale théorique de l'écho ? Représenter l'allure des lignes d'iso-retard sur la carte de Mercure [].
On note le décalage Doppler du signal réfléchi au point subterrestre. Quelles régions contribuent à l'élargissement Doppler extrêmal du signal ? Représenter sur la carte de Mercure l'allure des lignes d'iso-fréquence (à près).
Calculer, pour un point de Mercure de coordonnées , le retard de l'écho et son décalage spectral . Montrer que l'on a :
L'écho : Le document ci-joint (Dyce et al. 1965) montre l'étalement en fréquence de l'écho en fonction du retard à la réception. Comparer le retard maximal théorique à celui enregistré, et interpréter le désaccord. En déduire, que la relation entre et se réduit, pour les mesures effectuées, à Comment interpréter les variations temporelles d'intensité du signal ?
Estimer , la période de rotation propre de Mercure.
On pose . Quelle signification donner à ? De quelle fraction simple est-il proche ? Est-ce un hasard ?
Pourquoi les données présentant un plus fort retard ne sont-elles pas facilement exploitables ?
La puissance de l'écho : Quelle fraction du signal Mercure intercepte-t-il ? [on se contentera d'un ordre de grandeur grossier, en supposant que le flux radar est homogène dans un champ d'angle solide égal au lobe principal de diffraction ; un calcul précis est hors de portée de la modélisation proposé].
Estimer, à l'aide d'un modèle simple, le nombre de photons incidents nécessaires pour réceptionner 1 photon en retour après réflexion au point subterrestre.
Une puissance d'émission de 2 MW vous étonne-t-elle ? [l'impulsion radar incidente est très brève : ; on se contentera également d'un ordre de grandeur grossier]
Difficulté : ☆ Temps : 10 min
La figure ci-jointe donne une portions des spectres observé et théorique d'une étoile de type F2, classe V.
Expliquer les différences entre les 2 spectres
[1 points]
Donner un ordre de grandeur de 2 vitesses caractéristiques du spectre observé.
[2 points]
Retenir de cette section les multiples domaines où l'effet Doppler-Fizeau influence très sensiblement la signature spectrale des objets. Comme à l'accoutumée, les astrophysiciens en ont tiré parti pour avoir accès à des observables inaccessibles par ailleurs.
La relation (à faible vitesse) est tellement prégnante que l'on peut très bien, en l'appliquant, définir une grandeur spectrale en vitesse et non en longueur d'onde.
L'utilisation de l'effet Doppler pour avoir accès à la cinématique des objets a motivé le développement de différentes catégories de spectromètres (voir la section dédiée à l'instrumentation).
La comparaison du ciel terrestre et du ciel lunaire montre dans un cas une couleur bleutée, dans l'autre un ciel noir. Il s'agit du même ciel... vu dans des conditions différentes.
Sur Terre l'atmosphère diffuse la lumière solaire, préférentiellement dans les courtes longueurs d'onde. S'il fait beau : le ciel est bleu. En revanche sur la Lune, sans atmosphère, le ciel apparaît noir.
Plus le soleil est bas sur l'horizon, plus il apparaît rouge (c'est valable pour la Lune aussi). Par projection, plus le chemin optique est long, plus la diffusion Rayleigh retire du rayonnement incident les composantes bleues, plus par complémentarité le soleil apparaît rouge.
Les nuages, ou toute autre condensation, apparaissent le plus souvent blancheâtres. Les particules liquides en suspension écrantent toutes les longueurs d'onde visible, sans distinction de couleur.
Toute charge accélérée rayonne de l'énergie. Un électron, élastiquement lié à son noyau, va réagir au champ électrique d'un rayonnement incident, et rayonner en conséquence.
Le moment électrique associé à l'électron va réagir au champ électrique, de pulsation . On montre que le champ électrique induit varie comme , et donc comme . La puissance rayonnée varie elle comme le carré du champ électrique, et donc comme .
Ce qui précède n'est valable que pour les particules diffusantes très petites devant la longueur d'onde. De plus grosses particules bloquent uniformément toutes les couleurs, et donnent un aspect blanchâtre au milieu : tel un nuage dans l'atmosphère terrestre (d'apparence grise si vraiment beaucoup de lumière est interceptée).
La diffusion Rayleigh varie donc comme . Elle est bien plus forte dans le bleu, à 400 nm, que dans le rouge à 650 nm. Ceci explique pourquoi le ciel est bleu, et le soleil rouge au couchant : les molécules de l'atmosphère éclairée en lumière blanche diffusent préférentiellement la lumière bleue ; cette composante, ôtée du rayonnement solaire incident, le rougit d'autant plus que l'épaisseur d'atmosphère traversée est importante.
Le bestiaire stellaire est vaste, de l'étoile géante à peine née et déjà presque supernova, à la naine rouge qui va briller modestement des dizaines de milliards d'années, en passant par le Soleil.
Le but de ce sous-chapitre est de présenter différents outils qui permettent d'ordonner et comprendre cette classe d'objets et, avec Corneille, appréhender cette obscure clarté qui tombe des étoiles.
Un spectre stellaire porte la signature des éléments constituant la photosphère de l'étoile.
La spectroscopie, ou l'art de regarder les photons selon leur couleur, fut introduite à la fin du XIXe siècle, profitant de l'essor de la photographie.
Le spectre du soleil observé à très haute résolution spectrale présente de très nombreuses raies d'absorption. On remarque entre autres que la densité de raies spectrales est plus élevée dans le bleu que dans le rouge ; des raies telluriques dues à l'absorption dans l'atmosphère terrestre, se superposent aux raies stellaires, mais restent minoritaires.
La modélisation d'un spectre nécessite la compréhension des conditions thermodynamique (température), mécanique (pression, en réponse au champ gravitationnel) et chimique (abondances) dans la photosphère stellaire, d'où sont issus les photons.
Toute la puissance de la spectrométrie réside dans cette finesse d'analyse, p.ex. pour aller dénicher à haute résolution spectrale de fines raies, et en sachant les interpréter.
Un exemple illustre la puissance de l'information spectroscopique : une preuve de vie exoplanétaire serait apportée via l'étude spectrale IR, sensible à la présence d'ozone. L'ozone est liée à la présence d'oxygène, et donc à une chimie particulière qui est, au-moins dans un cas connu, propice à la vie.
Un cours complet de transfert de rayonnement, nécessaire pour comprendre les tenants et aboutissants du bon usage des données spectrométriques, est ici hors de propos, car trop complexe. Contentons-nous de récapituler quelques-uns des ingrédients qui permettent de comprendre un spectre.
On en déduit que l'interprétation d'un spectre apporte des informations sur les grandeurs qui précèdent : température, gravité, abondance des éléments.
Dans l'atmosphère stellaire, deux phénomènes contribuent essentiellement à élargir les raies, conduisant à des largeurs bien supérieures à la largeur naturelle.
Si l'étoile est en rotation rapide, le profil de vitesse rotationnel est source d'un nouvel élargissement des raies, encore par effet Doppler .
Difficulté : ☆☆☆ Temps : 20 min
Déterminer la durée moyenne entre deux collisions, en fonction du libre parcours moyen (la distance moyenne entre 2 collisions) et de la vitesse moyenne des atome .
[1 points]
Déterminer le libre parcours moyen d'un atome en fonction de la section efficace de collision et de la densité particulaire . En déduire que le libre parcours moyen varie comme l'inverse de la masse volumique dans l'atmosphère de l'étoile.
[3 points]
On suppose que l'élargissement de la raie par pression varie comme , inverse de la durée moyenne entre 2 collisions. En déduire la dépendance de en fonction de la température et de la masse volumique :
[2 points]
Montrer que, si l'élargissement des raies par pression est sensible, il permet, à type spectral donné, de distinguer les différentes classes stellaires.
[1 points]
L'hydrogène neutre est omniprésent dans l'Univers. Dans le milieu interstellaire, sa signature apparaît à diverses fréquence (visible, submillimétriques, radio...). La signature radio correspond à l'inversion du spin de l'électron : sa fréquence au repos vaut 1420 MHz, pour une longueur d'onde de 21 cm.
Raie H beta
L'hydrogène est le constituant majoritaire des étoiles. La dépendance en température d'une raie de l'hydrogène apparaît clairement, pour des étoiles de type spectral chaud, beaucoup moins pour des températures d'équilibre plus basses. L'appliquette montre l'intervalle spectral correspondant à la raie H beta de l'hydrogène dans des étoiles de type A6 à K7 (température effective : 8000 à 4000 K). Le flux est normalisé à 1 dans le continu.
Des centaines de raies sont visibles dans le spectre d'un quasar éloigné, ce qui signe la présence sur la ligne de visée de matériel absorbant.
Les raies de Balmer du deutérium apparaissent au voisinage de celles de l'hydrogène. Le décalage entre les raies de H et D est dû à un effet isotopique : l'électron n'a pas la même masse réduite autour du noyau de H (1 proton) et celui de D (de masse double, avec 1 proton et 1 neutron). [Rappel : la masse réduite est définie par , et s'approxime par ].
Comme l'hydrogène représente presque 9 atomes sur 10 dans l'Univers, sa signature spectrale est omniprésente en absorption, en émission, dans diverses gammes du domaine spectral (raies de Balmer, raie à 21 cm...).
L'hydrogène du milieu interstellaire, sous forme moléculaire ou atomique froide, est à une température variant de 10 à 1000 K. L'hydrogène atomique neutre émet dans une fréquence radio particulière correspondant à la longueur d'onde 21 cm. L'intensité de la raie d'émission dépend de la densité totale d'hydrogène atomique neutre le long de la ligne de visée. La mesure de cette intensité de la raie observée permet donc de connaître la répartition bi-dimensionnelle des nuages d'hydrogène atomique.
Après l'hydrogène, l'hélium est le deuxième constituant le plus abondant dans l'Univers (environ 25%, par masse, soit 10% en concentration).
Mais la signature spectrale de l'hélium, gaz rare, est fort discrète. Comme l'hélium est difficilement ionisable, il faut une température élevée pour mettre en évidence les raies de l'hélium correspondant au spectre d'ionisation. En l'absence de moment dipolaire, l'atome He ne présente pas de spectre de vibration ni rotation.
La classification des spectres stellaires s'appuie sur l'étude morphologique du spectre visible. Elle rend compte essentiellement de la température effective et du champ gravitationnel stellaire.
Les progrès instrumentaux à la fin du XIXe siècle permettent de mesurer les spectres des étoiles les plus brillantes. L'astronome Secchi met alors en évidence différents types, se distinguant par leur caractéristiques spectrales.
En effet, les spectres de différentes étoiles diffèrent sensiblement, tant pour la répartition des raies d'absorption que pour leur morphologie.
Les spectres stellaires ne sont aujourd'hui plus enregistrées sur film, mais sur caméra CCD. L'étalonnage en longueur d'onde est fourni par une lampe spectrale de référence.
L'intensité spectrale, après étalonnage en longueur d'onde, découle des enregistrements, pour prendre la forme d'un graphe.
Des spectres d'étoiles avec des positions de raies similaires peuvent montrer des largeurs de raies très différentes. Notez les largeurs des raies de la série de Balmer .
La classification spectrale est une analyse qualitative des spectres stellaires. Cette analyse repose sur le fait qu'une simple inspection visuelle d'un grand nombre de spectres montre qu'ils peuvent être regroupés en quelques familles : c'est la classification spectrale, qui ne considère que l'aspect du spectre dans le domaine visible et qui est fondée sur la morphologie du spectre de raies d'absorption, sans référence explicite aux causes physiques de cette apparence.
Les premières classifications spectrales, par exemple celle d'Angelo Secchi établie en 1863, ne comprenait que quatre classes. Secchi avait néanmoins remarqué que cette classification ne résultait pas du hasard, mais avait un sens physique, chaque classe regroupant des étoiles ayant des températures effectives voisines.
Les bases de la classification spectrale telle que nous l'utilisons aujourd'hui, furent ainsi définies en 1901 à l'Observatoire de Harvard.
A partir des travaux antérieurs, sept classes principales furent définies représentée par les lettres O, B, A, F, G, K, M. Cette classification correspond à une séquence de température effective décroissante.
C'est, paraît-il, l'astrophysicien Henry Norris Russell qui inventa le moyen mnémotechnique "O Be A Fine Girl Kiss Me" pour retenir l'ordre des classes.
Au sein de chaque classe, une subdivision décimale a été introduite afin de rendre compte de différences d'aspects entre les spectres d'une même famille. Ainsi le type spectral d'une étoile est-il représenté par un chiffre de 0 à 9 :
... A8, A9, F0, F1, F2 ... F8, F9, G0, G1...
où un spectre de type F9 présentera des caractères plus proches de ceux de type G0 que de ceux du type F0.
Quelques types spectraux
Utiliser l'appliquette ci-jointe pour identifier les principaux groupes de raies spectrales.
Utiliser l'appliquette ci-jointe pour identifier les principaux groupes de raies spectrales.
Les caractéristiques des spectres stellaires varient continûment lorsque l'on balaye les différents types spectraux. Les différents types spectraux seront dominés par différentes raies de différents éléments.
Raie H beta
Les raies de Balmer sont plus ou moins marquées dans un spectre, selon le type spectral. La dépendance en température d'une raie de l'hydrogène apparaît clairement, pour des étoiles les plus chaudes, beaucoup moins pour celles de températures effectives plus faibles, comme le montrent les spectres synthétiques de différents types spectraux (de A6 à K7, le flux est normalisé à 1 dans le continu).
Le type spectral rend compte de la température effective d'une étoile.
Le type spectral d'une étoile dépend essentiellement de la température effective, et correspond à des caractéristiques génériques telles l'importance de raies spectrales données.
Les principales classes, de O à M, couvrent les températures effectives de 50 000 à 3000 K. En 2000 deux nouvelles classes spectrales, L et T, ont été introduites. Elles décrivent les spectres des étoiles les plus froides (température effective entre 1000 et 2000 K) ne comportant quasiment que des raies moléculaires.
Les caractères du spectre stellaire utilisés pour établir la classification spectrale sont la présence ou l'absence des raies de certains éléments, présence ou absence qui n'est pas due à des différences de composition chimique entre les atmosphères des étoiles, mais qui reflètent seulement les différences en température de ces atmosphères.
Ainsi, l'hydrogène, qui est l'élément le plus abondant dans l'univers, et dont l'abondance est à peu près la même dans toutes étoiles, présente un spectre de raies prédominant pour les étoiles dont la température effective avoisine les 10 000 K, par suite des conditions d'excitation de l'atome d'hydrogène à cette température, qui favorise au maximum la formation des raies dans le domaine visible.
Les étoiles de type O, les plus chaudes, présentent dans leur spectre des raies d'hélium ionisé, mais pas de raies de l'hydrogène. En allant du type B0 au type A0, l'intensité des raies de l'hélium décroît car les conditions de température ne sont plus favorables à leur formation alors que celle des raies de l'hydrogène augmente progressivement pour atteindre un maximum vers le type A0. L'intensité des raies de l'hydrogène va ensuite décroître alors que celle des raies dues aux métaux va augmenter pour les types spectraux correspondant à des températures effectives moins élevées.
Dans le spectre des étoiles froides - de type K par exemple - les atomes d'hydrogène sont dans l'état neutre, presque tous dans le niveau fondamental. Le spectre produit appartient surtout au domaine de l'ultraviolet et les raies de l'hydrogène sont très faibles dans le visible.
Pour les étoiles les plus froides, les raies des métaux neutres deviennent de plus en plus intenses alors que les bandes caractéristiques des molécules apparaissent.
La première appliquette de cette page permet d'identifier les raies marquantes de l'intervalle spectral [365 - 415 nm], qui sont à la base de la classification spectrale.
Spectre de 365 à 415 nm, étoile B6V
Spectre de 395 à 399 nm, étoile B6V
Spectre de 365 à 415 nm, étoile F6V
Spectre de 395 à 399 nm, étoile F6V
Difficulté : ☆ Temps : 10 min
Classer les spectres par température décroissante.
[2 points]
Classer la série des spectres digitalisés par température croissante.
Pourquoi dans l'atmosphère des étoiles les plus chaudes (type O) les raies d'hydrogène sont-elles aussi peu intenses ?
[2 points]
Il est rapidement apparu qu'il existe une variation de l'intensité des raies au cours d'une même séquence spectrale d'étoiles. On note dans une même classe spectrale des étoiles aux spectres sensiblement différents : ainsi Rigel ( Orionis) et Régulus ( Léonis) sont de type spectral B8 mais Rigel présente des raies fines et Régulus des raies larges.
Pour tenir compte de cette différence, il est nécessaire d'introduire un second paramètre dans la classification spectrale.
Spectre UVES (ESO) d'étoiles de type A2, de classes I à V.
Les classes de luminosité rendent compte de la taille d'une étoile.
Dès 1913, les travaux de Hertzsprung et Russell permirent de montrer que les différentes largeurs de raies au sein d'une même classe spectrale correspondent à des différences de luminosité pour des étoiles de même température effective, et reflètent donc une différence de rayon.
Une lettre en préfixe : d ou g, initiale des mots anglais "dwarf" (naine) et "giant" (géante) fut ajoutée à la classification spectrale de Harvard. La luminosité d'une étoile de rayon et température effective est donnée par la relation :
Si deux étoiles ont le même type spectral, elles ont même température effective ; leur différence de luminosité provient donc des valeurs différentes de leurs rayons, d'où la terminologie.
Indépendamment de l'intensité des raies et de leur largeur, on note dans le spectre des étoiles dites "géantes" la présence de raies d'éléments ionisés, raies absentes dans le spectre d'une étoile naine de même type spectral.
Ces propriétés spectrales sont la conséquence des conditions physiques régnant dans l'atmosphère de l'étoile. Bien que la température soit le facteur prépondérant dans la détermination des caractères d'un spectre, d'autres paramètres ont une influence non négligeable, telle la masse volumique. Ainsi l'état d'ionisation d'un atome, fonction de la température, dépend aussi de la masse volumique du gaz : si elle est élevée, les particules sont proches les unes des autres, les recombinaisons entre ions et électrons sont facilitées et, à un instant donné, le nombre d'atomes ionisés est plus petit que dans un milieu de même température, mais de densité plus faible.
La masse volumique du gaz est proportionnelle à la pression, et celle-ci résulte du poids de l'atmosphère, c'est-à-dire du champ gravitationnel dans l'atmosphère stellaire. Or la gravité est proportionnelle à la masse de l'étoile, mais inversement proportionnelle au carré du rayon de l'étoile. Les rayons stellaires varient dans un domaine beaucoup plus étendu que celui des masses, et c'est ce qui fait toute la différence.
Une densité élevée dans l'atmosphère a donc pour effet de modifier la largeur des niveaux d'énergie des atomes et de modifier l'intervalle de longueur d'onde des photons correspondant à une transition entre deux niveaux. Les niveaux étant plus serrés pour une densité plus faible, il s'ensuit dans ce cas des raies plus fines.
Ainsi pour un même type spectral, une étoile de grand rayon, et donc plus faible densité dans la photosphère, présente des raies plus fines et donc plus intenses pour les éléments ionisés.
Cinq classes de luminosité ont été définies correspondant, pour un type spectral donné, essentiellement à la largeur des raies. Ces classes sont notées I, II, III IV et V.
A l'aide de l'appliquette, il vous est proposé de :
Classe I :
Classe III :
Classe V :
Difficulté : ☆ Temps : 5 min
Classer les spectres stellaires par... classe.
Identifier sur la figure les raies des éléments ionisés caractéristiques d'une étoile supergéante.
Les sections Magnitude et Distance ont montré comment mesurer la luminosité intrinsèque d'une étoile. La section Classification Spectrale a défini le type spectral d'une étoile, fonction essentiellement de la température d'une étoile. A partir de la température et de la luminosité, le diagramme Hertzsprung-Russell montre comment s'organise la physique stellaire.
En 1911, l'ingénieur et astronome amateur danois Ejnar Hertzsprung traçait un diagramme type spectral-magnitude absolue pour des étoiles appartenant à un même amas stellaire. Il remarqua que les points ne se répartissaient pas de manière aléatoire dans ce diagramme.
Deux ans plus tard, l'astronome américain Henry Norris Russell construisait, indépendamment, un diagramme similaire en utilisant un échantillon d'étoiles dont il connaissait la magnitude absolue grâce à leur parallaxe.
Le diagramme qui représente pour un groupe d'étoiles le type spectral et la magnitude absolue est appelé diagramme de Hertzsprung-Russell, ou en abrégé diagramme HR (se prononce : diagramme hache-ère).
Les deux astronomes mettaient en évidence une relation très importante entre la luminosité intrinsèque et la température de surface des étoiles. Le diagramme de Hertzsprung-Russell devint rapidement un élément incontournable de l'étude de l'évolution et de la physique stellaire.
Le diagramme HR historique montrait déjà que la majorité des étoiles se retrouvent sur une bande précise, plus tard appelée séquence principale.
La statistique évoluant, cet état de fait subsiste, comme le montrent les données Hipparcos.
Définir la séquence principale : elle regroupe les étoiles de classe V, à l'état "adulte".
La plupart des étoiles se retrouvent sur une séquence donnée du diagramme HR.
La séquence principale représente les étoiles du diagramme HR en train de brûler leur hydrogène en hélium.
Les étoiles évoluent sur la séquence principale, leur coeur s'appauvrissant en hydrogène et s'enrichissant en hélium. Les étoiles justes formées sont situées sur l'extrémité inférieure de la séquence.
Comme l'ont montré Hertzsprung et Russell, la physique stellaire conduit à une répartition non aléatoire des étoiles dans un diagramme température-magnitude absolue.
Différents paramètres peuvent permettre de construire un diagramme HR, pourvu qu'ils rendent compte de la température en abscisse et de la magnitude absolue en ordonnée.
Le diagramme Herztsprung-Russell classe les étoiles par température et luminosité.
Dans le diagramme HR, avec la température en abscisse et la luminosité en ordonnée, les étoiles ne se répartissent pas au hasard, mais peuplent au contraire des zones bien définies. Ainsi, on distingue la région de la séquence principale, une longue bande diagonale s'étirant des étoiles lumineuses et chaudes (bleues) vers les étoiles peu brillantes et froides (rouges); au-dessus, les branches des géantes et des supergéantes ; et en-dessous une région peuplées d'étoiles chaudes mais très peu lumineuses, les naines blanches.
Les différentes classes de luminosité se retrouvent dans le diagramme HR. Les lignes qui dessinent les différentes classes de luminosité correspondent à des valeurs moyennes de la magnitude absolue pour un ensemble d'étoiles ayant même classe de luminosité. La classe I des supergéantes est subdivisée en deux classes, Ia et Ib, de luminosités distinctes.
Les grandeurs physiques définissant les axes du diagramme HR peuvent être mesurées par différents paramètres, donnant ainsi lieu à différentes formes du diagramme HR.
Le type spectral d'une étoile est une mesure qualitative de sa température effective aussi, ce paramètre est-il utilisé en abscisse. Plus directement issu de l'observation, l'indice de couleur rend simplement compte de la température. Le diagramme résultant est alors appelé diagramme couleur-magnitude.
En ordonnée, magnitude absolue et luminosité jouent un rôle équivalent.
Abscisse | Température effective - Indice de couleur - Type spectral... |
Ordonnée | Luminosité (en W ou en luminosité solaire) - Magnitude absolue ... |
Les différents paramètres en abscisse et ordonnée d'un diagramme HR
La représentation en diagramme HR présente de multiples intérêts :
Le diagramme HR met en avant la luminosité et la température d'une étoile. Par ailleurs, la loi de rayonnement du corps noir relie la luminosité d'une étoile à sa température et à son rayon.
On en déduit que la répartition des rayons stellaires dans le diagramme HR ne relève pas du hasard. La relation :
implique que, dans un diagramme HR en coordonnées les lignes d'isorayon stellaire sont des droites de pente 4 (qui apparaissent avec une pente négative si l'on oublie de tenir compte que l'axe des températures croît vers la gauche dans un diagramme HR).
Ce qui précède est bien en accord avec les classes de luminosités. On remarque que la séquence principale correspond à des étoiles naines, toutefois de rayon un peu plus important pour les étoiles chaudes.
Voir les exercices de la page corps noir.
La représentation dans le diagramme HR d'un amas d'étoiles peut se faire directement en magnitude apparente. Comme la dimension de l'amas est petite devant sa distance, les étoiles sont toutes quasiment à même distance, et ce dernier paramètre devient transparent pour l'intercomparaison des étoiles de l'amas.
L'évolution stellaire montre que les étoiles les plus massives évoluent très rapidement. Les étoiles de l'amas s'étant formées quasiment simultanément, on ne peut pas trouver des étoiles jeunes dans un amas contenant des étoiles vieilles.
Les diagrammes pour l'amas des Pléiades, et l'amas M67, dont les étoiles sont respectivement jeunes et vieilles, présentent donc des aspects fort différents.
Une région du diagramme HR réunit la plupart des étoiles variables. On l'appelle bande d'instabilité. Dans cette bande, les conditions thermodynamiques de l'enveloppe stellaire sont telles qu'un mouvement de relaxation conduit à une pulsation, le plus souvent radiale, des couches stellaires externes. Cette pulsation se traduit par une variation de luminosité périodique.
Une représentation dans le diagramme HR peut être trompeuse, si les données sont biaisées. Les diagrammes HR des étoiles les plus proches ou de celles les plus brillantes ne sont pas représentatifs. Dans un cas, on sélectionne les étoiles les plus fréquentes, dans l'autre, uniquement les plus brillantes.
Diagramme HR des étoiles les plus brillantes
L'appliquette ci-dessus propose divers paramètres des étoiles les plus brillantes du ciel.
Diagramme HR des étoiles les plus proches
L'appliquette ci-dessus propose divers paramètres des étoiles les plus proches du ciel.
Les pages qui précèdent illustrent l'intérêt très large de la représentation des objets stellaires dans le diagramme HR. Connaître une étoile nécessite la donnée des paramètres primaires, au premier rang desquels figurent la luminosité et la température effective. Ensuite, on peut s'intéresser à la métallicité, la masse, le rayon, la structure interne....
A ce titre, le diagramme HR est un outil et un mode de représentation très courant en astrophysique. Des diagrammes HR ou portions de diagramme HR apparaissent dans nombre de publications. La figure ci-dessous illustre par exemple le gain de précision apportée par des obervations (astérosismologiques en l'occurrence) permettant de définir la position dans le diagramme HR d'une vieille étoile du disque galactique. Les incertitudes de mesure sur la luminosité et la température définissent une boîte d'erreur, d'autant plus petite que les mesures gagnent en précision.
Le but de ce sous-chapitre est de présenter différents outils qui permettent de comprendre les bases de l'évolution des étoiles, avec de la physique simple et juste. Simplicité et justesse n'impliquent malheureusement pas la précision nécessaire pour rendre compte des phénomènes observées. Elles donnent néanmoins des idées qualitativement correctes, quantitativement raisonnables, que l'on sera amener à préciser en tenant compte des résultats obtenus par des moyens autrement plus précis... mais impossibles à présenter dans ce cours.
La première section introduit des notions physiques utiles pour la suite, dont une est essentielle : la compression gravitationnelle.
En 3 étapes sont ensuite abordées la naissance, la vie et la mort des étoiles, essentiellement sous l'angle des processus physiques à l'oeuvre. La dernière section introduit les résultats de physique stellaire induits par les processus précédemment décrits, pour décrire l'évolution stellaire à partir de modélisations plus précises.
Différents éléments physiques sont introduits, qui vont conduire à comprendre dans quelles conditions fonctionne une étoile, et à montrer le rôle crucial de la gravitation.
C'est la masse de l'étoile qui pilote son évolution, mais il n'y a pas incohérence avec le plan total du cours ; on entre dans un domaine où la masse, si elle conditionne l'essentiel, n'explique pas tout. On est bien... dans le chapitre Température.
Éléments de théorie cinétique du gaz parfait.
Gaz parfait
Rappel : un gaz est dit parfait si les interactions entre particules se réduisent à des chocs élastiques.
Pour un gaz parfait usuel, non dégénéré (c'est à dire non soumis à des effets quantique) et classique (c'est à dire non relativiste), l'équation d'état s'écrit :
avec la masse volumique, et la masse d'une particule élémentaire du gaz.
Un gaz parfait est dit chaud s'il est dominé par l'agitation thermique. Les effets quantiques sont dans ce cas négligeables.
Un gaz parfait est dit froid lorsque les effets thermiques ne jouent plus aucun rôle. Son incompressibilité provient du tassement de la matière : les cortèges électroniques se repoussent en raison de la nature quantique (fermionique) des électrons.
Pour que la température d'un système soit définie, il faut que ce système soit à l'équilibre, et que ses composantes échangent assez d'informations, via des collisions, pour se thermaliser.
Dans un milieu non collisionnel, il y a peu de chances que l'on puisse définir une température qui vaille... mais on ne s'intéresse pas la suite qu'à des milieux à l'équilibre thermodynamique local, où localement la température est bien définie.
La densité particulaire est une grandeur couramment utilisée pour mesurer l'abondance de matériau disponible dans un milieu. Elle est comptée en particules (souvent des électrons, ou des atomes ou molécules d'hydrogène) par unité de volume. Par exemple : .
L'énergie d'une particule vaut par degré de liberté. L'énergie cinétique de translation vaut . Pour une collection de particules, l'énergie cinétique totale se monte tout simplement à .
Selon la théorie cinétique du gaz parfait, la pression, qui dimensionnellement est une densité d'énergie, correspond un flux de quantité de mouvement. En effet, l'énergie cinétique, fonction de la température, peut s'écrire en tenant compte de l'équation d'état du gaz parfait : . avec la masse d'une particule et la densité particulaire. On en déduit : avec la composante de la vitesse selon un seul axe (le milieu étant supposé homogène et isotrope : . On retrouve bien le flux de quantité de mouvement .
Une étoile présente une forme sphérique, pas évidente à voir vu la petitesse du rayon stellaire devant la distance entre elle et le Soleil. Le disque stellaire d'une étoile ne peut être imagé que si cette étoile est une géante du proche voisinage solaire.
Un noyau de comète, tel celui de la comète de Halley, n'est pas assez massif pour être façonné par sa propre gravitation. Sa forme n'est pas sphérique.
Exprimer sous forme d'une pression (la pression centrale) l'autogravitation d'une étoile.
On qualifie d'autogravitant un objet soumis à sa propre gravitation et façonné par elle. Le Soleil, la Terre sont des objets autogravitants. Toi, lecteur, tu n'es pas un objet auto-gravitant (tout au plus sujet à un peu d'embonpoint).
Rien n'interdit à un objet autogravitant de graviter autour d'un autre astre, comme la Terre autour du Soleil ou la Lune autour de la Terre. Un objet autogravitant est de forme sphérique si sa rotation propre n'est pas trop importante, ou ovoïde aplatie dans le cas contraire.
L'analyse dimensionnelle fournit un ordre de grandeur de la pression interne à supporter au sein d'objet autogravitant et à symétrie sphérique de masse et rayon . Elle vaut :
La démonstration est immédiate, étant homogène à une force.
Une valeur plus précise nécessite de modéliser l'allure du profil de masse volumique. Si l'on suppose p.ex. que la masse volumique est uniforme, on trouve un facteur de proportionnalité de ; comme vérifié en exercice.
Mais l'hypothèse d'uniformité n'est pas satisfaisante pour un corps de type stellaire, fortement condensé en son centre. On garde l'ordre de grandeur précédent, acceptable comme le montre le tableau suivant, qui compare l'estimation de la pression centrale et la valeur communément admise (précisément mesurée pour le Soleil et la Terre, via l'étude sismique de ces objets).
objet | (kg) | (km) | (Pa) | Pression réelle (Pa) |
Soleil | ||||
Jupiter | ||||
Terre |
Comme cette pression rend compte de l'interaction gravitationnelle, attractive, on l'appellera par la suite compression. Il va falloir lui trouver, au sein d'un astre, une contrepartie répulsive pour assurer l'équilibre d'une étoile.
La rotation de Saturne est suffisamment rapide pour conduire à un aplatissement sensible.
Le mesurer à l'aide de l'appliquette ci-contre, en déterminant le rapport .
Montrer que l'inclinaison sous laquelle on voit la planète, estimée à partir des anneaux, ne perturbe pas significativement la mesure précédente.
Saturne
Difficulté : ☆☆☆ Temps : 30 min
Le but de l'exercice est d'estimer la constante de proportionnalité de la compression gravitationnelle. Pour dépasser l'approximation d'une masse volumique uniforme, et rendre compte d'une distribution de masse volumique plus piquée vers le centre, tout en gardant des calculs acceptablement légers, on suppose le modèle suivant : .
On s'intéresse à des exposants légèrement négatifs, conduisant à une singularité au centre, qui ne prête pas à conséquence.
Déterminer la relation entre la masse totale et le rayon extérieur . En déduire l'expression du coefficient en fonction de ces grandeurs.
[2 points]
En déduire la masse et le champ gravitationnel en un point de rayon . Quelle condition sur l'exposant garantit que le champ ne diverge pas ?
[2 points]
L'équilibre hydrostatique donne le gradient de pression :
En déduire la pression centrale.
[2 points]
Discuter de la forme du résultat précédent. Que se passe-t-il pour une distribution uniforme ?
[1 points]
Difficulté : ☆☆ Temps : 30 min
Le but de cet exercice est de modéliser la hauteur limite d'une montagne sur une planète de masse et rayon , pour en déduire la transition entre un objet sphérique et un autre ressemblant plutôt, comme les noyaux cométaires, à une grosse cacahuète.
On suppose très hardiment la montagne de forme cylindrique, section et hauteur , dans le champ gravitationnel uniforme de la planète.
Rappeler l'expression du champ gravitationnel . Déterminer l'énergie supplémentaire pour rajouter au sommet une masse , en fonction de et .
[2 points]
En déduire la valeur limite de la hauteur , pour laquelle la couche rajoutée au sommet va conduire à faire fondre une couche équivalente à la base de la montagne. L'exprimer en fonction de la chaleur latente de fusion des roches . Faire l'application numérique pour la Terre, avec .
[2 points]
Les plus hautes montagnes atteignent 8.8 km sur Terre (l'Everest) et 27 sur Mars (le Mont Olympe). A l'aide des données du calcotron, vérifier si l'estimation précédente est correcte.
[1 points]
En supposant toujours valable le résultat précédent, et en notant la masse volumique uniforme de la planète, en déduire le rayon minimum d'une planète sphérique, défini pour des montagnes de hauteur égale au rayon de la planète. Faire l'application numérique avec une masse volumique crustale (de la croûte terrestre) de .
[2 points]
Notion de gaz parfait.
Une étoile peut exister sous réserve d'être dans un état d'équilibre. La compression d'origine gravitationnelle, qui tend à condenser l'étoile, doit être balancée par une autre source de pression : pression cinétique (ou thermique), pression de dégénérescence (ou quantique), pression de rayonnement.
Aussi appelée pression thermique, cette pression est celle du gaz parfait chaud. Dans le cas classique, non relativiste, cette pression s'exprime pour un gaz de masse volumique à la température , composé de particules de masse :
En fonction de la densité particulaire , la définition devient :
La pression de dégénérescence est la pression dans un gaz parfait dit froid. Dans un milieu froid ou dense, les termes cinétiques peuvent devenir négligeables et les interactions entre nuages électroniques des atomes présents prépondérantes. La pression est alors dominée par la pression de dégénérescence des électrons (s'il y a des électrons). Ce terme de pression révèle la nature quantique de la matière : les électrons sont des fermions. Quand ces effets quantiques apparaissent, c'est que la densité de matière devient suffisamment importante pour négliger dans un premier temps l'agitation cinétique.
La pression de dégénérescence s'écrit alors (dans le cas non relativiste) :
avec la masse volumique, et et respectivement la charge et le nombre de masse des atomes en présence. La constante est un nombre : le calcul précis donne .
Dans certains cas, tel l'intérieur d'une étoile à neutrons, il peut ne plus y avoir d'électrons pour assurer la pression. On trouve alors des neutrons, qui sont toujours des fermions, et la pression de dégénérescence des neutrons s'écrit :
La pression de radiation du gaz de photons à la température s'exprime par :
où est la constante de Stefan-Boltzmann : . La grandeur s'écrit : . En unité SI, vaut . La dépendance de cette pression avec la puissance quatrième de la température est bien sûr reliée au spectre du corps noir.
La nature est complexe, si bien que ce qui suit n'est pas toujours vrai, mais en général :
Dans tous les cas, l'un des 3 termes de pression, ou l'association de 2 d'entre eux, doit permettre d'équilibrer la compression gravitationnelle. Si, on le verra plus loin, la source énergétique essentielle pour l'étoile adulte, dans la séquence principale, est l'énergie nucléaire, c'est la gravitation qui pilote l'évolution stellaire via la masse de l'objet.
Les simulations suivantes donnent, pour une étoile de masse, rayon et température de corps fixés, les valeurs de la température centrale (en million de Kelvin) et de la masse volumique centrale (en unité ). Le but de la simulation est d'estimer le terme de pression dominant au centre de l'étoile, en fonction de sa masse. On mènera les calculs avec des pressions exprimées en unité 1 Gbar (1 milliard de fois la pression atmosphérique, soit ).
Estimer tout d'abord la compression gravitationnelle. [ ] pour avoir la bonne unité
Estimer les termes de pression (avec les constantes numériques pour rattraper la bonne unité de pression ci-dessus définie) :
Déterminer l'importance relative des 3 termes de pression. Dans quels cas la pression radiative est-elle négligeable ? Même question pour la pression de dégénérescence.
Montrer que les réservoirs de pression sont suffisants pour contrer la compression gravitationnelle.
Difficulté : ☆☆☆ Temps : 60 min
Cet exercice a pour but d'expliciter l'expression de la pression de Fermi, qui s'exerce lorsque la nature fermionique des composants est mise en évidence. Comme il s'agit de physique complexe, ce sont seulement les ordres de grandeur qui sont importants.
Rappeler la relation d'incertitude de Heisenberg entre la position d'une particule sur un axe et sa quantité de mouvement .
[1 points]
Relier l'incertitude de position à la densité particulaire .
[1 points]
Montrer que, pour un gaz avec une distribution de vitesse typique, maxwellienne, la distribution de vitesse donne une valeur moyenne et une largeur de distribution du même ordre de grandeur.
[1 points]
On rappelle que la pression est un flux de quantité de mouvement
De ce qui précède (en admettant aussi que ), montrer que pour un gaz classique la pression de dégénérescence s'écrit :
[2 points]
Montrer que la pression électronique domine par rapport à la pression des protons.
[1 points]
En déduire l'expression de la pression de dégénérescence donnée dans le cours.
[1 points]
L'observation de groupes stellaires formant apparemment un système lié semble indiquer une origine commune. L'estimation des énergies cinétique et potentielle permet d'estimer l'énergie mécanique totale. Si les termes cinétiques dominent, l'amas est ouvert.
Mesurer l'énergie que représente l'accrétion d'un corps dense.
On s'intéresse à un corps autogravitant de masse et rayon . Quelle énergie peut-on lui associer de par sa gravitation ?
L'analyse dimensionnelle apporte une première réponse à cette question. Avec les caractéristiques de l'objet et la constante gravitationnelle :
Pour s'en convaincre, il suffit de revenir à la définition de l'interaction gravitationnelle.
Avec un peu de physique, on peut se convaincre d'un supplément d'information :
L'interaction en jeu étant attractive, nécessairement l'énergie associée à un corps dense est négative : en effet, pour défaire ce corps, il faudrait lui fournir un travail positif, pour éparpiller très loin chacune de ses particules.
L'énergie potentielle d'interaction gravitationnelle d'un objet est d'autant plus négative qu'il est massif et/ou condensé. Le calcul complet de cette énergie potentielle est proposé en exercice.
Difficulté : ☆☆☆ Temps : 45 min
Cet exercice un peu technique s'adresse surtout aux étudiants en licence ou maîtrise scientifique ; sinon, se contenter de suivre l'approche qualitative.
L'exercice s'attelle à la construction d'un objet stellaire. On part de rien. On y met un chouïa de matière, puis un peu plus, puis encore plus, jusqu'à constituer un corps de rayon et masse . Dans cette modélisation, on suppose qu'à tout moment la masse volumique est uniforme.
On imagine être à une étape intermédiaire caractérisée par un rayon et une masse . Déterminer cette masse, ainsi que son champ gravitationnel.
[2 points]
Déterminer le travail d'un opérateur qui amènerait un surcroît de masse depuis l'infini jusqu'à la surface de cet objet. On définit ce travail par une étape élémentaire (déplacement ):
[2 points]
Cette masse sert à construire l'objet. L'exprimer en fonction de l'accroissement de rayon . Pour simplifier, on suppose ces 2 grandeurs petites, et l'on utilise en conséquence la notation différentielle . Exprimer alors et en fonction de la masse totale finale , des rayons et , et l'accroissement .
[2 points]
En déduire le travail total pour créer le corps, somme de toutes les contributions.
[2 points]
Le milieu interstellaire montre des régions de matière très froide (typiquement 10 K) et très peu dense (quelques particules ), qui contrastent singulièrement avec les étoiles, objets chauds (typiquement en surface, et plusieurs millions de degrés à l'intérieur) et dense (densité particulaire de typiquement ).
Comble du contraste : les étoiles jeunes se situent au sein de ces régions, ou ce qu'il en reste dès lors que le rayonnement de l'étoile parvient à percer.
Un modèle simple permet d'expliquer qu'avec un peu de matière et sans énergie, on peut construire un objet dense et chaud.
Montrer que la contraction d'une masse de gaz conduisant à un corps condensé de rayon donne une température centrale variant comme , d'autant plus élevée que le corps est massif et dense.
On suppose le nuage initialement très peu dense et très froid. Il ne possède ni énergie cinétique (il est trop froid), ni énergie potentielle d'interaction (la matière est beaucoup trop diluée). On résume la situation par une énergie mécanique totale quasi nulle (plus précisément : ces énergies sont initialement totalement négligeables par rapport aux énergies cinétiques et potentielles à venir) :
Dans un état condensé, l'énergie cinétique qui relate l'agitation thermique n'est plus négligeable. Si atomes d'hydrogène sont concernés, l'énergie cinétique (thermique) vaut, à compter de par nucléon :
L'énergie potentielle rend compte de la très énergique interaction gravitationnelle des atomes rassemblés. Cette énergie est négative, car l'interaction gravitationnelle est attractive. On se contente d'un ordre de grandeur, donné par l'analyse dimensionnelle, avec toujours la masse concernée, et le rayon final de l'objet condensé.
L'énergie totale s'exprime alors :
Si l'énergie reste sous forme mécanique, le bilan d'énergie donne, entre les états initial et final :
On en déduit l'ordre de grandeur de la température finale du corps formé par accrétion, ici écrite via l'énergie thermique.
Chaque atome d'hydrogène tombé dans le puits de potentiel stellaire a gagné en énergie thermique ce qu'il a perdu en énergie potentielle.
Le tableau qui suit dont l'ordre de grandeur de la température centrale pour différents objets, et compare l'estimation de cette température et la valeur communément admise suite à une modélisation plus poussée.
objet | M (kg) | R (km) | T estimée | T réelle (K) |
---|---|---|---|---|
Soleil | ||||
Jupiter | ||||
Terre |
On s'aperçoit qu'à partir d'une énergie totale nulle s'est construit un objet condensé, avec donc une énergie d'interaction potentielle gravitationnelle `très négative' (il faudrait dépenser beaucoup d'énergie pour redisperser cet objet), et une énergie cinétique `très positive'.
Remarque : dans ce qui précède, on a négligé toute forme d'énergie autre que mécanique... et cette hypothèse n'est pas tenable. Le corps s'échauffant, il est amené à rayonner. Le théorème du viriel met ceci en musique. Il ne remet pas en cause l'ordre de grandeur établi, mais précise juste les conditions de conservation de l'énergie.
La conservation du moment cinétique et les collisions entre particules conduit à aplatir le système. En effet, par suite des collisions, les composantes de vitesse parallèles au moment cinétique vont peu à peu s'annuler, en gardant une valeur moyenne nulle, quand les vitesses perpendiculaires se thermalisent. Ceci est traité plus en détail à la page consacrée aux disques d'accrétion.
La contraction du nuage l'échauffe en son centre, et donc la proto-étoile se met à rayonner. De l'énergie, initialement sous forme uniquement mécanique, a été convertie en énergie lumineuse.
Par rapport au modèle d'effondrement purement mécanique, il faut tenir compte du rayonnement de la proto-étoile qui s'effondre et s'échauffe. Le théorème du viriel montre que la moitié seulement de l'énergie gagnée par l'effondrement est convertie en énergie thermique, l'autre moitié est directement rayonnée par l'objet condensé qui se réchauffe.
Le modèle étudié précédemment suppose, à juste titre, la conservation de l'énergie, mais à tort que toute cette énergie est sous forme mécanique. Le milieu qui se densifie s'échauffe, et rayonne de l'énergie.
Le théorème du viriel, ici accepté, énonce que l'énergie interne thermique ne représente que la moitié de l'énergie interne gravitationnelle : un bilan énergétique de l'évolution vers un état à l'équilibre hydrostatique implique que la moitié de l'énergie interne est évacuée par radiation.
Lors de la formation d'une étoile, il y a échauffement et obligatoirement perte d'énergie par radiation, à parts égales : .
On peut donc réécrire la loi de conservation de l'énergie :
Avec l'égalité entre les énergies rayonnée et cinétique :
Ceci conduit à une estimation de la température interne de moitié moindre à celle obtenue en omettant l'énergie rayonnée.
La luminosité de l'étoile est reliée au taux de variation de l'énergie rayonnée :
Il s'ensuite que :
De manière plus générale, à tout champ de force correspond une forme particulière du viriel. Pour un champ linéaire (de type ressort), énergies potentielle et cinétique moyennes sont égales. Pour un champ newtonien, elles sont respectivement dans un rapport -2.
Difficulté : ☆☆☆ Temps : 1 h
Cet exercice a pour but d'établir le théorème du viriel, dans un cas simple. On suppose qu'à tout instant, l'astre, sous forme déjà condensée de rayon , obéit à l'équation d'état du gaz parfait classique. On suppose également qu'il possède la symétrie sphérique. La pression est à l'équilibre hydrostatique.
Dans le cadre du modèle, avec les notations du cours, on écrit l'énergie cinétique comme une intégrale : . Réécrire cette intégrale en fonction de la pression.
[1 points]
L'équilibre hydrostatique énonce que le gradient de la pression évolue comme :
Montrer, à l'aide de cette égalité, que l'énergie gravitationnelle peut s'écrire sous la forme d'une intégrale du gradient de la pression.
[3 points]
Estimer le lien entre et en procédant à l'intégration par parties du terme :
[2 points]
En déduire l'égalité vérifiée entre et .
[2 points]
Difficulté : ☆☆ Temps : 20 min
Le but de cet exercice est d'estimer le rayonnement d'une planète géante encore en train de se contracter. On supposera, dans le cas d'un objet de masse volumique uniforme. L'énergie potentielle est :
Relier la luminosité de l'objet à sa vitesse de contraction.
[2 points]
Quelle puissance rayonne une planète comme Jupiter qui se contracterait de 1 mm/an ? On donne : et . Comparer le résultat à la puissance lumineuse reçue du Soleil par Jupiter, de l'ordre de .
[1 points]
N'est-il pas émouvant de se pencher sur le berceau de jeunes êtres débutant sur la scène de la vie ?
Cette section s'intéresse aux mécanismes qui expliquent la formation des étoiles. Le critère de Jeans fournit la condition d'effondrement d'un nuage. L'estimation du temps de Kelvin-Helmholtz mesure la durée cette phase, pendant laquelle une étoile se forme et commence à rayonner.
Bien des points sont laissés de côté par cette étude, tels la distribution de masse des étoiles juste formées, la formation de systèmes binaires ou multiples (2 étoiles sur 3 sont dans un système multiple), qui insistent sur les mécanismes physiques de base pour expliquer les grandes étapes de la formation stellaire.
Le milieu interstellaire, bien visible sur un image de galaxie, contient des poussières et du gaz concentrés dans un disque étroit marquant le plan moyen de la galaxie. La composante gazeuse est principalement constituée d'hydrogène, l'élément le plus abondant de l'Univers ; ce dernier existe sous forme atomique ou moléculaire. Le gaz interstellaire contient aussi quelques traces d'éléments plus lourds, également sous la forme d'atomes ou de molécules.
La poussière interstellaire, fortement absorbante, correspond à des régions sombres en lumière visible, ou bien brillantes en infrarouge. Elle se présente sous la forme de grains extrêmement petits, d'une taille typique de l'ordre d'une fraction de micron. La composition chimique de ces grains est variée : graphite, silicates, carbonates.
Les nuages moléculaires ont une masse qui peut se chiffrer en millions de masse solaire. De ce fait, ils contiennent une grande partie de la masse du milieu interstellaire. Leur taille, qui peut dépasser 50 pc (150 années de lumière), s'accompagne d'une densité de l'ordre de la centaine de molécules par centimètre cube, pour une température interne de seulement de 10 K environ.
Principalement constitués de gaz et de poussières, ces nuages moléculaires peuvent héberger des étoiles en formation ou bien juste formées.
Les étoiles en formation se retrouvent cachées au sein de leur nuage. Les régions de gaz denses qui hébergent ces nouvelles étoiles apparaissent sombres. On les appelle globules de Bok, du nom de l'astronome qui a imaginé leur rôle. Un globule de Bok représente typiquement une dizaine de masses solaires, concentrée en environ 1 AL.
Le fort rayonnement ultraviolet des étoiles jeunes et chaudes conduit à ioniser le gaz environnant. L'émission est dominée par la raie H de l'hydrogène, à 656.3 nm. Il en découle la couleur rougeâtre caractéristique de ces régions.
Les différents stades d'évolution stellaire se côtoient couramment. Des globules de Bok avoisinent des régions HII, le tout balayé par le rayonnement des étoiles déjà formées.
Distinguer les principales composantes du milieu interstellaire (MIS).
Le milieu interstellaire (MIS), composé essentiellement de gaz (99%) et de poussières (1%), se caractérise, loin des sources stellaires, par des températures plutôt froides par rapport aux étoiles et des densités particulaires très faibles. Mais le MIS est intimement associé aux étoiles, soit qu'il en constitue le cocon au sein de laquelle elles se forment et évoluent, soit qu'il corresponde à de la matière éjectée par une étoile en fin de vie.
La principale source de poussières sont les étoiles géantes rouges, sur la branche asympotique. À ce stade d'évolution, ces étoiles synthétisent des éléments lourds, les expulsent par des vents violents, où ces éléments lourds s'agrègent en poussières.
Les nuages protostellaires et les enveloppes circumstellaires peuvent présenter des différences notables. Le but de cette page n'est pas d'en décrire les géographies complexes, mais au-moins de mettre un peu d'ordre. Les composantes sont présentées par densité croissante.
Cette composante du MIS correspond à des régions froides et peu denses essentiellement composés d'hydrogène atomique (forme neutre HI).
La matière froide et dense y est présente sous forme moléculaire. On y décèle la molécule CO et des poussières, jouant un rôle important dans l'équilibre thermique du nuage.
Aux alentours des étoiles en formation, le gaz est chauffé sous l'action du rayonnement stellaire, et ionisé (forme ionisée HII de l'hydrogène). Les régions HII ne sont pas confinées sous leur propre gravitation, mais en expansion.
hydrogène | densité particulaire | température (K) | |
---|---|---|---|
atomique | HI froid | 100 | |
HI tiède | 8000 | ||
moléculaire | |||
ionisé | HII | 10000 | |
diffus | 10000 | ||
chaud | 500 000 |
Ordre de grandeur de la température et de la densité particulaire.
Les appliquettes ci-jointes décrivent différentes régions du milieu interstellaire.
L'allure d'un nuage dépend de la longueur d'onde d'observation.
L'estimation des masse, taille et densité d'un nuage peut dévoiler qu'il n'est pas à l'équilibre. Sa contraction va conduire à une genèse stellaire.
La formation des étoiles est un phénomène de groupe. Un nuage de matière interstellaire donne naissance à de multiples étoiles. La contraction de ce nuage est un phénomène complexe, dans un milieu hétérogène, turbulent...
À quelles conditions un nuage se condense-t-il ? Le critère de Jeans donne une réponse liant la masse ou le rayon limite du nuage à sa densité particulaire et sa température.
Un nuage s'effondre si, perturbé, son énergie mécanique devient négative :
On en déduit une relation sur la masse limite du nuage, fonction de la température (pour l'agitation cinétique) et de la densité (pour la tendance à la contraction). Une masse supérieure à cette masse limite va conduire à la contraction du nuage.
On suppose le milieu homogène et uniforme, et donc le lien entre masse et rayon est simplement . On en déduit, quand il y a effondrement, l'inégalité sur les énergies cinétique et potentielle :
On poursuit le calcul en ne s'intéressant qu'à la dépendance en fonction des variables (ceci permet d'alléger les calculs, et de s'affranchir des constantes numériques qui ne sont de toutes façons pas correctement estimées dans une approche simplifiée). En substituant à , le cas limite de l'égalité précédente donne une dépendance :
On en déduit la masse limite du nuage, appelée masse de Jeans, qui dépend de la température et de la densité du nuage, au-delà de laquelle un nuage est amené à s'effondrer :
Plus le nuage est chaud, plus il peut être massif avant de s'effondrer : la pression cinétique l'aide à se maintenir. A contrario, plus il est dense, plus la masse de Jeans baisse, en raison d'un potentiel gravitationnel, attractif, croissant avec la masse.
En unité de masse solaire, la masse de Jeans devient :
La limite d'effondrement peut également s'exprimer via le rayon du nuage, toujours en fonction de la température du nuage et de sa densité.
Difficulté : ☆ Temps : 20 min
Exprimer le rayon de Jeans en fonction de la masse de Jeans et de la masse volumique d'un nuage.
[2 points]
En déduire comment le rayon de Jeans varie en fonction de la température et de la densité particulaire.
[2 points]
Difficulté : ☆ Temps : 15 min
On s'intéresse au nuage Barnard 68, ici vu en infrarouge. Sa température est estimée à 16 K, sa masse à 2 fois la masse du Soleil, pour un diamètre de 12500 UA.
Déterminer la densité particulaire moyenne du nuage (nombre d'atome H par unité de volume).
[2 points]
En déduire que ce nuage est à la limite de stabilité.
[2 points]
On s'intéresse à différents temps caractéristiques d'un nuage de matière protostellaire. Le temps de chute libre mesure la durée caractéristique de l'accrétion d'un nuage ; le temps de Kelvin-Helmholtz mesure la durée maximale pendant laquelle un objet peut rayonner par simple contraction gravitationnelle.
En supposant que le nuage s'effondre sans rencontrer de résistance, le temps de chute libre correspond à la durée d'effondrement sous l'effet de l'autogravitation du nuage. Le nuage parcourt son rayon sous son propre champ gravitationnel en une durée vérifiant :
Pour un corps autogravitant de masse et rayon , l'analyse dimensionnelle impose :
où est la masse volumique moyenne du corps. Comme l'on considère seulement l'interaction gravitationnelle, en négligeant toute résistance, la température du nuage ne joue aucun rôle. En fonction de la densité particulaire, le temps de chute libre s'exprime :
La contraction d'un nuage s'accompagne, d'après le théorème du viriel d'une puissance rayonnée correspondant au taux de variation de l'énergie potentielle d'interaction gravitationnelle :
La phase de luminosité uniquement due à la contraction gravitationnelle peut se poursuivre sur une durée, appelée temps de Kelvin-Helmholtz, définie par le rapport :
En fonction de ce qui précède, on en déduit que cette constante de temps caractéristique s'exprime :
Elle augmente avec la masse (le réservoir d'énergie) et diminue avec la puissance rayonnée (la perte d'énergie).
Pour le Soleil (avec une puissance rayonnée et les masse et rayon actuels) la constante de temps est de l'ordre de 30 millions d'années. Ceci signifie que, par simple contraction gravitationnelle, le Soleil peut rayonner pendant cette durée, sans autre source d'énergie.
Difficulté : ☆☆ Temps : 10 min
Que mesure la constante de temps de Kelvin-Helmholtz ? De quel phénomène important rend-elle compte
[1 points]
A toute échelle dans l'Univers, on observe des objets présentant une morphologie plutôt bidimensionnelle ou bien plutôt sous forme de tridimensionnelle. Cette morphologie dévoile l'histoire du système, avec un rôle important ou non des collisions.
Le processus d'effondrement d'un nuage et de formation stellaire n'échappe pas à cette règle. Le nuage s'aplatit et forme un disque d'accrétion, qui entoure la jeune étoile.
Le plus souvent, le phénomène d'accrétion s'accompagne de l'émission de jets, émis depuis la région centrale et perpendiculairement au plan du disque.
On observe que la distribution des principaux objets du système solaire est plane. Ce plan coïncide avec le plan équatorial du Soleil : il a été défini lors de sa phase d'accrétion. Seuls les objets ayant peu interagi par collisions avec les autres - les comètes - présentent une distribution sphérique.
Expliquer simplement la tendance des systèmes à s'aplatir dans la phase d'accrétion.
Le mécanisme à l'oeuvre résulte de la conservation du moment cinétique.
Suite aux nombreuses collisions, le nuage s'aplatit dans sa dimension parallèle au moment cinétique, pour former un disque perpendiculaire au moment cinétique initial.
Ce n'est finalement pas un hasard si les principaux composants d'un système planétaire se retrouve dans une distribution relativement plane. Seuls les membres ayant le moins participé à l'accrétion, les plus petits, les comètes, gardent une distribution sphérique uniforme.
Une autre conséquence de la conservation du moment cinétique conduit à la créations de jets, collimatés parallèlement perpendiculairement au disque, et donc parallèlement au moment cinétique.
L'aplatissement d'un système suppose l'interaction et l'accrétion de ces composants. Un système qui ne collisionne pas et n'a jamais été en régime collisionnel reste essentiellement sphérique. C'est le cas des amas globulaires, des galaxies elliptiques.
Les collisions conduisent à l'aplatissement du système, par annulation des composantes de vitesse parallèles au moment cinétique.
L'observation d'une concentration d'étoiles bien regroupées laisse à penser que les objets sont gravitationnellement liées. Nées ensemble d'un même nuage interstellaire, elles évoluent ensemble. Il s'agit d'un amas fermé, regroupant un grand nombre d'étoiles avec une symétrie sphérique et une forte densité stellaire piquée au centre de l'amas.
Les étoiles d'un amas ouvert ne présentent pas cette forte densité stellaire. Les étoiles ne sont plus liées et s'éloignent peu à peu les unes des autres.
La formation d'un système double dans un amas peut changer son identité : le système double pouvant phagocyter l'essentiel de l'énergie de liaison gravitationnelle, libérant ainsi les autres membres du groupes.
Les étoiles naissent en groupe. Elles évoluent ensuite chacune selon leur masse. Dans un amas fermé, elles restent proches les unes des autres.
Potentiel gravitationnel, énergie mécanique.
Un nuage donne naissance à plusieurs étoiles : en effet, en raison de la turbulence et des inhomogénéités du nuage initial, des sous-régions plus denses sont apparues. Les conditions très variées de masse, température et densité du nuage initial conduisent à des étoiles aux masses très différentes, et aux amas de tailles très variées également.
Les amas fermés présentent une énergie mécanique totale négative : leurs étoiles, gravitationnellement liées comme l'était le nuage initial, sont amenées à subir un avenir commun. Le fait d'observer une distribution sphérique indique que, malgré la forte densité d'étoiles, les collisions sont très improbables. En effet, un régime collisionnel conduirait à l'aplatissement du disque.
La dénomination 'amas fermé' a une explication physique. La dénomination 'amas globulaire' provient simplement de leur aspect.
Un amas ouvert possède une énergie mécanique totale positive. Cela peut paraître surprenant, vu qu'il est issu d'un nuage qui, pour exister, devait être gravitationnellement lié, donc avec une énergie mécanique totale initiale négative.
En fait, un amas peut devenir ouvert lorsque une part importante de son énergie d'interaction gravitationnelle, négative, est accaparée lors de la formation d'une binaire très serrée. Le reste de l'énergie à distribuer pour le reste de l'amas est alors positif.
En distinguant a priori les 2 étoiles qui vont évoluer en système binaire :
Si le système binaire est serré :
Les composantes de l'amas vont alors peu à peu se quitter. Le mécanisme est complexe, car lié à la dynamique d'un système à N corps. On comprend que, pour former une binaire serrée, les 2 composantes ont besoin d'interagir avec le groupe. Sinon, dans le cadre du système à 2 corps décrit par la mécanique képlérienne, l'orbite des 2 étoiles n'a aucune raison d'évoluer.
Les raisons motivant l'étude des amas stellaires sont très nombreuses :
Difficulté : ☆☆ Temps : 10 min
Pourquoi les amas ouverts sont-ils en moyenne plus jeunes que les amas fermés ?
La phase de formation ne représente qu'une courte étape dans la vie de la plupart des étoiles. Ensuite, l'étoile doit trouver une autre source d'énergie.
Avec une masse stellaire suffisante, de l'ordre du douzième de la masse du Soleil, la fusion de l'hydrogène peut s'amorcer, et l'étoile entre sur la séquence principale.
Le Soleil présente un âge bien plus avancé que le temps de Kelvin-Helmholtz. Il possède une source d'énergie interne qui explique son rayonnement.
Différentes étapes conduisent à la fusion de 4 protons en un noyau d'hélium, ne faisant intervenir que des paires de réactifs à chaque étape élémentaire.
L'étape limitante de la réaction consiste en la fusion de 2 protons vers un noyau de deutérium, avec émission d'un positron, donc un bilan réduit . L'interaction faible mise en jeu induit un très faible taux de réaction.
A plus haute température (car les noyaux impliquées sont plus lourds, donc plus chargés), le cycle CNO peut s'avérer plus rapide que la chaîne proton-proton. Il est à l'oeuvre dans les étoiles massives. Les noyaux C, N et O participent au cycle, mais n'apparaissent pas dans le bilan final, qui reste la transformation de 4 protons en 1 noyau d'hélium.
Définir dans quelles conditions microphysiques la fusion de l'hydrogène va s'amorcer.
Montrer que la fusion nécessite une température élevée, de l'ordre de .
L'examen des constantes de temps dynamiques et de Kelvin Helmholtz a montré que l'effondrement d'un nuage est relativement bref, et que la puissance rayonnée ne va pas durer éternellement.
La réaction qui de 4 protons conduit à un noyau d'hélium présente un bilan de perte de masse de par proton. L'énergie nucléaire disponible, par fusion de l'hydrogène, est donc de , soit 7 MeV, par nucléon, et a priori de pour toute l'étoile.
En fait, seule la région centrale de l'étoile, la plus chaude, permet la fusion. Dans le cas d'une étoile comme le Soleil, seule une masse est concernée.
La durée de vie à ce régime, pour une étoile comme le Soleil, est alors :
L'application numérique, avec la luminosité solaire mesurée aujourd'hui , le taux de conversion par nucléon et la masse concernée donne :
Une réaction chimique, dégageant typiquement 1 eV par nucléon, soit 1 million de fois moins que la fusion de l'hydrogène, conduirait à une durée de vie de seulement.
L'estimation de 10 milliards d'année pour le Soleil est très proche de ce que donne une modélisation plus poussée. Actuellement, avec un âge de 4.56 milliards d'années, le Soleil est à mi-parcours sur la séquence principale.
Au sein d'une étoile, l'hydrogène est totalement ionisé : la matière se présente sous la forme d'un gaz de protons et d'électrons essentiellement. La réaction entre 2 protons nécessite leur rencontre à très courte distance, car l'interaction nucléaire forte n'a qu'une très courte portée, de l'ordre du femtomètre. Ceci nécessite de vaincre la répulsion électrostatique.
La barrière de potentiel pour une distance de 1 fm entre les 2 protons, peut se traduire en température : de l'ordre de . Traduite en masse stellaire, ceci nécessiterait un minimum de 30 fois la masse du Soleil.
Deux phénomènes se conjuguent pour faciliter la fusion :
Ces points sont quantifiés en exercice.
En pratique, la température limite de fusion de l'hydrogène est de l'ordre de 10 millions de Kelvin. Pour des températures plus faibles, seule la fusion du deutérium peut s'amorcer.
La fusion par le cycle pp domine lorsque la température n'excède pas . Au delà de , le cycle CNO est prépondérant.
Plus les noyaux sont lourds, plus leur fusion nécessite une température élevée. En fonction du nombre de charge de l'élément considéré :
Difficulté : ☆☆ Temps : 40 min
Cet exercice a pour but de quantifier, dans un cadre classique, la température minimale qui doit régner au centre d'une étoile pour que s'amorcent les réactions nucléaires. Il se base sur la figure donnant le potentiel d'interaction entre 2 protons.
Mener un bilan d'énergie, pour déterminer l'énergie cinétique minimale conduisant à la fusion.
[1 points]
En déduire l'expression de la température minimale pour que la fusion puisse avoir lieu.
[2 points]
Faire l'application numérique. On donne en unité SI, et . Qu'en pensez-vous ?
[2 points]
Comment s'écrit cette température s'il s'agit de faire fusionner non pas 2 protons, mais 2 noyaux d'une élément de charge .
En déduire que la température de fusion des éléments lourds nécessite une température bien plus élevée que celle pour l'hydrogène.
[1 points]
Difficulté : ☆☆☆ Temps : 60 min
Sans effet tunnel, la fusion de l'hydrogène nécessiterait des températures très élevées (et p.ex. non atteintes dans l'intérieur du Soleil). Cet exercice a pour but de décrire le rôle de l'effet tunnel dans le cadre d'un modèle très simplifié. On note la position d'un proton par rapport à un autre et la quantité de mouvement du proton incident. L'effet tunnel relie les incertitudes sur la position et la quantité de mouvement d'une particule par la relation :
Relier la distance minimale d'approche des 2 protons à la quantité de mouvement incidente, puis à la température du milieu.
[1 points]
Faire l'application numérique dans le cas d'une distance d'approche de 1 fm, nécessaire pour arriver à une interaction forte entre les protons.
[1 points]
Dans le problème étudié, la loi de distribution des vitesses permet de confondre et avec leurs incertitudes. On se place dans ce cadre là pour traiter cette question.
On suppose que le proton incident ne sait pas localiser l'autre proton, avec une incertitude dépendant de sa quantité de mouvement incidente précédemment calculée (notée simplement ).
Déterminer alors cette incertitude de position.
[3 points]
Faire l'application numérique (on donne en unité SI). En déduire que la température du milieu peut être plus basse pour aboutir à la fusion.
[2 points]
La distribution des quantités de mouvement assure qu'il existe une population avec des protons 3 fois plus rapide que la valeur moyenne. En déduire la température minimale pour la fusion.
[1 points]
Définir dans quelles conditions la fusion de l'hydrogène va s'amorcer.
Pression au centre de l'étoile.
La compression gravitationnelle peut être équilibrée par 3 termes de pression :
respectivement pression du gaz de matière chaud, pression de Fermi et présence du gaz de photons.
La compression gravitationnelle au centre de l'objet varie en fonction de sa masse et de son rayon comme :
Lors de la contraction de l'objet, la température centrale varie en fonction du rayon comme :
(avec la masse du proton). Lorsque décroît, la température augmente, et la pression aussi. La température limite d'enclenchement des réactions nucléaires peut-elle être atteinte ?
La pression cinétique présente la même dépendance en masse et rayon que la compression gravitationnelle :
Avec ces variables, la pression de dégénérescence varie elle comme :
Lorsque l'objet se contracte, cette pression augmente plus vite que la compression gravitationnelle. Elle peut donc bloquer la compression, en atteignant un équilibre caractérisé par :
Dans ces conditions, la température atteinte au centre vaut (en éliminant la variable rayon des équations qui précèdent) :
Si la température centrale atteint 10 millions de Kelvin, une étoile est née. Sinon, il s'agit d'un astre dégénéré sans amorçage des réactions nucléaires.
Il est nécessaire d'avoir une masse initiale suffisante pour atteindre une température permettant d'initier la fusion de l'hydrogène. Un modèle précis donne la masse minimale pour la combustion de l'hydrogène :
Entre 13 et 80 , l'objet ne peut brûler que son deutérium : il s'agit alors d'une naine brune.
La pression de radiation varie comme , donc :
à comparer à la compression gravitationnelle .
Si la masse est trop importante, la pression de radiation va conduire à souffler l'étoile. La limite d'équilibre est atteinte lorsque :
Une modélisation précise donne la valeur numérique :
Difficulté : ☆☆ Temps : 30 min
L'astérosismologie, l'étude de la vibration des étoiles, est une branche récente de la physique stellaire qui apporte de nouvelles observables. La description globale d'un spectre d'oscillation introduit deux fréquences caractéristiques et , respectivement appelées grande séparation et fréquence du maximum de signal sismique. Elles dépendent de la masse , du rayon et de la température effective de l'étoile via les définitions :
avec les valeurs solaires m, kg, Hz, Hz, et K.
Ordonner les valeurs de pour deux étoiles de même type spectral mais présentant un champ gravitationnel très différent.
[2 points]
Quelle mesure intéressante apporte , grandeur mesurée à une précision de l'ordre de quelques pourcents ?
[1 points]
Ordonner les valeurs de la grande séparation pour deux étoiles présentant une masse volumique moyenne très différente.
[1 points]
Calculer et pour une géante rouge, de masse égale à la masse du Soleil, de rayon égal à et de température effective 4 800 K.
[1 points]
Montrer que l'on peut déduire de la mesure de , et une estimation des masse et rayon stellaires. Donner ces expressions ; les exprimer en fonction des valeurs solaires.
[2 points]
Énoncer un des intérêts de l'astérosismologie ?
[1 points]
Difficulté : ☆☆ Temps : 5 min
Pourquoi peut-on penser qu'il n'y aura pas de découvertes de nouvelles classes spectrales même si l'on met en service de nouveaux télescopes de sensibilité encore plus grande ?
Estimer quelques dimensionnements des objets sur la séquence principale à partir de la relation masse-luminosité sur séquence principale ().
En faisant de la physique avec les mains, on démontre rapidement que la luminosité d'une étoile est reliée à sa masse par la relation :
La démonstration complète est hors de portée de ce cours, car elle introduit des éléments de transfert radiatif, qui aboutissent à la relation entre masse et rayon stellaires. Notons les étapes principales.
La luminosité d'une étoile, commensurable à une puissance, est égale au quotient de l'énergie interne du gaz de photons à la constante de temps radiative :
L'énergie interne du gaz de photons est proportionnelle au volume stellaire , ainsi qu'à selon la loi de rayonnement du corps noir). La constante de temps radiative mesure le durée d'échappement des photons, qui résulte d'un phénomène stochastique.
On suppose que le libre parcours moyen d'un photon est uniforme dans tout l'intérieur stellaire. Le processus de marche au hasard demande alors, pour parcourir une distance par étapes de longueur élémentaire , un nombre d'étapes variant comme . On en déduit la constante de temps radiative :
Comme le libre parcours est en fait inversement proportionnel à l'encombrement, donc à la masse volumique, on a :
et
Dans les pages précédentes, des éléments de physique simples ont permis de calibrer les masse volumique et pression internes :
ainsi que la relation donnant la température centrale :
La luminosité du corps noir stellaire vérifie donc :
Observationnellement, l'exposant s'avère être 3.3 :
Cette relation, avec un exposant élevé, signifie qu'une étoile massive va être très lumineuse. Son réservoir de matière étant limité, elle évoluera et mourra beaucoup plus vite qu'une étoile moins massive. Les étoiles les plus massives évoluent en une dizaine de millions d'années. En revanche, une étoile très peu massive a une espérance de vie très longue, se chiffrant en dizaines de milliards d'années.
Avec le réservoir d'énergie donnée par la masse, et la luminosité variant comme , la durée de vie stellaire varie comme :
étoile | (ans) | ||
naine de type M | 0.08 | 100 fois l'âge de l'Univers | |
Soleil | 1 | le Soleil est à mi-vie | |
naine de type O | 40 | très court ! |
Ordre de grandeur de la durée de vie d'une étoile en fonction de sa masse.
Différents modèles stellaires ont été synthétisés. La masse, le rayon et la luminosité sont données en unités solaires, la température de corps noir en Kelvin (on remarquera que le modèle correspondant à 1 masse solaire n'a pas un rayon solaire : la série a été déterminée pour des conditions d'âge et de composition différentes de celles de notre Soleil).
A l'aide de l'appliquette, calculer la luminosité de corps noir Lcn, et vérifier qu'elle correspond à la luminosité modélisée.
Calculer ensuite les luminosités, masses et rayons en échelle logarithmique, et vérifier les exposants des relations de proportionnalité entre la luminosité et la masse d'une part, la luminosité et le rayon d'autre part.
Difficulté : ☆☆ Temps : min
L'amplitude des oscillations de type solaire dépendent du rapport , la luminosité donnant la mesure de l'énergie transportée par convection, et la masse mesurant l'inertie de la réponse. Ces deux grandeurs ne peuvent être mesurées qu'indirectement : la mesure de la luminosité dépend de la distance, et la mesure de la masse nécessite un modèle de structure interne.
Montrer que l'amplitude croît avec le type spectral.
[1 points]
Déterminer la dépendance , avec la température effective (déduit du spectre) et le champ gravitationnel (déduit des profils de raies).
[1 points]
Difficulté : ☆ Temps : 15 min
Le long de la séquence principale, la luminosité d'une étoile varie approximativement comme la puissance 6 de la température, comme le rappelle le diagramme HR ci joint.
Montrer que l'on peut en déduire une relation masse-rayon le long de la séquence principale du type:
[2 points]
Que peut-on en déduire pour le champ gravitationnel d'une étoile de la séquence principale ?
[1 points]
Quels objets d'un champ stellaire sont effectivement des étoiles, et pour quelles raisons ?
Dans les années 1990, des objets présentant une très faible luminosité et un indice de couleur très rouge ont été clairement identifiés comme naines brunes : objet de masse insuffisante pour amorcer la fusion de l'hydrogène mais de masse suffisante pour la fusion de deuterium. Les moyens observationnels actuels permettent de les détecter en grand nombre, par exemple dans un amas. Les modèles de structure interne montrent qu'ils présentent un rayon de l'ordre de celui de Jupiter, pour une température effective de 1000 à 1500 K pour les plus chauds.
La nature du Soleil et des étoiles a été un sujet continu de questionnement au cours de l'histoire :
La question énergétique se pose dès le XVIIIe siècle. Comment le Soleil compense-t-il la perte d'énergie par rayonnement (Herschel, 1795) ? Pour une Terre de 6000 ans (création du monde selon la tradition biblique, ou de quelques millions d'années (Buffon), le mécanisme de Kelvin-Helmholtz convient ; mais lorsque la géologie, par datation des roches terrestres, conduit à un âge supérieur au milliard d'années, les choses se compliquent.
Établir les éléments de définition d'une étoile.
Une étoile passe par une phase adulte, sur la séquence principale, où elle tire son énergie de la fusion de l'hydrogène.
La masse de l'étoile étant apparue comme le paramètre crucial gouvernant sa formation puis son devenir, on récapitule ici comment varient la nature et le rayon d'un objet en fonction de sa masse.
Aux faibles masses (comme celle de la Terre), la matière solide est très peu compressible. La relation masse-rayon d'un simple empilement de masse volumique uniforme donne :
Le rayon croît avec la masse (cas d'une planète de masse inférieure à celle de Jupiter).
Avec l'augmentation de la masse au-dela d’une masse critique proche de la masse de Jupiter, la pression de dégénérescence variant comme l'emporte. L'équilibre de la compression gravitationnelle par la pression de dégénérescence conduit à la relation masse-rayon :
Le rayon de l'objet décroît avec la masse. Ceci n'est bien sûr pas intuitivement évident, mais c'est bien ce que l'on modélise pour les (exo)planètes géantes plus massives que Jupiter.
Pour les étoile de la séquence principale, on a vu :
L'étude à suivre montre l'avenir des étoiles une fois achevée leur vie sur la séquence principale.
Temps : 30 min
Les observations photométriques menées par le satellite CoRoT ont conduit à identifier des populations d'étoiles peu brillantes pour lesquelles peu d'informations sont disponibles. Ici, on travaille avec une estimation de leurs températures effectives et gravités obtenues par suivi spectroscopique au sol. Ces estimations sont compilées dans un graphe (les logarithmes sont calculés pour des gravités exprimées en cm.s-2). Le graphe montre deux populations, que l'on souhaite caractériser.
Déterminer l'expression du champ de gravité de surface d'une étoile de masse et rayon .
Faire l'application numérique pour une étoile comme le Soleil et pour une géante rouge de masse identique, mais rayon . Exprimer les résultats par la valeur .
Positionner les deux types d'objets dans le graphe et en déduire la nature des étoiles observées.
La température effective du Soleil vaut 5777 K. Compter 4800 K pour une géante de
Identifier les deux populations.
Estimer l'ordre de grandeur des plus grandes géantes observées dans l'échantillon.
La mort des étoiles survient lorsque le carburant nucléaire principal, l'hydrogène, fait défaut au centre.
Le stade de géante rouge est atteint par une étoile telle le Soleil en fin de vie. La contraction du noyau, à la recherche d'une source d'énergie autre que la fusion de l'hydrogène, s'accompagne de l'extension de l'enveloppe externe, et de vents stellaires importants, conduisant à l'apparition d'un nuage de poussières circumstellaires.
Une nébuleuse planétaire n'a rien à voir avec une planète, sinon qu'historiquement ce nom a été donnée par confusion observationnelle due à un manque de résolution angulaire.
Une étoile de masse inférieure à 1.5 masse solaire ayant fini de consommer tout son hydrogène, puis son hélium, voit son cœur s'effondrer et se transforme en naine blanche. Les couches externes, expulsées par la pression de radiation, s'étendent autour de l'étoile à une vitesse d'expansion de plusieurs dizaines de kilomètres par seconde. Cette région est ionisée sous l'action des photons ultraviolets émis par l'étoile devenue très chaude ().
Les étoiles les plus massives atteignent le stade de supergéante rouge, telle Bételgeuse. Leur atmosphère, réagissant à la fusion des éléments de plus en plus lourds, atteint des tailles considérables, d'où leur dénomination.
Décrire l'évolution d'une étoile de faible masse (comme le Soleil).
En fin de séquence principale, la plupart des enveloppes stellaires autour du noyau ne sont pas convectives, mais radiatives : l'énergie est évacuée par les photons, sans transport de matière, donc sans mélange. Dès lors, il est inéluctable que, l'hydrogène central arrive à épuisement. L'étoile quitte la séquence principale.
En fait durant cette phase, comme la suivante, l'hydrogène continue à brûler, mais en une fine couche autour du noyau d'hélium.
L'étoile se déplace dans le diagramme HR vers les faibles températures. La baisse de température et l'augmentation du rayon se compensent approximativement : l'évolution a lieu à luminosité quasi constante. C'est la phase de sous-géante.
La rupture de production d'énergie conduit à un déséquilibre de structure, et le noyau d'hélium se contracte pour tenter de retrouver un équilibre. En se contractant, il se réchauffe, et par réaction l'enveloppe extérieure s'étend, et bien sûr la détente s'accompagne d'un refroidissement.
Les étoiles de masse comparable à celle du Soleil voient leur atmosphère se dilater de plusieurs ordres de grandeur (en réponse au cœur d'hélium inerte qui se contracte, et toujours avec une couche d'hydrogène en fusion entre le cœur et l'enveloppe). La luminosité s'accroît considérablement : l'étoile parcourt la branche des géantes rouges.
Durant cette phase, l'étoile redevient entièrement convective, ce qui extrait les éléments lourds produits dans les couches internes vers les couches extérieures. C'est aussi une phase d'instabilité atmosphérique, s'accompagnant au sommet de la branche des géantes d'un fort taux d'éjection de masse, qui peut atteindre par an avec des vitesses d'éjection de l'ordre de 5 à . Cette perte de masse apparaît quand la gravité de surface de l'étoile est devenue très faible : les couches périphériques de l'enveloppe stellaire ne sont plus que très (trop) faiblement liées à l'étoile. L'étoile résiduelle a d'autant plus maigri qu'elle était peu massive au départ, ce qui conduit à des géantes rouges aussi peu massive 0.6 masse solaire après la perte de masse.
Au sommet de la branche des étoiles, les étoiles ont un rayon typiquement entre 100 et 200 fois le rayon solaire, un cœur d'hélium de plus en plus dense et chaud, et une masse allégée.
La contraction du noyau d'hélium conduit à son fort réchauffement. Dès , la fusion de l'hélium peut conduire au carbone, par la réaction bilan : . L'étoile, retrouvant une source d'énergie, retrouve donc une situation d'équilibre. L'apport d'énergie de fusion de l'hélium provoque la dilatation du cœur et l'effondrement de l'enveloppe.
La fusion de l'hélium démarre dans des conditions différentes selon la masse de l'étoile. Une étoile peu massive présente un cœur dégénéré. Cette dégénérescence bloque la fusion de l'hélium, qui ne peut démarrer que dans des conditions brutales, le flash de l'hélium, dès lors qu'une température critique est atteinte. Les étoiles plus massives (de l'ordre de 2 fois la masse du Soleil) ont un cœur plus chaud, non dégénéré, et peuvent commencer la fusion de l'hélium graduellement.
Les étoiles qui brûlent leur hélium central s'accumulent sur le clump, l'extrémité la plus froide de la branche horizontale des géantes. Leur rayon vaut typiquement .
Lorsque l'hélium est épuisé dans le cœur, l'équilibre de l'étoile est perturbé. Sans source d'énergie interne, le cœur se contracte, et donc l'enveloppe recommence à s'étendre. Le mécanisme qui associe le contraction (dilatation) du cœur et la dilatation (contraction) conjointe de l'enveloppe est identique à celui à l'œuvre sur la branche des géantes.
Ce mécanisme de miroir comporte trois ingrédients : un cœur qui produit peu ou pas de l'énergie, une enveloppe essentiellement convective, et à l'interface une couche d'hydrogène en fusion. Si le cœur se contracte, la couche d'hydrogène voit sa température augmenter, et ceci provoque la dilation de l'enveloppe, et réciproquement.
Dans le diagramme HR, la branche asymptotique est parallèle à la branches des géantes rouges, un peu plus chaude. L'avenir de l'étoile dépend de sa masse. La perte de masse est aussi cruciale pour cette phase d'évolution.
La perte de masse pouvant durer jusqu'à un million d'années, ces étoiles de la branche asymptotique s'entourent progressivement d'une enveloppe qui peut atteindre plusieurs masses solaires, et des dimensions importantes, de l'ordre d'une année de lumière, contribuant ainsi à l'enrichissement du milieu interstellaire, avec des éléments plus lourds que l'hydrogène et l'hélium.
Si la masse de l'étoile (plus précisément, de ce qu'il en reste, car la perte de masse est importante au sommet de la branche asymptotique) est assez importante, le cœur pourra se contracter, à l'épuisement des éléments les plus légers, pour démarrer la fusion des éléments plus lourds.
La fusion du carbone ensuite conduit au néon, à l'oxygène. Tous les éléments jusqu'au fer peuvent ainsi être produits par fusion dans les étoiles les plus massives : une étoile massive est une usine à éléments lourds.
Si la masse de l'étoile n'est pas trop importante, arrive un moment où la température centrale limitée ne permet plus de trouver de nouvelle source d'énergie. Seule subsiste la pression de dégénérescence des électrons pour soutenir l'étoile. Ses régions internes se contractent jusqu'à former une naine blanche, tandis que les couches externes expulsées par la pression de radiation donnent naissance à une nébuleuse planétaire.
La perte de masse des étoiles géantes rouges est perceptible dans un diagramme rayon-masse obtenu par les données astérosismiques, d'après lesquelles on peut distinguer les étoiles montant la première branche des géantes rouges de celles qui, passées par le sommet de la branche des géantes et l'épisode correspondant de perte de masse, se retrouvent sur le clump et brûlent l'hélium. Alors que les étoiles qui montent la branche ont des masses de 1 à 2 fois la masse du Soleil, celles du clump peuvent avoir des masses plus petites. C'est la signature de la perte de masse.
Evolution d'une supergéante
L'énergie gravitationnelle des étoiles les plus massives leur permet d'aborder la fusion des éléments les plus lourds.
L'examen d'un champ stellaire peut mettre en évidence des objets de très petit rayon mais très chauds, des naines blanches. Le contraste de luminosité avec une étoile de la séquence principale est très marqué.
Caractériser les naines blanches dans l'évolution stellaire : l'état de naine blanche constitue l'étape ultime de l'évolution des étoiles peu massives.
En l'absence de carburant nucléaire, l'hydrogène étant épuisé au centre de l'étoile, le noyau se contracte, pour atteindre une température centrale plus élevée par le processus de Kelvin-Helmholtz. L'étoile atteint le stage de naine blanche : blanche, car très chaude, et naine car réduite par rapport au rayon qu'elle avait sur la séquence principale.
Le rayon d'une naine blanche provient de l'équilibre entre la compression gravitationnelle et la pression de dégénérescence électronique, qui s'écrit :
Le rayon d'une naine blanche devient :
Ce rayon décroît avec la masse ! Pour une étoile de masse solaire, en s'appuyant sur un modèle précis, on trouve que le rayon est de l'ordre de 7000 km (soit environ 1/100 du rayon initial et de l'ordre de grandeur du rayon terrestre).
Dans ces conditions, la masse volumique d'une naine blanche de masse solaire atteint , ce qui représente environ 1 million de fois la masse volumique initiale.
Dans un système double, l'accrétion de la matière du compagnon par une naine blanche donne le phénomène de nova.
Difficulté : ☆ Temps : 15 min
Déterminer le champ gravitationnel d'une naine blanche de masse et de rayon .
[2 points]
Déterminer sa vitesse de libération.
[2 points]
Lorsque la masse du noyau de l'étoile dépasse , il arrive un stade de l'évolution où la pression de Fermi des électrons ne parvient plus à soutenir l'étoile.
Lorsque la masse d'une naine blanche croît, et donc avec un rayon de plus en plus petit, sa masse volumique et sa température croissent également. Il faut alors considérer les électrons comme relativistes. Leur pression, toujours définie comme flux de quantité de mouvement, devient dans ce cas (avec ) :
On en déduit l'expression de la pression de dégénérescence relativiste.
où représente la charge volumique, et le nombre de masse des atomes en présence.
L'équilibre de l'objet doit être réalisé entre la pression de dégénérescence relativiste et la compression gravitationnelle :
Ces 2 termes présentent la même dépendance en fonction du rayon : contrairement au cas classique, une diminution de rayon ne permet plus à la pression de Fermi de soutenir l'étoile. En revanche, la dépendance en fonction de la masse est en défaveur de la pression de Fermi : si la masse de l'objet devient trop importante, cette pression ne fait plus l'affaire pour soutenir l'étoile.
L'application numérique montre qu'au-delà de , l'étoile n'est plus soutenue. Un calcul plus précise donne pour cette masse limite, dite masse de Chandrasekhar, au-delà de laquelle l'étoile va s'effondrer faute du soutien de la pression de dégénérescence des électrons, la valeur :
Une étoile dont la masse du noyau central est supérieure à cette valeur s'effondre vers une étoile à neutrons.
Un objet simultanément très chaud (plusieurs centaines de milliers de Kelvin, soit bien plus qu'une étoile de la séquence principale) et très peu lumineux ne peut être, d'après la loi de rayonnement du corps noir, qu'extrêmement petit. C'est ainsi qu'ont été identifiées les étoiles à neutrons, rayonnant l'essentiel de leur énergie dans les domaines X et gamma.
Un pulsar (de l'anglais pulsating radio source) correspond à une étoile à neutrons dont on observe le rayonnement électromagnétique modulé par la rotation rapide. La rapidité de la période de rotation observée provient du très petit rayon de l'étoile à neutrons.
Le faisceau du pulsar correspond au rayonnement synchrotron des électrons accélérés le long des lignes de champ magnétique. C'est ce phénomène de pulsar qui a conduit à la découverte des premières étoiles à neutrons.
Décrire simplement cet objet hors du commun qu'est une étoile à neutrons.
L'existence des étoiles à neutrons a été supposée dès l'identification du neutron, comme résidus de supernova.
Au delà de la masse de Chandrasekhar, la pression de Fermi des électrons ne peut plus soutenir l'étoile. La contraction conduit les électrons à flirter intensément avec les protons. L'interaction nucléaire faible est alors sollicitée : elle transforme un proton et un électron en un neutron.
Néanmoins, la réaction de neutronisation :
est impossible au repos, car le bilan de masse ne lui est pas favorable. En effet, l'énergie de masse de l'électron (0.5 MeV) apparaît bien inférieure à la différence d'énergie de masse entre proton et neutron (1.3 MeV).
Néanmoins, lorsque les électrons deviennent relativistes, leur énergie totale peut dépasser ce niveau nécessaire de 1.3 MeV (atteint pour une vitesse de 0.92 c). La réaction de neutronisation devient alors possible. C'est cette condition sur la vitesse des électrons qui se traduit par le seuil de masse correspondant à la masse de Chandrasekhar.
Les neutrons, qui sont aussi des fermions, prennent la relève pour assurer l'équilibre de l'étoile. En effet, comme ils sont beaucoup plus massifs, ils ne sont pas relativistes, et leur pression de Fermi s'exprime comme :
Elle varie donc en fonction du rayon comme . On assiste alors à un nouvel équilibre, atteint pour un rayon bien plus petit que pour une naine blanche, en raison du facteur .
Ce nouvel équilibre se caractérise par un rayon, estimé en km :
Dans ces conditions, la masse volumique atteint des valeurs gigantesques :
On retrouve en fait la masse volumique de la matière nucléaire. L'étoile à neutrons est analogue à une noyau surdimensionné de nombre de masse .
De temps à autre, un point extrêmement brillant apparaît dans une galaxie lointaine. Un noyau stellaire s'effondre.
Chaque supernova sème dans le milieu interstellaire l'essentiel de son enveloppe stellaire.
Le passage d'une naine blanche à une étoile à neutrons s'accompagne d'une débauche d'énergie : une supernova de type II.
La réaction de neutronisation s'accompagne d'un effondrement de l'étoile :
La chute libre de l'objet qui se retrouve hors équilibre se déroule en une durée très brève,
de l'ordre de quelques secondes.
L'énergie mise en jeu lors de l'effondrement est gigantesque ; le rapport des rayons est tellement disproportionné que l'on peut écrire :
Soit une débauche de l'ordre de :
L'essentiel du pic lumineux est émis en un mois. Il s'ensuit qu'une supernova de type II rayonne durant ce laps de temps quasiment autant qu'une galaxie entière.
Une supernova de type I correspond à un autre événement violent, au sein d'une binaire évoluée où l'un des membres (la primaire) a déjà atteint le stade de naine blanche. Lorsque l'étoile secondaire atteint le stade de géante rouge, un violent transfert de masse peut se créer vers la primaire. Si le taux d'accrétion est suffisamment grand, la primaire atteint la masse limite de Chandrasekhar et finit par exploser en fusionnant carbone et oxygène jusqu'à former les éléments du pic du fer. Contrairement à une supernova de type II, aucun débris ne subsiste : la totalité des éléments produits va enrichir le milieu interstellaire.
Supernova | Type I | Type II |
Cause | accrétion | effondrement du cœur |
Magnitude absolue | -19.5 | -18.5 |
Spectre | métaux | hydrogène et continu |
Régions | systèmes stellaires âgés | régions de formation d'étoiles |
Précurseur | naine blanche dans un système binaire | étoile très massive |
Déclenchement | transfert de masse du compagnon | effondrement du cœur stellaire |
Mécanisme | explosion thermonucléaire du cœur carbone/oxygène qui fusionne pour former du fer | onde de choc de rebond de la surface de l'étoile à neutrons |
Résidu | rien | étoile à neutrons ou trou noir |
Débris expulsés | principalement du fer | tous les éléments lourds et beaucoup d'hydrogène |
Distinction entre supernova de type I ou II
Les trous noirs stellaires se cachent mieux que les trous noirs au centre d'une galaxie. De nombreux candidats trous noirs stellaire sont recensés. Leur observation reste difficile, associée en fait à des régions d'émissions très énergétiques, mais cachées car de très petit volume.
Le premier candidat, Cygnus X-1, fut découvert par le satellite Uhuru en lumière X.
Une étoile de masse centrale supérieure à environ 3 fois la masse du Soleil évolue vers le stade trou noir.
Le rayon d'une étoile à neutrons diminuant avec la masse
il s'ensuit une masse volumique et une vitesse de libération énormes. La limite correspond au rayon dit de Schwarzschild
.
Le stade de trou noir est atteint : le rayonnement est piégé par le champ gravitationnel. Un trou noir se signale alors par le formidable gradient de champ gravitationnel qu'il induit dans son entourage.
Pour arriver au stage de trou noir stellaire, une étoile doit au-moins posséder un noyau de masse centrale supérieure à 3 masses solaires. Ceci correspond à une masse progénitrice initialement bien plus élevée (), mais diminuée des pertes par vent stellaire.
Les étoiles les plus massives quittent la séquence principale alors même qu'elles ne sont pas sorties du nuage de matière interstellaire qui les a créées.
Un spectre stellaire montre une abondance de raies, avec la signature chimique de tous les éléments de la classification périodique. Ces éléments ont été pour l'essentiel créés lors de l'évolution des étoiles les plus massives, qui les essaiment sous l'influence d'un fort vent stellaire accéléré par la pression de radiation.
Un exemple d'étoiles avec fort vent stellaire est la classe des étoiles de Wolf-Rayet, de type spectral O, très chaudes. L'intense pression radiative souffle leur enveloppe d'hydrogène et génère une perte de masse importante. L'enveloppe très chaude d'une Wolf-Rayet produit un spectre en émission. La diversité des vitesses des couches sondées donne des raies très élargies par effet Doppler-Fizeau.
Aperçu sur les réactions nucléaires à l'oeuvre dans une étoile très massive.
Les hautes températures rencontrées durant les phases énergétiques de la fin de vie des étoiles les plus massives permettent la fusion des éléments jusqu'au fer. Ainsi, la synthèse triple conduit, à partir de 3 noyaux d'hélium, à un noyau de carbone.
La température d'ignition augmente avec le nombre de charge des réactifs de la fusion. En revanche, les réactions sont de moins en moins exothermiques, jusqu'au fer.
Etape | Température (K) | Masse volumique (kg/m3) | Durée |
---|---|---|---|
Fusion H | 5000 | ans | |
Fusion He | ans | ||
Fusion C | 600 ans | ||
Fusion O | 6 mois | ||
Fusion Si | 1 jour | ||
Effondrement du cœur | 1/4 s |
Les étapes de fusion sont de plus en plus courtes, et à forte température.
Au delà du fer (Z=26, A =56), le bilan des énergies de liaison entre nucléons est défavorable : d'exothermique, la fusion devient endothermique. La forte stabilité du noyau du fer conduit à son pic d'abondance.
Les éléments plus lourds que le fer résultent de phénomène d'addition de neutrons, transmuant des noyaux déjà massifs en éléments encore plus massifs (plomb, or, jusqu'à l'uranium). La lenteur du processus, et les conditions thermodynamiques défavorables, expliquent la faible abondance relative de ces éléments plus lourds que le fer.
La pression de radiation générée par les températures élevées conduit à un fort vent stellaire, qui souffle l'enveloppe extérieur (comme pour les étoiles Wolf-Rayet par exemple), et donc conduit à essaimer les matériaux lourds synthétisés dans la forge stellaire. Peu à peu, l'Univers s'enrichit en éléments plus lourds que l'hydrogène et l'hélium créés lors du big-bang.
Les sections précédentes ont décrit les processus physiques à l'oeuvre au sein des étoiles au cours de leur évolution. Celle-ci présente des résultats issus de modélisations numériques détaillées, et s'intéresse à l'évolution des étoiles de différentes masses dans le diagramme HR.
Lorsqu'une étoile naît à partir de l'effondrement gravitationnel d'un nuage de gaz et que les premières réactions nucléaires démarrent en son coeur et fournissent son processus de rayonnement, elle se retrouve très rapidement sur la séquence principale.
On décrit alors l'étoile comme un système en équilibre entre la gravitation (force d'attraction en direction du centre de l'étoile) et la pression du gaz et du rayonnement (qui pousse vers l'extérieur). Plus l'étoile est massive, plus elle est chaude et lumineuse (en haut à gauche du diagramme), et plus elle est petite, plus elle se trouve au contraire dans la partie basse, sur la droite du diagramme.
Pour des étoiles de masse inférieure à la moitié de la masse du Soleil, également appelées naines froides, il n'y a pas de fusion d'éléments plus lourds après la fusion de l'hydrogène. La durée de vie de ces étoiles sur la séquence principale est supérieure à l'âge actuel de l'Univers (environ 14 milliards d'années). Les modèles d'évolution stellaire prévoient que ces étoiles finissent en naines blanches d'hélium... mais il est encore trop tôt pour en observer.
Entre 0,5 et 7 masses solaires, seuls l'hydrogène puis l'hélium vont pouvoir fusionner dans l'étoile. Sur la séquence principale, il y aura d'abord fusion de l'hydrogène dans le coeur. Puis l'hydrogène va fusionner dans une couche autour du coeur d'hélium. L'enveloppe de l'étoile se dilate et refroidit : l'étoile devient une géante rouge. La diminution de la température est suffisamment compensée par l'augmentation simultanée du rayon pour faire croître la luminosité. L'étoile monte dans le diagramme HR.
La fusion de l'hélium du coeur peut alors démarrer. L'étoile se recontracte. La fusion de l'hélium va alors produire du carbone et de l'oxygène d'abord dans le coeur. L'étoile redescend dans le diagramme HR. La fusion du carbone nécessite une température centrale d'environ , non atteinte pour ces masses intermédiaires.
L'étoile finit en nébuleuse planétaire avec formation au centre d'une naine blanche de carbone et d'oxygène.
À partir de la séquence principale, les éléments de plus en plus massifs fusionnent au coeur de l'étoile. Les éléments moins massifs continuent de fusionner en couches, enrichissant les couches plus profondes en produits de fusion. De forts vents stellaires sont observés.
Lorsque le noyau de fer dépasse la masse limite de Chandrasekhar, il s'effondre. Le vide créé aspire la matière de l'étoile qui rebondit et crée une onde de choc qui expulse violemment toutes les couches externes : c'est une supernova de type II. Le résidu du coeur de fer effondré forme une étoile à neutrons ou un trou noir selon sa masse.
La rapidité de l'évolution et des différentes phases de fusion nucléaire dépend essentiellement de sa masse et de sa composition chimique initiale. Ainsi une étoile de 1 masse solaire passera environ 10 milliards d'années sur la séquence principale, contre 20 à 30 milliards d'années pour une étoile d'un dixième de masse solaire, et seulement quelques millions d'années pour une étoile très massive de 50 masses solaires.
Masse initiale (en unité de masse solaire) | Fusion | Evolution | Stade final |
D | Naine brune, et non étoile | Naine brune | |
0.08 - 0.5 | H | Evolution très lente, sur une durée de vie supérieure à l'âge de l'Univers | Naine blanche d'hélium (?) |
0.5 - 7 | H, puis He | Fin en nébuleuse planétaire | Naine blanche C, O |
8 - 25 | H, puis He, puis C et O | Fusion de H sur la séquence principale puis fusion He, C, O... lors de la phase de supergéante rouge. Structure en couche avec un coeur de fer entouré d'éléments de plus en plus légers en train de fusionner | Supernova de type II, puis étoile à neutrons |
25+ | idem | idem | Supernova de type II, puis trou noir |
Récapitulatif de l'évolution stellaire.
L'appliquette ci-jointe décrit les étapes de l'évolution d'une étoile en fonction de sa masse : séquence principale de l'âge 0 à la contraction du noyau d'hélium, stade géante rouge...
Le trajet d'évolution d'une étoile dans le diagramme HR dépend intimement de sa masse. Plusieurs cas sont représentés, pour diverses masses (unité = masse solaire) : 0.8, 1.5, 2, 4, 7, 25 .
L'échelle de temps, adaptée à chaque cas en fonction de la rapidité de l'évolution, n'est pas linéaire. Les étoiles, sauf les plus massives, vont longtemps stationner sur la séquence principale, puis plus rapidement évoluer vers les stades ultimes lorsque la réserve d'énergie s'épuise.
Difficulté : ☆ Temps : 15 min
Le satellite CoRoT observe différents champs stellaires. Une modélisation des cibles conduit aux histogrammes de leur température effective et de leur champ de gravité de surface (traduit par la valeur (avec en cm s).
Rappeler comment sont déterminées observationnellement les paramètres considérés.
[2 points]
Identifier les 2 populations stellaires qui dominent les observations.
[2 points]
On s'intéresse au pic principal de la distribution. Expliquer les raisons de la décroissance aux plus faibles et plus fortes températures.
[2 points]
Les étoiles d'un amas, nées simultanément, évoluent différentiellement selon leur masse. Les courbes isochrones (de même âge) le montrent clairement : les plus massives atteignent très rapidement leur stade ultime, et donc quittent rapidement la séquence principale, quand les moins massives y restent sur une durée plus longue que l'âge actuel de l'Univers. Un amas âgé ne contiendra donc pas d'étoiles jeunes, contrairement à un amas jeune.
L'allure du diagramme HR d'un amas renseigne donc sur son âge. L'absence d'étoiles bleues et chaudes signe un âge avancé.
Les étoiles d'un amas ayant le même âge. Par ailleurs elles évoluent en fonction de leur masse. L'étude de la population des amas permet la détermination de leur âge.
Au cours de leur évolution, les amas se dépeuplent des étoiles les plus massives. Il s'ensuit que le diagramme HR d'un amas âgé montre une séquence principale uniquement peuplée d'étoiles froides, et de géantes rouges : plus un amas est âgé, plus il est dépeuplé en étoiles chaudes.
Les étoiles d'un amas, nées simultanément, évoluent différentiellement selon leur masse. Les plus massives atteignent très rapidement leur stade ultime, quand les moins massives ne quittent pas la séquence principale.
Voir les simulations proposées à la page.
L'astrophysique d'aujourd'hui s'appuie sur des outils instrumentaux de pointe.
Le but de ce chapitre est de parcourir quelques-uns des grands principes instrumentaux, qui permettent de mesurer les informations spatiale, spectrale, temporelle... présentes dans les signaux astrophysiques. Il montre comment recueillir, décortiquer, investiguer, redresser et interpréter ces derniers.
Le sous-chapitre Outils rappelle des notions d'optique (géométrique et physique) indispensables.
Le sous-chapitre Chaîne de mesure raconte le chemin des photons, de leur collecte au traitement du signal qu'ils transportent.
Le sous-chapitre Techniques et instruments dévoile plus en détail différents types d'instruments, dont l'optique adaptative.
Le chapitre Outils reprend quelques grandes lignes de l'optique géométrique et de l'optique physique, dans une approche clairement astrophysique (les objets sont p.ex. vraiment à l'infini !), nécessaires à la compréhension de la formation des images en astrophysique.
Quelques notions d'optique de base sont rappelées, afin de comprendre dans les grandes lignes les principes instrumentaux les plus couramment mis en oeuvre pour acquérir une image en astronomie.
Les images de grands champs stellaires sont typiquement obtenues par observation au foyer primaire d'un télescope, càd au foyer du miroir primaire collecteur de photons.
Pour en savoir plus : projet MEGACAM du télescope CFH
Optique géométrique : vocabulaire de l'optique géométrique, image d'un objet à l'infini.
Formation d'image au foyer primaire d'un télescope.
Le collecteur de photons le plus couramment utilisé est le miroir parabolique, qui convertit après réflection une onde plane en une onde sphérique convergente. Un miroir parabolique conjugue ainsi les sources de lumière situées à l'infini au foyer de la parabole. Un tel collecteur est équivalent à une lentille de diamètre et focale identique. Une lentille fonctionne en transmission et non en réflexion comme un miroir, mais le principe de fonctionnement est le même. Une lentille transforme une onde plane en onde sphérique, et concentre ainsi la lumière provenant d'une étoile lointaine située sur son axe optique en son foyer.
Un objet à l'infini, s'il est résolu, se caractérise par une taille angulaire . Au foyer du miroir primaire du télescope, cet objet donne une image de taille linéaire telle que , avec la focale du collecteur. L'angle est le plus souvent très petit, et donc confondu avec sa tangente. On garde, avec compté en radian :
L'analogie avec une lentille est directe.
Tous les systèmes optiques donnant une image réelle d'un objet réel peuvent se résumer en un système comprenant une seule lentille, équivalant au système entier. Dans le cas de l'observation astronomique où, mis à part l'observation in situ apportée par les atterrisseurs des sondes planétaires, l'objet est à l'infini, l'observation a donc lieu au foyer image de cette lentille équivalente.
Localisation du foyer primaire, et donnée de quelques éléments d'un télescope en monture équatoriale.
La parabole a pour propriété de ramener l'ensemble des rayons lumineux en provenance d'une source située à l'infini sur son axe optique (l'onde incidente est alors plane) en un même point : son foyer. On parle alors de conjugaison optique entre le foyer de la parabole et l'infini.
Ceci n'est en fait rigoureusement vrai que pour un rayon incident parallèle à l'axe de la parabole. Un faisceau de rayons parallèles inclinés sur l'axe optique ne va pas converger en un foyer unique, ce qui conduit à l'aberration de sphéricité : le plan focal est en fait incurvé.
L'appliquette ci-jointe montre comment déterminer la lentille simple équivalente à un montage optique recueillant un faisceau provenant de l'infini. Elle se situe à l'intersection des rayons incidents d'une part, et convergeant vers le détecteur d'autre part.
L'appliquette ci-jointe rappelle, si besoin est, les règles pour localiser l'image par une lentille d'un objet à distance finie.
Image d'un objet à l'infini, image d'un objet au foyer.
L'étude d'un montage optique particulièrement utile en astronomie, le montage afocal, montre que la taille angulaire du champ sur le ciel (champ objet) et le diamètre du faisceau lumineux en sortie de l'instrument sont liés de façon simple au grossissement du système.
Que ce soit pour observer à l'oeil nu, ou pour alimenter un spectromètre, le collecteur a pour fonction de transformer un faisceau à l'infini en un autre faisceau à l'infini.
L'objectif (la lentille ou le miroir côté objet) forme de l'objet à l'infini une image au foyer. L'oculaire (si le détecteur est l'oeil) ou l'optique de chambre permet de regarder cet objet à l'infini.
L'association de 2 optiques, l'objectif (côté objet) et l'oculaire (côté oeil) de foyer commun, transforme un faisceau parallèle en un autre faisceau parallèle.
Les focales équivalentes de l'objectif et de l'oculaire étant respectivement et , le grossissement du faisceau, égal au rapport des tailles angulaires des image et objet , vaut en valeur absolue :
En effet, l'image intermédiaire au foyer commun a pour taille linéaire .
Les focales équivalentes de l'objectif et de l'oculaire étant respectivement et , le rapport des tailles du faisceau en entrée et en sortie vaut, en valeur absolue :
En effet, l'inclinaison du faisceau entre les foyers s'écrit, dans l'hypothèse des petits angles (pour laquelle ) : .
Le diamètre du faisceau en sortie est d'autant plus important que le champ objet est grand.
De ce qui précède, on déduit qu'en sortie d'un montage afocal, une instrumentation de taille réduite (dimensionnée par ) va nécessiter un grossissement élevé, et donc ne pourra porter que sur un champ objet de taille restreinte.
La notion d'étendue de faisceau généralise cette idée.
Viser un objet, c'est arriver à positionner précisément un collecteur et son instrument d'analyse. Ensuite, selon les objectifs scientifiques, on s'intéresse à un champ plus ou moins grand. La taille du champ est reliée aux propriétés du collecteur et de l'instrumentation.
L'angle d'ouverture d'un collecteur de lumière mesure le rapport entre le diamètre du collecteur et la focale résultante. Les instruments anciens et les lunettes présentent des angles d'ouverture fermés : le tube focal, de longueur très voisine de la focale résultante, est long et grand devant le diamètre collecteur. Les collecteurs récents et/ou de grand diamètre présentent de grands angles d'ouverture, pour limiter leur longueur. Il en est de même des antennes submillimétriques.
L'observation sur un grand champ nécessite un grand détecteur. Ceci est aujourd'hui réalisé par la juxtaposition de plusieurs détecteurs bidimensionnels de lumière comme les CCD ou les CMOS.
Optique géométrique
Former une image dans de 'bonnes' conditions nécessite de bien dimensionner une optique ; le champ est l'une des grandeurs importantes à considérer. Il dépend des propriétés d'ouverture du collecteur.
Un télescope se caractérise par sa focale résultante et par le diamètre du collecteur.
L'angle d'ouverture d'un instrument est le rapport entre le diamètre et la focale résultante, soit, avec les notations proposées, .
Le nombre d'ouverture d'un télescope est le rapport inverse.
Comme en photographie, on parle d'un instrument ouvert à avec respectivement les nombres d'ouverture .
Exemples typiques d'ouverture : de à .
Plus le nombre d'ouverture est petit, plus le télescope est ouvert (grand angle d'ouverture) et admet des rayons de grande inclinaison. Un petit nombre d'ouverture correspond à une courte focale, ou à un grand diamètre.
Les télescopes les plus récents (télescopes optiques, radiotélescopes), de par leur grand diamètre collecteur, sont en général très ouverts, afin de limiter la longueur de leur focale, et donc leur encombrement.
Le champ objet est la région du ciel effectivement observée dans de bonnes conditions (stigmatisme suffisant pour la qualité d'image requise ; éclairement du champ uniforme, sans vignetage). Son extension dépend du collecteur, et de l'instrumentation et de son grossissement.
Avec la focale résultante d'un collecteur et la taille du détecteur effectivement éclairée, le champ objet s'écrit simplement (dans l'approximation des petits angles) :
Comme l'angle d'ouverture, le champ objet décroît si la focale du télescope augmente.
L'animation illustre comment l'ouverture géométrique d'un télescope varie avec la focale d'un collecteur. Plus le télescope est ouvert, plus l'inclinaison des rayons dans le télescope est importante.
L'animation illustre comment la taille du champ objet varie avec la focale du collecteur.
Les données de l'appliquette ci-jointe reportent les mesures effectuées par un groupe d'étudiants observant au télescope de 60 cm du campus de Meudon de l'Observatoire de Paris. Le but de l'observation, premier contact avec le télescope, consiste à prendre conscience que le champ accessible au pointage est restreint, et qu'il est nécessaire pour pouvoir pointer un objet de garantir une précision angulaire, exprimée en seconde de temps et non d'angle, meilleure que 30 s.
Traversée du champ
L'entraînement du télescope étant arrêté, les étoiles défilent dans le champ : les durées T1 et T2 mesurent la traversée du diamètre du champ par des étoiles brillantes, pour deux grossissements différents.
Difficulté : ☆ Temps : 10 min
Déterminer la focale équivalente d'un télescope de diamètre ouvert à f/3.75.
L'image est formée sur une matrice CCD de pixels, avec des pixels carrés de côté . Quel champ voit un pixel ? Déterminer le champ de vue total dans le ciel.
Difficulté : ☆ Temps : 20 min
Le télescope T60, installé sur la table équatoriale du campus de Meudon de l'Observatoire de Paris, présente un miroir primaire de diamètre =60 cm.
Déterminer son nombre d'ouverture, sachant que sa focale résultante vaut F = 9 m.
Quel grossissement est obtenu avec des oculaires de distance focale 45 ou 30 mm ?
L'ouverture du faisceau image étant de toutes façons inférieure au champ de vision de l'oeil (environ 60 degrés), déterminer le diamètre maximal du champ objet pour un oculaire de focale 45 ou 30 mm.
Difficulté : ☆☆ Temps : 30 min
Cet exercice s'appuie sur les données de l'appliquette "mesure du champ". Il est préférable d'avoir auparavant traité la section Systèmes de coordonnées .
Montrer par un schéma qu'une étoile de déclinaison possède, du fait de la rotation diurne, une vitesse angulaire proportionnelle à .
[2 points]
L'étoile traverse le champ de l'instrument, de diamètre angulaire en une durée . Montrer que l'on a :
si le champ est mesuré en seconde d'arc et la durée en seconde de temps.
[2 points]
Vérifier la relation précédente avec les données de l'appliquette (pour tracer la fonction : sélectionner la 1ère ligne de la 3ème colonne (C1), et demander le calcul : = 1./15./cos(pi * B1 / 180.))
[1 points]
Avec les données de l'appliquette, déterminer dans les 2 cas (avec des grossissements différents) le diamètre angulaire du champ objet.
[1 points]
Les grossissements, dépendants de l'oculaire utilisé, valent respectivement 140 et 300. Montrer que les champs images ont une taille analogue au champ de vue de l'oeil humain, de l'ordre de 60 degrés.
[1 points]
Que l'observation astrophysique serait facile si l'image d'un point était un point ! Dans le meilleur des cas, l'image d'une étoile est une tache de diffraction, mais le plus souvent, c'est une structure spatialement et temporellement bien plus complexe.
Le but de cette section est de comprendre et d'interpréter la structure spatiale d'une image simple.
L'astrophysique nous apprend que les étoiles sont des sphères gazeuses, tellement lointaines qu'il est impossible dans la plupart des cas de les résoudre spatialement. Pourquoi alors les représente-t-on et les voit-on avec diverses formes tellement différentes d'un point ou d'un cercle, mais le plus souvent proches du symbole ?
En fait, plusieurs phénomènes se conjuguent pour aboutir à ces formes et les expliquer :
L'image d'un objet ponctuel, non ponctuelle, est donnée par la fonction de transfert de la chaîne de détection. Cette fonction de transfert, dans ce cas précis, s'appelle fonction d'étalement du point, soit FEP en français ou PSF en anglais (point spread function).
Connaître ou estimer la fonction d'étalement du point est une étape indispensable pour le traitement d'image. Autre exemple : la FEP d'une image obtenue par le satellite CoRoT.
On rend compte d'une fonction d'étalement du point simple par sa largeur à mi-hauteur. Souvent, les images obtenues dans les longueurs d'onde millimétriques ou radio mentionnent explicitement l'extension à mi-hauteur de la tache image élémentaire.
La résolution spatiale dépend intimement de la FEP : distinguer les détails d'un champ s'avère impossible aux échelles plus petites que la largeur à mi-hauteur de la FEP.
La fonction de transfert, l'image d'un objet ponctuel, transcrit la qualité de la formation d'image.
La fonction de transfert de la chaîne de collecte du signal, ou fonction d'étalement du point, rend compte de l'image non ponctuelle d'un objet ponctuel. Cette fonction de transfert relate toutes les modifications apportées à l'image idéale.
Par définition, l'image d'une source ponctuelle est la fonction de transfert, au bruit près.
L'image d'une source non ponctuelle est son image géométrique idéale convoluée par la fonction de transfert. Au mieux, la fonction de transfert rend compte de la diffraction. Mais elle inclut aussi tous les autres défauts de la chaîne de détection.
Le lien entre la fonction de transfert et la résolution est immédiat : il n'est pas possible d'obtenir de détails plus fins que la fonction de transfert.
Il est souvent suffisant de rendre compte de la fonction de transfert, si elle présente la symétrie circulaire, par sa largeur à mi-hauteur.
Les pages suivantes décrivent la contribution de la diffraction à la fonction de transfert. Les aberrations optiques ne sont pas abordées. Le rôle de la turbulence atmosphérique est traité dans une section à part.
L'animation ci-dessous décompose, dans un cas unidimensionnel, la transformation d'un objet en son image via la FPE.
L'image d'un point n'est pas un point, mais une tache. Au mieux, la tache de diffraction, ou alors une tache élargie par la turbulence.
Le plus souvent, le miroir secondaire occulte le faisceau incident. Le front d'onde initial n'est pas seulement découpé par le miroir primaire, il est aussi amputé de sa partie centrale. La tache de diffraction d'un télescope possédant un miroir secondaire sur son axe optique est moins lumineuse mais plus étendue que celle du miroir primaire considéré seul. La perte de flux lumineux est due à l'occultation par le miroir secondaire d'une partie du faisceau.
L'araignée, le support du miroir secondaire, occulte également la pupille. Sa signature apparaît clairement pour une source brillante.
Sur une image, certains objets semblent soumis à la diffraction, avec de belles aigrettes de diffraction, alors que d'autres non. Les premiers sont des objets non résolus (typiquement une étoile), alors que les seconds sont étendus (typiquement une galaxie). Les contributions des différents points sources d'un objet étendu, non superposées, sont diluées et ne se distinguent pas.
Diffraction de Fraunhofer. Diffraction par une fente rectiligne.
Déterminer et dimensionner le rôle de la diffraction dans la formation d'image.
La demi-largeur angulaire de la tache centrale de diffraction obtenue à la longueur d'onde pour un collecteur de diamètre vaut :
Le facteur 1.22 est d'origine géométrique (dans le cas d'une fente rectiligne de largeur , le facteur est 1) ; c'est la première valeur qui annule la fonction de Bessel qui rend compte de la diffraction par une pupille circulaire.
Il est physiquement impossible de distinguer des détails plus petits que cette tache image : la diffraction fixe la résolution ultime d'un collecteur unique.
Pour comparer la tache de diffraction au diamètre angulaire des objets étudiés, il est utile de connaître l'ordre de grandeur :
et aussi
La relation entre la taille angulaire de la tache image et le diamètre du collecteur montre directement l'intérêt d'augmenter ce dernier : cela permet d'avoir des images angulairement mieux résolues.
L'appliquette ci-jointe montre la diffraction d'une vague de surface par une ouverture étroite.
Le support du miroir secondaire, appelé araignée, occulte le faisceau primaire, et rajoute sa signature à la figure de diffraction, surtout pour les objets brillants.
L'appliquette ci-dessous calcule la tache image de divers collecteurs. Visualiser l'influence, avec un seul collecteur (avec circulaire comme choix de pupille) :
Visualiser l'influence, avec un collecteur et une occultation du secondaire (avec circ+ obst. second. comme choix de pupille) :
Visualiser l'influence, avec plusieurs collecteurs (avec 2 circulaires ou bien croix d'Angel):
Difficulté : ☆ Temps : 10 min
L'appliquette ci-jointe montre l'étoile double Mizar, dont les 2 composantes sont séparées de 14.4", observées dans le rouge à 800 nm, par un télescope de la classe 1-m.
Déterminer l'échelle de l'image, en "/pixel.
Déterminer le rayon des anneaux concentriques entourant chaque étoile.
Ces anneaux peuvent-ils être dus à la diffraction par le miroir primaire, secondaire (ces anneaux se situent à ) ?
Difficulté : ☆ Temps : 20 min
Les figures ci-jointes montrent le miroir primaire et l'ancien foyer (utilisé jusqu'en 2000) du grand radiotélescope de Nançay (Observatoire de Paris).
L'antenne principale a une taille de . Estimer le profil de la tache angulaire de diffraction, pour les trois longueurs d'onde de travail 9, 18 et 21 cm (raie de couplage spin-orbite de l'hydrogène atomique).
[2 points]
Pourquoi y'a-t-il 3 cornets de détection ?
[1 points]
Discuter de la forme et de l'orientation de ces cornets.
[1 points]
Deux motifs se conjuguent pour privilégier les collecteurs de grand diamètre : la taille de la tache de diffraction et le flux collecté. Comme le montre la table ci-joint, le flux reçu par unité d'élément d'image résolvant varie comme la puissance quatrième du diamètre collecteur, lorsque la taille de la tache image est limitée par la diffraction et que le détecteur échantillonne cette tache image. Le gain obtenu provient d'une part de l'accroissement de la surface collectrice, d'autre part d'une meilleure finesse de la tache de diffraction.
diamètre collecteur | flux total | surface tache image | flux/pixel |
1 | 1 | 1 | 1 |
Il est utile de s'attacher à récupérer une forte densité de flux sur les pixels, comme le montre cet exemple de traitement par optique adaptative.
Les schémas ci-joints illustrent le critère de Rayleigh, qui définit la condition pour distinguer 2 objets de magnitude identique angulairement voisins.
Diffraction de Fraunhofer.
Montrer le lien entre la diffraction et la résolution ultime d'un système optique.
La résolution limite dépend de la taille de la pupille et de la longueur d'onde. L'amélioration de cette valeur limite motive la construction de collecteurs de diamètre le plus grand possible, surtout à grande longueur d'onde.
Le tableau ci-dessous présente diverses taches images, en les traduisant également en distance à laquelle une pomme (de diamètre de l'ordre de 10 cm) présente la taille angulaire correspondante.
Instrument | pomme | ||||
" d'arc | (distance en km) | ||||
oeil | 7 | mm | vis. | 18 | 1.1 |
petit télescope | 12 | cm | vis. | 1 | 20 |
ISO, spatial | 60 | cm | IR | 8 | 2.6 |
VLT, Chili | 8 | m | vis. | 0.015 | 1400 |
VLT, Chili | 8 | m | 20 μm | 0.6 | 33 |
antenne VLBI | 70 | m | 21 cm | 12' | 27 m |
réseau VLBI | km | 21 cm | 0.005 | 4000 |
Le critère de Rayleigh permet de préciser à quelle condition on peut distinguer 2 sources ponctuelles : il faut que le premier zéro de la figure de diffraction de l'une corresponde au maximum de l'autre.
Difficulté : ☆ Temps : 10 min
On cherche à résoudre différents objets, en lumière visible. Déterminer le diamètre minimal du collecteur nécessaire, la résolution angulaire étant limitée par la diffraction, dans les cas suivants.
Un cratère de 20 km sur la Lune (distante de 380 000 km).
Une étoile double, dont les composantes sont séparées de 0.2".
L'apparence d'un objet dépend intimement de la finesse des détails les plus fins. Ainsi, l'identité des anneaux de Saturne n'a été dévoilée que lorsque des observations de qualité suffisante ont permis de trancher parmi les multiples interprétations alors discutées.
Le gain en résolution angulaire permet une meilleure identification des images ; par exemple pour la Lune observée avec un petit collecteur, ou bien un grand collecteur corrigé des premiers ordres de la turbulence.
A grande longueur d'onde, la diffraction empêche une vision spatialement bien résolue, sauf à avoir un collecteur de très grande taille. Pour une antenne radio unique, circulaire de diamètre correspondant à un nombre limité de longueurs d'onde, le lobe d'antenne apparaît très étendu.
Il est important, pour enregistrer une image en respectant sa résolution angulaire, d'avoir des éléments d'image ou pixels convenablement dimensionnés.
La quête de résolution angulaire de plus en plus fine nécessite des bases de collecte d'observation de plus en plus étendues. Comme la taille d'un élément collecteur est limitée (en 2018 : à 8 m en mono-pupille pour les télescopes du VLT, Gemini Nord et Sud, Subaru ; 10 m en pupille segmentée pour les 2 télescopes Keck; bientôt 39 mètres pour l'ELT européen de l'ESO), on se tourne vers l'interférométrie.
La résolution angulaire ne dépend pas uniquement des conditions de collecte du signal, avec un collecteur de diamètre plus ou moins grand ; elle dépend aussi de la façon dont l'image est finalement enregistrée. L'enregistrement du signal, aujourd'hui quasi uniquement sous forme numérique, doit être adapté à la résolution.
Afin que la taille finie des pixels ne limite pas la résolution, le critère de Shannon énonce qu'il faut au moins 2 pixels par élément de résolution.
Par exemple, si la résolution visée est de 0.4", un pixel doit couvrir 0.2". S'il est plus gros, sa taille va limiter la résolution. S'il est plus petit, le signal sera suréchantillonné spatialement, sans gain d'information spatiale.
La résolution dépend de bien d'autres paramètres. On peut citer : la qualité de l'atmosphère, les aberrations géométriques...
L'aspect de galaxie M31 (d'Andromède) dépend de la résolution angulaire instrumentale. Plus elle est élevée, plus les détails observables sont fins.
La résolution est également limitée par la pixélisation, qui conditionne la FEP.
Difficulté : ☆ Temps : 20 min
Dans le cadre du développement d'un instrument, on cherche à choisir la caméra optimale, càd celle qui réalisera les performances demandées, pour un coût minimal. Un constructeur propose des caméras de taille 1k1k (1000 px par 1000 px), 1k2k, 2k2k, et 2k4k, avec pixels carrés de 20, 15 ou 9 micromètres de côté.
Le collecteur présente un diamètre de 3.6 m, pour une ouverture f/3.3 En déduire la focale équivalente, puis le lien entre la taille physique du pixel et le champ qu'il couvre.
Le champ doit couvrir , avec une résolution de . En déduire la caméra appropriée.
Difficulté : ☆☆ Temps : 15 min
L'identification de la nature des anneaux de Saturne ne fut pas sans peine. Le but de l'exercice est de déterminer la résolution angulaire nécessaire permettant de le faire.
A l'opposition, Saturne s'approche à 8.5 UA de la Terre. Le rayon planétaire vaut 60 000 km, les rayons interne et externe des principaux anneaux respectivement 90 000 et 140 000 km. On suppose que les anneaux sont observés sous grand incidence (l'incidence maximale est de l'ordre de 26 deg), pour être dans un cas favorable (lorsque la Terre passe dans le plan des anneaux... on ne les voit simplement pas). Néanmoins, pour simplifier les calculs, on s'intéresse au seul problème 1-D portant sur la seule variable radiale, selon la géométrie de la figure jointe.
Refaire à l'échelle schéma de Saturne et de ses anneaux. Déterminer le plus petit élément bien contrasté à observer pour pouvoir identifier les anneaux.
[1 points]
La résolution devant être au-moins d'un facteur 2 plus précis que la taille du plus petit élément à identifier, déterminer la résolution nécessaire.
[2 points]
Analyser spectralement la lumière est à la base de l'astrophysique. Cette section a pour but de rappeler quelques principes de physique permettant une analyse spectrale efficace. L'instrumentation nécessaire s'appuie sur le réseau de diffraction, bien plus efficace pour disperser la lumière qu'un prisme. Mais la mise en oeuvre du réseau nécessite un environnement précis.
Plus la résolution d'un spectre stellaire théorique est élevée :
Définir les notions de résolution spectrale : élément de résolution ; pouvoir de résolution ; intervalle spectral élémentaire.
Le pouvoir de résolution spectrale mesure la capacité à distinguer deux longueurs d'onde différentes et . Il est mesuré par la quantité :
Le pouvoir de résolution est d'autant plus élevé que l'élément de résolution (également appelé résolution spectrale élémentaire ou élément spectral) est petit.
Le pouvoir de résolution peut être exprimé avec les diverses grandeurs spectrales (longueur d'onde , fréquence ) :
Il peut également être traduit en une vitesse, via l'équivalent Doppler:
Instrument | Pouvoir de résolution typique | @ 500 nm (nm) | vitesse (km/s) |
Prisme | 500 | 1 | 600 |
Réseau | 5000 | 0.1 | 60 |
Réseau blazé | 50000 | 0.01 | 6 |
La justification de ce qui précède procède en 2 étapes :
Selon la résolution spectrale, des raies bien marquées, comme celles du sodium à 589.0 et 589.6 nm, apparaîtront plus ou moins clairement, avec l'identification de raies fines entre les 2 éléments du doublet, ou bien noyées dans le flux continu.
Difficulté : ☆ Temps : 10 min
Un spectromètre assure un pouvoir de résolution 25 000 dans le visible à 500 nm.
Déterminer la largeur d'un élément spectral élémentaire.
Le spectromètre en question, par transformée de Fourier, travaille en unité de nombre d'onde, exprimée en . Exprimer le nombre d'onde et la résolution dans ce système d'unité.
Difficulté : ☆ Temps : 20 min
Le spectre ci-joint (voir l'appliquette) a été enregistré aux alentours de 440.5 nm. Il s'agit d'estimer sa résolution, en fait limitée par la résolution instrumentale.
Vaut-il mieux effectuer la mesure sur une raie fine ou une raie large ?
Estimer alors la résolution instrumentale
Même s'il reprend les bases théoriques, ce cours suppose que le réseau a déjà été étudié en physique. Un réseau est alimenté en faisceau parallèle par une fente source, et en donne une série d'images colorées.
Caractériser les interférences constructives d'un réseau ; voir la distribution de l'énergie dans la figure d'interférence.
On note la période du réseau, le nombre de traits, la longueur d'onde étudiée. La condition d'interférences constructives s'écrit :
avec , entier, l'ordre d'interférence. Le signe dans cette relation concerne un réseau par transmission, le signe un réseau par réflexion. C'est ce dernier cas qui nous intéresse, car il correspond au cas du réseau blazé.
Cette condition rend compte que le déphasage entre les amplitudes complexes issues de 2 traits consécutifs, vaut (ou bien, de façon équivalente, que la différence de marche vaut ).
La diffraction par une fente du réseau détermine les différentes directions vers lesquelles la lumière est envoyée, chacun des fentes du réseau se comportant comme une source secondaire.
Les interférences entre ces différentes sources secondaires construisent les franges d'interférences, d'autant plus fines que le réseau comporte un nombre important de traits (cf. calcul de l'intensité de la figure d'interférence).
L'intensité de la figure d'interférence est issue du double effet de la diffraction par une seule fente et des interférences par fentes. On s'intéresse dans un premier temps au phénomène d'interférence seul. On note le déphasage entre 2 fentes consécutives, et l'amplitude complexe. On mène les calculs dans l'approximation de Fraunhofer, pour montrer que l'intensité diffractée vaut :
La sommation des amplitudes conduit à :
Le traitement de la somme des termes d'une suite en progression géométrique donne :
On calcule l'intensité en factorisant le numérateur et le dénominateur par l'exponentielle complexe de l'angle moitié (de module unité), pour aboutir à :
Le terme d'intensité est important uniquement lorsque le dénominateur s'annule. Dans ce cas, le numérateur s'annule également et, par continuité du rapport, le pic d'intensité tend vers . Chaque pic correspond à un ordre d'interférence. La largeur de ce pic est donnée par les variations du numérateur, qui oscille fois plus rapidement que le dénominateur ; elle est donc fois inférieure à la largeur entre 2 ordres consécutifs.
L'inconvénient du réseau par transmission ici décrit est qu'il n'est a priori pas efficace : l'essentiel de l'énergie passe dans l'ordre 0, inintéressant pour la dispersion. Un concept technologique spécifique pare cet inconvénient : le réseau blazé.
La déviation des ordres diffractés par le réseau dépend de l'ordre d'interférence.
La déviation des ordres diffractés par le réseau dépend de la longueur d'onde de l'onde plane incidente.
La déviation des ordres diffractés par le réseau dépend du pas du réseau (ou nombre de traits par millimètre).
Etude du réseau en physique.
Caractériser la dispersion d'un réseau, càd sa capacité à distinguer les différentes couleurs.
Rappel : la condition d'interférences constructives s'écrit :
avec l'ordre d'interférence (entier), le pas du réseau, la longueur d'onde d'étude.
La dispersion angulaire relie, à incidence fixée, les variations de l'angle de sortie avec . Elle est obtenue par différentiation de la relation du réseau :
La dispersion croît avec l'ordre et la fréquence spatiale du réseau . La résolution dépend des paramètres du réseau, mais aussi de la précision avec laquelle on peut déterminer l'angle .
A couleur fixée, mais ordre d'interférence variable, la différentiation de la relation constitutive du réseau s'écrit :
Un pas d'interférence, correspondant à , correspond à un intervalle angulaire :
Ce pas varie directement avec la couleur de l'onde considérée.
Le nombre de traits du réseau fixe la largeur angulaire de la tache image : la figure d'interférence envoie la lumière de façon significative dans un intervalle angulaire fois moindre qu'un ordre :
Le pouvoir de résolution théorique du réseau s'écrit, s'il est limité par la seule diffraction, en application de ce qui précède :
Le pouvoir de résolution théorique augmente avec le nombre de traits éclairés et avec l'ordre d'interférence.
AN : avec un réseau blazé de 100 mm, 100 traits/mm et travaillant à l'ordre 40, le pouvoir de résolution théorique atteint 400 000.
L'inconvénient du réseau par transmission ici décrit est qu'il n'est toujours pas efficace : la dispersion spectrale est d'autant plus grande que l'ordre du réseau est élevé, mais l'essentiel de l'énergie reste dans l'ordre 0, inintéressant pour la dispersion. De plus, la superposition des ordres mélange les couleurs.
Les animations montrent la création des ordres d'interférence par interférences constructives, pour différents ordres et couleurs. Attention : ces animations supposent indûment valide à courte distance l'approximation de Fraunhofer, qui décrit la diffraction uniquement à grande distance de l'objet diffractant.
Voir comme la déviation varie avec :
Un réseau-échelle ou réseau blazé (a blaze of color = resplendissant de couleur) traite efficacement la dispersion : il envoie la puissance lumineuse incidente dans des ordres élevés du spectre, avec une grande dispersion spectrale. Il s'agit d'un réseau par réflexion, très couramment utilisé en instrumentation astrophysique.
Une deuxième dispersion, dite dispersion croisée, des ordres diffractés par un réseau blazé permet d'obtenir un spectre sur un large intervalle spectral divisé en plusieurs ordres. L'intensité dans chaque ordre est modulée par la fonction d'Airy de la fente d'entrée.
Introduire les propriétés du réseau blazé, dont l'intérêt est d'envoyer l'énergie diffractée dans un ordre d'interférence non nul.
Le réseau par transmission n'est pas efficace. La diffraction envoie essentiellement l'énergie dans l'ordre 0, qui n'est pas dispersif, ce qui n'est guère intéressant. L'intérêt du réseau blazé est d'envoyer le flux dans un ordre d'interférence non nul dans les conditions de l'optique géométrique (les conditions usuelles d'utilisation sont proches du cas , où est l'angle de blaze). Cet ordre dépend de la couleur étudié.
D'un point de vue énergétique, le montage optique d'un réseau blazé s'arrange pour voir essentiellement la tache de diffraction du réseau (déterminée par une facette élémentaire).
Par rapport au réseau par transmission, le réseau blazé permet un travail dans un ordre d'interférence élevé, assurant un pouvoir de résolution théorique élevé. Mais, à lui seul, le réseau blazé n'assure pas une dispersion optimale : les ordres restent superposés, aboutissant à la confusion des couleurs si chèrement dispersées. Il faut adjoindre au réseau blazé un deuxième élément dispersif, assurant une dispersion dans une direction perpendiculaire, qui permet de distinguer les différents ordres.
Avec 2 dispersions à angle droit, la source doit nécessairement être ponctuelle (en pratique, souvent une fibre).
Le réseau est alimenté en faisceau parallèle par une fente source ou un trou source. Le montage de principe est donc simplement un montage conjuguant la source à son image en passant via 2 lentilles équivalentes par un faisceau parallèle. Le réseau donne en fait une série d'images colorées de la fente source.
En pratique, c'est évidemment plus complexe.
L'insertion du réseau dans le spectromètre nécessite :
L'appliquette ci-joint permet de lire le schéma optique de l'instrument CRIRES (CRyogenic high-resolution IR Echelle Spectrometer) du VLT.
Un montage optique couramment utilisé avec un réseau blazé est celui de type Littrow, où une optique unique alimente le réseau en lumière parallèle et collecte le faisceau dispersé. Les facettes du réseau blazé sont éclairées sous une incidence quasi-nulle (mais correspondant à une incidence élevée par rapport au plan du réseau).
Etude du réseau en physique.
Lier le pouvoir de résolution spectrale d'un instrument disperseur avec réseau aux conditions de formation d'image.
Le rôle de l'optique géométrique ne doit pas être oublié : il peut dimensionner la résolution effective du réseau. Avec la largeur de la fente et la focale du miroir collimateur, la taille angulaire de la fente vue dans l'espace image est :
Le pouvoir de résolution limité par la largeur de la fente d'entrée s'écrit :
où subsistent les conditions géométriques de l'éclairement du réseau. Dans les conditions d'un réseau blazé éclairé quasi normalement aux facettes, et avec le signe + correspondant au réseau par réflexion :
Un pouvoir de résolution optimal nécessite une source de petite taille et une grande focale. Avec une focale de l'ordre du mètre, une fente de 100 micromètres (en fait une fibre), et , le pouvoir de résolution géométrique vaut 40 000.
La finesse de la fente d'entrée assure la finesse des images monochromatiques ; mais fermer la fente est réalisé au détriment de la luminosité. Assurer une longue focale nécessite un grand réseau, ce qui a un coût.
Le pouvoir de résolution réel est conditionné par la plus petite valeur du pouvoir théorique ou limité par l'image géométrique de la fente d'entrée :
Un instrument bien dimensionné est conçu de façon à accorder la taille de la fente et la résolution optimale définie par la diffraction. Des informations sur le réseau, on conclut que le pouvoir de résolution du réseau, inférieur au pouvoir de résolution théorique, dépend :
Un pouvoir de résolution élevé nécessite une fente d'entrée très étroite.
Difficulté : ☆☆ Temps : 20 min
Le montage du spectromètre HARPS assure un pouvoir de résolution de l'ordre de 120 000. La focale de l'optique de chambre valant 1.56 m, en déduire la taille de la fente d'entrée, sachant que par ailleurs l'illumination du réseau a lieu dans les conditions .
[1 points]
Le flux collecté par le télescope a un diamètre de 3.6 m, qui devient dans l'instrument 20 cm. En déduire le grossissement.
[1 points]
Déduire de ce qui précède l'ordre de grandeur du champ de vue sur le ciel.
[2 points]
Cette section propose des développements plus ardus, au-delà d'un programme de niveau L2 ou L3, mais bien utiles, concernant divers points d'optique.
Un miroir sphérique est beaucoup plus simple à tailler qu'un miroir parabolique. Mais il ne rend pas les mêmes services, car il concentre la lumière imparfaitement ; plus le rayon est éloigné de l'axe optique, plus il va converger en avant du foyer. On parle d'aberration de sphéricité.
Notion de stigmatisme.
Brièvement décrire les aberrations géométriques
La définition de la justesse de la formation d'image s'appelle le stigmatisme. Le stigmatisme idéal est atteint lorsque tous les rayons issus d'un point de l'objet convergent en un seul point de l'image.
Cette situation idéale n'est pas opérationnelle : il faut en pratique définir les conditions dans lesquelles la convergence est suffisante (p.ex. avec une précision dans le plan focal meilleure que la taille d'un pixel). Ces conditions sont d'autant mieux réalisées que l'on est proche de l'axe optique du système.
Les aberrations primaires correspondent à la décomposition des aberrations dans le champ image. Elles proviennent des écarts au stigmatisme lié d'une part aux rayons inclinés sur l'axe optique, d'autre part aux rayons ayant traversé le système optique loin de l'axe optique.
Les aberrations dépendent alors de 2 variables : la distance angulaire entre un point de l'objet et le point de l'objet centré sur l'axe optique ; la distance , sur la pupille d'entrée entre les traces du rayon et de l'axe optique sur la pupille d'entrée.
L'aberration chromatique apparaît pour une lentille simple : comme l'indice du matériau varie avec la longueur d'onde, la focale varie également. En règle générale, l'indice bleu, plus élevé donne une distance focale bleue plus courte.
Cette aberration est corrigée par l'utilisation de systèmes de lentilles (doublet, triplet...), avec des verres d'indices différents pour obtenir une focale équivalent quasiment identique pour toutes les longueurs d'onde considérées.
Les miroirs présentent l'avantage de ne pas induire d'aberrations chromatiques (la lumière ne traverse pas le miroir). Leur coefficient de réflexion, qui dépend intimement du traitement de surface, est néanmoins chromatique.
Aberrations
Les différents défauts géométriques cohabitent joyeusement, et les distinguer n'est pas toujours facile, comme le montre le diaporama ci-joint.
Notion d'angle solide.
Définir l'étendue de faisceau ; mais surtout montrer la conservation de l'étendue de faisceau.
Un montage afocal transforme un faisceau plan en un autre faisceau plan. Les rapports des diamètres des faisceaux et des inclinaisons en entrée et sortie sont intimement liés au grossissement.
Le produit est un invariant, ce qui relate une relation physique plus générale : la conservation de l'énergie du faisceau.
La puissance (ou luminosité ) transportée par un faisceau lumineux, émise par l'élément de surface S et reçue par S' se conserve (sorte de tautologie, le faisceau étant défini par l'ensemble des rayons lumineux, càd la totalité de la puissance lumineuse). Cette puissance est proportionnelle à la luminance , à l'élément de surface émetteur et à l'élément d'angle solide d'émission.
Un jeu d'écriture sur les grandeurs photométriques, avec les données de la figure, conduit à exprimer la conservation de la puissance lumineuse comme la conservation de l'étendue géométrique de faisceau. On définit cette étendue de faisceau, pour un faisceau traversant sans être collimaté (= sans perte d'énergie) un élément optique de section , occupant un angle solide , dans un milieu d'indice unité (comme le vide ou comme l'air à peu de chose près), par le produit , qui se conserve le long du faisceau.
Pour les systèmes stigmatiques (càd, très grossièrement, donnant des images avec des aberrations limitées), la conservation de l'énergie se traduit par la conservation de l'étendue de faisceau :
Le passage de la luminance à la puissance lumineuse nécessite de s'appuyer sur le produit d'un élément de surface émetteur et d'un angle solide d'émission . La luminosité élémentaire s'écrit :
L'angle solide 'regarde' une surface réceptrice à la distance telle que :
La luminosité élémentaire se réécrit donc :
Avec l'angle solide sous lequel est vue la source depuis la surface réceptrice. On remarque que le rôle des éléments émetteur et récepteur est symétrique. Le produit introduit l'étendue géométrique élémentaire.
L'intégration sur le faisceau entier au travers d'une pupille, menée dans l'espace objet ou depuis l'espace image, garde la symétrie du produit surface angle solide .
Un faisceau conique d'ouverture totale couvre un angle solide :
Si l'angle est petit, cet angle solide se réécrit simplement :
Au travers d'une optique de diamètre , la conservation du produit devient, pour ce faisceau conique :
On retrouve donc le résultat obtenu dans le cadre du montage afocal.
Comme conséquences importantes, on note que :
Difficulté : ☆ Temps : 20 min
Le but d'une caméra est de réaliser un programme de cartographie, par imagerie grand champ. Les caractéristiques du détecteur sont fixées (taille du capteur CCD et caractéristiques de son optique), que l'on traduit par le produit . Le but de l'exercice est de déterminer quel collecteur optimal utiliser pour réaliser ce programme.
Comment varie la taille angulaire du champ objet en fonction de la surface du collecteur ?
Le temps de pose est fixé par le rapport signal à bruit des observations, qui dépend essentiellement du nombre de photons collectés. Comment le temps de pose varie-t-il avec la surface du collecteur ?
Y'a-t-il un intérêt particulier à utiliser un grand collecteur pour réaliser cette cartographie ? Quel usage peut-on conseiller à un télescope de la classe 4-m qui doit motiver son existence par rapport aux télescopes de nouvelle génération plus grands ?
Difficulté : ☆☆ Temps : 20 min
CoRoT est un satellite du CNES lancé en décembre 2006, qui poursuit 2 objectifs scientifiques : la recherche d'exoplanètes par la méthode des transits d'une part, l'étude sismique de quelques étoiles de type solaire d'autre part. Ces 2 objectifs s'appuient sur la capacité de CoRoT à mener des observations de photométrie très précises. Le montage optique retenu consiste en l'association de 2 miroirs paraboliques confocaux (confocal même foyer) hors axe, suivis par une optique de chambre conjuguant le faisceau issu des 2 paraboles avec le détecteur CCD. En pratique, pour les respecter les specifications de la formation d'image, cette optique de chambre est constituée de 6 lentilles.
Faire à l'échelle un schéma de principe le plus simple possible du système équivalent à l'ensemble miroirs + optique de chambre avec 3 lentilles équivalentes pour respectivement les 2 miroirs et l'optique de chambre.
Le diamètre du premier miroir vaut 30 cm ; les focales des miroirs primaire et secondaire sont dans un rapport de 3 à 1. Que peut-on en déduire concernant les lentilles de l'optique de chambre ? En quoi consiste l'un des intérêts de ce montage ?
Reprendre le schéma de principe, en respectant l'ouverture du faisceau à vu par la caméra, Calculer la focale équivalente et la focale de l'optique de chambre.
La question précédente met en évidence un gain sur l'optique de chambre. Mettre en évidence la contrainte associée, qui dérive de la conservation de l'étendue de faisceau. Conclure.
Difficulté : ☆☆ Temps : 10 min
Un collecteur de diamètre délivre une tache de diffraction d'ouverture (définie comme largeur à mi-hauteur) . On cherche à en déduire l'étendue de faisceau cohérente.
Justifier que l'étendue cohérente correspond au pic central de la diffraction.
Déterminer l'étendue de faisceau cohérente. Montrer qu'elle est très voisine de .
Difficulté : ☆ Temps : 5 min
Un instrument du VLT (collecteur de diamètre est alimenté par un faisceau de fibres de diamètre .
L'alimentation optimale de la fibre se fait à . En déduire l'ouverture angulaire du faisceau en entrée de fibre.
[1 points]
Que vaut le champ objet admissible sur le ciel ? L'exprimer en seconde d'angle.
[1 points]
Difficulté : ☆☆ Temps : 15 min
On se propose de retrouver par l'application de la conservation de l'étendue de faisceau l'expression de la taille linéaire de l'image d'un objet à l'infini de diamètre angulaire par un collecteur de diamètre et de focale . On considère le seul cas où l'angle est petit. On note ladite taille linéaire.
Exprimer le produit côté source, en fonction des données.
[1 points]
Rappeler l'expression de l'ouverture angulaire du collecteur, et exprimer le produit côté détecteur.
[2 points]
Exprimer la conservation de l'étendue de faisceau. Retrouve-t-on le résultat attendu ? L'objet ayant une taille angulaire , quelle est la taille linéaire de son image.
[2 points]
Le vignetage apparaît lorsque qu'un diaphragme coupe indûment le faisceau optique. Les bords de l'image ne sont alors plus suffisamment éclairés.
Optique géométrique ; tracé de rayons.
Bien accepter ou bien stopper les photons (sans trop rentrer dans les détails).
Le champ d'un instrument d'optique est la partie de l'espace dont cet instrument fournit une image acceptable.
Un diaphragme, c'est par définition ce qui limite un faisceau. En pratique, les montures des pièces optiques, la taille d'un détecteur sont des diaphragmes. La suite précise cette notion.
Un diaphragme de champ limite la taille angulaire du faisceau. Il est dimensionné pour assurer :
Le détecteur, de taille finie, peut jouer le rôle de diaphragme de champ.
Dans un système optique centré, le diaphragme d'ouverture est le diaphragme matériel qui limite l'ouverture d'un faisceau centré. C'est donc le diaphragme vu de puis l'objet sous le plus petit angle ; c'est souvent la monture de la première lentille.
Un diaphragme d'ouverture limite l'éclairement. Il est essentiellement dimensionné pour assurer le niveau d'éclairement voulu. Il joue sur l'extension linéaire du faisceau : un grand diaphragme nécessite des pièces optiques de grande taille... dont la qualité doit suivre.
La pupille d'entrée d'un instrument est l'image géométrique du diaphragme d'ouverture par les lentilles placées en avant ce diaphragme.
La pupille de sortie est l'image géométrique de la pupille d'entrée. C'est aussi l'image géométrique du diaphragme d'ouverture par les lentilles placées après ce diaphragme.
Un diaphragme de champ limite l'ouverture angulaire du faisceau. Dans l'animation proposée, c'est la taille du détecteur qui limite le champ accessible : le détecteur joue le rôle de diaphragme de champ.
Un diaphragme d'ouverture limite l'éclairement. Dans l'animation proposée, le diaphragme d'ouverture limite l'éclairement au foyer.
Difficulté : ☆ Temps : 10 min
On propose d'utiliser un montage afocal, avec les lentilles L1 et L2 de caractéristiques respectives (focales et diamètres) : ; .
Sous quelle ouverture sont vues les lentilles depuis leur foyer commun ?
[1 points]
En déduire la lentille qui joue le rôle de diaphragme d'ouverture.
[1 points]
Difficulté : ☆☆ Temps : 30 min
La figure représente le montage optique du collecteur du satellite CoRoT. Il comporte un baffle de grande taille dont le rôle est de protéger le signal de toute perturbation extérieure, pour une étude photométrique extrêmement précise. Le montage collecteur (miroirs M1 et M2) est hors-axe, afin d'éviter toutes les réflexions parasites qu'apporterait le miroir secondaire M2 avec sa structure dans le cas d'un montage axial.
D'après le schéma optique, à quelle configuration correspond l'ensemble des miroirs collecteurs M1 et M2 ? Quelles sont les propriétés du faisceau après passage par M2, en terme de diamètre, ouverture et étendue de faisceau comparées aux mêmes valeurs en amont de M1 ?
[2 points]
Le diaphragme est positionné en aval de M2, à une distance du miroir égale à la focale de M2. En déduire la position de la pupille d'entrée . Faire un schéma justifiant la réponse.
[2 points]
Que peut-on dire d'un photon qui passe par la pupille d'entrée ?
[1 points]
En fonction de ce qui précède, reformuler le rôle du baffle de protection.
[1 points]
La figure de diffraction d'une pupille circulaire introduit les fonctions de Bessel.
L'intensité diffractée par une pupille circulaire est donnée par , avec , avec le diamètre de la pupille, la longueur d'onde et la direction d'observation.
Diffraction de Fraunhofer.
(Page à n'aborder qu'en deuxième lecture). Introduire, pour une pupille circulaire, les fonctions de Bessel, qui justifient le facteur qui dimensionne la tache de diffraction.
On considère une pupille, modélisée par une ouverture plane centrée en , et l'on note un point de la pupille. Cette pupille est éclairée par une onde plane uniforme, monochromatique, en incidence normale. L'amplitude de l'onde diffractée dans une direction repérée par le vecteur directeur s'écrit :
La pupille étant circulaire, de rayon , il est préférable de décrire les coordonnées du point et de la direction de diffraction en coordonnées polaires, avec les notations suivantes :
( est le vecteur normal au plan de la pupille). L'amplitude de l'onde diffractée dans la direction faisant un angle avec l'axe optique s'écrit alors, en supposant l'amplitude incidente uniforme :
On introduit les fonctions de Bessel, dont les 2 premiers termes sont, par définition :
L'amplitude diffractée dans une direction faisant un petit angle par rapport à l'axe optique, devient :
Les calculs passent par les changements de variables
L'intensité diffractée dans la direction s'écrit donc :
Pour voisin de 0, . Par ailleurs, le premier zéro de la fonction est pour . La largeur à mi-hauteur du pic central de diffraction, supposée égale à la demi-largeur entre les 2 zéros de part et d'autre du pic central, s'écrit en fonction du diamètre de la pupille et de la longueur d'onde :
La figure de diffraction s'annule ensuite pour les rayons 2.23, 3.23, 4.24, 5.24.... en unité . Les anneaux lumineux ont comme rayon, dans la même unité : 1.63, 2.68, 3.70, 4.71, 5.71...
La figure de diffraction d'une pupille, quelle qu'elle soit, est identique à sa transformée de Fourier.
Cours sur la diffraction de Fraunhofer.
(Page à n'aborder qu'en 2eme lecture.) Mettre en regard le formalisme décrivant la diffraction à l'infini par une pupille et le formalisme de la transformation de Fourier.
En repérant un point de la pupille par la variable , la fonction caractérisant l'éclairement sur la pupille, l'amplitude diffractée dans une direction angulaire de vecteur directeur s'écrit :
Avec le terme introduit pour normaliser l'élément de surface , et la pupille d'entrée, qui limite la fraction de l'onde plane émise par la source à l'infini. Pour un éclairement uniforme en incidence normale, est typiquement une fonction porte à 2 dimensions.
Par ailleurs, le formalisme de la transformation de Fourier s'écrit :
On se doute que l'air de ressemblance entre ces 2 dernières égalités vaut plus qu'un simple hasard.
Si l'on peut supposer l'éclairement uniforme, l'amplitude diffractée dans une direction est donnée par la transformée de Fourier de la fonction de pupille , la variable de position étant normalisée en unité de longueur d'onde :
Les variables conjuguées sont la direction angulaire, repérée par le vecteur , et la variable spatiale décrivant la pupille rapportée à la longueur d'onde.
On peut utiliser les propriétés de la TF pour réécrire les caractéristiques de la diffraction. Une pupille de taille caractéristique filtre les hautes fréquences, càd l'information angulaire plus fine typiquement que .
Plus la pupille est grande, moins elle filtre angulairement.
La tache image due à la seule diffraction dépend du diamètre du télescope. Plus ce dernier est grand, plus la tache d'Airy est piquée.
Un interféromètre de Michelson permet de tracer l'interférogramme d'une source, càd la figure d'interférence obtenue après déphasage de l'une des 2 voies de l'interféromètre d'une différence de marche . L'interférogramme du spectre d'une source réelle, délimitée par un intervalle spectral fini, illustre le phénomène de cohérence temporelle : le signal d'interférence chute dès lors que la différence de marche devient grande.
La cohérence temporelle décroît d'autant plus rapidement que le spectre de la source présente une gamme de longueurs d'onde importante.
Le cas d'une source rigoureusement ponctuelle et monochromatique est souvent évoqué pour aborder l'optique géométrique et physique. Une source ne sera jamais totalement monochromatique, même si son spectre présente des raies d'émission très étroites, ou si par dispersion ou filtrage on sélectionne un très fin domaine spectral. La cohérence temporelle d'une onde rend compte de sa chromaticité.
Une approche rigoureuse passe par le théorème de Wiener-Khintchine.
Interféromètre de Michelson
Tout phénomène d'interférence avec une source monochromatique conduit à une modulation de l'amplitude résultante fonction de la longueur d'onde du rayonnement.
Pour une source polychromatique, mélanger les couleurs revient donc à mélanger des périodes différentes : la cohérence temporelle du signal est prise en défaut.
(Ne pas hésiter à aller voir les pages dédiées au spectromètre par TF).
L'exemple d'un interféromètre par transformée de Fourier (réglé en anneau) présente la problématique : la visibilité des franges décroît d'autant plus rapidement que le domaine spectral accepté est vaste.
Pour une raie monochromatique, l'interférogramme se développe, en fonction de la différence de marche, comme :
Pour une raie réelle, présentant une largeur non infiniment fine, il faut tenir compte de la contribution des différentes composantes spectrales.
L'intégration, fonction du profil spectral de la raie, conduit à :
L'expression de la fonction de visibilité des franges dépend de l'intégration du profil spectral , et n'est pas nécessairement simple. La visibilité :
Un exemple de démonstration, dans un cas simplifié, est donné en exercice.
Dans le cas général, le degré de cohérence d'une source polychromatique, complexe, s'écrit :
La démonstration résulte du théorème de Wiener-Khintchine.
La longueur de cohérence , qui mesure l'étendue du degré de cohérence, vérifie approximativement :
La visibilité des franges d'interférences dépend de la largeur de l'intervalle spectral considéré. La superposition de franges de couleurs différentes, donc de périodes différentes, conduit à un signal d'interférence en moyenne nulle.
Un interféromètre enregistre des franges d'interférence, pour en déterminer la visibilité. Celle-ci décroît rapidement dès que l'interférogramme s'écarte de la différence de marche correspondant au déphasage nul entre les 2 signaux.
La cohérence spatiale entre 2 points d'un écran dépend de l'étendue angulaire de la source.
L'image d'une source ponctuelle n'est pas un point : c'est la diffraction qui le veut... c'est un cas particulier de la notion de cohérence spatiale.
Le cas d'une source rigoureusement ponctuelle et monochromatique est souvent évoqué pour aborder l'optique (géométrique ou physique). Une source réelle en astrophysique peut être approximativement ponctuelle, du fait d'un très grand éloignement, mais ce n'est pas toujours le cas.
La cohérence spatiale rend compte de l'étendue angulaire de la source. Une analyse détaillée des phénomènes peut se traiter par une formalisme mathématique et s'appuie sur le théorème Zernike Van-Cittert.
Les sources astrophysiques ne sont pas naturellement cohérentes. Leur étendue angulaire va conduire à dégrader la cohérence du rayonnement : l'onde collectée mélange diverses directions incidentes, présentant différentes phases, dont le mélange dégrade la cohérence.
Pour modéliser ce phénomène, on s'intéresse à la cohérence du champ sur un écran illuminé par une source à grande distance ; cet écran illustre le rôle que joue un plan d'onde intermédiaire ou bien une pupille.
On repère un point de la source par le rayon vecteur de coordonnées et . On compare la cohérence entre 2 points et de l'écran. Pour une source à grande distance ( très grand par rapport aux autres dimensions), on définit le degré de cohérence comme une fonction du profil de brillance :
Le facteur de cohérence complexe correspond à la transformée de Fourier de la distribution spatiale d'intensité de la source (théorème de Zernike - Van Cittert).
On modélise le rayonnement stellaire par une source circulaire de diamètre , de brillance uniforme, observée à distance . La brillance peut être représentée par une fonction porte . On traite alors ce cas particulier en s'appuyant sur sa géométrie cylindrique, et l'on réécrit la cohérence entre le centre de l'écran (centre repéré sur la normale à l'écran vers la source) et un point tel :
où l'on retrouve la fonction de Bessel .
Le résultat précédent ressemble furieusement à celui de la diffraction. Est-ce un hasard ?
La tache d'Airy résultant de la diffraction par une pupille circulaire rend compte de la contribution de toutes les sources secondaires à considérer sur la pupille. Plus la pupille est grande, plus les déphasages s'accumulent dès lors que l'on s'éloigne de la position centrale de l'image géométrique. Il s'ensuit que la tache de diffraction est d'autant plus piquée que la pupille est grande.
En terme de cohérence, plus une pupille est grande, plus le degré de cohérence entre 2 points de cette pupille diminue.
Une autre manière de reformuler ceci dérive de l'analyse de Fourier : plus on possède d'information sur un signal, moins ce signal est localisé. Le principe d'incertitude de Heisenberg ne dit pas autre chose : la détermination précise d'une grandeur nécessite que sa grandeur conjuguée soit étendue, la moins localisée possible.
La source de rayon angulaire est vue depuis l'écran sous un angle solide . Une surface de l'écran correspond à une étendue de faisceau telle que :
La valeur à mi-hauteur du facteur de cohérence correspond à : on choisit cette valeur pour définir le rayon de l'étendue de cohérence.
L'étendue de cohérence du faisceau monochromatique vaut .
La visibilité du signal d'interférence dépend des déphasages entre les faisceaux issus des différents points de la source. Plus ces déphasages augmentent, moins le signal est cohérent.
L'immense majorité des disques stellaires ne peut pas être résolue par imagerie avec un seul collecteur. Il est nécessaire, pour pallier cet effet, de recourir à la technique d'interférométrie. La visibilité des franges d'interférence d'une source stellaire conduit alors de à la mesure de son diamètre.
Nombre de sources astrophysiques présentent un diamètre angulaire qui ne peut pas être résolu par une pupille unique. Mais l'interférométrie permet d'affiner la résolution angulaire, et de mesurer des diamètres stellaires.
Le diamètre d'une étoile du proche environnement solaire sous-tend un angle de l'ordre d'une milliseconde d'arc. Ce diamètre est, sauf exception, très inférieur à la largeur de la tache de diffraction dans le visible d'un télescope, même de grand diamètre. En revanche, par interférométrie, on peut avoir accès indirectement à ce diamètre, si l'on dispose d'une base suffisamment grande.
On suppose une source de brillance uniforme, circulaire de diamètre angulaire , observée par 2 télescopes identiques séparés d'une base (base projetée dans le plan perpendiculaire à la source) que l'on fait interférer.
Le facteur de cohérence établi dans le cas général est usuellement dénommé visibilité. La fonction de visibilité s'écrit :
où est la fréquence spatiale.
Chaque base conduit à une mesure de la visibilité pour la fréquence spatiale . Dans le cadre du modèle, où une étoile est un disque de brillance uniforme, la visibilité s'annule pour , et donc pour une relation entre le diamètre angulaire stellaire et la fréquence spatiale telle que :
Finalement, une mesure du diamètre stellaire revient à une mesure de visibilité de la figure d'interférence.
Le calcul précédent a supposé que la source présente un profil de brillance uniforme : en fait le phénomène d'assombrissement centre-bord complique un peu l'analyse. Le rôle de la diffraction ne peut bien sûr pas être négligé : toute mesure de visibilité doit être corrigée de la fonction d'appareil des collecteurs (dont la diffraction), que l'on détermine expérimentale sur une source vraiment ponctuelle (en pratique : très lointaine).
Une pupille unique est un filtre passe-bas, coupant à la fréquence spatiale , et donnant une résolution angulaire de .
Un interféromètre est donc un filtre passe-bande, qui fournit une information à la fréquence ; sa résolution angulaire est .
On retrouve ces propriétés par une analyse en terme de Fourier : le théorème de Wiener-Khintchine relie la fonction de transfert optique à la TF inverse de l'autocorrélation de la pupille.
Une mesure du facteur de cohérence complexe fournit une composante de fréquence spatiale de la source. La mesure de ce facteur à plusieurs fréquences spatiales permet la reconstruction de la distribution spatiale d'intensité de la source.
Difficulté : ☆☆ Temps : 20 min
Les figures ci-jointes illustrent la mesure de visibilité de franges d'interférence.
Déduire des courbes le diamètre angulaire des sources stellaires Phe et Boo.
Quelle raison physique peut expliquer que la courbe de visibilité de d'Hercule ne s'annule pas.
Les parallaxes de Phe, Boo et Her sont estimées à respectivement 10.1, 88.2, 8.5 mas. En déduire la distance de chaque étoile, puis son diamètre linéaire.
Discuter les courbes de la figure concernant l'étoile Cep.
On peut diviser la chaîne de mesure en plusieurs étapes. Parfois, il peut être difficile de distinguer aisément leur rôle : d'une part, elles sont intimement liées dans la qualité de l'observation ; d'autre part, leur intégration dans une outil d'observation efficace peut les solidariser intimement. L'ambition de ce chapitre : mettre un peu d'ordre dans cette complexité.
Collecter le signal, c'est assurer que les photons arrivent nombreux et en bon ordre aux différents foyers d'un télescope. Qualités optique et mécanique se conjuguent pour accomplir cette tâche.
Le miroir primaire est le ... premier miroir vu par les photons. Il présente généralement un profil parabolique. Le deuxième, s'il y en a un, est appelé ... secondaire.
Les 2 télescopes Keck, plus grands collecteurs dans le visible depuis le début des années 1990, ont des miroirs segmentés (càd en plusieurs morceaux), et illuminent les foyers Cassegrain et Nasmyth. Ce dernier, après passage du faisceau sur l'axe en altitude, est découplé du télescope.
Une configuration classique est la combinaison de 2 miroirs, l'un parabolique, l'autre hyperbolique convexe, dans la configuration Cassegrain. Les miroirs ne sont plus nécessairement monoblocs ; c'est le cas du télescope optique le plus grand en service actuellement, le télescope Keck.
Dans le domaine radio, il est nécessaire d'avoir une antenne de grande taille :
Le domaine des courtes longueurs d'onde présente de nombreuses particularités. Entre autres :
Optique géométrique. Formation d'image au foyer primaire d'un télescope.
Quelques notions sur les collecteurs de photons en astronomie.
Le signal d'un objet très lointain, non résolu spatialement, est une onde plane. Observer cette onde plane, c'est la focaliser en un point. Une surface mathématique sait faire cette opération : le paraboloïde de révolution (révolution d'une parabole autour de son axe).
Mathématiquement, la parabole conjugue l'infini à un point ; optiquement, elle permet de transformer une onde plane en onde sphérique. Ceci n'est rigoureusement vrai que pour un rayon parallèle à l'axe optique. L'aberration de sphéricité apparaît pour les rayons inclinés sur l'axe.
Les lois de l'optique permettent de caractériser les qualités de la collecte.
Les collecteurs de photons s'appuient sur de multiples configurations optiques. On note principalement :
Optique géométrique. Formation d'image au foyer primaire d'un télescope. Montures des télescopes.
Aperçu des diverses configurations optiques pour un télescope.
Plusieurs configurations optiques permettent de réaliser pratiquement la convergence d'une onde plane en un foyer. Selon l'usage, astronomie amateur ou professionnelle, elles diffèrent, par leur performances et leurs coûts.
Un télescope professionnel, usuellement de type Cassegrain ou Ritchey-Chrétien, présentera plusieurs combinaison de foyers.
La transformation d'une onde plane en onde sphérique, puis de l'onde sphérique en une autre onde sphérique convergeant au foyer du télescope, est une application directe des propriétés des coniques.
VLT
Pour un télescope en monture azimutale, telles les 4 unités du VLT, plusieurs trains optiques permettent d'illuminer les différents foyers : Cassegrain, Nasmyth, coudé.
L'appliquette ci-dessous décompose différents éléments d'une des unités du VLT.
Difficulté : ☆ Temps : 15 min
La figure ci-jointe, proposée en appliquette, montre un montage de type Cassegrain. Le diamètre du miroir primaire vaut 128 cm.
Positionner graphiquement la lentille équivalente du télescope, et déterminer ensuite sa focale équivalente.
[2 points]
Calculer le nombre d'ouverture du télescope.
[1 points]
La forme des miroirs doit s'approcher au mieux de la forme idéale (parabolique, hyperbolique, plane...). A grande comme à petite échelle, aucun défaut ne doit excéder une limite, dont la valeur dépend des performances souhaitées.
Plutôt que de confier la forme idéale du collecteur à une position statique et rigide, l'optique active préfère inclure une chaîne de correction commandant la forme idéale du miroir au moyen d'actuateurs positionnant idéalement chaque sous-élément du miroir.
Cette technique est employée p.ex. pour les miroirs de 8.2 m du VLT. Si leur forme idéale devait découler de leur seule rigidité, ces miroirs auraient une épaisseur supérieure à 2 m : solution inadaptée. Les miroirs sont minces (18 cm) ; leur faible épaisseur leur assure une certaine souplesse, et quelle que soit leur position, des actuateurs les repositionnent pour une forme idéale.
Dans le domaine radio, caractérisé par des longueurs d'onde relativement grandes, un grillage peut suffire à constituer un bon miroir. Il est vu par l'onde tel une surface pleine, et sa forme rapportée à la longueur d'onde considérée est suffisamment précise.
L'étude technologique des qualités optiques des éléments des collecteurs astronomiques s'appuie sur de multiples domaines non ici explorés. On s'intéresse essentiellement à la forme géométrique idéale des collecteurs, en laissant de côté : les aberrations, les propriétés thermomécaniques des miroirs et de leurs supports, les propriétés de réflexion des surfaces ; la transmission dans les verres des lentilles...
Un miroir optique diffère d'un miroir usuel. Un miroir usuel est constitué d'une plaque de verre protégeant une feuille métallique réfléchissante. Le faisceau optique traverse par 2 fois cette vitre, avant et après la réflexion métallique.
Un miroir astronomique est constitué d'un support vitreux, précisément taillé, recouvert d'une très fine couche métallique réfléchissante (aluminium, argent ou or principalement, selon le domaine de longueurs d'onde utilisé), éventuellement protégée d'une mince couche d'oxyde. Le faisceau optique ne traverse pas le verre.
Le substrat en verre est typiquement du zérodur, verre se caractérisant par un très faible coefficient de dilatation thermique.
La qualité des optiques de toute la chaîne de détection est essentielle. Elle se traduit par la fonction d'étalement du point, qui rend compte de l'image d'un objet ponctuel à l'infini.
Cette qualité, pour un miroir, se résume souvent à un paramètre : à grande ou à petit échelle, le miroir ne doit pas s'écarter de sa forme idéale de plus d'une fraction de longueur d'onde (typiquement de pour un dioptre usuel à pour une optique d'interféromètre).
On appelle optique active un système restituant la forme idéale des surfaces collectrices non de façon statique, avec des miroirs très rigides, mais dynamique, avec des miroirs minces positionnés par des actuateurs. L'optique active corrige les déformations lentes d'origine thermique et mécanique.
L'optique adaptative corrige en temps réel les défauts du front d'onde induits par la turbulence. Voir les pages dédiées à l'optique adaptative.
Les diamètres collecteurs ont régulièrement augmenté au cours du temps, pour collecter plus, et plus précisément, de photons. Divers projets de télescopes optiques de miroir primaire de 30 à 50 m sont dans les cartons. Des structures de telles dimensions existent déjà, mais dans le domaine radio, avec des longueurs d'onde centimétriques et non submicrométriques.
Le projet CELT illustre les caractéristiques des futurs projets. Le projet OWL de l'ESO, préparant la classe des télescopes de 100 m, n'a pas abouti, car il supposait un trop radical changement d'échelle. Il a été remplacé par un projet de télescope de 39 mètres de diamètre, l'Extremely Large Telescope (ELT) de l'Observatoire Européen Austral, dont la première lumière est prévue en 2024.
Dévoiler les grandes lignes des projets de grands observatoires.
Certains besoins scientifiques (pas tous) nécessitent la collecte de flux de plus en plus faible, et donc des collecteurs encore plus grands que ceux de la classe 10 m entrés en action dans les années 1990.
Les télescope de cette classe 10 m ont montré des changements importants par rapport à leurs prédécesseurs, induits simplement par leur taille.
Ces principes sont conservés pour les projets de télescope de la classe 30 m, avec en plus la généralisation des miroirs segmentés.
Si le principe des très grands télescopes est mûr, leur réalisation pratique pose de nombreux problèmes. Par exemple :
Une solution alternative aux très grands télescopes pourrait consister à réaliser une surface collectrice avec plusieurs pupilles reconstituant une seule surface collectrice, mais non entièrement pavée ; un système optique apporte la densification de pupilles, et conduit au principe de l'hypertélescope. La réalisation pratique d'un hypertélescope n'est pas prévue dans un futur proche, un certain nombre de points durs techniques subsistant encore.
Difficulté : ☆☆☆ Temps : 60 min
La première figure donne le schéma de principe d'un hypertélescope. L'équivalent du miroir primaire est constitué de sous-pupilles, reconstituant de façon incomplète une surface collectrice correspondant à une immense parabole. mesure le diamètre d'une sous-pupille ; leur écartement.
La deuxième figure présente le montage du densificateur de pupille. Les lentilles L2 et L5 sont supposées identiques, si bien que le grossissement du système constitué de ces lentilles vaut -1 ; le grossissement angulaire du système afocal constitué des lentilles l3 et l4 est noté .
Cet exercice est à résoudre sans gros calcul ! Pour simplifier l'approche, on travaille sur une seule dimension, comme le montre la figure (sans chercher à reconstituer la surface collectrice).
On s'intéresse juste à l'optique en amont de F1. Quels paramètres dimensionnent la taille angulaire de la tache image en F1 d'une sous-pupille, de l'ensemble des sous-pupilles ? Mener l'analogie avec un réseau d'interférence composé de fentes de largeur séparées d'une distance , s'étalant sur une longueur totale .
Déterminer l'action du système (l3, l4), en comparant les situations en F1 et F2.
Quel est l'intérêt du système ? Que se passe-t-il lorsque ?
Qu'a-t-on gagné, qu'a-t-on perdu avec cette opération ?
L'information recherchée dans un signal s'exprime de diverses façons. Cette section présente les grands principes en oeuvre et les techniques instrumentales associées, pour traiter au mieux les photons selon :
L'information portée par les photons peut être traitée de diverses façons, ainsi que le montrent les illustrations suivantes.
Distinguer différents principes instrumentaux.
La liste qui précède est austère. Les pages qui suivent illustrent comment ces techniques sont mises en pratique, et dans quel but.
Les données astrométriques permettent une foultitude de choses, comme par exemple de précisément caractériser un champ autour d'un objet. Les figures ci-jointes décrivent de diverses manières l' environnement d'une étoile, une carte, ou par les coordonnées.
Le principe de mesure de Gaia repose sur le balayage du ciel simultanément le long de deux lignes de visée. Le scénario de pointage met en oeuvre la rotation propre et la précession du satellite. Le montage optique s'appuie sur une structure stable.
L'astrométrie a pour but de mesurer la position des astres, leur parallaxe et donc leur distance, leur mouvement propre. Elle opère un travail indispensable de repérage et d'arpentage.
Repérer précisément les astres, c'est avoir accès à leur distance, par l'étude de la parallaxe. Repérer leur mouvement propre, c'est avoir accès aux causes dynamiques du mouvement, et donc mesurer des masses.
date | observation | nombre d'objets | précision (") |
---|---|---|---|
-150 | Hipparque | 1000 | 1100 |
1590 | Tycho | 1000 | 60 |
1690 | Flamsteed | 4000 | 10 |
1850 | Argelander | 26000 | 1 |
1975 | US Naval Observatory | 0.04 | |
1995 | Hipparcos | 120000 | 0.001 |
2012 | Gaia |
L'agence spatiale européenne a exploité le satellite Hipparcos durant les années 1990, et lancé la mission Gaia fin 2013. Ces 2 missions ont pour but principal l'arpentage de l'Univers, obtenu par une très grande précision astrométrique.
Hipparcos comme Gaia sont des missions spatiales. L'écran de l'atmosphère terrestre est évité, la déviation d'un rayon lumineux au travers des couches atmosphériques étant bien trop importante par rapport à la précision recherchée, de l'ordre de la milliseconde d'arc. La précision des missions Hipparcos et Gaia s'appuie sur le principe de l'observation simultanée de 2 champs stellaires, dans 2 directions faisant entre elles un angle fixé et stable (106.5 deg). Comme un compas sert à repérer des distances (linéaires ou angulaires), de proche en proche les positions relatives des objets sont fixées les unes par rapport aux autres.
Gaia doit mesurer la précision d'un milliard d'objets dans la galaxies (soit 1% de son contenu stellaire), avec une précision de quelques millionièmes secondes d'arc pour les cibles les plus brillantes.
magnitude | 10 | 15 | 20 |
parallaxe (mas) | 0.007 | 0.027 | 0.3 |
La simulation ci-dessous permet de lire les positions et mouvements repérés par le satellite européen Hipparcos dans l'amas ouvert des Hyades. Noter que la précision des positions effectivement repérées par Hipparcos est infiniment meilleure que celle restituée par l'appliquette.
Difficulté : ☆☆☆ Temps : 45 min
Cet exercice se propose de montrer que la précision astrométrique d'un satellite tel Hipparcos ou Gaia peut être estimée par l'application des inégalités de Heisenberg. On s'intéresse pour ceci à la propagation d'un photon, issu d'un objet ponctuel à l'infini, dont la trajectoire intercepte le miroir primaire de détection (!). On munit l'espace d'un repère orthonormé telle que le plan corresponde au miroir primaire de la détection. La quantité de mouvement du photon incident est quasiment parallèle à . On suppose que la formation d'image suit parfaitement les lois de l'optique géométrique.
On s'intéresse à l'interception du photon selon la direction . Peut-on connaître la position de l'impact et de la réflexion du photon sur le miroir? En déduire que le front d'onde incident est découpé en tranche de largeur la dimension du miroir, que la position selon l'axe est inconnue, et que donc elle est affublée d'une incertitude de position .
[2 points]
On rappelle qu'un échantillonnage par valeur entière correspond à un bruit de numérisation de . En déduire l'incertitude de mesure de la composant selon de la quantité de mouvement du photon.
[1 points]
Par inégalité de Heisenberg, les incertitudes de position et quantité de mouvement doivent vérifier :
avec la quantité de mouvement totale . En déduire que l'incertitude de repérage de l'angle d'incidence du photon vaut :
[3 points]
Faire l'application numérique pour Gaia, observant à la longueur d'onde moyenne de 600 nm, avec . Cela est-il compatible avec les performances annoncées, de l'ordre de à la magnitude ? Pourquoi ?
[1 points]
La question précédente dimensionne l'incertitude pour 1 photon. On montre plus loin dans le cours que pour photons effectivement détectés, l'incertitude est divisée par . Combien de photons doivent être détectés pour aboutir à la performance annoncée.
[1 points]
Toute mesure photométrique doit s'appuyer sur un système de filtres précis, calibrés par rapport aux filtres des autres systèmes utilisés. Le projet MEGACAM au télescope CFH utilise le système ci-joint, couvrant du très proche UV au proche IR.
Les occultations, qui réunissent sur un même axe un objet du système solaire et une étoile, comme une éclipse réunit la Lune et le Soleil, ne sont pas que de simples événements fortuits : leur observation est riche en enseignement (métrologie, sondage atmosphérique...).
Les mesures photométriques recherchent souvent des variabilités, dont l'étude ouvre de multiples champs d'investigation. Plusieurs satellites passent actuellement leur temps à mesurer des flux stellaires avec une précision de plus en plus grande. Le satellite CoRoT a ainsi découvert une très petite planète. La microvariabilité d'une naine blanche (PG1159) est étudiée pour l'analyse de ses oscillations : la série temporelle enregistrée sur 8 nuits aboutit au spectre de Fourier.
Photométrie : étude de la magnitude d'un astre dans un système de bandes spectrales.
Connaître précisément le nombre de photons de couleur donnée qui arrivent en un intervalle de temps donné permet de remonter à des considérations énergétiques.
Le problème est très souvent complexe, car il nécessite de tenir compte précisément de la transparence atmosphérique, de la fonction de transfert du collecteur et de l'instrument, de la réponse spectrale du détecteur...
Les effets mentionnés ci-dessus illustrent la complexité, voire l'impossibilité, d'une mesure photométrique absolue. Les mesures effectuées sont des mesures relatives, où la luminosité de l'objet, intégrée ou spectrale, est comparée à une référence.
Cette référence peut être une cible stellaire (telle l'étoile Véga p.ex, qui définit la magnitude apparente visuelle 0). Les mesures bolométriques, dans l'IR ou le submillimétrique, comparent le flux étudié à celui d'un corps noir calibré.
L'étude de la variabilité et de la microvariabilité est très fructueuse, pour observer des phénomènes à haute fréquence, associés à des variations intrinsèquement rapides ou bien dues à des phénomènes transitoires.
Mesurer un flux nécessite de la méthode, et cette dernière dépend du signal étudié. On peut pratiquer :
Imager permet de tracer la distribution de matière qui rayonne, qui absorbe... Une image en fausse couleur résulte de la superposition de 3 images prises dans 3 filtres différents.
Autrefois, avant l'introduction de la photographie à usage astronomique, à la fin du XIXe siècle, imager signifiait dessiner !
L'imagerie permet d'identifier les objets, pour les classer, pour faire le lien entre diverses observations à diverses longueurs d'onde... Un problème courant est de distinguer les sources stellaires des sources galactiques.
L'imagerie, répétée sur un même champ, permet la découverte des petits corps du système solaire, en mouvement apparent sur fond d'étoiles fixes. C'est p.ex. ainsi qu'ont été découverts les objets de Kuiper, éléments du système solaire situés au-delà des planètes géantes, en deçà des comètes, et s'en distinguant par des orbites relativement proche de l'écliptique et d'excentricité modérée.
Les séries temporelles d'images donnent accès aux cartes des objets enrotation, et à leurs variations
L'imagerie permet aussi de repérer des événements particuliers, comme p.ex. l'apparition de taches sur Jupiter.
Tentative, désespérée, de classification des divers et nombreux champs d'application de l'imagerie en astrophysique
Imagerie : fournir des images dans des systèmes de filtres standards, ou au-moins précisément référencés.
L'imagerie fournit des images. Pour obtenir une image, il faut au préalable avoir reçu 10 bons points. On peut échanger 10 images contre un petit livre.
Les images en astrophysique apportent l'information spatiale, qui permet le traçage et l'identification de la matière lumineuse. Cette information dépend essentiellement de la longueur d'onde d'observation.
La résolution spatiale, couplée avec une faible résolution spectrale, donne par exemple accès à des informations de température ; avec une forte résolution spectrale : traçage fin d'un élément, mesures Doppler...
Obtenir une image est relativement trivial dans certains cas, pas du tout dans d'autres.
Ceci peut être dû à la mise en forme du signal. Dans les domaines X et surtout , la capacité d'imagerie des détecteurs est très limitée, et il est souvent difficile de bien localiser une source même intense. Du côté des très grandes longueurs d'onde, la tache d'Airy due à la diffraction peut atteindre une extension angulaire très grande ce qui limite la résolution spatiale.
La capacité d'imagerie dépend aussi de la technologie des détecteurs. Si en lumière visible les mosaïques CCD atteignent 2k x 4k, les performances sont bien plus limitées dans les longueurs d'onde infrarouges. En submillimétrique et radio, les détecteurs étant monopixels, les images sont construites par juxtaposition d'images élémentaires.
L'imagerie est le plus souvent menée dans des systèmes de filtres si possible référencées, afin de pouvoir mener des comparaisons entre diverses observations. Ces filtres couvrent continûment le spectre, en bande large.
L'imagerie multispectrale, gourmande en photons, est menée sur des objets brillants, comme typiquement les objets du système solaire. Selon la longueur d'onde d'observation, les disques solaire, jovien ou de Titan présentent différents aspects. Les domaines spectraux sont ici adaptés au phénomène étudié.
L'intérêt de l'imagerie multi-spectrale est de permettre une modélisation précise de l'objet observé. Par application de code de transfert de rayonnement, cette modélisation permet typiquement de contraindre la température et la composition de l'objet. Le diaporama ci-contre illustre une application sur la calotte martienne sud, observée par l'instrument OMEGA à bord de la sonde Mars Express.
Selon la longueur d'onde d'observation, la Voie Lactée se présente sous différents aspects : chaque longueur d'onde apporte des informations complémentaires sur sa structure.
L'imagerie spectrale, comme son nom l'indique, fournit des images enregistrées dans un domaine spectral bien précis, défini par un filtre adapté aux propriétés de l'objet. Cela permet de tracer la distribution de matière contribuant à une signature spectrale donnée.
Cette technique est coûteuse en photons, et l'utilisation de filtres étroits nécessite une source brillante (dans le cas du soleil, ce genre de problème ne se pose bien sûr pas).
L'imagerie multispectrale combine les avantages de l'imagerie et de la spectrométrie. Comme le nombre de photons est divisé et spatialement et spectralement, la source se doit d'être lumineuse pour des observations avec un rapport signal à bruit suffisant.
Difficulté : ☆☆ Temps : 20 min
Exercice de synthèse, basé sur les images multi-spectrales de la Voie Lactée, en , X, visible, proche, moyen et lointain infrarouge, raie de , H atomique, et radio.
Dans quel système de coordonnées ces cartes sont-elles représentées ?
[1 points]
Quels domaines spectraux sont dominés par, respectivement, des sources ponctuelles intenses, une émission de type corps noir, l'absorption par des molécules ou des poussières, la réémission de ces derniers ?
[3 points]
Les spectromètres pour la haute résolution spectrale ne datent pas d'hier. Mais l'avènement des caméras CCD, qui permettent d'enregistrer un signal sur 2 dimensions, a renouvelé le principe instrumental de la spectrométrie à haute résolution, en ajoutant à la dispersion principale une dispersion croisée, qui permet l'enregistrement simultané de tout le domaine spectral sur une caméra CCD.
Un spectromètre à réseau disperse la lumière dans ses ordres élevés, et les différents ordres sont séparés par une dispersion croisée obtenue à plus basse résolution. L'avantage d'une telle instrumentation est d'aboutir à un enregistrement simultané de tout le spectre, comme p.ex. ce spectre solaire.
Le spectromètre HARPS dédié à la recherche d'exoplanètes est à l'heure actuelle le meilleur instrument de sa catégorie. Il atteint la résolution , en proposant une excellente stabilité. Les mesures sont stables et reproductibles, sur une durée de plusieurs années, à mieux que le milliardième près. Les spectres de HARPS sont obtenus avec les différents ordres d'interférences repliés sur une image ; l'image, traitée, conduit au spectre.
Spectrométrie : étude des spectres.
Bien distinguer l'identité spectrale des photons permet de remonter à la nature des éléments construisant le rayonnement, par absorption ou par émission. La spectrométrie à haute résolution permet aussi, via l'analyse Doppler, des mesures très précises de vitesses radiales, comme p.ex. celles qui ont conduit à la découverte des planètes extrasolaires.
Parmi les disperseurs efficaces, l'instrumentation astrophysique s'appuie couramment sur les spectromètres à réseau ou par transformée de Fourier.
Le principe du spectromètre HARPS (ESO/Observatoire de Genève) est expliqué ci-joint.
Principe du spectromètre HARPS
Difficulté : ☆☆☆ Temps : 45 min
Le spectromètre HARPS, mis en service au printemps 2003 à La Silla, l'un des sites chiliens de l'ESO, a pour but la recherche des exoplanètes. On se propose ici de retrouver quelques-unes des qualités qui lui permettent d'atteindre les objectifs scientifiques fixés.
Le spectromètre est installé derrière le télescope de 3.6 m de l'ESO. Sa pièce principale, le réseau, présente une hauteur de 20 cm. Déterminer le grossissement du montage afocal permettant un éclairement optimum du réseau, en supposant un faisceau non divergent.
Montrer qu'une déviation dans le champ objet se traduit par une variation de l'angle dispersé.
Rappeler l'expression donnant les variations de l'angle de dispersion en fonction des variations de longueur d'onde , du pas du réseau, et selon l'ordre d'interférence .
On cherche à déterminer le champ objet maximal, qui permette d'atteindre un pouvoir de résolution . Montrer que cette performance nécessite un faisceau émergeant du spectromètre de taille angulaire limitée à
et conclure. On fera l'application numérique avec les données :
, et un ordre d'interférence à :
Justifier a posteriori l'hypothèse de non-divergence du faisceau. On pourra considérer un faisceau optique de longueur 8 m dans l'instrument.
Plusieurs techniques permettent de réaliser la spectro-imagerie, càd une information spectrales pour plusieurs objets, plusieurs points du champ ou bien tout un champ.
La fente du spectromètre sélectionne les objets du champ. La dispersion, perpendiculaire à la fente, apporte un spectre pour chacun de ses objets .
L'image est optiquement découpée en tranches, afin de couvrir la fente d'entrée du spectro. L'analyse des images monochromatiques de la fente d'entrée permettra de reconstituer chacune des régions initiales.
La fente du spectromètre est alimentée par un faisceau de fibres. Ces fibres sélectionnent les objets du champ à étudier, qui donc n'ont pas besoin d'être alignés.
Les champs sélectionnés peuvent être imagés sur un petit nombre de pixels à l'aide de galettes de microlentilles alimentant des fibres optiques.
Spectro-imagerie : spectrométrie sur un champ non limité à un seul point source.
La spectrométrie à fente longue a pour objet l'enregistrement simultané de spectres à basse résolution pour les différentes sources sélectionnées par la fente. Le flux issu de chaque sous-région de la fente est dispersé. La dispersion étant perpendiculaire à la fente, l'image bidimensionnelle finale résulte du produit de 2 dimensions : l'une est spectrale, l'autre est spatiale.
La spectrométrie multi-objets réalise l'enregistrement simultané de spectres à basse résolution pour plusieurs régions d'une image. Les flux de ces régions sont collectés via des fibres, qui organisent une anamorphose de l'image. En entrée, les sources sont réparties indifféremment dans le champ ; en sortie, leurs images par les fibres, sources pour le spectromètre, sont alignées le long de la fente.
Le flux issu de chaque fibre est dispersé. Comme pour la spectrométrie à fente longue, l'image bidimensionnelle finale résulte du produit de 2 dimensions : l'une spectrale, l'autre spatiale. Mais la correspondance entre les pixels et le champ est à considérer selon l'anamorphose effectuée.
Par rapport à la spectrométrie à longue fente, la souplesse des fibres permet de sélectionner plus pertinemment les sources.
La spectrométrie intégrale de champ propose l'enregistrement simultané de spectres à basse résolution de tout un champ objet. L'objet est découpé en un certain nombre de régions, chacune étant alors considérée comme une source ponctuelle, ensuite dispersée.
L'espace entre les images de chacune de ces sources ponctuelles est suffisant pour permettre d'enregistrer, pour chacune, un spectre à basse résolution.
La fente du spectromètre UVES de l'ESO, fonctionnant en spectrométrie multi-objets, est illuminée par 8 fibres. Sept d'entre elles visent 7 cibles, la 8ème est réservée à la référence spectrale (une lampe à vapeur spectrale, dont on voit les raies en émission).
Spectrométrie multi-objets
Spectrométrie intégrale de champ
La résolution spatiale est dégradée, pour permettre l'enregistrement de spectre sur une grille de régions du champ. Le réseau de microlentilles découpe le faisceau, et crée autant d'images ponctuelles qu'il y a de microlentilles. Ces images ponctuelles sont ensuite autant de sources pour un spectrographe. On récupère en sortie un spectre de résolution moyenne pour chaque région de l'objet découpée par la microlentille (cf instrument CFHT/Observatoire de Lyon).
Difficulté : ☆☆ Temps : 20 min
Cet exercice a pour but d'estimer l'ordre de grandeur des performances d'un spectromètre intégral de champ, qui donne des images sur un CCD de 2k 2k (2000 fois 2000 pixels). On note le pouvoir de résolution spectrale visé, le nombre d'éléments spectraux correspondant, le nombre d'informations spatiales souhaité.
Montrer que, si l'intervalle spectral est large, alors en ordre de grandeur . On se place par la suite dans le cadre de cette hypothèse.
Montrer que le produit est nécessairement borné.
On considère pour la suite qu'entre le codage, l'étalonnage, la séparation des spectres..., une information élémentaire nécessite 20 pixels. On souhaite une résolution spectrale de 200. En déduire le nombre d'informations spatiales maximal.
Aux grandes longueurs d'onde, submillimétriques ou radio, les techniques interférométriques s'imposent pour un gain en résolution angulaire (voir l'exercice correspondant).
On nomme VLTI la configuration interférométrique des télescopes du VLT. La longueur de cohérence pour une source astronomique étant limitée, l'obtention de franges d'interférence nécessite des lignes à retard pour mélanger les faisceaux des différents collecteurs. Une des premières opérations du VLTI a consisté en la mesure de diamètres stellaires d'étoiles de la séquence principale. La mesure de ces diamètres angulaires est impossible sans la haute résolution apportée par l'interférométrie.
Les mesures effectuées sont des mesures de visibilité de franges d'interférence. Plus la source est étendue, moins la visibilité des franges est marquée.
Augmenter la résolution angulaire, ultimement limitée par la diffraction d'un collecteur, en faisant interférer les faisceaux de plusieurs collecteurs.
Diffraction, interférence ; la notion de cohérence spatiale est nécessaire pour justifier les techniques d'interférométrie.
Les faisceaux issus de 2 collecteurs pointant le même objet sont recombinés, de manière cohérente, pour interférer.
La ligne de base entre 2 collecteurs étant notée , la résolution angulaire de la tache image des faisceaux interférant à la longueur d'onde vaut .
Exemple de valeur numérique : dans le proche infrarouge, pour une base de 100 m : .
Exemple de recombinaison : interféromètre de type Michelson, ou bien Fizeau. Dans ce dernier cas, les surfaces collectrices sont des éléments disjoints d'une surface collectrice unique.
L'interférométrie s'est développée dans un premier temps dans le domaine radio. Dans ce domaine de fréquence, la détection cohérente permet une recombinaison du signal plus aisément qu'aux fréquences optiques. La phase du signal étant enregistrée, cette recombinaison n'a même pas à être nécessairement menée en temps réel. L'interférométrie dans le domaine des grandes longueurs d'onde apparaît par ailleurs le plus souvent indispensable, la taille de la tache de diffraction dans ce domaine conduisant, malgré les grands diamètres collecteurs, à une résolution angulaire médiocre. L'interférométrie est aujourd'hui développée jusque dans le domaine visible : en l'absence de pupille de grande taille, c'est la seule technique donnant accès à la haute résolution angulaire.
On s'intéresse aux interférences construites entre paires de collecteurs. Le problème se ramène à une situation de type trous d'Young, avec l'analogie entre les trous d'Young et les collecteurs.
La longueur de cohérence du faisceau stellaire est limitée. Réaliser des interférences ne se limite pas à une sommation des intensités lumineuses : observer des franges d'interférence nécessite d'égaler les chemins optiques des 2 voies à quelques longueurs d'onde près avant leur recombinaison. Des lignes à retard optiques permettent de réaliser ceci.
De la même façon que le paramètre pertinent pour visualiser les franges d'interférences issus des trous d'Young est l'écart angulaire par rapport à l'image géométrique, il est utile de faire la correspondance entre la projection des lignes de bases de l'interféromètre, projetées sur le plan d'onde. Une configuration donnée, à une date donnée, va conduire à la mesure de la visibilité des franges d'interférences pour un vecteur angulaire donné .
La courbe de visibilité dépend de la taille angulaire de la source, dès lors que celle-ci est résolue par l'interféromètre. Plus la source sera étendue, plus les franges d'interférence apparaîtront brouillées dès lors que l'on s'éloigne angulairement de la direction de l'optique géométrique.
La ligne de base correspond à la projection sur le plan du ciel, donc orthogonale à la ligne de visée, de la position des télescopes. Du fait de la rotation de la Terre, elle varie au cours de l'observation.
Les animations ci-jointes montrent comment évoluent, au cours d'une séquence d'observation, les lignes de base d'un site avec 3 télescopes interférant, avec les fréquences spatiales sur le plan du ciel.
Si l'objet ne varie pas rapidement dans le temps, il est possible de prendre le temps de nombreuses configurations interférométriques, au besoin avec des changements de positions des télescopes (lorsque cela est possible), pour reconstituer suffisamment de fréquences spatiales et imager en détail l'objet.
Difficulté : ☆ Temps : 10 min
Les antennes de l'IRAM du plateau de Bure ont un diamètre de 15 m.
Déterminer la tache d'Airy, pour une observation menée à 230 GHz.
Que devient cette résolution pour une observation interférométrique avec une ligne de base de 400 m ? Déterminer le gain en éléments de résolution sur un objet.
Les différents programmes d'observations des différents télescopes ont conduit à l'accumulation de très nombreuses données, compilées dans de non moins nombreux catalogues. Aujourd'hui, soit ces catalogues sont devenus obsolètes, soit ils sont accessibles en ligne pour être accessibles, pour profiter à la plus large communauté, pour être intercroisés avec d'autres observations...
Un intérêt majeur d'un observatoire virtuel consiste à fournir des archives, p.ex. pour détecter un phénomène nouveau, tel l'apparition d'une supernova.
Approche multispectrale de M20 proposée par le Centre de Données Stellaires de l'Observatoire de Strasbourg. Les outils permettent de retrouver des informations, les comparer...
Un observatoire virtuel correspond à un centre de données, donnant accès à des observations passées classées, archivées, ainsi que des outils spécifiquement développés pour travailler ces observations.
Les évolutions technologies ne permettent pas seulement d'avoir des instruments plus performants, pilotés par des interfaces efficaces. Elles ouvrent aussi la possibilité de mettre à la disposition de la communauté des chercheurs les observations menées par les différents programmes.
Les bases de données classent et organisent dans des formats facilement portables les résultats obtenus par les grands observatoires, leurs programmes majeurs d'atlas et d'observation de régions précises, les missions spatiales...
Un observatoire virtuel, c'est une base de données suffisamment bien achalandée, organisée et agencée pour permettre non de réaliser une observation, mais d'accéder à des observations passées susceptibles de fournir les renseignements cherchés.
Un observatoire virtuel doit ainsi permettre :
Pour en savoir plus, voir p.ex. le site du Centre de Données astronomiques de Strasbourg (CDS).
Cette section a exposé les principales mises en forme du signal astronomique. Chacune correspond à une instrumentation spécifique.
Une bonne part de la recherche astrophysique concerne le développement d'instruments encore plus puissants, efficaces, sensibles, précis, stables... sachant qu'il est impossible de tout faire simultanément.
Plus de dix ordres de grandeurs séparent les énergies des photons à radio auxquels s'intéressent les astrophysiciens. Les techniques de détection, tout comme les détecteurs, sont évidemment bien différentes selon le domaine spectral.
Cette section présente des caractéristiques générales, et explore préférentiellement le domaine spectral visible ainsi que les domaines proches du visibles où les détecteurs présentent des propriétés semblables.
Une section est spécialement dédiée aux détecteurs CCD et aux observations avec une caméra CCD. Une autre s'intéresse aux observations dans l'infrarouge thermique.
La réponse spectrale d'un détecteur indique son rendement en fonction de la longueur d'onde. Sans l'instrumentation appropriée, un détecteur ne fournit pas d'information sur la couleur précise d'un photon détecté.
La taille et le nombre des pixels est un paramètre important. Une photodiode est monopixel ; les mosaïque CCD pour l'astronomie peuvent compter jusqu'à 2k 4k pixels, les plus grands CCD actuels (2003) atteignant la taille 8k 8k pixels.
Exemple de détecteur saturé, en raison d'une trop grande dynamique entre les signaux à enregistrer. La saturation conduit à élargir démesurément la tache image, car les trop nombreux photo-électrons ont débordé du puits de potentiel où ils auraient dû être stockés.
On peut synthétiser les propriétés d'un détecteur selon différentes caractéristiques, chacune associée à une dimension physique particulière.
Les principales caractéristiques sont traitées avec plus de détail dans des pages dédiées.
Exemple de caractéristiques d'un détecteur : mosaïque de la caméra CFH12k du télescope CFH.
Retenir qu'un détecteur quantique voit les photons alors qu'un détecteur cohérent voir le champ électromagnétique, ou .
On peut distinguer 3 grands type de détection :
Difficulté : ☆ Temps : 15 min
La détection hétérodyne compare le signal scientifique à un signal de référence délivré par un oscillateur local à haute fréquence. On note la pulsation du signal scientifique, et celle de la référence, cette dernière étant voisine de .
Un mélangeur fournit le signal produit des signaux observé et de référence. Montrer que ce signal est composé de 2 fréquences bien distinctes.
On applique au signal un filtre passe-bas, pour éliminer les hautes fréquences. Montrer l'intérêt du mélange des signaux.
Illustrer comment l'interaction matière-rayonnement permet de transférer l'information utile d'un photon à un photo-électron.
L'absorption d'un photon permet à un électron du détecteur de changer d'état. Cette création d'un photo-électron par absorption d'un photon caractérise les détecteurs quantiques.
La conversion photon + électron photo-électron s'appuie sur différents effets.
Effet | Description | Récepteur |
Effet photochimique | Changement d'état chimique | Plaques photo, plus guère employées aujourd'hui. Les photo-électrons activés par le rayonnement réduisent les ions Ag+ en argent métallique. |
Effet photoélectrique | Extraction d'un électron d'un métal vers le vide | Phototube, photomultiplicateur |
Effet photoconducteur | Au sein d'un semi-conducteur, l'absorption d'un photon permet à un électron de franchir le gap de la bande de valence vers la bande de conduction | Photodiode |
Effet photovoltaïque | Effet photoconducteur dans une jonction PN. Un photon crée une paire électron-trou, qui se traduit pas une différence de potentiel aux bornes de la jonction ; IR lointain radio |
La probabilité de création d'un photoélectron, souvent appelée rendement quantique, dépend de différents paramètres, et varie fortement avec la longueur d'onde :
Avec les définitions suivantes :
coefficient de réflexion à la surface du détecteur ; les photons réfléchis, repartant vers la source, ne risquent pas de créer un photo-électron | |
fraction de porteurs de charge participant au courant mesuré | |
coefficient d'absorption du matériau : un détecteur se doit d'être absorbant. | |
épaisseur du détecteur ; plus le produit augmente, plus la probabilité d'absorption d'un photon est grande |
On demande à une mesure physique de fournir une mesure en liaison avec l'observable voulue. Une propriété importante est la linéarité : si elle n'est pas assurée, la relation entre le signal mesuré et le signal observé est complexe.
L'effet de seuil peut introduire un décalage sur une faible mesure. Le niveau de signal doit être suffisant pour sortir du bruit propre du détecteur. A faible niveau, la définition du signal nul (offset) peut également affecter le signal. La saturation affecte les fortes valeurs de signal.
Un bon détecteur est linéaire sur une grande dynamique, et propose un seuil de sensibilité bas.
Un récepteur sera d'autant plus sensible que... son seuil de sensibilité est bas. Ceci nécessite le plus souvent son refroidissement, afin de diminuer le bruit d'agitation thermique.
La linéarité assure une réponse proportionnelle au signal incident.
C'est une propriété importante pour convertir une observable en mesure. Si le détecteur est linéaire, il est possible par un simple facteur d'échelle de convertir le signal électrique enregistré en signal photométrique.
La saturation limite le flux maximum observable. Un niveau de saturation élevé assure une grande dynamique.
La réponse spectrale d'un CCD dépend du matériau semi-conducteur utilisé et des caractéristiques géométriques du sandwich de détection.
Un bolomètre ne discrimine pas les longueurs d'onde... mais cela ne signifie pas qu'il est également sensible à toutes les longueurs d'onde. Le signal délivré est en fait intégré selon une fenêtre spectrale donnée.
Un détecteur n'est sensible que dans une gamme spectrale donnée. Il n'a en général aucune sélectivité spectrale intrinsèque, sauf s'il est muni de filtre adéquat.
De ce qui précède, on déduit que la résolution spectrale dépend essentiellement des filtres ou de l'instrumentation associés au détecteur.
La rapidité de lecture d'un CCD dépend de la fréquence d'horloge de l'électronique et du nombre de pixel. Le fait de n'avoir qu'un nombre de registre de lecture limité (1 à 4 typiquement) ralentit considérablement la réponse temporelle d'un détecteur composé de millions de pixels.
Un obturateur mécanique est souvent nécessaire pour stopper l'arrivée des photons durant le temps de lecture de la caméra. Dans certains cas, cet élément peut limiter la cadence d'observation.
L'observation astronomique se caractérise souvent par des poses très longues, nécessaires pour l'obtention d'un signal intrinsèquement très faible. Mais il est aussi utile de pouvoir compter sur des détecteurs rapides. La réponse temporelle prend son importance pour l'observation d'un phénomène périodique rapide, comme p.ex. le clignotement d'un pulsar, ou pour un phénomène transitoire, tel une occultation stellaire.
Un détecteur a un temps de réponse, propre ou dépendant de l'électronique de contrôle et de lecture, qui n'est pas infiniment bref. Par exemple, un bolomètre, qui convertit l'énergie des photons en échauffement, ne peut pas réponde instantanément. De même que la lecture d'une matrice CCD de plusieurs millions de pixels ne peut pas être instantanée, mais prendra jusqu'à une minute.
Il s'ensuit que le signal d'un détecteur est échantillonné dans le temps.
De ce qui précède, on en déduit qu'un détecteur fonctionne comme un filtre passe-bas : les hautes fréquences temporelles sont filtrées.
Certains phénomènes astronomiques présentent de rapides variations temporelles, soit parce qu'intrinsèquement variables, soit parce que correspondant à un phénomène transitoire. L'observation de tels phénomènes demande un temps de réponse rapide, et donc une stratégie de détection appropriée.
Difficulté : ☆ Temps : 10 min
Une observation astérosismique avec le spectromètre HARPS nécessite la lecture d'une caméra de 2k×4k. Par ailleurs, l'échantillonnage du signal temporel nécessite l'acquisition d'une image par minute.
Déterminer le temps de pose en fonction de la magnitude, sachant que le détecteur sature à partir de photo-électrons par pixel, est que cette saturation est atteinte en environ 1 s pour une étoile de magnitude 0.
Le temps de lecture de la caméra est de 20 s. Pour quelle magnitude minimale l'observation reste-t-elle pertinente, avec au-moins la moitié du temps passée sur la source et non à lire la caméra ?
L'observation demande un échantillonnage plus rapide que 3 minutes. Montrer qu'une cible peu brillante ne sera pas observée dans de bonnes conditions. Estimer la limite en magnitude dans le cas où l'on accepte de remplir les pixels à 1/10 de la valeur optimale.
Les CCD actuels pour l'astronomie ont des tailles limitées à 2k4k. Pour augmenter la capacité de détection, on pave le plan focal de plusieurs détecteurs, comme par exemple pour la caméra MEGACAM du télescope CFH mise en service à l'été 2003.
Un pixel, pour picture element, est un élément d'image. Par extension, un pixel d'une caméra CCD correspond à l'entité physique qui aboutit à un élément d'image.
Le nombre de pixels court de 1 à plusieurs millions ; on note couramment 1 kpx = 1000 px.
Les caméras actuelles ont typiquement des formats de 256 256 px (dans l'infrarouge thermique) à 2k 4k pixels (dans le visible).
Le format est la seule caractéristique où la détection par plaque photographique fut plus performante. Les détecteurs de type CCD comptent un nombre de pixels bien inférieur à celui atteint par les plus grandes plaques photos.
Difficulté : ☆ Temps : 10 min
La caméra MEGACAM du télescope CFH, mise en service à l'été 2003, comprend 40 mosaïques CCD, de 2k 4.5k pixels. L'information d'un pixel est codé sur 16 bits. Le temps de lecture d'une image totale est de 30 secondes.
Les 36 CCD centraux, couvrent une surface carrée de 0.94 degré par 0.94 degré. Déterminer le champ de vue d'un pixel.
Déterminer la capacité de stockage nécessaire pour 1 champ observé en 3 couleurs.
Une nuit moyenne aboutit à une dizaine de champs, chacun pris dans 3 filtres. A raison de 100 nuits d'observation par an, déterminer le volume de données au bout de 5 années de fonctionnement.
Le simple fait de numériser un signal analogique, càd de le coder sur une échelle de valeurs discrétisée (typiquement, sur bits, ce qui permet de coder valeurs), peut rajouter du bruit au signal.
La température du détecteur conditionne le signal d'obscurité d'un détecteur. Suite à l'agitation thermique, des porteurs de charge apparaissent aléatoirement, d'autant plus que la température est élevée.
Le bruit de fond représente le bruit de photons de la lumière parasite.
Apprendre à distinguer un signal d'un bruit.
Plusieurs pages sont spécifiquement dédiées au bruit dans la section Analyser le signal : (bruit gaussien, bruit de photons, rapport signal à bruit...)
Au signal scientifique se superposent des signaux parasites et des bruits. Un bruit sera caractérisé par son caractère aléatoire, et les propriétés statistiques correspondantes.
Un signal parasite possède, comme son nom l'indique, les propriétés d'un signal et non celles d'un bruit.
La nature du rayonnement, quantique par excellence, montre le hiatus à décrire une intensité lumineuse par une quantité analogique, alors que les porteurs de ce rayonnement sont quantifiés.
On montre que la statistique d'arrivée des photons est poissonnienne. Lorsque l'on attend photons, la valeur moyenne observée est et la fluctuation autour de cette valeur moyenne. Il s'ensuit un rapport signal à bruit déterminé par le flux de photons égal à :
En électronique, on parle de bruit de grenaille, et de bruit de photons en optique.
Le bruit de fond représente le bruit de photons de la lumière parasite qui se superpose au signal scientifique. Comme le bruit quantique, il est lié aux sources (ici parasites) et non au détecteur. Dans l'infrarouge, il est dominé par l'environnement chaud que voit le détecteur.
Le bruit thermique provient de l'agitation thermique des porteurs de charge du détecteur. Il est à moyenne nulle, son écart-type augmente avec la température.
Ce bruit, comme les suivants, dépend du détecteur et de la chaîne de détection.
Le processus de lecture contribue au bruit de lecture, par exemple dans un CCD lorsque les photo-électrons sont transférés le long d'une colonne vers un registre de lecture. On quantifie le bruit de lecture par son écart-type en nombre de photoélectrons par pixel. Une valeur typique de est de l'ordre de quelques photo-électrons par pixel
L'électronique d'amplification introduit un gain , dont la valeur n'est pas fixe mais sujette à différents bruits.
Le signal analogique est finalement converti en signal numérique, codé sur éléments d'information (bit), ce qui permet uniquement valeurs de codage.
Un signal évoluant sur une plage de 0 à présentera, de par le codage sur éléments d'information, une résolution minimale de .
Difficulté : ☆ Temps : 15 min
On souhaite numériser le signal photométrique d'un détecteur dédié à une étude de la microvariabilité. Ce signal est composé d'un fort continu, de diverses modulations et bruit, et du signal scientifique. Les amplitudes respectives sont données dans le tableau ci-dessous.
continu | |
variations | |
microvariabilité |
Sans traitement préalable, sur combien de bits faut-il coder le signal afin de ne pas introduire de bruit lors de cette opération (si besoin, voir les pages sur l'échantillonnage d'un signal) ?
Même question, après filtrage permettant de séparer les composantes continue et lentement variable d'une part, et la microvariabilité se distinguant du fond variable de l'autre.
Lorsque l'on décompte toutes les pertes de transmission des différents éléments d'une chaîne instrumentale, on s'aperçoit que le rendement final n'est pas nécessairement bon. Pour 100 photons collectables au sommet de l'atmosphère, la plupart des instruments ne travailleront finalement qu'avec une poignée de photoélectrons.
On peut considérer comme partie intégrante du rendement celui de la couverture temporelle durant laquelle la météo est favorable. L'image satellite illustre le fait que le Chili offre de bien meilleurs sites d'observations que l'Argentine, avec un ciel parfaitement dégagé.
Lorsque les photons sont rares, pour des sources faiblement lumineuses, il faut viser l'efficacité lors de chacune des étapes participant à la chaîne de mesure, et ce bien avant le détecteur.
atmosphère | 60 à 80%, dépend de la masse d'air (mesure la quantité d'atmosphère traversée, càd , avec la hauteur sur l'horizon de l'objet visé) |
miroir | jusqu'à 99%, en fonction du traitement réfléchissant de surface |
fibre | de l'ordre de 80% |
dioptre | une réflexion verre-air a un coefficient de transmission typiquement de 96%. Un traitement antireflet permet d'accroître ce coefficient jusque vers 99% |
Difficulté : ☆ Temps : 5 min
Un instrument comprend en tout 10 lentilles. Sans traitement antireflet, chaque dioptre a une transmission de 96%. Déterminer la transmission globale.
[2 points]
Un traitement antireflet permet de porter le coefficient de transmission à 99%. Que devient la transmission globale ?
[1 points]
Conclure.
[1 points]
Difficulté : ☆ Temps : 15 min
Les données de l'appliquette ci-jointe montrent l'évolution de la transmission atmosphérique avec la longueur dans le domaine visible, pour 2 altitudes d'observation : au niveau de la mer et au sommet du Mauna Kea (Hawaï, 4200 m d'altitude).
Tracer, pour les 2 altitudes d'observation, les transmissions en fonction de la longueur d'onde, et commenter l'allure des courbes.
[2 points]
La relation de l'extinction avec la masse d'air de l'objet visé , l'angle mesurant la distance angulaire entre le zénith et la direction de visée, est de la forme :
Commenter et justifier cette relation.
[1 points]
Montrer, en calculant l'extinction au CFH, que la courbe d'extinction est compatible avec la diffusion Rayleigh, qui varie comme l'inverse de la puissance quatrième de la longueur d'onde
[1 points]
Pour en savoir plus sur les thématiques de cette section ; voir p.ex. le livre Méthodes physiques de l'observation, de Pierre Léna, CNRS éditions.
L'instrumentation astrophysique conduit souvent à des observations à la pointe de ce qui est faisable. Les signaux, obtenus après des heures d'observations chèrement acquises, doivent exprimer toute leur substantifique moelle. Une étape très importante est donc l'analyse du signal.
Cette section expose diverses pistes pour :
Quelques-unes des sources de bruit physique sont répertoriées à la page bruits de détection.
La détection d'un phénomène, comme par exemple une raie spectrale, nécessite de pouvoir distinguer le signal par rapport à ce qui n'est pas du signal, appelé bruit s'il présente un caractère aléatoire. On exprime ceci par un rapport, le rapport signal à bruit, d'autant plus important que le signal est fort par rapport au bruit.
Il ne faut pas confondre un signal parasite, ou biais observationnel, avec un bruit. Le biais qui affecte le signal possède des propriétés qui le distinguent tout à fait d'un bruit.
Un biais très commun est un offset, càd un décalage du signal dû au fait que le niveau zéro du signal physique et le niveau zéro de sa traduction en signal électrique ne coïncident pas.
L'astronomie regorge d'exemple de bruits devenus des signaux célèbres à partir du moment où leurs caractéristiques ont été identifiées.
Distinguer signaux et bruits.
Le bruit de la circulation qui vous empêche d'entendre ce que dit votre ami(e) dans la rue, c'est du bruit... et ce que vous dit votre ami(e) a priori du signal. Mais une voiture qui accélère, est-ce vraiment un bruit, ou un signal parasite ? Par analogie, la lumière du ciel diurne qui empêche de voir les étoiles de jour est-elle un bruit, un signal parasite ?
Tout observation va comporter, en plus du signal, des perturbations à ce signal. Ces dernières résultent principalement de deux causes, intrinsèques et extrinsèques :
Exemple de biais : le niveau de biais d'une image numérique prise avec une caméra CCD peut provenir du signal généré par la tension d'alimentation appliquée au détecteur.
Un bruit est un phénomène aléatoire.
On découvre par la suite deux types de bruit plus spécialement importants, obéissant à des statistiques poissonniennes ou gaussiennes.
La distinction entre bruit et signal parasite est parfois complexe. On peut prendre l'exemple du courant d'obscurité d'un détecteur, qui se superpose au flux observé.
Sa valeur moyenne est parfaitement quantifiable (tant de photoélectrons par pixel et par seconde), ce qui montre qu'il s'agit là d'un signal, parasite certes mais avec les propriétés d'un signal.
La vraie composante de bruit concerne les fluctuations de ce courant d'obscurité.
A l'aide de l'appliquette, estimer l'offset affectant cette image de Jupiter dans l'infrarouge thermique.
Solution
Les figures ci-jointes illustrent quelques lois de probabilités :
Une loi de probabilité est déterministe. Mais ses réalisations sont ... aléatoires. C'est seulement avec un nombre élevé de réalisations que l'ensemble de ces réalisations retrace fidèlement la loi de probabilité. Si le nombre de réalisations est petit, on n'observe rien d'identifiable.
Estimation de la moyenne et de l'écart type d'une loi. La moyenne peut être estimée de diverses façons, et la meilleure façon d'estimer une moyenne dépend de la loi de probabilité.
Notions élémentaires de statistiques
La définition d'un bruit repose sur ses propriétés statistiques. Cette page rappelle des notions simples de statistiques, en distinguant les lois de probabilité, leurs réalisations, et l'estimation de paramètres statistiques.
La loi de probabilité d'une variable aléatoire va être donnée par sa densité de probabilité, ou bien sa fonction de répartition .
Parmi les moments centrés associés, la moyenne et l'écart-type sont respectivement définis par :
et :
( est la variance).
Une loi statistique possède des propriétés particulières, qui caractérisent tel ou tel phénomène : une loi poissonnienne (discrète) rend compte de l'arrivée d'événements indépendants, une loi gaussienne est souvent issue de l'addition d'un grand nombre de phénomènes indépendants...
La réalisation d'une loi de probabilité est aléatoire : un tirage de dés, réalisé 6 fois, ne conduira pas nécessaire à l'obtention une fois et une seule de chaque chiffre de 1 à 6. Plus le nombre de réalisations est grand, meilleur est l'accord entre l'observation de ces réalisations et la loi de probabilité.
En pratique, il faut distinguer d'une part la valeur moyenne de la densité de probabilité de sa mesure . Avec les réalisations d'une variable aléatoire, on a accès seulement à :
Et il n'y a aucune raison que . En fait, c'est de mieux en mieux réalisé lorsque devient très grand.
La variance est mesurable par :
avec au dénominateur car a déjà été obtenu à l'aide des mesures, et il ne reste plus que valeurs indépendantes pour estimer .
L'écart entre et vaut typiquement .
L'animation ci-joint montre comment est réalisée en pratique une distribution normale. Ce n'est qu'avec un très grand nombre de tirages que l'histogramme des réalisations ressemble vraiment à la distribution statistique.
Les appliquettes ci-jointes dévoilent des signaux temporels bruités, affectés ou non d'une lente dérive. On se propose d'en mesurer le bruit et le rapport signal à bruit.
Se servir des appliquettes pour :
Le rapport signal à bruit conditionne toute observation. S'il est faible, on ne voit que du ... bruit.
La détection d'un phénomène, comme par exemple une raie spectrale, nécessite un rapport signal à bruit typiquement supérieur à 3.
Notions de probabilités et statistiques
On définit le rapport signal à bruit d'un signal comme le rapport des énergies du signal et du bruit. L'énergie du signal est représentée par sa valeur moyenne , et celle du bruit par l'écart-type . Le rapport signal à bruit est donc :
Si le signal est affecté d'un biais systématique , il faut en tenir compte dans l'estimation de ce rapport, et retirer au préalable sa contribution :
La composante de biais peut être p.ex., pour un signal évoluant dans le temps, un signal parasite apparaissant à plus basse fréquence.
Si les différents bruits contribuant à un signal sont indépendants les uns des autres, leurs écarts-types s'ajoutent quadratiquement pour construire l'écart-type total :
Il s'ensuit le rapport signal à bruit :
Identifier un spectre est d'autant plus aisé que le rapport signal à bruit est bon. En pratique, une raie a priori inconnue devient détectable pour un rapport signal à bruit supérieur à 5.
Si le bruit est dominé par le bruit de photons, le rapport signal à bruit augmente avec la durée d'observation, comme le montre cette simulation.
Difficulté : ☆☆ Temps : 30 min
On recueille le signal d'une cible stellaire. Le rapport signal à bruit s'écrit :
avec le nombre de photoélectrons reçus, relié à un signal de fond, la taille angulaire de la cible, et le bruit de lecture
Identifier précisément les différents termes de bruit contribuant au rapport signal à bruit, en précisant leur écart-type.
Simplifier l'expression du rapport signal à bruit pour le cas d'un objet très brillant, puis pour un objet très peu lumineux. Identifier l'exposant qui caractérise la dépendance en du rapport signal à bruit.
Déterminer comment le rapport signal à bruit varie avec le diamètre du collecteur ou le temps de pose .
La superposition de plusieurs variables aléatoires indépendantes les unes des autres conduit à une loi normale. C'est l'une des conséquences du théorème de la limite centrale. L'animation ci-jointe en montre un exemple.
Exemples de distributions gaussiennes.
Si un bruit est gaussien, la probabilité qu'il s'écarte de plus ou moins de la valeur moyenne est très faible. Cette propriété est mise à profit pour identifier le signal du bruit, mais ne marche que si le bruit est vraiment gaussien.
Loi de probabilité ; éléments de statistique
Le théorème de la limite central implique qu'un bruit résultant de l'action indépendante de différents facteurs physiquesobéit à la loi de probabilité, dite loi normale :
avec la moyenne et l'écart-type. Un tel bruit est dit gaussien.
Pour une loi gaussienne, la probabilité d'observer un signal s'écartant de par rapport à la valeur moyenne décroît rapidement avec ; 99.7 % des réalisations du signal s'écartent de moins de de la moyenne.
n | 1 | 2 | 3 | 4 |
% | 69.2 | 95.4 | 99.7 | 99.99 |
Probabilité d'avoir une valeur dans l'intervalle pour un bruit gaussien.
De ce qui précède, peut-on dire qu'un événement qui s'écarte de plus de de la moyenne est sûrement dû à un signal et non à un bruit, et l'identifier comme tel ?
On considère une détection sûre lorsqu'elle dépasse un seuil de 4 ou 5 fois l'écart-type. Mais, la difficulté réside souvent dans le fait que la nature d'un bruit n'est pas exactement gaussienne, ou que des signaux parasites non identifiés compliquent l'interprétation d'un signal.
L'analyse fréquentielle d'un bruit gaussien ne montre aucune composante privilégiée. Pour cette raison, on parle d'un bruit blanc.
L'ivrogne et son lampadaire sont des acolytes précieux du physicien statisticien. L'ivrogne est supposé partir du lampadaire et accomplir un certain nombre de pas par unité de temps, mais dans n'importe quelle direction.
Au bout de pas, il se sera éloigné du lampadaire d'une distance moyenne de .
A l'aide de l'appliquette, estimer le niveau de bruit affectant cette image de Jupiter dans l'infrarouge thermique. L'exprimer en fonction du niveau maximal du signal (conseil : faire une coupe non sur la planète mais sur le fond de ciel).
Lorsqu'une moyenne de quanta par unité de temps est attendue, un détecteur idéal (rendement unité) en comptera un nombre plus ou moins voisin de . La distribution des valeurs dépend du nombre N : 10, 100, 1000. Plus est grand, plus la distribution apparaît piquée en valeur relative, quand bien même elle est plus étalée en valeur absolue.
La statistique de Poisson concerne un phénomène régulier quantifié.
La détection d'un rayonnement électromagnétique en est un exemple concret, l'arrivée d'énergie étant quantifiée en photons.
Plus le nombre de photons attendus est grand, mieux on pourra préciser la valeur moyenne observée.
La statistique de Poisson va être abordée via un cas concret. L'analyse de l'arrivée de photons d'une signal lumineux de moyenne constante.
Un rayonnement monochromatique de fréquence de luminosité , observé pendant une durée , apporte une énergie . Ce rayonnement est véhiculé par un nombre moyen de photons obéissant à :
La discrétisation du flux en quanta d'énergie implique que le nombre de photons arrivant par intervalle de temps fluctue autour de cette valeur moyenne.
La probabilité de détecter photons lorsque sont attendus en moyenne s'écrit :
C'est la loi de Poisson de moyenne . Il faut retenir que :
En découpant l'intervalle de temps en parties, suffisamment petites pour assurer qu'un seul photon peut arriver pendant l'intervalle de temps , on peut estimer la probabilité de voir arriver photons, en les rangeant dans les cases.
La probabilité d'avoir un photon par case temporelle est , et la probabilité opposée . Comme il y a façons de ranger photons dans les cases, on obtient finalement en développant le coefficient de combinaison :
Avec un très grand nombre d'intervalles, on retrouve la loi énoncée :
vu les approximations pour grand et :
Pour les grandes valeurs de , on peut montrer que cette loi se confond très rapidement avec la gaussienne :
On en conclut alors, en se basant sur la statistique gaussienne, que pour une valeur moyenne , l'écart-type vaut .
Il en résulte un point important : lorsque croît, l'écart-type croît, mais le rapport écart-type/moyenne du signal décroît.
A l'aide de l'appliquette : tracer une distribution de Poisson, et identifier les variations majeures lorsque la moyenne varie.
Une bonne détection, par exemple l'identification d'une raie spectrale, nécessite l'enregistrement d'un nombre suffisant de photoélectrons, afin que la statistique d'arrivée des photons, de type poissonnien, n'empêche pas la détection.
Le bruit de photons est en fait un bruit... de photoélectrons. L'arrivée dispersée des photons, conjuguée à la conversion aléatoire d'un photon en photoélectron, construisent la statistique de création de photoélectrons, qui dépend bien sûr du nombre de photons.
Statistique de Poisson : le bruit de photons obéit à la statistique de Poisson.
Evaluer le bruit et le rapport signal à bruit du bruit de photons.
La statistique d'arrivée des photons est poissonnienne, vu que les photons sont par définition des quanta d'énergie. Lorsque l'on attend photons par intervalle de temps, la valeur moyenne observée est ... et sa fluctuation autour de cette valeur moyenne vaut .
Le bruit de photons, sur une mesure de photons, est .
Il s'ensuit un rapport signal à bruit déterminé par le flux de photons égal à :
Ce rapport signal à bruit croît avec la racine carrée du nombre de photons collectés.
Les photons que l'on observe sont le plus souvent traduits par le détecteurs en photoélectrons, qui suivent la même statistique que les photons, à un facteur de rendement près inférieur à l'unité.
Avec le rendement, le nombre de photoélectrons détectés vaut en fonction du nombre de photons incidents sur le détecteur :
Le bruit de photoélectrons et le rapport signal à bruit résultant valent en pratique .
Difficulté : ☆ Temps : 20 min
En supposant que le rendement de la chaîne de détection vaut l'unité, combien de photons doivent être enregistrés pour que le bruit de photons permette une détection à 1 ppm
Le rendement de la chaîne de détection est de 25% seulement. Par quel facteur doit on corriger le nombre de photons à collecter.
Le nombre de photons requis est collecté en 5 jours. En déduire le nombre de photons accumulés en une pose élémentaire de 1 minute, et la performance atteinte sur une pose élémentaire.
Difficulté : ☆ Temps : 20 min
La figure ci-jointe représente la courbe de lumière de l'étoile HD 49933, l'une des cibles principales du satellite CoRoT. Le signal stellaire est composé de multiples signaux (activité, oscillations...) et bien sûr du bruit de photons. On admet que celui-ci domine à haute fréquence.
Estimer l'amplitude totale du bruit du signal stellaire.
[1 points]
Estimer l'écart-type du bruit
[1 points]
Montrer que le bruit mesuré est du même ordre de grandeur que le bruit de photons.
[1 points]
Les bruits instrumentaux sont souvent dus à des dérives thermiques. L'exemple ci-joint montre la dérive enregistrée par un astérosismomètre, observant de jour une source de laboratoire délivrant un signal de référence absolument fixe, mais dont la température de travail n'est pas fixée.
L'effet de mémoire occasionne un bruit instrumental dit en 1/f. Son évolution temporelle se distingue d'un bruit blanc par une sensible dérive. Comme le montre l'analyse de Fourier, son spectre de puissance se caractérise alors par une forte contribution aux basses fréquences, qui apparaît clairement pour un spectre tracé en échelle logarithmique.
Le bruit instrumental est un bruit qui "a de la mémoire". Sa signature spectrale est intense à basse fréquence.
Le bruit dit en 1/f, avec une dépendance spectrale variant en raison inverse de la fréquence, est typiquement d'origine instrumentale. Il apparaît lorsque les fluctuations induites sur le signal ne sont pas indépendantes, mais corrélées. C'est typiquement le cas des fluctuations thermiques : une perturbation en température à l'instant aura des conséquences à tout instant suivant.
La transformée de Fourier de l'évolution temporelle d'un tel bruit montre un spectre en , l'exposant dépendant, phénoménologiquement, de la nature des corrélations au cours du temps.
L'analyse de Fourier d'un bruit en 1/f se caractérise, comme son l'indique, par une forte contribution aux basses fréquences. Ceci apparaît clairement pour un spectre tracé en échelle logarithmique.
Un signal continu n'existe pas : décrire le continu nécessite une infinité de valeurs. Tout signal est échantillonné, càd décrit sur un nombre discret de valeurs.
Un détecteur ayant une résolution limite (spatiale ou temporelle), un signal physique est nécessairement échantillonné. Même si une observation avec ce détecteur semble prendre des valeurs continues, elle peut être traduite par une série finie de valeurs, correspondant à un échantillonnage discret.
Une bonne observation nécessite de ne pas dégrader la résolution du signal par ce phénomène d'échantillonnage, ce qu'exprime la condition d'échantillonnage de Shannon, qui s'applique aussi pour un signal 2-D.
Le pas d'échantillonnage détermine la résolution maximale en fréquence. Au delà de la fréquence de coupure, échantillonnée sur 2 points par période, l'information est perdue. Autrement dit, la fréquence de coupure définie selon Fourier et le théorème de Shannon rendent compte du même phénomène.
Tout signal, spatial ou temporel, est limité en fréquence, à cause du processus d'observation. Il peut être codé sur une distribution discrète de valeurs. Ce processus de discrétisation est nommé échantillonnage.
Le critère de Shannon énonce qu'un signal doit avoir sa fréquence maximale échantillonnée sur au-moins 2 pixels afin de ne subir aucune dégradation. En pratique, il faut :
La justification de ce critère est liée à l'analyse fréquentielle, par transformée de Fourier : en appliquant le critère de Nyquist, les fréquences sont restituées convenablement jusqu'à la fréquence de coupure.
Difficulté : ☆ Temps : 10 min
Un télescope de la classe 4-m, dans une configuration ouverte à f/2, est installé dans un site dont le meilleur seeing est aux alentours de 0.5" en lumière visible. Une caméra CCD installée pour des programmes d'imagerie est spécifiée pour imager sans perdre d'éléments d'information.
Quel paramètre de la caméra est crucial pour satisfaire la spécification donnée ?
Sur catalogue, on trouve des caméras avec des pixels de 9, 15 ou 25 microns. Quel choix effectuer ?
Un système d'optique adaptative permet d'atteindre la limite théorique de diffraction dans l'IR à 2 microns. Sachant qu'il n'existe pas de caméra avec des pixels plus petits que 9 micromètres, quel paramètre de la chaîne de collecte du signal doit évoluer ?
Difficulté : ☆ Temps : 10 min
On cherche à caractériser un spectre d'oscillations stellaires. La période minimale des oscillations stellaires est de 4 minutes, et on souhaite distinguer des fréquences avec une résolution de .
Estimer la durée totale nécessaire pour ce programme.
[1 points]
Déterminer l'échantillonnage temporel optimal, qui permette de ne pas filtrer les hautes fréquences et minimise le nombre final de données.
[1 points]
Les séquences d'observation du satellite COROT (projet CNES) sont-elles en accord, avec un point de mesure toutes les 32 s et 150 jours d'observation continue sur une cible stellaire ?
[1 points]
Les signaux recherchés méritent, pour donner les meilleurs mesures possibles, des traitement appropriés. Cette section se propose d'étudier plus précisément quelques-unes des techniques de base de traitement du signal.
Dans la chaîne de traitement du signal, des observations brutes au résultat final, une étape souvent essentielle consiste à s'affranchir de signaux parasites. C'est possible lorsque ces derniers présentent des caractéristiques différentes de celles du signal, comme p.ex. un signal à basse fréquence qui contamine un signal sismique.
Un filtre par moyenne glissante substitue à une valeur donnée la moyenne des valeurs aux alentours, dans un intervalle de largeur . Plus l'intervalle est grand, plus le filtrage est efficace.
Ce filtrage présente des inconvénients que dévoile la transformée de Fourier.
Un filtre par moyenne médiane substitue à une valeur donnée la médiane des valeurs aux alentours, dans un intervalle de largeur . Ce filtrage est efficace pour gommer les valeurs aberrantes.
Réaliser une estimation linéaire d'une distribution de pont, c'est finalement ne décrire ce nuage de points que par 2 valeurs (ordonnée à l'origine et pente)
La correction de valeurs aberrantes est typiquement une opération de filtrage. Un filtrage par moyenne glissante ou par la médiane n'y parvient pas avec la même efficacité.
Toute série de données, dépendant de quelque paramètre que ce soit (temps, variable d'espace, autre variable), à n'importe quelle dimension, peut être décrite par ses composantes fréquentielles. Un filtrage ad hoc peut permettre de faire ressortir le signal des autres composantes.
Analyse par transformée de Fourier
Aborder quelques-uns des (nombreux) aspects de la transformée de Fourier.
Il est souvent indispensable de séparer les différentes composantes en fréquences qui constituent une observation, pour extraire le signal de la contribution du bruit ou d'autres signaux, ce qui constitue un filtrage du signal. Le but n'est pas de présenter sous forme de cours les multiples filtres possibles, mais plutôt quelques-uns de leurs effets.
Toute acquisition de données, caractérisée par un pas de temps , filtre les fréquences temporelles plus rapides que .
On peut reconsidérer la diffraction d'une onde plane monochromatique de longueur d'onde par une ouverture comme un filtrage des fréquences angulaires supérieures à .
Les animations ci-jointes décortiquent le processus de filtrage par moyenne glissante ou par la médiane.
L'opération de filtrage n'est pas bégnine, et un filtre inadapté peut conduire à un mauvais résultat. Par exemple, le filtrage par moyenne glissante convient très mal pour un signal oscillant.
La série temporelle ci-jointe est filtrée par filtrage numérique (algorithme de filtre à trous), avec séparation des hautes et basses fréquence. Les domaines de fréquence sont définis par rapport à une fréquence de valeur arbitraire ou mûrement réfléchie...
Les appliquettes ci-dessous dévoilent l'intérêt du filtrage. Elles représentent des cartes de Jupiter dans l'infrarouge thermique. Sans filtrage, c'est la structure en bandes parallèles à l'équateur qui domine l'image ; après filtrage de cette structure dominante, on voit apparaître des motifs de type ondulatoire, avec une dizaine de motifs répartis en longitude, couvrant une extension en latitude plus vaste que les bandes.
Utiliser les appliquettes pour dévoiler ces structures.
A l'aide de l'appliquette ci-jointe, on se propose d'illustrer l'évolution du bruit en sommant différentes images d'un même champ.
Correction du champ plat
Approche mathématique de la transformation de Fourier
Présentation de la transformation de Fourier, et rappel de quelques propriétés.
La transformation de Fourier associe à une fonction sa transformée~:
Les variables et sont conjuguées. A la variable temporelle est associée la variable fréquentielle ; à la variable d'espace , la fréquence spatiale .
La TF est dotée de multiples propriétés (linéarité...) : se référer à un cours de maths.
L'opération inverse de la TF est notée : et .
Il ne s'agit rien d'autre que de la conservation de l'énergie, qui ici s'exprime par :
Autrement dit, l'énergie d'un signal ne peut pas dépendre de la description de ce signal, directe ou fréquentielle.
grandeur | notation | unité | exemple |
---|---|---|---|
variable | X | temps, en s | |
variable conjuguée | 1/X | fréquence, en Hz | |
signal | Y | vitesse, en m/s | |
spectre | XY | m | |
spectre d'amplitude | XY | m | |
spectre de puissance |
La définition de la transformation, continue, se doit d'être amendée pour tenir compte du fait qu'un signal réel est échantillonné. L'analyse de Fourier discrète s'appuie sur un nombre fini de réalisations du signal, et donne un nombre finie de fréquences pour le décrire. La discrétisation s'opère en douceur, car la TF d'une fonction peigne (succession équidistance de Dirac), fonction retranscrivant l'échantillonnage du signal, est une fonction peigne.
L'analyse de Fourier rapide (fast Fourier transform, ou FFT) est une une forme spécifique de programmation de la transformation de Fourier. Une routine de calcul fft est présente dans toute bonne bibliothèque de programmation.
L'usage d'une FFT implique:
L'appliquette ci-dessous permet de calculer et visualiser le spectre de puissance de certaines fonctions. La transformée de Fourier peut calculée soit directement, soit par FFT.
Avec comme signal une sinusoïde, comme méthode la fft, visualiser les effets :
Vérifier le lien entre la résolution en fréquence et la durée totale d'observation ; vérifier le lien entre le nombre de points et la fréquence de coupure.
Difficulté : ☆☆ Temps : 40 min
Vérifier l'homogénéité de la conservation de l'énergie énoncée par le théorème de Parseval-Plancherel.
Pour des raisons physiques, il est commode de poser la définition de la TF d'une série temporelle bornée sur un intervalle de temps comme :
avec le changement de notation pour préciser la différence par rapport à la TF classique. Montrer l'intérêt physique de cette notation, en s'appuyant p.ex. sur un signal purement sinusoïdale.
Pour d'autre raisons, il peut être commode de poser la définition de la TF d'une série temporelle discrète d'une manière différente :
avec le changement de notation pour préciser la différence par rapport à la TF classique. Réécrire la relation de Parseval-Plancherel, et montrer que
où et sont respectivement les écarts-types de la série temporelle et du spectre.
La TF permet la recherche de composantes périodiques dans un signal. Les signaux ci-contre sont équivalents. L'un correspond à une série temporelle, l'autre à son spectre de Fourier.
L'astérosismologie est un sujet en plein développement, dont les observations se basent sur de longues séries temporelles, pour l'identification des modes propres d'oscillations dans le spectre de Fourier.
Utiliser la TF pour la recherche de phénomènes périodiques.
Si l'on enregistre une série temporelle de signaux, sur une durée totale , l'analyse par transformée de Fourier se réécrit :
avec les dates individuelles et . Si l'enregistrement est suffisamment régulier :
Les durées et définissent les principales propriétés de l'analyse de Fourier.
Un signal observé durant une durée totale permet une résolution en fréquence .
Un signal observé avec un échantillonnage permet de suivre les fréquences jusqu'à la coupure . Le facteur 2 provient de la nécessité d'observer sur 2 mesures distinctes une demi-période négative et une demi-période positive.
L'observation de phénomènes variables doit permettre :
Si l'on enregistre une série temporelle de signaux, sur une durée totale et avec un échantillonnage , on peut alors distinguer sans ambiguïté fréquences, entre et .
Pour une série temporelle, la résolution en fréquence du spectre est d'autant meilleure que la base de temps d'observation est plus longue.
Pour une image, on relie la fréquence de coupure spatiale à la résolution spatiale .
Difficulté : ☆☆ Temps : 30 min
On échantillonne un signal temporel avec un pas de temps . On définit la pulsation .
Montrer qu'il y a confusion entre les spectres de puissance des signaux périodiques de pulsation et ou , où est un entier
En déduire l'expression de la pulsation de coupure
Une analyse par TF va traiter différemment un signal, avec un spectre donné, d'un bruit, sans signature spectrale caractéristique.
Un bruit gaussien ne montre aucune fréquence privilégiée, contrairement à un bruit en 1/f.
Utiliser la TF pour distinguer signaux et bruits
La dialectique est simple : un bruit ne mérite ce titre qu'en l'absence de signature spectrale définie (un bruit blanc ne présente aucune particularité spectrale; un bruit instrumental, par effet de mémoire, présente plus d'énergie aux basses fréquences qu'aux fréquences plus élevées).
La TF permet par son principe, en classant et en analysant les fréquences constitutives d'une suite de données, de distinguer la part du signal de celle du bruit. En pratique, cela nécessite un rapport signal-à-bruit suffisant (mais qui peut être très faible).
Lorsque le nombre de données observationnelles augmente, un signal cohérent va garder une signature bien précise. En revanche, un bruit va voir son énergie diluée dans une multitude de fréquences.
La TF permet de faire ressortir du bruit un signal bien cohérent.
En augmentant la durée totale de la série temporelle de données, un signal périodique cohérent (càd de durée de vie supérieure à la durée d'observation) ressort peu à peu du bruit.
A l'aide de l'appliquette ci-dessous, on se propose d'évaluer comment le bruit évolue dans un spectre
Avec comme signal une sinusoïde, comme méthode la FT, et points dans l'échantillon, faire varier le niveau de bruit , et montrer que le signal est identifiable dans le spectre si son amplitude excède largement .
Si besoin, zoomer sur les hautes fréquences du spectre pour s'affranchir du fort signal à basse fréquence.
Difficulté : ☆☆☆ Temps : 30 min
La documentation de HARPS indique qu'un rapport signal à bruit de 500 sur un spectre correspond à une incertitude, exprimée en vitesse, de 45 cm/s. Par ailleurs, une cible de magnitude 5.5 conduit à un rapport signal à bruit de 200 avec des poses de 3 min. A quelle vitesse cela correspond-il ?
Combien de poses élémentaires sur une telle étoile sont nécessaires pour aboutir à un bruit résiduel de 5 cm/s. A quelle durée cela correspond-il ?
Sur la cible alphaCen B, très brillante, HARPS délivre un signal bruité à 2 cm/s, après 7 h d'observation. Les poses élémentaires étant de 1 min, quelle est la performance en vitesse sur une pose ?
Ce chapitre se propose de développer divers principes instrumentaux, et de découvrir quelques instruments, plus en détail que dans les chapitres précédents, mais donc aussi avec un plus grand niveau de difficulté.
Dès leur introduction, les caméras CCD ont très rapidement remplacé les plaques photographiques pour l'observation en astronomie. Plus sensibles, de réponse plus linéaire, fournissant un signal digitalisé, avec une réponse spectrale plus modulable, spatialisables... elles offrent des perspectives que la plaque photographique n'ouvrait pas.
Les propriétés élémentaires des caméras CCD sont tout d'abord décrites, en lien avec les propriétés générales des détecteurs déjà présentées, et reprenant essentiellement les propriétés des caméras CCD aujourd'hui.
Les dernières pages de cette section se concentrent sur diverses notions relatives aux observations, en détaillant diverses sources de bruit. Elles ont pour but la compréhension physique de certains phénomènes (et ne satisferont pas entièrement l'astronome amateur confronté à des problèmes bien pratiques).
Le détecteur CCD, pour l'anglais charge coupled device, assure la conversion d'un signal lumineux en un signal électrique. Cette technique introduite en 1969 est en usage en astronomie depuis la fin des années 70, fournissant des détecteurs pour les domaines visible, infrarouge et proche UV.
Le fonctionnement d'un détecteur CCD peut être ainsi résumé :
Une caméra CCD comprend des lignes et des colonnes, définissant les pixels. Le principe de lecture d'une CCD conduit à définir les bornes des colonnes par un dopage p gravé dans le silicium. En revanche, les bornes des lignes sont définies par une polarisation commandée. Le puits de potentiel qu'est un pixel est statique dans la phase d'acquisition du signal scientifique, puis variable pendant la lecture des pixels.
Comment, dans un détecteur CCD, un photon éveille un photo-électron, et comment celui-ci devient signal.
Principe de détection
Les étapes de l'enregistrement et de la lecture d'une image CCD sont décrites dans l'animation ci-jointe :
Le signal d'obscurité, enregistré alors qu'aucune source n'éclaire le détecteur, rend compte de divers signaux et bruits affectant toute image délivrée par une caméra CCD.
Divers artefacts dégradent la réponse idéale d'un CCD.
Le signal numérisé est proportionnel au nombre de photo-électrons :
avec le facteur de conversion exprimé en ADU par électron.
Le signal numérisé est codé sur un nombre de bits en accord avec la dynamique du signal.
Pour une caméra sans obturateur, le phénomène de traînée est la signature de la lecture des images par transfert de trame.
Les caractéristiques des 12 CCD d'une caméra à grand champ du télescope CFH sont présentées par l'appliquette ci-dessous. L'unité ADU signifie analog to digital unit (et kADU = 1000 ADU) ; RN = read-out noise = bruit de lecture ; lin = domaine de linéarité. Le rendement quantique, exprimé en pourcentage, est donnée pour les bandes B, V, R, I et Z'.
L'enregistrement d'une image du courant d'obscurité comporte nécessairement les bruits d'obscurité et de transfert. Le transfert est responsable du gradient de signal sur cette image de courant d'obscurité.
Le champ plat rend compte du caractère non uniforme du signal collecté en réponse à une source uniforme.
Examiner les étapes générant les bruits les plus importants pour une image enregistrée. L'agitation thermique du capteur et le transfert des électrons vers les registres de lecture comptent parmi les étapes les plus bruyantes d'une séquence d'observation.
Après la phase d'acquisition du signal scientifique, l'horloge qui pilote l'électronique du CCD commande le transfert des photoélectrons collectés dans les pixels vers un registre de lecture. Le registre, de taille égale à une ligne du CCD, est lui-même lu séquentiellement.
Le déplacement des électrons, qui se vident d'un pixel dans un autre, est provoqué par une bascule des tensions de polarisation du CCD.
Pour chacun des pixels lus, les électrons vont charger un condensateur ; la tension aux bornes du condensateur, proportionnelle à la charge collectée, est ensuite amplifiée analogiquement, puis convertie en un signal numérique.
Le courant d'obscurité est associé à la création de charges par agitation thermique, sans intervention de quelque signal lumineux. Le nombre de charges créées dépend fortement de la température : typiquement en moyenne 0.1 électron par pixel par seconde. Le courant d'obscurité est un signal parasite. Comme il s'agit d'un processus poissonnien, ce signal est bruité : le bruit du processus varie comme la racine carrée du nombre de charges créées.
Les charges accumulées dans un pixel doivent transiter le long d'une colonne vers un registre, avant d'être amplifiées. L'efficacité de ce processus, quoique très bonne, n'est pas idéale. Le nombre de charges créées ainsi dépend du nombre d'électrons par pixel à transférer, de l'inefficacité d'un transfert et du nombre total de transferts. Le bruit dû aux imperfections du transfert se monte à :
Le facteur 2 provient du fait que 2 pixels sont affectés : celui qui a perdu un électron, et celui qui l'a malencontreusement gagné.
Avec p.ex. un signal à hauteur de la moitié du puits quantique d'un pixel, de l'ordre de 50000 e-, une efficacité de transfert typiquement de , et donc une inefficacité de , et un millier de transferts en moyenne pour une colonne de 2k pixels, le bruit lié au transfert est de 32 e-/pixel.
Le processus d'amplification du signal, qui permet aux circuits électroniques de travailler avec de plus forts signaux, est également peu bruité. On peut le négliger dans la grande majorité des cas devant les autres sources de bruit.
La conversion du signal analogique vers un codage numérique est menée avec un gain tel que le bruit de numérisation (lié à la nature quantique du codage) soit également négligeable. Ce gain vaut typiquement quelques électrons par ADU (analog to digital unit).
La lecture de la caméra va être entachée des bruits du courant d'obscurité, du transfert de charge et d'amplification. Selon les conditions, l'un ou l'autre des bruits domine :
Difficulté : ☆ Temps : 15 min
On s'intéresse à quelques caractéristiques d'une caméra CCD KAF-0400. Un pixel présente une capacité de charges de 80000 électrons. La numérisation se fait sur 14 bits. Le bruit de lecture annoncé vaut 13 électrons.
Déterminer le rapport signal à bruit maximal par pixel.
Déterminer le gain de la conversion ADU.
On montre que le bruit de quantification vaut . Montrer qu'il est effectivement négligeable.
La tension en sortie de l'amplification s'écrit par sommation sur la bande passante :
On suppose que le gain est constant sur la bande passante, et que le bruit est blanc, avec , et . Calculer le bruit en sortie d'amplificateur, en déduire le bruit équivalent en entrée d'amplificateur, puis l'exprimer en nombre d'électrons, sachant que le facteur de conversion de l'étage de sortie du CCD vaut . Conclure.
Le champ plat mesure la réponse du CCD d'une chaîne instrumentale à un éclairement uniforme. Cette réponse, idéalement uniforme, ne l'est bien sûr pas tout à fait dans la pratique. Les différences à une réponse uniforme proviennent du champ de variations de la réponse des pixels, des défauts de la galette CCD, et aussi des conditions d'éclairement qui peuvent être modulées par le montage instrumental en amont du détecteur.
Obtenir un champ plat n'est pas toujours facile, car il faut disposer d'une source la plus uniforme possible. Différentes techniques permettent d'aboutir à un résultat performant :
Comme son nom l'indique, le signal d'obscurité correspond au signal enregistré alors qu'aucune source n'éclaire le détecteur. Il correspond à la création de porteur de charges (typiquement 1 électron par pixel toutes les 10 secondes) par simple agitation thermique.
Obtenir une bonne image du courant d'obscurité nécessite de poser aussi longtemps que pour la pose scientifique. Ceci peut prendre du temps... mais n'a heureusement pas besoin d'être mené sur le ciel.
Le courant d'obscurité est modulé sur le champ de la caméra selon la technologie de fabrication des détecteurs. Des pixels abimés peuvent produire un grand nombre de charges parasites : on parle de pixels chauds.
Les corrections d'obscurité et de champ plat redressent l'information photométrique d'une image.
Deux étapes sont indispensables dans le traitement d'une image CCD. La correction d'un offset lié à divers signaux parasites dont le courant d'obscurité, et la correction de champ plat.
Au signal astrophysique se superposent différentes contributions, additives, dont principalement le courant d'obscurité.
En raison du bruit thermique, le détecteur délivre un courant en l'absence de toute puissance lumineuse, appelé courant d'obscurité. Sa contribution , additive, est à retrancher.
La réponse de la chaîne instrumentale, y compris la caméra, n'est pas uniforme. Une pose sur une source uniforme fournit le champ plat : la réponse normalement uniforme à une excitation uniforme, en fait potentiellement déformée par les divers éléments, et modulée par la réponse non uniforme des pixels.
On note la réponse à cette excitation uniforme. Cet effet est multiplicatif.
On passe de l'image brute à l'image finale par soustraction des effets additifs et division par les effets multiplicatifs :
Idéalement, la réponse du champ plat est normalisée, de moyenne 1. En pratique, il est indispensable d'acquérir une image de champ plat avec le meilleur rapport signal à bruit. De toutes façons, l'étalonnage de la réponse nécessite des sources de référence.
A l'aide de l'appliquette ci-jointe, assurer la correction du champ plat.
Correction du champ plat
A l'aide de l'appliquette ci-jointe, assurer la correction du courant d'obscurité. La correspondance entre les noms de fichiers et les images est la suivante, selon le rang des lettres :
Correction du courant d'obscurité
Le signal d'obscurité doit être enregistré avec un rapport signal à bruit meilleur que celui des images à traiter.
Les étapes de correction des signaux de courant d'obscurité et de champ plat ne se font pas sans bruit. Le but de cette page est d'estimer les performances de ces opérations, et de montrer que les signaux de courant d'obscurité et de champ plat doivent être connus avec un rapport signal à bruit (bien) meilleur que celui du signal seul.
La correction consiste à soustraire au signal le signal d'obscurité. Ce dernier est acquis lors d'une pose longue, sans source. Cette soustraction s'exprime par :
Les bruits des signaux d'entrée sont respectivement et (le bruit de la source comprend le bruit de photons). Non corrélés, il s'additionnent quadratiquement pour donner le bruit de la différence :
Le rapport signal à bruit s'écrit donc :
Ceci montre que le rapport signal à bruit après correction du courant d'obscurité est moindre qu'avant correction :
Cette correction reste néanmoins nécessaire pour corriger certains effets structurels de la caméra.
Le cas où le bruit de courant d'obscurité domine apparaît très inintéressant : la performance de la correction sera d'autant bruitée. En revanche, si le signal d'obscurité est bien moins bruité que le signal astrophysique, càd , on récupère :
Le rapport signal à bruit est très peu dégradé. Il est donc indispensable d'acquérir une bonne image très peu bruitée du courant d'obscurité.
La correction de champ plat consiste à diviser le signal par le signal de champ plat normalisé (et éventuellement corrigé du courant d'obscurité). Le champ plat est acquis lors d'une pose sur une source la plus uniforme possible. La division s'exprime :
Les bruits en entrée sont respectivement et . Le bruit final dépend des bruits et signaux initiaux via :
Pour s'en convaincre, il suffit de différencier logarithmiquement la relation définissant . On peut donc réécrire le rapport signal à bruit :
On remarque que cette correction dégrade nécessairement le rapport signal à bruit, car de toutes façons :
Il est inintéressant d'avoir un champ plat très bruité, car la performance sera limitée au rapport signal à bruit du champ plat dans ce cas. En revanche, si le champ plat est peu bruité , on obtient :
Il est donc indispensable d'acquérir une image de champ plat la moins bruitée possible. Ceci peut nécessiter une longue durée d'observation sur une source artificielle uniforme.
Enfin, on remarque dans cette opération qu'un signal bruité est moins dégradé qu'un signal peu bruité. En effet, corriger un signal peu bruité nécessite une correction de qualité meilleure encore.
A l'aide de l'appliquette ci-jointe, assurer la correction du signal d'obscurité sur les images de Jupiter. La correspondance entre les noms de fichiers et les images est la suivante, selon le rang des lettres :
Correction de l'image Jovienne
Réaliser les opérations de corrections du courant d'obscurité et du champ plat, et comparer les résultats par des coupes d'images. Voir le mode d'emploi de l'appliquette donné précédemment.
Le tableau de l'appliquette ci-jointe donne les signaux moyens, par pixel, du courant d'obscurité (dark) et du champ plat (flat), ainsi que de diverses sources plus ou moins brillantes. On cherche à déterminer le rapport signal à bruit des observations. Le bruit de lecture est estimé à 20 e-.
En fonction de ce qui précède, comparer l'évolution des rapports signaux à bruits des diverses sources.
L'oeil humain est un instrument très évolué : focale variable, diaphragme ajustable, vision stéréoscopique pour la perception du relief et des distances, transmission correcte dans le visible....
La courbe de réponse spectrale de l'oeil humain est centrée sur le maximum du spectre solaire, et décroît très rapidement vers le bleu et le rouge.
L'oeil est un instrument très perfectionné, mais malheureusement non adapté à l'observation d'objets très lointains, et donc de petite taille angulaire et de luminosité réduite.
Ouverte au maximum, après de longues minutes d'adaptation au noir le plus complet, la pupille atteint un diamètre maximal de l'ordre de 6 mm. La tache de diffraction qui en résulte ne permet pas de résoudre, en lumière jaune, des détails angulaires plus fins que 20".
L'oeil humain construit de l'ordre de 20 images par seconde. Cette cadence n'est pas "réglable" : impossible de poser pour scruter un objet fixe mais faiblement lumineux, comme le fait une plaque photo ou tout autre détecteur.
L'oeil peut distinguer un très grand nombre de couleurs, dans un domaine spectral de 400 à 700 nm principalement. Mais l'impression des couleurs reste toute relative, et dépend de nombreux paramètres, parmi lesquels l'intensité lumineuse.
La réponse de l'oeil humain dans le bleu évolue très fortement, et très défavorablement, avec l'age.
L'optique adaptative est née dans les années 1990. Elle répond à un besoin crucial : corriger, au moins pour partie, la dégradation du signal optique qui a traversé l'atmosphère.
L'atmosphère terrestre trouble la vision que l'on a des objets célestes. Pour une étoile, cela conduit à une image scintillante, mobile. Pour un objet étendu comme le soleil, que l'on s'attend à voir tel un disque, la traversée d'une large couche atmosphérique, au lever, et encore plus au coucher en présence d'importants gradients thermiques, conduit à une image très déformée et variable.
Pour l'observation astronomique, ces perturbations sont fortement gênantes (mais on les élimine en ne menant pas d'observations sur l'horizon... sauf si les circonstances l'imposent).
Dans le vide ou tout milieu homogène, la lumière d'un objet non résolu à l'infini, par exemple une étoile, se propage comme une onde plane. Les surfaces d'onde se déplacent sans perturbation jusqu'à la pupille d'entrée du collecteur, qui transforme l'onde plane en onde sphérique.
Dans un milieu inhomogène ou turbulent, les variations d'indice le long du trajet optique déphasent tout rayon par rapport à ses voisins. Ceci conduit à la déformation progressive du front d'onde collecté : initialement plan, pour un objet à l'infini, il se bosselle peu à peu.
Les variations de phase correspondant rendent la pupille partiellement incohérente. La figure de diffraction en est modifiée : des tavelures apparaissent, animées de mouvements également aléatoires.
A l'aide du simulateur ci-joint, visualiser l'effet séparé de chacune des contributions à la turbulence :
Une étoile observée à l'oeil nu scintille. Une caméra rapide permet des poses très courtes, qui vont arriver à figer la turbulence. La sommation de plusieurs de ces poses courtes conduit au phénomène de tavelures, aussi appelées "speckles": les images quasi ponctuelles, à la diffraction près, sont dispersées sur un disque bien plus large.
Le seeing définissant la qualité des images, il est systématiquement enregistré dans les grands sites d'observation, et les valeurs du seeing stockées parmi les multiples paramètres qui caractérisent une image.
Son évolution au cours de la nuit dépend de multiples paramètres : gradient de température, vent, humidité...
Les couches turbulentes de l'atmosphère dégradent la qualité d'image. On peut caractériser cette dégradation par différents termes :
Un bon seeing dans un bon site astronomique est de l'ordre de 0.5". Un seeing typique en lumière visible est de 1". L'ordre de grandeur du seeing mesure également celui de l'agitation.
On caractérise le seeing par un paramètre, le diamètre de cohérence . A cause de la turbulence, un grand télescope (de diamètre ) a une résolution angulaire identique à celle d'un télescope de diamètre qui ne serait pas affecté par la turbulence. A la longueur d'onde , le seeing vaut :
Dans le visible, un seeing moyen se caractérise par , et un très bon seeing par . Le paramètre est fortement chromatique :
L'augmentation de dans l'infrarouge conduit à une dégradation de l'image moindre que dans le visible.
Le temps de cohérence associé à est tel que :
où est la vitesse caractéristique du vent. Une application numérique dans un cas moyen , conduit à . Le traitement de la turbulence par optique adaptative va devoir être mené plus rapidement que cette échelle de temps.
Le seeing résulte de l'agitation de l'image due à la déformation de la surface d'onde, ici visualisée sans scintillation.
A l'agitation se superpose la scintillation de l'image due à la dispersion de l'énergie, ici visualisée sans agitation.
L'agitation et la scintillation conduisent au seeing. Cette animation plus réaliste découle d'un vrai simulateur de seeing développée en laboratoire, pour tester les performances d'une optique adaptative.
Difficulté : ☆☆ Temps : 20 min
Déterminer un ordre de grandeur d'un diamètre angulaire (étoile de type solaire à 1.3 pc, comme l'étoile voisine du Centaure) ou planétaire (Jupiter).
Pourquoi observe-t-on à l'oeil nu le phénomène de scintillation sur une étoile et non sur une planète ?
Difficulté : ☆☆ Temps : 40 min
Un spectromètre est nourri par une fibre qui recueille un champ de 1" sur le ciel. On s'intéresse au flux recueilli par la fibre, et on propose un modèle pour l'estimer.
Ce modèle suppose que, le seeing valant , le flux stellaire se répartit autour de l'image géométrique selon la distribution radiale :
mesure l'écart angulaire à l'image géométrique ; est un facteur sans dimension proche de l'unité.
Déterminer le flux total et calculer le flux reçu par une fibre qui sélectionne un rayon .
[3 points]
On souhaite étudier la fraction du signal collecté en fonction du seeing : . Représenter en fonction du seeing (en considérant ). Expliquer le comportement pour un bon seeing ou un mauvais seeing (avec respectivement ou ).
[2 points]
Avec un système d'optique adaptative (OA), les images sont bien mieux piquées et résolues. L'image y gagne en résolution spatiale ainsi qu'en dynamique. L'OA remet les speckles en bon ordre.
Le principe de l'optique adaptative consiste en l'analyse et correction du front d'onde, en boucle fermée. La boucle de rétroaction consiste en l'activation de senseurs commandés d'après les informations des capteurs de déformation du front d'onde.
Selon que la boucle de rétroaction est ouverte ou fermée, l'OA fait son oeuvre ou non. Elle commande alors un miroir plan orientable, de correction de tip-tilt et un miroir déformable pour corriger les fréquences spatiales plus élevées.
Depuis 2001, un système d'optique adaptative est en service régulier au VLT à l'ESO, alors même que cette technique n'a émergé que dans les années 90.
Optique géométrique.
L'optique adaptative (AO) a pour but la correction en temps réel des déformations du front d'onde incident, dues à la turbulence atmosphérique, en leur opposant la contre-déformation d'un miroir déformable.
La boucle de rétroaction de l'optique adaptative comprend les éléments suivants :
L'OA permet de récupérer la tache de diffraction, de diamètre angulaire défini par le collecteur primaire. Cette performance dépend du nombre d'éléments d'images analysés sur le front d'onde, du nombre d'actuateurs mis en oeuvre, ainsi que de la fréquence de correction.
Corriger la surface d'onde en un plan d'onde idéal nécessite en général une source ponctuelle de référence, de luminosité suffisante, dans le proche voisinage de la cible étudiée.
La correction est limitée dans une région spatiale restreinte, de l'ordre de 30", et la correction est aujourd'hui réalisable dans le visible et avec d'excellentes performances dans l'infrarouge (instrument SPHERE du VLT), où les effets de la turbulence sont moindres (cf page consacrée au seeing). Le front d'onde lumineux est souvent analysé dans le visible et corrigé dans le proche IR. La correction est aujourd'hui réalisable dans le visible et avec d'excellentes performances dans l'infrarouge (instrument SPHERE du VLT), où les effets de la turbulence sont moindres (cf page consacrée au seeing). Le front d'onde lumineux est souvent analysé dans le visible et corrigé dans le proche IR.
En boucle fermée, la chaîne de rétroaction de l'optique adaptative ne mesure que les erreurs résiduelles de phase du front d'onde. La déformation du miroir doit toujours compenser toutes les erreurs.
Difficulté : ☆ Temps : 20 min
Les performances en optique adaptative à 2.2 ou 5 microns, pour le VLT (8 m), sont limitées par la diffraction du collecteur primaire. Comparer, en prenant dans le visible, les résolutions angulaires avec et sans OA, et le gain apporté par l'OA.
Pourquoi la tache image à plus courte longueur d'onde n'est-elle pas fixée par la diffraction du primaire ?
Un réseau de microlentilles assure la segmentation de la pupille en sous-pupilles. En l'absence de déformation du front d'onde, à chaque sous-pupille correspond une image centrée sur l'axe optique de la microlentille. La déformation du plan d'onde par la turbulence, et son inclinaison locale au niveau de chaque sous-pupilles, est directement retranscrite en un déplacement de l'image sous-pupillaire.
L'analyse de ces déplacements permet de remonter à la déformation du front d'onde, et se voit traduite en termes correctifs à apporter au miroir déformable.
Sur 4 quadrants, l'analyse de Shack-Hartmann permet de mettre en évidence les défauts les plus simples :
A chacune des micro-lentilles est associé un signal d'erreur.
L'optique adaptative ne sert pas qu'à faire de belles images ; l'augmentation de résolution spatiale permet aussi d'augmenter les performances spectrométriques. Maximiser le flux envoyé au travers de la fente d'un spectromètre permet de réduire la taille de la fente, et donc d'augmenter les résolutions spatiale et spectrale.
Il est possible de traiter une image observée avec OA pour retrouver cette information, en déconvoluant l'image de la PSF (fonction de transfert de l'image).
L'optique adaptative corrige les images, mais cette correction reste imparfaite. Comme elle apporte de l'information jusqu'à la limite théorique de diffraction, et donc une finesse bien au-delà du seeing, il est possible de traiter une image observée avec OA pour retrouver cette information, en déconvoluant l'image de la PSF (fonction de transfert de l'image).
Les performances atteintes avec l'optique adaptative permettent de concurrencer les observations menées dans l'espace. La comparaison d'observations spatiales et au sol méritent d'être effectuée avec soin. Dans le cas exposé, les résultats sont semblables, le moindre diamètre du télescope Hubble étant compensé par une observation à longueur d'onde moindre également.
Difficulté : ☆☆ Temps : 20 min
Combien faudrait-il d'actuateurs pour corriger par OA une pupille de 8 m, en lumière visible, avec une turbulence caractérisée par = 10cm.
Comment évolue cette estimation, pour une observation menée à 2.5 micromètres.
Montrer que la fréquence de travail du système est également moins contraignante dans l'infrarouge par rapport au visible.
Difficulté : ☆☆ Temps : 20 min
L'optique adaptative au VLT, NACO, analyse le front d'onde en 144 points, et comporte 185 actuateurs.
Déterminer le diamètre caractéristique de chaque zone corrigée.
[1 points]
Déterminer l'ordre de grandeur de la longueur d'onde la plus basse potentiellement totalement corrigée. On suppose .
[1 points]
L'observation dans l'infrarouge thermique ou à des fréquences plus basses obéit à des règles particulières, dès lors que tout le rayonnement de corps noir de l'environnement s'ajoute au signal. Il en résulte une technique d'observation particulière, pour distingue la source des autres contributions.
Dans le domaine radio se rajoutent les difficultés à obtenir une résolution spatiale précise, dues à la diffraction, et la spécificité de la détection cohérente : les collecteurs deviennent des antennes directement sensibles au champ électromagnétique.
L'observation sur Terre à toute longueur d'onde supérieure à environ est perturbée par le rayonnement thermique terrestre. Elle nécessite la capacité de discriminer les photons issus de la source céleste de ceux correspondant à l'environnement chaud : le ciel, le collecteur, l'instrument (le détecteur est nécessairement refroidi, sinon il s'auto-éblouirait et toute détection serait impossible).
L'observation de Jupiter, aux alentours de 10 microns, conduit à une image où la contribution essentielle provient du ciel.
Il apparaît nécessaire de soustraire le fond de ciel. Ceci est réalisé en déplaçant très rapidement (à une fréquence de plusieurs Hz) un miroir dans la chaîne d'acquisition du télescope (typiquement le miroir secondaire, dit secondaire vibrant), afin de pointer alternativement la cible et le ciel juste à côté.
Cette opération permet de faire apparaître Jupiter, mais il subsiste alors des gradients sur l'image, selon que l'on soustrait le ciel d'un côté ou de l'autre de la cible.
La soustraction du fond de ciel moyen permet d'aboutir à une image de meilleure qualité. Cette image est obtenue en dépointant le télescope entier, à une cadence plus basse.
Corps noir
Les observations dans l'infrarouge thermique doivent tenir compte de tous les éléments qui participent au signal, en plus de la source : ciel, télescope, environnement du détecteur.
Pour observer dans un certain domaine spectral, la température du détecteur doit absolument être inférieure à la température de rayonnement associée, via la loi de déplacement de Wien, à la longueur d'observation.
On peut justifier ceci très brièvement en évoquant le deuxième principe de la thermodynamique : si le détecteur est plus chaud que la source, l'énergie s'écoule du détecteur vers la source, et cette dernière ne risque pas de beaucoup impressionner le détecteur.
Sur Terre, la température ambiante (de l'ordre de 300~K) correspondant à un rayonnement maximal à selon la loi de Wien. Toute observation à une longueur d'onde supérieure à doit s'affranchir du flux infrarouge ambiant.
De ce qui précède, il s'ensuit que toute mesure d'un faible flux dans l'infrarouge thermique se doit d'être une mesure différentielle, où l'on cherche à distinguer une source sur un fond brillant, à moyenner et à soustraire, car il surpasse le signal.
Les différentes étapes pour l'imagerie infra-rouge sont résumées dans l'appliquette ci-jointe.
Images IR
Utiliser les appliquettes ci-jointes pour visualiser les étapes du traitement des images IR (Jupiter à 10 microns, ESO).
Etudier en coupe, sur chaque image : le fond de ciel, une coupe de Jupiter parallèle aux bandes, une coupe orthogonale.
La loi du corps noir permet de comprendre l'appellation infrarouge thermique, domaine privilégié d'émission des corps (noirs ou approchés) de température de l'ordre de plusieurs dizaines à quelques centaines de Kelvin, lorsque le visible est le domaine privilégié d'information des corps stellaires plus chauds.
Imagerie IR
Difficulté : ☆☆ Temps : 15 min
La figure ci-jointe montre la planète Saturne et ses anneaux, dans l'infrarouge thermique à .
Etudier la carte de température des anneaux. Que met en évidence cette observation ?
La période orbitale des anneaux étant de l'ordre de 10 h, estimer l'ordre de grandeur de la durée de réchauffement des anneaux.
Difficulté : ☆ Temps : 10 min
On cherche à observer dans l'infrarouge aux longueurs d'onde suivantes : 2, 5, 20, 60 microns. Indiquer les températures maximales du détecteur, pour éviter qu'il soit saturé par son propre signal (on prendra une marge d'un facteur 10 par rapport à la loi de Wien).
[2 points]
Proposer des solutions pour le refroidissement nécessaire.
[2 points]
La diffraction d'une part, et la faible énergie transportée par le rayonnement radio nécessitent de grands radiotélescopes.
L'interféromètre VLA permet d'imager par interférométrie à diverses longueurs d'onde radio.
Aux grandes longueurs d'onde, lorsque la détection du signal est cohérente, la tache image s'appelle lobe d'antenne. Pour une antenne seule, c'est directement la tache de diffraction, égale par définition à l'étendue de faisceau cohérente, qui fixe la résolution angulaire, dans ce cas égale au champ objet.
Le signal radio se caractérise par :
Cf. pages sur l'interférométrie.
Un spectromètre par transformée de Fourier ne décrit pas directement les raies d'un spectre, mais les fréquence spatiales qui transcrivent ces raies, dans un interférogramme. Il réalise physiquement une opération équivalente à une transformation de Fourier ; l'interférogramme donne ensuite la mesure du spectre par une transformation de Fourier inverse, calculée.
Un spectromètre par transformée de Fourier est un instrument basé sur un interféromètre de Michelson.
Un spectromètre par transformée de Fourier correspond à un interféromètre de Michelson réglé en anneau : les 2 miroirs sont, à une image via la séparatrice près, parallèles, séparés de la différence de marche.
Les interférences sont localisées à l'infini. Les voir nécessite de regarder à l'infini, p.ex. au foyer d'une lentille.
Principe de l'interféromètre de Michelson ; transformation de Fourier.
Expliciter en quoi un interféromètre est dit de Fourier.
On note la différence de marche entre les 2 faisceaux monochromatiques interférant à l'infini, et le déphasage. La relation entre et s'exprime, à la longueur d'onde :
On notera par la suite, en fonction du nombre d'onde :
Issus de la même source, ces faisceaux sont cohérents, et leurs amplitudes vont s'additionner. En notation complexe :
L'intensité diffractée, pour une différence de marche entre les 2 miroirs, sur l'axe, càd dans l'anneau central, constitue l'interférogramme. En lumière monochromatique de nombre d'onde , le signal d'interférence s'écrit à la différence de marche :
Les unités couramment employées sont, pour le spectre, les nombres d'onde, comptés en et la différence de marche, comptée en cm. La période spatiale de l'interférogramme est , soit tout simplement la longueur d'onde .
Pour une source non-monochromatique de densité spectrale , dans la bande spectrale , l'interférogramme prend la valeur :
Sans cohérence temporelle entre les différentes couleurs, il y a sommation des intensités spectrales . La partie modulée (càd qui dépend de la différence de marche ) de l'interférogramme, correspond à la partie réelle de la TF de la densité spectrale :
En fait, l'interférogramme réalise la TF de la distribution spectrale de la source. Il s'ensuit que la TF inverse de l'interférogramme permet de remonter au spectre :
Cette dernière étape est réalisée par calcul (et l'essor des spectromètres par transformée de Fourier a accompagné celui des ordinateurs).
Un spectromètre par transformée de Fourier comprend un interféromètre à 2 ondes, de type interféromètre de Michelson.
FTS du CFHT
L'appliquette ad-hoc décrit le FTS (Fourier Transform Spectrometer) du télescope CFH.
L'interféromètre est de type Mach-Zehnder, plus efficace que l'interféromètre de Michelson car il peut récupérer, sur 2 voies en opposition de phase, 2 interférogrammes : la totalité des photons émis est ainsi utilisée (aux réflexions et transmissions près), contrairement à l'interféromètre de Michelson qui renvoie la moitié des photons vers la source.
Un filtre est nécessaire pour sélectionner une bande passante limitée du spectre étudié. L'interférogramme associé à cet exemple va comprendre des motifs liés au signal spectral dans le filtre.
Au proche voisinage de la différence de marche nulle, les franges restent bien contrastées. Le contraste des franges baisse rapidement au fur et à mesure de l'éloignement de la différence de marche nulle.
L'interférogramme complet comprend divers motifs, construits selon les interférences entre les raies sélectionnées par le filtre.
La visualisation d'un train de franges de l'interférogramme montre une belle portion de sinusoïde modulée par l'enveloppe du train de franges.
Décrire l'allure de l'interférogramme.
Le spectre comprend les données en entrée :
L'avantage de travailler avec une telle unité spectrale est d'avoir des variables directement conjuguées entre le spectre et l'interférogramme :
Ces unités employées, quoique hors SI, présentent l'avantage d'être inverses l'une de l'autre.
L'interférogramme calculé représente la quantité :
où l'on reconnaît la partie réelle de la TF de la densité spectrale .
L'interférogramme réalise physiquement la TF de la distribution spectrale de la source. La TF inverse de l'interférogramme, calculée, permet de remonter au spectre.
L'interféromètre étant réglé en anneaux, le principe instrumental ne nécessite pas l'introduction d'une fente d'entrée, contrairement à un spectromètre à réseau. L'étendue de faisceau n'est donc pas drastiquement limitée par une fente ; en pratique, elle est limitée par la nécessité de travailler dans un coeur de frange.
Ceci est convenablement dimensionné dans un exercice.
L'animation ci-jointe montre comme évolue l'interférogramme en fonction de la différence de marche, pour une onde strictement monochromatique.
Les miroirs étant parallèles, les franges d'interférence présentent la symétrie de révolution autour de l'axe optique ; ce sont des anneaux. On remarque que, par stationnarité de la différence de marche , avec l'inclinaison, autour de l'inclinaison nulle, la tache centrale est relativement plus large que les autres anneaux.
Difficulté : ☆☆ Temps : 30 min
On illumine un interféromètre de Fourier avec une source ponctuelle présentant un doublet, aux nombres d'onde et voisins. Chacune des raies est supposée monochromatique, et leurs intensités égales.
Déterminer l'expression de l'interférogramme . Mettre en évidence deux périodes caractéristiques de l'interférogramme.
Déterminer la période des battements et représenter l'allure de l'interférogramme, pour le doublet du sodium : et .
Difficulté : ☆☆ Temps : 30 min
Les 2 miroirs d'un interféromètre de type Michelson sont réglés parallèles (au rôle de la séparatrice près). On note la différence de marche à incidence nulle.
Montrer que la différence de marche pour un faisceau d'incidence devient . Faire un schéma.
[1 points]
A quelle condition la différence de marche varie-t-elle de moins d'une fraction de longueur de longueur d'onde ?
[1 points]
Faire l'application numérique pour une ddm de 1 cm, et une fraction limitée à 10%, à 1 micron.
[1 points]
Un interférogramme présente une modulation, de période égale à la longueur d'onde moyenne sélectionnée par le filtre.
L'interférogramme présente à plus grande différence de marche des motifs liés à la nature du signal. A très grande différence de marche, il perd tout contraste.
Introduire la notion de contraste, qui rend compte d'une modulation amoindrie dans l'interférogramme d'une raie réelle, qui n'est pas strictement monochromatique.
Le contraste représente globalement l'allure de l'interférogramme, avec des trains de franges plus ou moins contrastés (chaque frange n'étant localement qu'essentiellement un bout de sinusoïde de période égale à la longueur d'onde moyenne sélectionnée par le filtre d'entrée.
Un laser présente une bonne réalisation pratique d'une raie monochromatique. Sa longueur de cohérence peut être tellement grande que la réalisation de son interférogramme conduit effectivement à un signal également modulé à toute différence de marche :
Mais une source réelle ne présente pas un telle cohérence (autrement dit, elle est moins monochromatique), et cela modifie les propriétés de l'interférogramme, qui apparaît moins contrasté.
Le contraste des franges est le rapport entre l'amplitude de modulation de la frange à l'énergie totale collectée dans le filtre.
Le contraste se mesure localement dans l'interférogramme par :
Dans l'interférogramme d'une source avec une seule raie plus ou moins large, il intervient comme :
La visibilité des franges, ou leur contraste, dépend de la largeur des raies du spectre. Une approche simple est proposée en exercice.
Des animations montrent comment la visibilité évolue avec la largeur des raies, mais aussi avec la largeur du filtre.
La visibilité des franges dépend de la largeur spectrale des raies étudiées. Plus les raies sont larges, moins les franges sont visibles à grande différence de marche.
Difficulté : ☆☆☆ Temps : 45 min
On alimente un spectromètre par TF par un spectre avec une seule raie, non monochromatique, de largeur . On note l'intensité spectrale, et l'intensité dans la raie. Pour simplifier les calculs, on ne s'intéresse pas à un profil réaliste, mais à un profil de raie en émission idéalisé par :
Justifier le fait que l'intensité totale enregistrée à la différence de marche est la somme de toutes les intensités spectrales reçues.
[3 points]
Mener le calcul de l'interférogramme.
[3 points]
Montrer la relation :
et exprimer la fonction de visibilité des franges en fonction de et .
[1 points]
Représenter schématiquement la fonction . Déterminer la première valeur qui annule la fonction de visibilité.
[2 points]
Décortiquer le fonctionnement d'un spectromètre par transformée de Fourier, en s'appuyant sur les propriétés d'une TF en lien avec les caractéristiques souhaitées du spectre.
Une observation par spectrométrie de Fourier nécessite le choix de paramètres de Fourier efficaces pour l'enregistrement rapide de l'interférogramme. La comparaison entre le spectre initial et le spectre calculé à partir d'un interférogramme simulé permet de jauger la pertinence des choix effectués.
L'interférogramme, obtenu par pas de différences de marche équidistants de , admet une fréquence de coupure . La valeur de cette fréquence, donc la valeur de , ne peuvent pas être prises au hasard.
Le spectre étant recalculé à partir de l'interférogramme par transformée de Fourier rapide (fft), la validité du principe suppose que les bornes de l'intervalle spectral libre, multiples entiers consécutifs de , encadrent entièrement le domaine spectral défini par le filtre d'entrée.
Quand bien même la largeur de l'intervalle spectral libre est suffisante, mais avec un spectre distribué sur 2 intervalles, le résultat ne sera pas correct, par suite du repliement des fréquences lors de la fft. Le nombre de points de l'interférogramme doit être optimisé. S'il diffère légèrement de la valeur optimale, le mauvais échantillonnage du signal conduit à retrouver un spectre à l'aspect tordu, par suite du repliement indu de fréquences mal séparées.
La résolution spectrale varie en fonction de la différence de marche maximale explorée. Elle s'exprime simplement :
Exemple : pour une raie à et , et le pouvoir de résolution vaut donc .
Rien ne sert de suréchantillonner l'interférogramme dès lors que le nombre de points a été optimisé au sens des propriétés de la transformée de Fourier rapide.
Montrer comment les paramètres d'un interférogramme doivent être choisis pour une optimisation de son acquisition respectant la résolution spectrale désirée.
Le but de l'interférométrie consiste à obtenir une information spectrale avec les éléments désirés. Les paramètre de l'interférogramme doivent donc obéir à cette contrainte.
Le spectre est essentiellement caractérisé par :
Deux paramètres construisent l'interférogramme :
Le lien entre les paramètres du spectre et de l'interférogramme dérivent des relations suivantes :
Le principe même de la spectrométrie par transformée de Fourier nécessite de sélectionner une région spectrale pas trop large, par un filtre adéquat, autour des raies à étudier. Ceci peut se comprendre de diverses manières : d'un point de vue expérimental, un filtre large va conduire à une teinte plate très rapidement, de laquelle plus aucune information ne sera extractible ; du point de vue de Fourier, il s'agit de pouvoir travailler dans une région limitée du spectre afin qu'un échantillonnage limité, conduisant à un intervalle spectral libre limité, suffise à recouvrer toute l'information spectrale.
On note respectivement les bornes inférieure et supérieure de la bande passante utile. La largeur de la bande passante détermine le domaine des nombres d'onde dans lequel il ne doit pas y avoir confusion spectrale.
En d'autres termes, l'échantillonnage doit assurer une fréquence de coupure spatiale telle que la largeur spectrale du filtre soit comprise dans l'intervalle spectral libre :
avec un entier naturel.
Il apparaît immédiatement la condition : . Si l'on suppose la différence de marche maximale fixée, et donc la résolution fixée, on peut préciser le choix du nombre de points optimal , résultant des 2 conditions ci-dessus.
En omettant tout d'abord que et doivent être entiers, leurs solutions réelles doivent vérifier :
Comme ces 2 solutions ne sont pas nécessairement entières, il s'agit de déterminer les entiers et assurant de façon optimale :
C'est à dire :
et simultanément
Les 2 inégalités concernant les entiers successifs et assurent la validité de l'intervalle spectral défini par .
paramètres | symbole | unité | |
---|---|---|---|
borne min. | |||
borne max. | |||
largeur du filtre | |||
ddm maximale | cm | ||
pas en ddm | cm | ||
nombre de ddm | |||
résolution | |||
largeur interv. spectr. libre |
Reproduire le spectre nécessite le choix d'une résolution spectrale suffisante, ainsi que le choix en accord d'un nombre de points suffisant.
Pour la simulation il s'agit :
La simulation propose la valeur de adaptée à l'intervalle spectral et à la résolution proposée.
Vérifier alors :
Sur une source brillante, la spectrométrie par transformée de Fourier permet d'atteindre des résolutions inégalées. Ceci peut s'avérer nécessaire pour des objectifs scientifiques tels la reconnaissance d'isotopes, ou l'identification complète d'un spectre de roto-vibration
L'étendue de faisceau admissible par un interféromètre de Fourier permet de réaliser un spectre sur un champ étendu. L'avantage de ce principe est de pouvoir analyser toute une région spatiale dans une raie donnée, ou d'observer un point du champ à diverses longueurs d'onde, en ayant un grand choix possible de résolutions spectrales. Ce genre d'observation a été réalisé avec le FTS du télescope CFH, sur différents objets : les poles de Jupiter montrant des aurores, des enveloppes d'hydrogène circumstellaires, des environnements stellaires.
Jusqu'au 20e siècle, on ne connaissait de planètes qu'autour du Soleil, mais depuis 1995, nous savons que des (exo)planètes accompagnent la majorité des étoiles du ciel. Ce chapitre montre que la définition d'une planète (sous-entenu du Soleil) a changé au cours de l'histoire et jusqu'à récemment, et qu'il n'est pas (encore) possible de définir une exoplanète.
Au cours de l'histoire, les découvertes successives d'objets dans le système solaire s'accompagnent, à chaque fois, de la remise en cause de ce qui définit une planète. De nouveaux objets apparaissent, satellites, astéroïdes, comètes, planètes naines... et le nombre de planètes va changer au cours des âges.
Le dernier changement a eu lieu en 2006 quand l'Union Astronomique Internationale a enlevé son statut de planète à Pluton et précisé les définitions d'une planète et d'une planète naine.
Il est tout à fait possible que cette évolution ne soit pas la dernière!
Pour ce qui concerne les planètes des autres étoiles, les exoplanètes, il n'y a pas encore de définition. Les premières découvertes ont à peine 20 ans et les surprises continuent d'arriver sur les propriétés de ces objets. Ces découvertes montrent en particulier que la frontière est floue entre la famille des planètes, celle des étoiles et la troisième famille, des naines brunes, qui se glisse entre les deux premières.
Le nombre de planètes a évolué dans l'histoire au fur et à mesure des connaissances.
En 2006, l'Union Astronomique Internationale va intégrer toutes ces découvertes pour donner une définition des planètes et créer la population des planètes naines avec, entre autres, Pluton et Ceres.
Ce texte est inspiré de la vidéo "1, 2, 3, Planète!"
En 2006, l'Union Astronomique Internationale (UAI) a défini les planètes du Système Solaire ainsi :
" un corps qui orbite autour du Soleil,
qui a une masse suffisante pour que sa gravité l’emporte sur les forces de cohésion du corps solide et le maintienne en équilibre hydrostatique sous une forme presque sphérique,
et qui a éliminé tout corps susceptible de se déplacer sur une orbite proche».
Le texte officiel de UAI définissant les planètes, les planètes naines et les petits corps du système solaire est ici.
Les "petits corps", typiquement plus petit qu'une centaine de kilomètres, gardent leur forme primordiale figure 1), alors que les corps plus massifs se déforment jusqu'à atteindre la forme d'équilibre qu'est la sphère, éventuellement applatie si le corps tourne rapidement sur lui-même.
Une « planète naine » ne satisfait pas à la troisième condition. Pluton (figure 2) a ainsi perdu son statut de planète quand des centaines d'objets ont été découverts dans son environnement, faisant de lui un des membres de la "ceinture de Kuiper". De même, Céres est une planète naine qui appartient à la ceinture des astéroïdes.
Parce qu'on n'a pas accès aux informations qui définissent une planète (forme et environnement), on ne peut transposer cette définition aux planètes en dehors du système solaire. La Commission de l'UAI dédiée aux exoplanètes est en train de réfléchir à une définition des exoplanètes.
Il est d'ailleurs utile de rèfléchir à la pertinence et à l'utilité d'une définition. La phrase « ceci est (ou n'est pas) une exoplanète » peut donner l'illusion qu'on a saisi son essence.
Par exemple, il serait simple de dire qu'une exoplanète est un corps qui tourne autour d'une autre étoile que le Soleil. Mais on sait maintenant que certaines planètes ont été éjectées de leur système. Seraient-elles encore des exoplanètes?
On sait que les planètes du système solaire se sont formées dans un disque circumsolaire selon un mécanisme bien particulier, contrairement aux étoiles qui se sont formées par effondrement d'un nuage de matière interstellaire. On pourrait donc définir les exoplanètes comme les corps qui se sont formés selon ce même processus.
Les planètes formées dans un disque ont la particularité de posséder un noyau solide. Elles ont aussi une densité supérieure aux objets formés par effondrement d'un nuage de gaz interstellaire. Mais il est très difficile, pour ne pas dire impossible, de savoir si une exoplanète a un noyau solide.
D'autre part, entre 13 et 74 masses de Jupiter, les naines brunes ont une brève période durant laquelle elles émettent de la lumière avant de redevenir aussi inerte et invisible qu'une planète.
Il y a donc au moins deux logiques pour définir une exoplanète : à partir de ses caractéristiques physiques ou à partir de son mode de formation. Ces deux méthodes n'aboutissent pas à la même définition.
On ne voit pas pourquoi privilégier une définition par rapport à l'autre, mais il y a toutefois un problème pragmatique. Quels objets mettre dans les catalogues d'exoplanètes ? Le problème est en plein débat. L'UAI n'a pas pris position sur ce sujet. Actuellement, la communauté des astronomes suit de fait la solution choisie par le catalogue de l'Encyclopédie des Planètes Extrasolaires qui s'appuie sur l'argumentation suivante :
Le scénario de formation des planètes du Système Solaire prévoit que l'histogramme de masses diminue continuement à partir d'une fraction de masse terrestre.
Dans le spectre de masses des compagnons stellaires de faible masse, on voit un creux autour de 25-30 masses de Jupiter (soit 0.02-003 masse solaire sur la figure). On suppose donc que ce spectre est la superposition du spectre précédent et de celui des objets formés comme les étoiles par effondrement d'un nuage de gaz. On choisit alors, par convention, d'appeler planète tout ce qui est à gauche du creux, soit à moins de 30 masses de Jupiter, sans limite du coté des petites masses (contrairement au cas du Système Solaire). On choisit une fourchette assez haute pour être sûr de ne pas éliminer des planètes de grande masse. Ce faisant on sait que statistiquement quelques « planètes » en-dessous de 25 masses de Jupiter sont en fait des naines brunes (objets formés comme des étoiles) , mais avec une probabilité faible.
Des discussions sont en cours pour savoir si, en plus du critère de masse, on pourra utiliser le spectre des objets pour distinguer une planète d'une naine brune. Le spectre donnant accès à la composition chimique de l'objet pourrait aider à différencier un objet formé par accrétion de poussières dans un disque circumstellaire (planète) d'un objet formé par effondrement gravitationnel d'un nuage de gaz (naine brune ou étoile).
Quelle que soit au final la solution choisie, il y aura toujours des cas limites où on ne pourra pas décider s'il s'agit d'une planète ou d'une naine brune, ce qui relativise toute définition trop stricte.
Références :
Mordasini Ch. et al. 2012. Extrasolar planet population synthesis . IV. Correlations with disk metallicity, mass, and lifetime. Astron. & Astrophys. 541, A97
Schneider J. et al. 2011. Defining and cataloging exoplanets: The exoplanet.eu database. Astron. & Astrophys., 532, A79
Une étape importante a été de réaliser que les "planètes", astres errant au milieu des astres fixes, étaient de même nature que la Terre, des corps sphériques avec, éventuellement, des satellites.
Quelle invention a permis de comprendre la nature des planètes?
Le nombre de planètes du système solaire a fluctué au cours de l'histoire.
Combien y avait-il de planètes dans le système solaire en 1655? et en 1780?
Qu'est-ce-qui différencie Uranus et Neptune des 6 autres planétes?
Qu'est-ce-qu'a de particulier la découverte de Neptune?
La définition des planètes comporte 3 conditions.
La première condition est qu'une planète tourne autour du Soleil. Quels objets cette condition exclut-elle?
La deuxième condition est qu'une planète a une masse suffisante pour être de forme sphérique. Quels objets ne sont pas des planètes à cause de cette condition ?
La troisiéme condition est qu'une planéte a éjecté tous les objets présents sur les orbites proches. Donnez des exemples d'objets exclus par cette condition?
Comment appelle-t-on les objets qui obéissent aux deux premières conditions et pas à la troisiéme?
Une exoplanète doit-elle forcément tourner autour d'une étoile?
Utilisez le catalogue Les exoplanètes, pour regarder la distribution des paramètres (histogrammes) et leurs relations (diagrammes).
Notez qu'il est possible de choisir l'échelle et le nombre de bins.
Etude de l'histogramme des masses des exoplanètes:
A quoi est due la limite inférieure de la distribution des masses?
La distribution est-elle régulière? Comment cela peut-il s'expliquer?
Utilisez l'outil Diagrammes. On peut modifier les intervalles de valeurs et choisir des échelles log.
Que peut-on voir sur la diagramme de la masse des exoplanètes en fonction des années de découverte.
Que montre le diagramme des masses en fonction des rayons des exoplanètes?
Que montre l'histogramme des années de découverte des planètes?
Où se trouve l'exoplanète la plus lointaine?
Une des questions clef quant à la compréhension de nos origines est celle de la formation de la Terre et, plus généralement, de toutes les planètes. Pendant plusieurs siècles, étudier cette formation planétaire équivalait implicitement à expliquer la formation des seules planètes que nous connaissions : celles de notre système solaire. La situation a radicalement changé en 1995, avec la découverte de la première « exoplanète » autour d’une autre étoile. A ce jour, plusieurs milliers de planètes extrasolaires ont été détectées, et, du moins d’un point de vue numérique, les 8 planètes du système solaire ne représentent plus aujourd’hui qu’une infime fraction du total.
Malgré cela, les modèles de formation planétaires sont encore affectés par un fort tropisme « système solaire », car ils sont, dans leurs grandes lignes, les héritiers de théories développées dans les années 70, 80 et 90 pour expliquer la formation des 8 planètes telluriques et géantes autour du soleil. Ce tropisme s’explique bien entendu également par le fait que ces 8 planètes sont encore, de très loin, celles que nous connaissons le mieux. Ceci n’empêche pas que l’existence de systèmes extrasolaires, dont certains ont des caractéristiques très éloignées de celles du système solaire, est de plus en plus prise en compte dans les études les plus récentes. L’un des défis principaux de ces études est aujourd’hui d’expliquer la grande diversité de systèmes planétaires révélée par les observations.
Dans les pages qui suivent, nous présenterons en détail le modèle « standard » de formation planétaire, sur les grandes lignes duquel la plupart des chercheurs s’accordent aujourd’hui. Comme nous le verrons cependant, rien n’est gravé dans le marbre et il existe encore (et heureusement !) bien des questions en suspens dans ce scenario « standard ».
Par ailleurs, le modèle standard étant, pour l’essentiel, adapté aux caractéristiques de notre système solaire, nous axerons notre présentation sur les planètes de ce système. Mais nous verrons également comment ce scenario, ou du moins certaines de ses étapes, est affecté par les contraintes déduites des centaines de systèmes extrasolaires connus à ce jour.
Les premières tentatives pour expliquer scientifiquement la formation des planètes remontent au 17ème siècle. En schématisant quelque peu, on peut dire que, durant près de 3 siècles, vont s’opposer les partisans de deux scénarios radicalement différents.
Historiquement les plus anciens, les modèles dits « évolutionnistes» postulent que les planètes naissent de façon « naturelle » lors de la formation du soleil et des autres étoiles. Le premier de ces modèles est celui de Descartes (1633), pour qui l’univers est rempli de tourbillons, au centre desquels les éléments les plus lourds se condensent pour former les étoiles tandis que les plus légers restent en périphéries pour former les planètes. Un siècle plus tard, Kant (1755) et Laplace (1796) proposent que les étoiles se forment par effondrement d’un nuage de matière (une « nébuleuse ») en rotation sur lui même : pour conserver le moment cinétique lors de la contraction, la force centrifuge crée un disque dans le plan de rotation, disque dans lequel se forment des anneaux concentriques dans lesquels vont finalement se condenser les planètes.
Les modèles « catastrophistes » postulent au contraire que les planètes se forment lors d’évènements isolés, rares et/ou violents. Pour le naturaliste Buffon (1741), c’est la collision d’une comète avec le soleil qui produit un nuage de débris à partir duquel se condensent et se refroidissent les planètes. L’âge d’or des modèles catastrophistes est cependant le début du XX siècle, au moment où le scénario de la nébuleuse semble irréaliste en raison de son incapacité à expliquer que les planètes possèdent 100 fois plus de moment cinétique que le soleil (voir ici). A cette époque, c’est la rencontre proche entre le soleil et une autre étoile qui est privilégiée, rencontre qui arracherait de la matière au soleil et/ou à l’étoile, matière à partir de laquelle se condensent ensuite les planètes (scénario de Moulon-Chamberlain,1904 et Jeans, 1917).
Ce n’est que dans la 2ème moitié du XX siècle que le débat sera (définitivement?) tranché en faveur des modèles évolutionnistes, quand tous les scenarios catastrophistes auront été rejetés, notamment quand Spitzer (1939) aura montré que la matière chaude arrachée au soleil va se disperser bien plus rapidement qu’elle ne peut se condenser.
Il est important de souligner qu’au delà de leurs détails techniques, ces 2 types de scénarios aboutissaient à deux visions totalement différentes quant à notre place dans l’univers. Pour les « catastrophistes », les planètes telles que la nôtre sont dues à un événement exceptionnel, et sont donc sans doute très rares, tandis que les thèses évolutionnistes prédisent que les planètes sont un « produit dérivé » banal de la formation stellaire et doivent donc être très abondantes dans notre galaxie. On peut remarquer que cette opposition de visions s’est aujourd’hui en partie reportée sur le débat sur la vie dans l’Univers, avec d’un côté ceux qui pensent quenous sommes sans doute seuls dans l’Univers, car l’apparition de la vie nécessite un concours de circonstances hautement improbable, et ceux qui au contraire pensent que la vie apparaît « naturellement » lorsque les conditions physiques sont réunies.
Avant de présenter la théorie des modèles de formation planétaire, il est essentiel de les replacer dans leur contexte. Il faut pour cela bien comprendre quelles sont les caractéristiques fondamentales du système solaire qui vont contraindre tout modèle de formation. Certaines de ces caractéristiques sont du niveau de l’évidence, et d’autres un peu plus techniques, mais toutes nous apprennent des choses essentielles sur l’origine des planètes.
Un premier fait essentiel est que les 8 planètes orbitent toutes à peu près dans le même plan, et de plus dans le même sens. Par ailleurs, ce plan et ce sens correspondent aussi à l’axe et au sens de rotation du soleil sur lui même. Ce simple fait plaide très fort en faveur d’une origine commune pour toutes les planètes, origine sans doute également liée à l’origine du soleil lui même. Car si, par exemple, le soleil avait capturé les planètes les unes après les autres, alors il n’y aurait aucune raison pour qu’elles soient toutes dans le même plan.
Autre point fondamental : plus de 99,8% de la masse MSS du système solaire se trouve dans le soleil lui même, les planètes ne représentant qu’une toute petite fraction de celle-ci. Mais par ailleurs, l’essentiel du moment cinétique JSS du système solaire (pour schématiser, son énergie de rotation) est, lui, contenu dans les planètes, le soleil ne contenant que 1% du moment total. Ce paradoxe est, on le verra plus loin, l’un des faits les plus contraignants pour les modèles de formation planétaire.
Un premier regard, même superficiel, sur les planètes du système solaire montre que celles-ci peuvent se repartir en 2 groupes bien distincts: les 4 planètes telluriques, petites et proches du soleil, et les 4 planètes géantes, beaucoup plus massives et situées dans les régions externes et froides. Les planètes telluriques ont des masses comprises entre 0.06 et 1, sont essentiellement rocheuses et sont très pauvres en Hydrogène et Helium, les 2 éléments de loin les plus abondants dans l’Univers. A l’inverse, les planètes géantes ont des masses comprises entre 15 (Uranus) et 300 (Jupiter). Parmi ces géantes il faut tout d’abord distinguer les 2 géantes « gazeuses » que sont Jupiter et Saturne, dont l’essentiel de la masse est contenue sous forme d’H2 et He gazeux, mais qui contiennent cependant de 10 à 50 de solides sous formes de roches et de glace (probablement concentrée dans un coeur solide). Viennent ensuite les géantes « glacées » que sont Uranus et Neptune, dont l’essentiel de la masse est sous forme de glace (d’eau, d’ammoniaque et de méthane), mais qui possèdent cependant une atmosphère contenant de 1 à 5 de H2 et He.
On peut remarquer que la composition de toutes ces planètes diffère très fortement de la composition globale de l’Univers, qui est lui constitué à 98% d’hydrogène et d’Helium. Même les géantes gazeuses contiennent une proportion très importante d’éléments lourds si on les compare à la composition du soleil, qui est, elle, très proche de celle de l’univers dans son ensemble. Ce point est fondamental quand il s’agira de remonter à la « Nébuleuse solaire de masse minimale » initiale (cf. lien).
Toutes les planètes du système solaire ont été très fortement remodelées dans les premiers temps de leur histoire, et la surface de nombreuses d’entre elles a également été irréversiblement altérée par l’évolution au cours des milliards d’années qui ont suivi. De ce fait, il ne reste aucun matériel planétaire primordial qui puisse nous permettre de remonter aux premiers instants du système solaire. De tels matériaux primordiaux et en particulier une certaine catégorie de météorites appelée « chondrites » constituent les corps les plus primitifs du système solaire, et l’on pense que leur intérieur n’a quasiment pas été altéré depuis les premiers instants de celui-ci. On peut mesurer l’âge de ces chondrites à l’aide de la décomposition radioactive de certains éléments qu’elles contiennent (cf. lien). De manière assez remarquable, ces méthodes de datation ont permis d’estimer l’âge du système solaire à une précision extraordinaire : 4,568 milliards d’années ! L’âge des plus vieilles roches terrestres, de petites inclusions cristallines de zircon, est, quant à lui, estimé à 4.404 milliards d’années. Ce qui laisserait donc environ 150 millions d’années au maximum pour former la planète Terre. L’âge des plus vieilles roches lunaires est, lui, d’environ 4.5 milliards d’années.
Il existe aujourd’hui un scenario « standard » de formation planétaire, dont les grandes lignes sont acceptées par l’essentiel des scientifiques, du moins en ce qui concerne les planètes telluriques. Pour l’essentiel, ce scenario a été développé au cours des années 60 et 70, notamment à partir des travaux pionniers du savant russe Victor Safronov. Ce modèle est l’héritier direct des anciens modèles évolutionnistes (cf. lien), avec lesquels il partage l’idée essentielle que les planètes se forment « naturellement » et conjointement avec les étoiles, à partir de la contraction d’une « nébuleuse » en rotation.
Dans ce scénario standard, les planètes se forment progressivement, étape par étape, à la suite d’une succession de processus distincts. Ceux-ci peuvent schématiquement se résumer ainsi (cf. Figure) : Tout commence avec un grand nuage de gaz moléculaire froid, dont certaines régions peuvent s’effondrer sous l’effet de leur propre gravité, formant des cœurs denses et chauds qui vont devenir une proto-étoile. Autour de ces cœurs, la contraction du nuage (ou plutôt d’un fragment de celui-ci) va finir par former un disque sous l’effet de la force centrifuge. On arrive alors à une étape où proto-étoile, disque et enveloppe (le reste du fragment de nuage initial) coexistent, la matière étant accrétée de l’enveloppe sur le disque, puis du disque sur l’étoile. Le disque d’accrétion est initialement très chaud, mais il va se refroidir avec le temps. Ceci va permettre la condensation de grains solides : roches, mais aussi glaces dans les régions externes. Ces grains vont ensuite croitre par collisions mutuelle pour former des corps kilométriques appelés « planétésimaux ». L’accrétion mutuelle de ces planétésimaux va alors former des embryons planètaires, puis les planètes elles-mêmes, tandis que le disque de gaz primordial va se disperser.
Nous allons maintenant examiner plus en détail chaque étape de ce processus. Comme nous le verrons, malgré un consensus global sur les grandes lignes, certaines étapes du modèle standard sont encore mal comprises et les débats sont loin d’être clos.
Toutes les étoiles, et par la même occasion les planètes qui leurs sont liées, naissent dans de gigantesques nuages moléculaires. Ces nuages sont essentiellement composés d’Hydrogène et d’Helium, à savoir les 2 éléments les plus abondants dans l’Univers, et sont extrêmement froids, avec des températures de l’ordre de 10K. Ils ont des tailles pouvant aller d’une fraction de parsec (pc) à plus de 20pc, et peuvent contenir de quelques dizaines à plusieurs milliers de masses solaires (). Bien que ces nuages soient bien plus compacts que la matière inter-galactique alentour, leur densité est tout de même extrêmement faible comparée à notre environnement quotidien, de l’ordre de seulement 100 à 10 000 atomes d’Hydrogène par cm3. Ceci est à comparer aux quelques 1015 molécules/cm3 de l’atmosphère terrestre ! (En fait, un nuage moléculaire « dense » est bien plus vide que le « vide » à l’intérieur d’une chambre à vide dans un laboratoire !).
Ces « nurseries » stellaires sont observées par milliers dans notre galaxie, soit comme des « poches sombres » bloquant la lumière des étoiles situées derrière elles, soit comme de magnifiques nuages éclairées de l’intérieur par les premières étoiles qui s’y sont formées (cf. Image).
Un nuage moléculaire est a priori à l’équilibre hydrostatique, c’est à dire que sa gravité est compensée par la pression thermique des molécules qui le composent (cf. Théorème de Viriel). Cependant, dans certains de ces nuages, cet équilibre va être rompu et ils vont commencer à s’effondrer sur eux-mêmes, et ce pour des raisons encore mal comprises. Est ce parce-que certains nuages deviennent trop massifs pour que la pression thermique puisse lutter ? Ou bien cet effondrement est il déclenché de l’extérieur, par exemple lorsque 2 nuages se collisionnent ou bien lorsqu’une supernova explose à proximité ? Quoi qu’il en soit, une fois cet effondrement commencé, les choses s’emballent assez rapidement. Au bout de quelques milliers d’années, la turbulence crée des structures en filaments en même temps que le nuage initial commence à se fragmenter en morceaux de plus en en plus petits (cf. Image), chacun de ces fragments pouvant potentiellement être un site de formation stellaire : les étoiles naissent donc en groupe !
A l’intérieur de chaque fragment, une forte condensation de matière se produit au centre, jusqu’à ce que celui-ci devienne opaque à la lumière infra-rouge. A partir de ce moment, une sorte d’ « effet de serre » se produit et la température augmente fortement dans ce cœur dense. A un certain point, la pression thermique stoppe l’effondrement du cœur et cette concentration de matière dense et chaude forme le premier stade d’une proto-étoile. Cette proto-étoile est initialement peu massive (1% de sa masse finale), mais elle augmente progressivement, car la matière du reste du nuage continue à s’effondrer et s’accumuler sur elle.
En parallèle au processus de formation stellaire, l’effondrement du nuage va également créer un disque en rotation autour de la proto-étoile. Ce disque se forme sous l’effet de la force centrifuge, dont l’intensité augmente à mesure que le nuage se contracte (à cause de la conservation du moment cinétique). On atteint donc un état où coexistent 3 composantes : 1) La proto étoile au centre, 2) le disque circumstellaire, et 3) le reste du nuage qui continue à s’effondrer. Il est important de noter que pendant cette étape de coexistence, le transfert de matière se fait du nuage vers le disque, et ensuite du disque vers l’étoile. D’où le nom de disque d’accrétion.
Au cours de cette phase d’accrétion, la température de la proto-étoile continue d’augmenter. Lorsque celle-ci dépasse plusieurs milliards de degrés au centre de la proto-étoile, des réactions thermonucléaires vont se déclencher: une étoile est née ! Un très puissant jet de matière va alors se développer le long de l’axe de rotation stellaire. Une telle étoile, entourée d’un disque d’accrétion et produisant un jet bipolaire est dans ce qu’on appelle sa phase « T Tauri », du nom d’une étoile de la constellation du taureau. Cette phase T Tauri n’est pas qu’un simple concept théorique, car l’on dispose aujourd’hui de très nombreuses observations de ce type d’étoile jeune, révélant souvent à la fois un disque circumstellaire, un jet bipolaire et des restes de matière du nuage initial (voir image).
Le disque qui entoure la jeune étoile après environ un million d’années est appelé disque « d’accrétion », car la matière qu’il contient spirale lentement vers l’intérieur pour finalement tomber sur l’étoile. Ces mouvements de matière sont dus à la viscosité du disque, viscosité elle-même due à la turbulence du gaz. L’effet global de cette viscosité turbulente est de transférer l’essentiel de la matière vers l’intérieur du disque, tandis qu’une petite fraction de cette matière part vers l’extérieur en emportant l’essentiel du moment cinétique J du disque.
On pense que ce double transfert (masse vers l’intérieur, J vers l’extérieur), est ce qui résout, du moins en partie, le paradoxe d’un système solaire où 99.8% de la masse est dans le soleil, mais 99% du moment cinétique est dans les planètes (voir lien).
Le disque d’accrétion est initialement extrêmement chaud, et ce en raison du rayonnement intense de la jeune étoile, mais aussi à cause de la chaleur dégagée par la viscosité dans le disque. L’analyse des météorites montre que se produisent peut-être également des « flashs » thermiques brefs mais intenses dus sans doute à des ondes des chocs. Dans les régions les plus internes, les températures peuvent dépasser les 1500K, vaporisant même les particules rocheuses (silicates et composés ferreux). Au cours du temps, cependant, le disque va progressivement se refroidir. Dans les régions internes, les températures sont alors suffisamment basses pour permettre la condensation des roches, mais pas des composés volatils et des glaces (eau, méthane, CO, etc.). Dans les régions externes, en revanche, les températures descendent suffisamment pour permettre la condensation des glaces, et notamment de la glace d’eau (T<160 K). La frontière entre disque interne rocheux et disque externe roches+glaces est appelée « limite des glaces » (« snowline » en anglais). Elle se situe à environ 3 UA dans notre système solaire, et correspond donc peu ou prou à la limite entre planètes telluriques et planètes géantes. On pense que cela n’est pas un hasard, car, au delà de la limite des glaces, la matière solide est 3 à 4 plus abondante et permet donc l’accrétion de corps plus gros, pouvant de plus retenir une épaisse enveloppe de gaz (voir lien).
Dans les années 1970 et 80, plusieurs scientifiques ont réalisé que, à partir de la structure actuelle du système solaire, il est possible d’avoir une idée de la distribution de matière dans le disque proto-planétaire initial. Il faut pour cela faire 2 hypothèses : 1) que la position actuelle des planètes correspond, approximativement, à celle où elles se sont formées, et 2) que le disque proto-planétaire avait une composition proche de ce qu’elle est aujourd’hui dans le soleil.
La procédure pour remonter au disque initial est alors assez simple : On considère tout d’abord la masse de matière solide (roches et glaces) contenue dans les planètes et on la distribue de manière continue entre l’orbite me Mercure et celle de Neptune (voir LIEN vers page d’exercice). Ceci nous donne alors la distribution radiale des solides dans le disque proto-planétaire. Si on fait ensuite l’hypothèse que le rapport solides/volatiles (H et He) est le même que dans le soleil, alors on peut remonter à la masse « manquante » de volatiles qui était présente au départ et qui a disparu en cours de route. Cette masse initiale est bien supérieure à la masse actuelle de gaz dans les planètes, même pour les géantes « gazeuses » Jupiter et Saturne. On a alors reconstitué un disque proto-planétaire « minimal », c’est à dire contenant la masse minimale de matière (de composition solaire) nécessaire à former les planètes actuelles. On appelle ce disque théorique la « Nébuleuse Solaire de Masse Minimale » (NSMM ou plus communément MMSN en anglais).
On voit sur la Figure ci-dessus que, de manière remarquable, la distribution radiale de matière dans cette nébuleuse suit une loi de puissance en r-1.5 sur tout l’extension du disque. On remarque certes un saut de densité d’un facteur 3 vers 3AU, mais ce saut s’explique par la « ligne des glaces », au delà de laquelle la matière solide devient plus abondante en raison de la condensation de la glace d’eau.
Le profil d’une telle MMSN ne doit cependant être considéré qu’à titre indicatif, en particulier dans le système solaire externe, car on sait aujourd’hui que les planètes géantes ne se sont sans doute pas formées à leur position actuelle et ont sans doute migré dans le disque initial (cf. lien).
Le disque proto-planétaire se refroidit progressivement au cours du temps. A mesure que la température baisse, de plus en plus d’éléments peuvent se condenser. A moins de 1600K, ce sont des oxydes métalliques, à 1400K c’est le Fer, et, enfin, à 1300K, les silicates. La condensation forme initialement des grains très petits, de l’ordre de quelques microns. La croissance de ces grains se fait ensuite lors de collisions mutuelles, quand la vitesse d’impact est suffisamment faible pour qu’ils restent soudés. Pour des particules de si petites tailles, ce qui les fait « coller » les unes aux autres lors de collisions, ce sont les forces de surface moléculaire (forces de Van der Waals). Les vitesses et la fréquence des rencontres entre grains sont déterminées par le fait qu’ils sont couplés au gaz et que celui-ci a des mouvements turbulents. On pense que, pour une MMSN typique, les vitesses de collisions entre petits grains sont de l’ordre de 10cm/s à 10m/s (la vitesse d’un cycliste). Des expériences en laboratoire ont montré que ces vitesses sont effectivement suffisamment faibles pour permettre à 2 grains de s’accréter lors d’une collision. Ce processus d’accrétion grain à grain va former des particules filamenteuses de type fractal (cf. image), dont la taille peut atteindre quelques cm.
La suite de l’histoire est beaucoup plus problématique. Quand les corps solides ont atteint quelques centimètres ou décimètres, les modèles de croissance par collisions mutuelles rencontrent un problème majeur, qu’on appelle pour simplifier « la barrière du mètre ». En effet, ces corps sont devenus suffisamment gros pour commencer à se découpler du gaz, et ce gaz va alors commencer à exercer une forte friction sur eux. Ceci a deux conséquences : 1) Les vitesses relatives de collisions impliquant ces objets deviennent élevées, et le bilan de ces collisions n’est plus l’accrétion mais l’érosion des corps, et 2) La friction du gaz fait perdre du moment cinétique au corps solides, et ceux ci vont se mette à spiraler vers le centre du disque et l’étoile. Pour des corps de 1m, on calcule que le temps de migration vers le centre est de seulement quelques centaines d’années dans une MMSN « standard ».
Plusieurs théories ont été avancées pour expliquer comment surmonter la barrière du mètre. Certaines font appel à l’action de la turbulence du gaz et au fait que celle-ci crée des vortex au centre desquels les particules solides peuvent s’accumuler. Dans ces vortex, l’accrétion peut se remettre en marche pour 2 raisons: 1) les vitesses relatives sont suffisamment faibles pour que les particules « collent » à nouveau lors de collisions, et 2) La densité de grains solides au centre des vortex peut par ailleurs devenir telle qu’une instabilité gravitationnelle se déclenche, formant directement et rapidement des corps de plusieurs kilomètres. Dans le même ordre d’idée, d’autres scénarios envisagent que les grains sont piégés au niveau de singularités dans le disque de gaz, là où existe un très fort gradient de pression. Ces singularités peuvent se situer au bord de ce qu’on appelle des « Dead Zones » (sans activité magnétique), ou bien au niveau de la ligne des glaces, ou bien encore au niveau de surdensités créées par des Instabilités Magnéto-Hydrodynamiques (« MRI »). Dans ces zones de piégeage, l’accrétion peut se poursuivre pour les mêmes raisons que dans le scénario des « Vortex ».
D’autres scénarios proposent une solution alternative, fournie par la physique des collisions elle-même. Si il existe une très large dispersion de la taille des corps solides, alors les plus gros de ces corps seraient capable d’accréter les plus petits, même en cas de vitesses relativement élevées. Dans le même ordre d’idée, même en cas de collisions érosives, les fragments érodés pourraient former une poussière facilement ré-accrétable par les plus gros corps.
Il faut cependant rester prudent, car aucun de ces scénarios ne propose pour l’instant une explication 100% satisfaisante. Ce problème est l’un des sujets majeurs de la recherche actuelle sur la formation planétaire.
Malgré un enfantement qui pose pour l’instant beaucoup de problèmes aux théoriciens (voir page précédente), il est probable que des « planétésimaux », c’est à dire des corps solides de l’ordre du kilomètre, vont finir par se former dans le disque. Ces planétésimaux vont ensuite eux aussi croître par collisions mutuelles, mais le processus d’accrétion est radicalement différent de ce qu’il était pour les petits grains, car c’est maintenant la force de gravité qui va faire « coller » les corps les uns aux autres. Le critère pour qu’il y ait accrétion est que la vitesse de collision vcoll doit être inférieure à la vitesse de libération vlib des 2 corps impactant. Pour des corps de l’ordre du kilomètre, vlib est de l’ordre de quelques m/s, soit la vitesse d’un piéton (pressé).
Si tous les planétésimaux avaient la même taille et croissaient ensemble, alors il faudrait environ 1 million d’années pour former un corps de 1000km aux alentours de 1 UA. On pense cependant que le processus d’accrétion est en fait beaucoup plus rapide, et ce du fait de la dispersion en taille des planétésimaux. Si en effet certains planétésimaux sont initialement plus gros que les autres, alors leur vitesse de libération sera supérieure et ils auront tendance à dévier les autres corps vers eux. Ceci les fera grossir plus rapidement, donc acquérir une vlib encore plus élevée, et donc dévier encore plus les petits planétésimaux vers eux, et ainsi de suite. Le processus s’emballe donc de lui même, dans une sorte d’effet « boule de neige » (voir lien1 et lien2), qui va se maintenir tant que les vitesses de collisions restent petites, de l’ordre de ce qu’elles étaient initialement (c’est à dire quelques m/s). L’accrétion boule de neige est capable de former de gros corps en seulement quelques 104 ans, sachant qu’à ce moment une grande partie de la masse de solides est encore sous forme de planétésimaux kilométriques.
Le processus d’accrétion « boule de neige » ne peut pas continuer éternellement. Il va s’arrêter quand les quelques corps en croissance rapide deviennent suffisamment gros pour commencer à exciter gravitationnellement leur environnement. A ce moment là, la croissance ne s’emballe plus, tout en se poursuivant cependant à un rythme élevé. On entre alors dans la phase dite « oligarchique » du processus d’accrétion, car seuls les quelques heureux embryons formés par effet de boule de neige sont en croissance. On pense que la transition entre accrétions « boule de neige » et « oligarchique » a lieu lorsque la taille des embryons est de l’ordre de quelques centaines de kilomètres. La phase oligarchique va alors durer de l’ordre de 105 ans, pour former des « embryons » planétaires de la taille de la Lune.
Au cours des phases d’accrétion « boule de neige » puis oligarchique chaque embryon fait progressivement le « vide » autour de lui. Le disque est alors structuré en régions concentriques à l’intérieur desquelles un seul gros corps dominant a émergé. Chaque embryon peut accréter les planétésimaux se situant à l’intérieur de sa « zone d’alimentation », correspondant à tous corps dont l’orbite peut être déviée sur l’embryon par focalisation gravitationnelle (cf. lien). Schématiquement, cette zone d’alimentation correspond à un anneau circulaire centré sur l’embryon, dont la largeur augmente à mesure que l’embryon grossit. Cependant, comme la masse disponible à l’intérieur de la zone d’alimentation croît moins vite que le taux auquel cette masse est accrétée par l’embryon, on aboutit in fine à une situation où la zone d’alimentation est vide. A ce moment, la phase de croissance par accrétion de petits planétésimaux s’arrête. Dans la région des planètes telluriques, on peut calculer qu’à ce stade, des corps d’environ 1000km se sont formés (cf. page d’exercice)
Comme nous l’avons vu à la page précédente, l’accrétion boule de neige et oligarchique ne permet sans doute pas de former directement des planètes, mais s’arrête, par épuisement de la matière (planétésimaux, poussière, etc …) à accréter, lorsque des embryons planétaires de la taille de la Lune ont été formés. Heureusement (si, du moins, on considère l’apparition de planètes comme un bien), ces embryons sont alors devenus suffisamment massifs pour se perturber mutuellement à distance. Ces perturbations vont rendre leurs orbites excentriques, et celles-ci vont pouvoir se croiser. Ces collisions entre embryons vont se faire à vitesses élevées, mais les embryons sont maintenant suffisamment massifs pour que l’accrétion mutuelle soit possible même lors d’impacts assez violents.
Ce « jeu de quilles » entre embryons va durer quelques millions, voire quelques dizaines de millions d’années. A la fin de cette période extrêmement violente, la plupart des milliers d’embryons formés par l’accrétion oligarchique ont disparu. Ils ont été soit éjectés du système solaire, soit (pour la plupart) accrétés par les quelques heureux gagnants qui vont devenir les planètes que nous connaissons aujourd’hui.
Notons que, dans les régions internes du système solaire, ces planètes ne vont jamais devenir suffisamment massives pour pouvoir accréter le gaz qui est encore présent dans le disque. On verra qu’il en va tout autrement dans la région des planètes géantes (cf. lien).
Les datations isotopiques indiquent que la Lune s’est formée entre 30 et 200 millions d’années après la Terre. Ceci place la formation de la Lune vers la fin de la phase agitée de collisions entre embryons planétaires (cf. page précédente). Les modèles récents postulent d’ailleurs que la formation de la Lune est due à un impact géant entre la proto-Terre et une autre proto-planète, appelée « Theïa », peut-être de la taille de Mars. Dans le modèle « standard » de Robin Canup (cf. image), Theïa impacte la Terre à vitesse élevée et est détruite ; un nuage de débris extrêmement chauds, essentiellement formé du manteau de Theïa se forme en orbite autour de la proto-Terre (qui est partiellement détruite par l’impact mais survit cependant), la Lune s’accrète ensuite à partir de cet anneau de débris en refroidissement. Un tel impact expliquerait plusieurs des caractéristiques peu banales de la Lune : 1) La Lune est très pauvre en fer comparée à la Terre. 2) Elle est également très pauvre en éléments volatiles (H20, Azote, CO2, etc…), 3) le timing pour la formation, 4) le moment angulaire très élevé du couple Terre-Lune.
Des analyses récentes d’échantillons lunaires ont cependant mis en évidence un problème majeur avec cette théorie : le fait que la surface de la Lune ait la même composition isotopique que la Terre pour les éléments O, Ti, Cr, W et K. Ceci n’est pas possible si la Lune est pour l’essentiel constituée de matière « theïenne », dont la composition isotopique a a priori peu de chances de ressembler à celle de la Terre, car étant probablement formée ailleurs dans le système solaire. Pour tenter de résoudre ce paradoxe, plusieurs modèles récents ont exploré différentes théories. Il est possible par exemple que le disque de débris post-impact ait été tellement chaud et dense qu’un équilibre isotopique avec la composition terrestre s’est fait. Il est possible également que la Terre et Theïa aient une origine commune. Alternativement, un impact plus énergétique (appelée « hit and run ») pourrait également arracher plus de matière à la Terre et faire que le disque de débris pré-lunaire soit dominé par de la matière terrestre. Enfin, si la rotation sur elle-même de la proto-Terre était initialement extrêmement rapide, alors l’impact avec Theïa aurait pu arracher énormément de matière du manteau terrestre pour former le disque pré-lunaire. Toutes ces théories ont leurs avantages et leurs défauts, mais on peut remarquer qu’aucune d’entre elles ne remet en cause le fait que la Lune se soit formée à partir d’un impact Terre-Theïa.
Toutes les étapes de formation dont nous venons de parler se font dans un disque protoplanétaire dont l’essentiel de la masse est encore sous forme de gaz primordial (surtout de l’hydrogène). Les grains et les planétésimaux en croissance interagissent très fortement avec ce gaz et nous avons vu que ce gaz est sans doute essentiel pour que l’accrétion des plus petits grains puisse se faire.
Ce disque de gaz primordial n’est cependant pas éternel. L’observation des jeunes étoiles montre en effet que les disques proto-planétaires primordiaux se dispersent sur des échelles de temps comprises entre 1 et 10 millions d’années, la durée de vie moyenne étant sans doute de l’ordre de 3 millions d’années pour une étoile de type solaire. Ceci place la dispersion du disque sans doute au cours de la phase finale d’interactions mutuelles entre gros embryons (cf. lien).
Reste à expliquer pourquoi et comment le disque se disperse. Il existe pour cela plusieurs mécanismes possibles, comme par exemple le vent stellaire de l’étoile en phase T-Tauri, ou l’accrétion visqueuse du disque sur l’étoile. La cause la plus probable semble cependant être l’effet de « photo-évaporation » dû au rayonnement ultra-violet de la jeune étoile, qui, couplé à la viscosité du disque, est capable de disperser très rapidement le disque de gaz hydrogène après l’avoir « coupé » en deux (voir PHOTO-EVAPORATION).
Le scénario présenté dans les pages précédentes se rapportait à la formation des planètes telluriques. La formation des planètes géantes est un problème en partie différent, avec quelques contraintes spécifiques. Les plus évidentes étant qu’il faut arriver à accréter beaucoup plus de matière sur chaque planète, entre 15 et 300, et qu’en plus, pour Jupiter et Saturne du moins, il faut arriver à accréter une énorme quantité de gaz (cf. lien). Cette accrétion du gaz pose de plus une contrainte très forte sur le timing de la formation de ces planètes, qui doit être achevée avant la dispersion du disque de gaz primordial, c’est à dire avant 10 millions d’années maximum (cf. lien). Enfin, il faut trouver un scénario de formation qui explique pourquoi Jupiter et Saturne sont très riches en gaz alors qu’Uranus et Neptune ne le sont pas.
Il reste que, comme on va le voir, le scénario « standard » de formation des géantes est, pour l’essentiel, une adaptation du scénario standard pour la formation des telluriques, en y rajoutant une étape finale d’accrétion d’une enveloppe de gaz massive. Cependant, comme nous le verrons également, ce scénario rencontre des difficultés, principalement le timing très strict pour l’accrétion du gaz, qui ont conduit plusieurs chercheurs à envisager un mode alternatif (et spécifique) de formation pour les planètes géantes, basé sur un effondrement gravitationnel direct dans le disque.
Dans ce scénario auquel adhère une majorité de chercheurs (mais attention, majorité n’est pas vérité !), la formation des géantes suit un processus par étapes qui ressemble fortement à ce qu’il est pour les planètes telluriques. Il commence notamment par la condensation de particules solides qui vont ensuite se coller entre elles par collisions et former des planétésimaux, planétésimaux qui vont ensuite former, par accrétion gravitationnelle, des embryons planétaires massifs.
La différence essentielle est que nous sommes ici au delà de la limite des glaces, et que donc les particules solides qui vont constituer les briques de la formation planétaire sont composées de roches et de glaces. On estime que ceci multiplie par 4 la quantité de matière solide disponible (voir MMSN). Les planétésimaux vont donc être plus gros et pouvoir former des embryons planétaires plus massifs. Ceci va également permettre d’accélérer le processus d’accrétion, et compenser le fait que les vitesses orbitales (et donc les rencontres proches) sont plus faibles dans les régions externes.
La présence de glace d’eau permet à la phase d’accrétion boule de neige et oligarchique de former des embryons planétaires bien plus massifs que dans les régions internes. Si cette masse dépasse environ 10 MTerre, alors la force d’attraction de la proto-planète est suffisante pour commencer à accréter le gaz qui l’entoure. Cette accrétion du gaz est tout d’abord progressive: il se forme une atmosphère dense dont la masse augmente linéairement avec le temps. Mais quand la masse de gaz devient comparable à celle du cœur solide au centre, cette atmosphère devient instable et s’effondre. L’accrétion du gaz s’emballe alors extrêmement vite, et permet d’accumuler plusieurs dizaines de masses terrestres en quelques milliers d’années (voir Figure) .Les 3 étapes de ce processus ont des durées très différentes : la phase initiale d’accrétion oligarchique de cœur solide dure 105 ans, l’accrétion progressive de l’enveloppe de gaz se fait sur plusieurs millions d’années, alors que la phase finale d’effondrement et d’accrétion brutale du gaz se fait en quelques milliers d’années seulement.
Comme nous l’avons déjà évoqué, la présence du gaz dans Jupiter et Saturne impose que la formation de ces planètes doit être achevée avant la dispersion du disque gazeux primordial, c’est à dire avant 10 millions d’années dans les hypothèses les plus optimistes (cf. lien) .
Il se trouve que beaucoup de modèles théoriques buttent sur cette contrainte temporelle. L’étape la plus problématique est la formation d’un cœur solide de masse 10 MTerre en moins de 1 millions d’années (sachant qu’ensuite l’étape d’accrétion progressive du gaz va durer plusieurs millions d’années supplémentaires). Avec la nébuleuse solaire de masse minimale, les simulations les plus optimistes arrivent à former un tel cœur solide au niveau de Jupiter, mais en aucun cas au niveau de Saturne, sans parler d’Uranus ou de Neptune. Le problème de Saturne peut certes se résoudre avec un disque massif de 10xMMSN, ce qui n’est pas l’hypothèse la plus générique mais reste une possibilité au vu des observations de disque. En revanche, la formation in-situ d’Uranus et Neptune ne semble pas possible dans le scénario de « cœur solide », même en tirant les paramètres à leurs limites.
On sait depuis les années 70 qu’une planète immergée dans un disque de gaz interagit dynamiquement avec lui, et que cette interaction peut être suffisante pour significativement faire migrer la planète. Curieusement, ce mécanisme a, dans un premier temps, été largement ignoré dans les modèles de formation planétaire, sans doute parce-que les premières versions de ces modèles n’avaient pas vraiment besoin de migration. La situation a radicalement changé avec la découverte des premières exoplanètes, et en particulier des « Jupiter chauds » très massifs et très près de leur étoile, strictement impossibles à former avec le modèle standard (cf. lien). Par ailleurs, les problèmes rencontrés par le scenario de cœur solide pour former Uranus et Neptune in-situ, ont eux aussi rendu attractive la possibilité d’une migration (cf. page précédente). Aujourd’hui, tous les modèles de formation planétaire prennent en compte la migration, qui est un mécanisme essentiel pour expliquer certaines caractéristiques du système solaire ainsi que nombre d’exoplanètes
Il faut cependant distinguer 2 mécanismes de migration bien distincts : la migration des proto-planètes par interaction avec le disque gazeux primordial, et celle, plus tardive, des planètes avec le disque résiduel de planétésimaux.
Quand une proto-planète atteint une masse comparable à celle de la Terre alors que le disque de gaz est encore présent, elle se met à interagir dynamiquement avec celui-ci. Plus spécifiquement, la planète interagit avec les ondes de densité qu’elle crée dans le disque de gaz. Pour des profils de densité « standard », le bilan de ces interactions est une perte de moment cinétique de la planète, et donc une migration de celle-ci vers l’intérieur. La migration peut alors être très rapide, et faire tomber la planète sur l’étoile en quelques 104 ans seulement ! Ce mécanisme a un seul problème : il est trop efficace ! Comment expliquer que les planètes telluriques de notre système solaire n’aient pas été avalées par le soleil ? Il existe plusieurs solutions à ce paradoxe. La première est que le soleil a bien avalé quantité de proto-planètes telluriques, et que celles que nous voyons aujourd’hui proviennent de plus loin dans le disque et ont migré pour prendre la place laissée vide. Le corollaire est alors bien sur qu’il y avait au départ bien plus de matière solide dans le disque que ce que nous voyons aujourd’hui. Une autre solution est que l’accrétion des proto-planètes telluriques ne s‘achève qu’après la dispersion du disque de gaz. Dans ce cas, pas (ou peu) de migration, car seuls des embryons oligarchiques << étaient formés quand le disque primordial est encore présent.
Pour des proto-planètes géantes de plus de 10, la situation change. Ces objets vont en effet creuser un sillon dans le disque de gaz et vider la région autour d’eux. Une fois ce « trou » créé, l’évolution radiale de la planète est couplée à celle du disque. Or, comme celui-ci spirale lentement vers l’étoile en raison de sa viscosité, la planète va elle-aussi migrer au même rythme. Cette migration régulière est a priori plus lente que celle de type I, et se fait sur une échelle de temps comparable à l’échelle de temps visqueuse du disque. Elle semble cependant inévitable pour toute planète géante en croissance. Et là encore se pose la question : quid des géantes du système solaire ainsi que de toutes les exoplanètes géantes observées à plusieurs UA de leur étoile ? Comment ont elles pu échapper à ce destin fatal ? La réponse pourrait être ici que l’union fait la force. En effet, si une planète migre toujours vers l’intérieur, deux planètes ensembles peuvent elles stopper cette migration, voir même l’inverser à condition que les ouvertures creusées par les 2 planètes se chevauchent et que la planète interne soit 2-4 fois plus grosse que l’autre. C’est ce qui s’est peut-être produit pour le couple Jupiter/Saturne, lors d’un processus migratoire complexe appelé le « Grand Tack » (cf. lien).
Les migrations de Type I et II cessent après la dispersion du disque de gaz. Mais les planètes peuvent tout de même continuer à bouger, mais c’est cette fois ci en interagissant avec les planétésimaux résiduels non utilisés dans l’accrétion planétaire. En effet, à la fin de la phase oligarchique, une grande partie de la masse de solides est sans doute toujours sous forme de planétésimaux kilométriques. Les interactions des planètes avec ce disque de planétésimaux peuvent être complexes, car, à la différence du gaz, ceux ci peuvent être perturbés sur des orbites très excentriques, « rebondir » d’une planète à l’autre, voire éjectés du système. On pense que c’est un tel processus d’interaction planétésimaux/planètes qui est à l’origine de la structure actuelle du système solaire externe. C’est en particulier ce jeu de billard planétaire qui aurait placé Uranus et Neptune à leur position actuelle à 20 et 30 UA du soleil, alors que ces planètes se sont sans doute formés beaucoup plus près du soleil. Ceci pourrait résoudre les problèmes rencontrés par le scénario de cœur-solide pour former des planètes géantes loin de leur étoile (cf. lien).
Même si, on l’a vu, des pistes existent pour résoudre les problèmes rencontrés par le scénario « cœur solide » pour former Saturne « à temps » ou pour former Uranus et Neptune tout court, certains chercheurs envisagent des solutions plus radicales : abandonner le modèle standard et le remplacer par un scénario alternatif. Ce scénario est celui d’une formation par instabilité gravitationnelle dans le disque protoplanétaire gazeux. Ce disque n’est en effet pas homogène, et, inévitablement, des surdensités (des « grumeaux ») locales peuvent exister. En principe la pression thermique du gaz empêche l’effondrement gravitationnel de ces surdensités, et, de plus, la rotation képlérienne différentielle a tendance à les disperser rapidement. Cependant, si le disque est suffisamment dense et froid, alors ces grumeaux pourraient devenir gravitationnellement instables.
Ce scénario avait tout d’abord été proposé dans les années 70 pour expliquer la formation de toutes les planètes, mais avait rapidement été abandonné pour les planètes telluriques ,car il est très difficile de développer des instabilités dans le disque interne du fait de la forte chaleur et du fort cisaillement képlérien. Dans le disque externe, cependant, les conditions sont plus favorables, car la pression thermique et le cisaillement képlérien y sont moins forts. Des simulations numériques (cf. Image) ont ainsi montré qu’un disque protoplanétaire peut effectivement développer des instabilités locales. L’avantage de la formation par instabilité est qu’elle est en principe extrêmement rapide, de l’ordre de quelques centaines d’années seulement au niveau de l’orbite de Jupiter. Cependant, une grande inconnue subsiste : pour que ces instabilités initiales aillent jusqu’au bout et forment des planètes il faut qu’elles soient capable de se refroidir rapidement à mesure qu’elles se contractent. Or aucune simulation n’a encore prouvé à ce jour que cela était possible. Le scenario par instabilité a cependant connu un très fort regain d’intérêt avec la découverte récente de planètes extrasolaires géantes orbitant très loin, parfois à plus de 100UA, de leur étoile. De telles planètes sont en effet a priori strictement impossibles à former avec le scenario de « cœur solide », alors que le modèle par instabilité devient, lui, plus efficace dans ces régions externes. L’autre alternative étant, bien sur, que ces planètes se soient formées par cœur solide plus à l’intérieur et aient ensuite migrées vers l’extérieur (cf. page précédente).
Le système solaire ne se résume pas, loin s’en faut, aux planètes. Il est également peuplé d’une quantité innombrable de petits corps, la plupart d’entre eux regroupés dans 2 vastes structures. La plus célèbre est sans aucun doute la ceinture d’astéroïdes située entre Mars et Jupiter. On sait aujourd’hui que cette ceinture n’est probablement pas constituée des débris d’une ancienne planète qui aurait été détruite. On a plutôt affaire à une région où une planète n’a jamais pu se former, très probablement en raison des perturbations de Jupiter. Un point très important est que la masse totale de cette ceinture est très faible par rapport à ce à quoi on pourrait s’attendre dans un disque proto-planétaire ayant formé les planètes telluriques et géantes. Si on prend par exemple la nébuleuse solaire de masse minimale (MMSN), alors on estime qu’il devait y avoir initialement 1000 fois plus de matière solide dans la région des astéroïdes qu’il n’y en a aujourd’hui. Le grand défi de tout modèle de formation est donc d’expliquer comment 99.9% de la masse de la ceinture d’astéroïdes a pu disparaître.
Il n’existe aujourd’hui pas encore de consensus sur comment la ceinture s’est formée. Ce qui est sur est qu’il est impossible que les perturbations dynamiques de Jupiter (du moins, du Jupiter actuel) puissent à elles-seules éjecter autant de matière entre 2 et 4UA. Une solution pourrait être que les perturbations de Jupiter aient agi de manière indirecte, en excitant de gros embryons planétaires formés dans la ceinture, et que ces embryons, une fois placés sur des orbites excentriques, aient perturbés et éjectés l’essentiel des astéroïdes primitifs. Un autre scénario, qui a actuellement le vent en poupe, est celui dit du « Grand Tack ». Ce modèle suppose que les 4 planètes géantes se sont formées plus près du Soleil que leurs positions actuelles, et aient ensuite migré dans le disque. Jupiter aurait tout d’abord migré vers l’intérieur jusqu’à 1.5UA du Soleil (migration type II, voir lien) et éjecté l’essentiel de tous les corps présents dans la région astéroïdale actuelle. Mais une fois que Saturne l’a quasiment rejoint, les interactions entre les 2 planètes géantes vont les refaire migrer vers l’extérieur, destin que vont aussi partager Uranus et Neptune. Dans le chaos dynamique qui s’ensuit alors, des planétésimaux issus des régions externes vont être injectés dans la région <4UA (cf. image). La ceinture d’astéroïde est alors au final peuplée d’un mélange de corps provenant de différentes régions du système solaire, mais sa masse totale reste très faible.
Le scénario de formation planétaire présenté aux pages précédentes suppose implicitement que le disque proto-planétaire et les planètes orbitent autour d’une étoile seule et isolée. Cette configuration pourrait a priori nous sembler la plus « naturelle », mais nous sommes ici fortement biaisés par le cas particulier qui est le nôtre : le système solaire. En réalité, la majorité des étoiles se trouvent dans des systèmes stellaires multiples, le plus souvent des binaires. On connaît aujourd’hui près d’une centaine d’exoplanètes habitant de tels systèmes (cf. Figure), et ce chiffre est sans doute sous-estimé, car les programmes de détection de planètes extrasolaires ont longtemps sciemment évité les systèmes binaires. La question qui se pose ici est, bien entendu, de savoir si la binarité influe sur le processus de formation planétaire, et si oui, comment ?
Pour de nombreuses binaires avec exoplanètes, la séparation entre les 2 étoiles est très grande, parfois plusieurs centaines, voire plusieurs milliers d’UA. Il est probable que, dans ce cas, la présence d’un compagnon stellaire ait eu une influence assez limitée sur l’accrétion de planètes autour de chaque étoile. Mais il existe des exoplanètes dans des binaires ayant des séparations de moins de 100UA, et on recense même 4 planètes dans des binaires séparées d’environ 20UA (cf. Figure). Pour mettre les choses en perspective, c’est comme si, dans le système solaire, on remplaçait Uranus par une étoile plus de 1000 fois plus massive ! Il paraît évident que les perturbations d’une étoile si proche vont fortement affecter la formation planétaire. Et c’est ce qu’ont effectivement montré de nombreuses études théoriques au cours de la dernière décennie. Ces études arrivent même à un résultat assez déconcertant, à savoir qu’il semble impossible de former les exoplanètes des binaires Gamma Cephei, HD196885 et HD40004 avec le modèle standard. Comment expliquer alors l’existence paradoxale de telles planètes ? Est ce que la formation planétaire se fait par un processus différent dans les binaires ? Ou bien est ce que c’est le modèle « standard » lui même qui doit être révisé pour expliquer ces cas « extrêmes »? Ou bien, solution moins radicale, est ce que ces binaires serrées étaient beaucoup plus séparées dans leur jeunesse, permettant alors à la formation planétaire de se faire dans un environnement beaucoup moins perturbé ? Ces questions sont encore loin d’être tranchées et les prochaines années devraient nous apprendre beaucoup sur cette problématique encore relativement recente.
Certains noyaux atomiques, appelés radioisotopes, sont naturellement instables et peuvent spontanément se désintégrer en noyaux moins massifs et stables, libérant de l’énergie sous forme de rayonnement. La décroissance du nombre d’un type de radioisotopes en un élément suit une décroissance exponentielle . Où la quantité est le temps de demi-vie caractéristique de l’élément. Dans le cas le plus simple où aucun élément n’est présent initialement le temps t peut être trouvé directement par le rapport . Mais en réalité les choses ne sont jamais aussi simples, et ce pour au moins 2 raisons :
1) Il y a a priori toujours du présent à ou, du moins, il est impossible d’exclure cette présence. Et on ne connait pas a priori cette quantité initiale de
2) l’isotope n’est souvent pas le seul possible pour l’élément , qui peut également exister sous la forme , ce qui peut fortement compliquer les choses. En effet, dans un matériau à l'état gazeux ou liquide, les isotopes et vont naturellement s'équilibrer entre eux à une valeur d'équilibre. En conséquence, dès qu'un matériau fond ou fusionne, toute information sur la quantité d'isotope produite par désintégration de va être perdue par cette mise à l'équilibre isotopique (autrement dit, toute fusion est un "reset" des isotopes de B).
Ceci va rendre la datation plus compliquée, mais elle reste néanmoins possible, du moins pour remonter jusqu'au moment de la dernière condensation du matériau. On peut grosso-modo distinguer 2 types de datation : datation absolue et datation relative.
La désintégration de en a un temps de ½ vie de 4.47 109 ans, idéal pour mesurer l’âge des plus anciens corps du système solaire. Mais n’est pas l’isotope naturel du , qui est . On obtient alors la relation suivante, liant les abondances de , et :
où les indices et se réfèrent aux abondances actuelles et initiales, respectivement. Le moment "initial" correspond à l'instant où l'objet en question s'est solidifié pour la dernière fois. En effet, dès que le corps fond ou se sublime en gaz, les proportions des 2 isotopes et s'équilibrent rapidement à leur proportion "naturelle" et toute information sur la désintégration de est perdue (voir page précédente ). A cet instant initial le rapport est donc égal à la valeur d'équilibre. En revanche, une fois le corps solidifié, un excès de l'isotope va petit à petit se créer à mesure que se désintègre. La variable inconnue est ici la quantité initiale absolue de (ou de ), que l'on ne connaît pas a priori. Heureusement, il existe un deuxième type de désintégration d’U en Pb, la réaction , dont le temps de vie est de 704 106 ans, et qui va nous permettre de contraindre les abondances initiales. Les équations sont alors:
Et donc:
où 137.88 est la valeur présente de , qui est une constante globale du système solaire actuel, et , . Cette relation est directement exploitable pour toute météorite non-homogène initialement, mais dont tous les composants se sont formés à la même époque. En effet, dans ce cas, les rapports initiaux et / sont les mêmes partout dans la météorite et sont égaux à leurs valeurs d'équilibre (indiquées par a0 et b0 sur la figure). Par conséquent, dans un graphe vs. / , toutes les mesures du rapport F doivent se situer une même droite, appelée isochrone, dont la pente va directement donner l’âge de la météorite (cf. Figure).
La désintégration radioactive permet également de dater des corps même bien après la disparition des radionucléotides concernés (c'est à dire bien au delà du temps de 1/2-vie de la désintégration concernée). C’est le cas par exemple de la désintégration , dont le temps de ½ vie est de « seulement » 720 000ans. Notons que ni , ni ne sont des isotopes naturels de leurs éléments, qui sont, respectivement, et . A la différence de la désintégration d’, il n’existe aujourd’hui plus de que l’on puisse mesurer. En principe, on a donc :
Cette équation n’est pas d’une grande aide en elle-même, mais, comme pour la datation absolue, on peut tirer parti de la non-homogénéité d’une météorite donnée. Si en effet deux endroits de cette météorite avaient initialement des teneurs totales en (tous isotopes confondus) différentes, mais que la proportion de était, elle, la même, alors l’excès de ne sera aujourd’hui pas partout le même, et cet excès sera relié à l’abondance actuelle locale de par la relation :
Les mesures de et en différents endroits de la météorite vont alors tracer une isochrone dont la pente donnera la teneur initiale en (voir Figure).
Maintenant, si on compare les teneurs initiales de obtenus pour différentes météorites, on peut obtenir une datation relative des temps de formation de ces météorites. En effet, étant donné le temps de vie très court de , sa teneur par rapport à pourra être très différente suivant l’instant où la météorite s’est formée. Si on compare les valeurs dans 2 météorites différentes, on obtient ainsi la datation relative de leur formation par la formule:
où et sont les instants de formation des 2 météorites, et est le taux de désintégration de la réaction
Il faut cependant ici bien faire attention à deux points très importants :
Comme nous l’avons vu (cf. lien), une des étapes les plus délicates du scénario standard de formation planétaire est celle qui fait passer des premières poussières condensées dans la nébuleuse aux planétésimaux kilométriques. La principale difficulté étant atteinte pour des corps de ∼10cm-1m, pour lesquels les vitesses de collision deviennent trop élevées pour permettre l’accrétion, et qui vont de plus avoir un mouvement de dérive très rapide vers l’étoile centrale. Ces deux problèmes sont tous deux liés à l’action du gaz sur les corps solides. En effet, toute particule solide plongée dans un milieu gazeux subit la friction de ce gaz, qui va être proportionnelle à la surface de contact entre le gaz et l’objet. Cette friction peut ainsi s’exprimer sous la forme
Où est la section efficace du corps () et la différence de vitesse entre le gaz et la particule. Si maintenant on applique le principe fondamental de la dynamique, on obtient que l’accélération due au gaz vaut:
On pourrait a priori se dire que, dans le cas présent, est nul car aussi bien le gaz que les corps solides orbitent autour de l’étoile suivant les mêmes lois de Kepler, et donc en principe à la même vitesse orbitale . Mais il y a en fait une différence, car le gaz est lui, en plus, soumis à une force de pression due au gradient de température et de densité dans la nébuleuse. Dans un disque proto-planétaire de type MMSN, cette force de pression s’exerce de l’intérieur vers l’extérieur et tend donc à contrebalancer la gravitation de l’étoile. Tout se passe donc comme si le gaz « percevait » une étoile de masse et aura donc une vitesse Képlérienne inférieure au d’un corps solide orbitant dans la vide. On dit alors que le disque de gaz est « sub-Képlérien ».
Le comportement de corps solides plongés dans ce disque de gaz est alors compris entre 2 extrêmes : les particules les plus petites (<mm) sont piégées dans le gaz et bougent avec lui, et on a dans ce cas et donc . A l’autre extrême, les planétésimaux très massifs sont, eux, découplés du gaz et subissent de la friction, mais ne vont pas beaucoup en pâtir car le rapport est tout petit et ils vont donc être très difficile à bouger par le gaz. Donc la aussi . Entre ces 2 extrêmes, il existe un régime intermédiaire avec des corps suffisamment gros pour être découplés du gaz ( ) mais pas suffisamment massifs pour être insensibles à la friction. Ce régime de taille intermédiaire se situe autour de 10cm-1m. Pour des corps de cette taille l’effet de la friction gazeuse est maximal (cf. image). Et comme , cette friction aura tendance à ralentir les corps solides et à les faire dériver vers l’étoile. Cette vitesse de dérive peut atteindre plus de 50m/s, ce qui correspond à 1UA en moins de 100ans !
Une population de planétésimaux orbitant le soleil ne pourra former des corps plus massifs que si les vitesses de rencontres mutuelles sont, pour une fraction importante de ces rencontres, inférieures à ; où est la vitesse de libération à la surface de 2 planétésimaux en collision et un paramètre prenant en compte la dispersion d’énergie lors de l’impact. Toute la question est alors de savoir si, effectivement, ce critère va être rempli dans un disque de planétésimaux kilométriques laissé à lui même.
L’état dynamique d’un tel disque va dépendre de l’équilibre entre plusieurs mécanismes: la gravité mutuelle des planétésimaux, la force de friction du gaz primordial toujours présent à ce stade, la dissipation d’énergie lors des collisions physiques, et, bien sur, la gravité de l’étoile autour de laquelle tous les corps orbitent. Si on fait l’hypothèse simplificatrice que tous les planétésimaux ont la même taille , alors on peut montrer que le disque va tendre vers un état stationnaire où les vitesses de rencontres vont en moyenne être de l’ordre de . Si en effet , alors les déflections gravitationnelles lors de rencontres proches vont automatiquement augmenter . Et si, à l’inverse, , alors la dissipation d’énergie cinétique lors des collisions va être très forte et fera diminuer . Cet équilibre autour de est plutôt une bonne nouvelle, car il entraine qu’une fraction des collisions vont effectivement permettre l’accrétion des corps (sachant qu’il y aura toujours une dispersion des vitesses de collision autour leur valeur moyenne).
Sachant que tous ces corps sont en orbite autour d’une étoile, par exemple le Soleil, les vitesses relatives de collisions vont être directement liées à l’excentricité (et à leur inclinaison si on est en 3D) de leurs orbites : plus les orbites sont excentriques, plus augmente, plus elles sont circulaires, plus tend vers zero. Pour de petites excentricités, à l’ordre zero on peut écrire que
Il faut réaliser que, pour des planétésimaux kilométriques, on a affaire à des vitesses très faibles, car les de tels corps sont de l’ordre de quelques mètres par seconde seulement. Ceci se traduit par des excentricités orbitales très faibles, de l’ordre de 0.0001 ! (cf. exercice).
Si tous les planétésimaux du disque avaient exactement la même taille r et grandissaient tous à la même vitesse, alors leur taux de croissance serait égal à où est la densité surfacique de planétésimaux, leur vitesse relative de collision et l’épaisseur du disque. Si on fait l’approximation raisonnable que (cf. page précédente) et que (, distance à l’étoile et excentricité moyenne de l’orbite des planétésimaux), alors on obtient avec , vitesse angulaire Keplerienne. On trouve alors que , et que la croissance en taille est linéaire avec le temps. Pour une MMSN à 1UA on trouve qu’il faut alors quelques 106 ans pour former un corps de 1000km (cf. EXERCICE)
Mais il semble qu’en réalité l’accrétion suive un chemin beaucoup plus rapide et efficace, mais très sélectif, appelé accrétion « boule de neige ». Il est en effet plus que probable que, dans tout disque réel, toutes les tailles ne sont pas identiques et que, localement, certains planétésimaux soient, par hasard, légèrement plus grands (de taille ) que ceux qui les entourent. De ce fait, ils ont une vitesse de libération supérieure à celle des corps environnants. En conséquence, ils vont légèrement infléchir la trajectoire des autres corps vers eux. On peut paramétriser cette déflection en considérant que le corps a une section efficace « effective » plus grande que sa simple section efficace géométrique . On a alors
Où est appelé le terme de « focalisation gravitationnelle ». Du fait de cette surface efficace« dilatée », le corps va croître plus vite que les autres. Le rapport va donc augmenter, ce qui a pour effet d’encore augmenter la focalisation gravitationnelle, et donc le taux de croissance de , et ainsi de suite. La croissance de ce corps initialement légèrement privilégié va donc rapidement s’emballer.
L’un des moyens les plus efficaces pour disperser le disque de gaz en moins de 10 millions d’années (voir la page de cours) est le couplage entre (l'accrétion visqueuse du disque) et la photo-évaporation du gaz. Ce dernier mécanisme est la conséquence de l’effet du rayonnement ultra-violet (UV) de l’étoile sur les molécules de gaz, essentiellement et . L’interaction des photons UV va en effet chauffer le gaz, c’est à dire lui donner une plus grande agitation thermique, et si cette vitesse d’agitation thermique dépasse la vitesse Képlerienne locale, alors le gaz est éjecté. Comme est mais que l’énergie transportée par un photon UV ne diminue pas avec la distance à l’étoile, ce sont les molécules des régions extérieures qui seront le plus facilement éjectées lors d’interaction photon-gaz (mais le flux de photon, et donc le taux d’interaction avec le gaz, va, lui, diminuer avec ). On peut ainsi calculer qu’il existe un rayon critique, appelée , au delà duquel l’énergie déposée par photo-évaporation dépasse l’énergie orbitale :
Où est la température du gaz par suite de l’interaction avec un photon, est le poids atomique moyen du gaz, la constante de Boltzman, le ratio des chaleurs spécifiques (5/3 pour un gaz mono-atomique), la constante gravitationnelle et la masse de l’étoile. Dans les faits, à cause de la rotation du gaz, le rayon critique de dispersion est plutôt égal à . Pour un rayonnement UV typique, on a . Pour une étoile de type solaire et un disque de type MMSN , on obtient alors .
Cependant, tant que le disque est très dense, à la distance le flux de matière vers l’intérieur du disque dû à la viscosité est supérieur au flux de matière éjecté par photo-évaporation (cf. IMAGE, CASE 1). Mais à mesure que la masse du disque diminue par accrétion sur l’étoile, va décroître, jusqu’à ce qu’on atteigne le point où . A partir de ce moment, la matière gazeuse au-delà de est éjectée du système avant de pouvoir franchir la frontière pour se mettre « à l’abri ». Une ouverture est alors créée dans le disque, qui se retrouve coupé en deux. La partie interne du disque est protégée de la photo-évaporation, mais est tellement petite (<2UA) qu’elle va très rapidement être accrétée sur l’étoile (alors qu’auparavant le flux de matière spirallant sur l’étoile était compensé par de la matière venant de plus loin dans le disque). La partie externe du disque va elle se disperser progressivement de l’intérieur () vers l’extérieur. Les modèles numériques indiquent que la troncature du disque se fait au niveau de sur une échelle de quelques millions d’années, tandis que la dispersion qui s’en suit est beaucoup plus rapide, quelques 105 ans peut-être.
Difficulté : ☆
La MMSN est une entité théorique qui permet d’avoir une idée de la structure initiale du disque proto-planétaire qui a formé les planètes du système solaire, en faisant l’hypothèse que celles-ci se sont, en gros, formées à leur emplacement actuel (cf. cours).
A partir de la masse et de la composition actuelle des 8 planètes du système solaire, donner une estimation de la distribution radiale de la matière solide (roches+ glaces) dans la MMSN. Pour cela on peut supposer que la masse solide de toutes les planètes était initialement repartie dans un disque continu s’étendant de l’orbite de Mercure à celle de Neptune. L'information que l'on cherche est alors quelle est la densité surfacique ∑de matière (par exemple en kg/m2) dans ce disque en fonction de la distance radiale r au soleil. Il peut ensuite être intéressant de tracer un graphe représentant ∑(r).
Attention: si pour les planètes telluriques la masse solide de ces planètes peut-être considérée comme étant égale à leur masse totale, il n'en va pas de même pour les planètes géantes (qui contiennent également beaucoup de gaz). La masse totale de matière solide (roche+glaces) contenue dans les planètes géantes n'est pas connue avec une grande précision, mais on pourra prendre les fourchettes suivantes:
Jupiter: entre 10 et 45 MTerre de matière solide
Saturne: entre 20 et 30MTerre de matière solide
Uranus: entre 9 et 13 MTerre de matière solide
Jupiter: entre 12 et 16 MTerre de matière solide
Donner la vitesse de libération vlib à la surface d’un planétésimal de taille R et de densité ρ, en supposant, pour simplifier, que celui-ci a une forme sphérique.
Application numérique : donner vlib pour un corps de 1km, pour un corps de 100km, pour la Terre, et pour Jupiter.
Comme nous l’avons vu (cf. lien1 et lien2 ), l’étape intermédiaire dans le scénario de formation planétaire est celle qui fait passer de planétésimaux kilométriques à des « embryons » planétaires de 500-1000km. Lors de cette étape, le processus fondamental est l’attraction gravitationelle mutuelle des planétésimaux lors de leurs rencontres. Dans sa version initiale, le modèle d’accrétion des planétésimaux supposait que ceux-ci croissent de manière « ordonnée », c’est à dire tous ensemble et à la même vitesse. Même si on sait qu’aujourd’hui ce scénario ne correspond pas à la réalité (l’accrétion se faisant par effet « boule de neige » bien plus rapide), il est quand même intéressant d’avoir une idée du rythme de croissance pour cette croissance « ordonnée ».
Pouvez vous ainsi estimer le temps qu’il faut pour former des corps de 1000km à partir d’une population de corps de 1km ? On supposera que :
Difficulté : ☆☆☆
La météorite dite « Allende », tombée en 1969 au Mexique, est probablement la météorite la plus étudiée de toute l’histoire. Elle est le représentant archétypal des chondrites carbonées, qui sont parmi les corps les plus primitifs du système solaire (cf. lien). Elle a de ce fait fortement contribué à faire connaître l’âge de notre système solaire à une très grande précision. La méthode utilisée pour cette datation se base sur la désintégration U-Pb et sur la mesure des abondances relatives des différents isotopes du plomb.
La Figure présente les différentes mesures isotopiques effectuées en différents endroits de la météorite. En vous basant sur ce graphe, essayez d’estimer l’âge « d’Allende » en utilisant les formules présentées au chapitre «Comprendre ». Attention: Les fractions isotopiques reportées sur le graphe ne sont pas forcément celles de la formule présentée dans le cours.
Les phases d’accrétion boule-de-neige puis oligarchique produisent in fine un seul corps dominant (un « embryon ») à chaque distance radiale de l’étoile centrale (cf. cours « Accretion boule de neige », « Oligarchique » et « épuisement des ressources »). Un tel corps grossit en accrétant des petits planétésimaux et débris contenus dans sa « zone d’alimentation », c’est à dire un anneau radial à l’intérieur duquel tout corps aura une orbite croisant celle du corps dominant en raison de la focalisation gravitationnelle vers celui-ci (cf. lien). Pour un corps massif, la largeur de cette zone d’alimentation est environ égale à de chaque côté de l'orbite de la planète, où est le rayon de Hill correspondant à la « sphère d’influence » gravitationnelle du corps.
A) Montrer que la croissance par accrétion sur l’embryon va forcément finir par s’arrêter, car l’élargissement de la zone d’alimentation est plus lent que la croissance de l’embryon.
B) Estimer, pour une MMSN à 1UA du soleil, quelle est approximativement la masse atteinte par un embryon au moment où sa zone d’alimentation est vidée.
Dans cette partie, nous verrons les caractéristiques essentielles des petits corps du Système Solaire principalement les astéroïdes, les objets transneptuniens et les comètes.
La partie Décrire présente ces caractéristiques de façon aussi simple que possible et peut être lue avec des connaissances de niveau de terminale scientifique. En revanche, la partie Comprendre a pour objectif de démontrer quelques uns des résultats présentés précédemment et requiert un bagage en physique générale d’un niveau de licence.
En 2006, l’Union astronomique internationale (UAI) a défini les petits corps du système solaire comme étant tous les objets orbitant autour du Soleil qui ne sont ni une planète, ni une planète naine, ni un satellite. Les petits corps sont donc définis par opposition aux autres objets du système solaire. En pratique, les petits corps du système solaire sont les objets orbitant autour du Soleil mais n’ayant pas une masse suffisante pour avoir une forme presque sphérique et qui n’ont pas fait place nette dans leur voisinage.
La résolution de l'UAI définissant les différents objets du système solaire peut être trouvée ici.
L’usage distingue différents types de petits corps et en particulier, les astéroïdes, les objets de Kuiper et les comètes. Néanmoins, l’UAI n’a pas défini ces différentes appellations. Nous appellerons « astéroïdes » les petits corps dont l’ensemble de l’orbite est contenue à l’intérieur de celle de Neptune et « objets de Kuiper » ceux dont au moins une partie de l’orbite est située au-delà de celle de Neptune. D’autre part, nous définirons par « comète » les petits corps qui présentent une activité, c’est-à-dire l’émission de gaz et de poussières, sur une partie de leur orbite.
La majorité des astéroïdes est située entre Mars et Jupiter. Cet ensemble forme la ceinture principale d’astéroïdes. Néanmoins, l’orbite de certains astéroïdes peut croiser celle de la Terre, ceux-ci sont parfois appelés les géo-croiseurs. D'autres astéroïdes, appelés les troyens, circulent sur les mêmes orbites que les planètes et ceux dont des orbites sont comprises entre celles des planètes géantes sont appélés centaures. Les objets de Kuiper sont quant à eux majoritairement situés entre 30 et 50 unités astronomiques et forment la ceinture de Kuiper. Les comètes peuvent provenir d'au moins deux réservoirs : la ceinture de Kuiper et le nuage de Oort qui pourrait s'étendre jusqu'à 100 000 unités astronomiques du Soleil.
D’autre part, les poussières micrométriques gravitant sur le plan de l’écliptique et formant la lumière zodiacale peuvent aussi être considérées comme des petits corps même si leurs dimensions sont extrêmement faibles.
Le premier astéroïde a été découvert par Giuseppe Piazzi dans la nuit du 1er janvier 1801. Il s’agit de Cérès. Les calculs orbitaux montrèrent rapidement que ce nouvel objet se situait entre les planètes Mars et Jupiter. Entre 1802 et 1807, trois autres astéroïdes : Pallas, Junon et Vesta furent découverts sur des orbites très similaires. La recherche des petits corps du système solaire ne présentant pas d’activité cométaire, commença donc au début du 19ème siècle.
L’étude des astéroïdes présente un intérêt notable car elle permet de mieux comprendre les origines et la formation du système solaire dans son ensemble (voir notamment la page sur la composition des astéroïdes).
Afin de pouvoir connaître le plus grand nombre possible d'astéroïdes, des programmes de recherche automatique d’astéroïdes ont été conçus. Il s’agit de caméras CCD couplées à des télescopes dont les images prises à intervalles réguliers sont comparées automatiquement. Ces programmes permettent de découvrir de nombreux astéroïdes tous les mois. La page d’accueil du Minor Planet Center (http://minorplanetcenter.net/) donnant le nombre de découvertes lors du mois et de l’année en cours est particulièrement éloquente.
Dès qu’un nouveau petit corps est observé, il reçoit une désignation provisoire codant la date de la 1ère observation. Une fois que l’orbite d’un petit corps est clairement établie chaque corps reçoit un numéro permanent. Au 10 Févier 2015, 680 035 petits corps avaient été observés dont 427 393 ont une orbite bien définie (http://www.minorplanetcenter.net/mpc/summary).
La majorité des astéroïdes est située entre Mars et Jupiter et plus précisément entre 2.1 et 3.3 unités astronomiques du Soleil. D’autre part, l’inclinaison des orbites des astéroïdes et généralement très faible, inférieure à 4°, les astéroïdes gravitent donc autour du Soleil dans une zone proche du plan de l’écliptique. La distribution des astéroïdes en fonction du demi-grand axe de leurs orbites présente des discontinuités appelées « lacunes de Kirkwood » qui sont des zones de la ceinture d’astéroïdes peu peuplée. En effet, l’orbite des astéroïdes présents dans ces zones n’est pas stable sur de longues périodes à cause des effets de résonances orbitales avec Jupiter.
Sur la figure ci-contre, on remarquera une faible population d’astéroïdes dont le demi-grand axe est compris entre 0.8 et 1.8 unités astronomiques. Parmi ceux-ci, certains peuvent avoir une orbite croisant celle de la Terre, il s’agit des astéroïdes géo-croiseurs qui sont aussi appelés NEO (Near Earth Objects). Les astéroïdes ayant un demi-grand axe de 5.2 unités astronomiques ont une orbite stable et identique à celle de Jupiter et ils se répartissent aux alentours de certains points de Lagrange de Jupiter qui correspondent à des zones de stabilité https://media4.obspm.fr/public/FSU/pages_points-lagrange/impression.html.
Les astéroïdes ont des tailles extrêmement variables. Le plus gros et le plus massif, Cérès, présente un diamètre équatorial de 975 km. D’autre part, Cérès ayant une forme proche de la sphère il est aujourd’hui considéré comme une planète naine. Les grands astéroïdes, du type de Cérès, sont les plus rares, néanmoins ils représentent une fraction notable de la masse contenue dans la ceinture principale. Ainsi, avec une masse de 9.5 × 1020 kg, Cérès représente à lui seul environ un tiers de la masse totale de la ceinture principale. Mais, d’une manière générale, le nombre d’astéroïdes croît lorsque leur taille diminue. Aussi, la très grande majorité des astéroïdes ont des dimensions beaucoup plus petites et peuvent avoir des formes très éloignées d’une sphère. C’est en particulier les cas de l’astéroïde Eros qui a été survolé en 2000 par la sonde spatiale NEAR (Near Earth Asteroid Rendezvous) et qui possède une forme très allongée. Globalement, la distribution en taille des astéroïdes semble suivre une loi en puissance avec une surabondance d’astéroïdes présentant des diamètres d’environ 100 km et 5 km. Cette distribution fournit une contrainte forte sur les modèles concernant l’histoire collisionnelle de la ceinture principale d’astéroïdes.
Les observations spectroscopiques permettent de distinguer de nombreuses classes classes d’astéroïdes. Les 3 principales classes sont les astéroïdes de type C (Carbonés), de type S (Silicatés) et de type M (Métalliques). Les astéroïdes carbonés sont les plus nombreux et représentent 75% des astéroïdes observés. La distribution de ces différents types d’astéroïdes en fonction de la distance au Soleil est différente et est représentée sur la partie basse de la figure ci-contre. En effet, les astéroïdes carbonés sont majoritairement présents dans les zones externes de la ceinture d’astéroïdes alors que les astéroïdes de type S et M se concentrent dans les zones plus internes (voir figure ci-contre). Ces différentes distributions spatiales reflètent à la fois les processus liés à la formation de ces différents petits corps et l'évolution dynamique de la ceinture d'astéroïdes qui a pu conduire au mélange partiel des différentes populations d'astéroïdes.
Néanmoins, il faut aussi garder à l’esprit qu’une grande partie de notre connaissance sur la composition des astéroïdes provient de l’étude des météorites. En effet, la très grande majorité des météorités récoltées sur Terre provient de la ceinture d'astéroïdes. L'étude en laboratoire des météorites permet en particulier de préciser l'abondance des différents métaux (principalement du fer et du nickel), la nature des minéraux ainsi que d'obtenir des informations structuales sur la phase organique complexe et l'identification chimique des certains molécules simples. D’autre part, à quelques exceptions près, les astéroïdes ne contiennent pas de glace et ne présentent donc pas d’activité cométaire.
Les premières sondes spatiales lancées dans les années 1970 et 1980 n’ont pas survolé d’astéroïdes. Le premier survol d’un astéroïde, 951 Gaspra, a été effectué le 29 Octobre 1991 par la sonde Galileo. Depuis, de nombreux astéroïdes ont été survolés par des sondes spatiales. Les images acquises par les télescopes situés à la surface de la Terre ou en orbite autour de la Terre ne révèlent que très peu de détails dela surface des astéroïdes même sur Cérès qui est pourtant l’astéroïde le plus grand. Les survols d’astéroïdes par des sondes spatiales sont donc importants pour révéler des détails de la surface des astéroïdes, mais aussi leur forme précise ainsi que d’autres paramètres physico-chimiques comme la composition et la minéralogie de la surface ou la distribution massique interne.
Les principales missions d’études des astéroïdes sont NEAR (Near Earth Asteroid Rendezvous) qui s’est placée en orbite autour de l’astéroïde Eros en 2000 et Hayabusa qui malgré quelques difficultés techniques a pu prélever, puis ramener sur Terre, quelques poussières à la surface de l’astéroïde Itokawa. D’autre part, la mission DAWN s’est placée en orbite autour de l’astéroïde Vesta en 2011 puis en orbite autour de Cérès à partir du 6 mars 2015.
On désigne par objet trans-neptunien tout objet du système solaire dont l’orbite est entièrement ou en majeure partie située au-delà de celle de Neptune. Le premier objet trans-neptunien connu est Pluton qui a été découvert en 1930. Il fut considéré comme la 9ème planète du système solaire, avant d’être classifiée comme planète naine en 2006. L’existence de nombreux objets au-delà de Neptune avait été postulée par K.E. Edgeworth en 1949 puis par G.P Kuiper en 1951. Jusqu’en 1992, Pluton et son plus gros satellite Charon étaient les seuls objets trans-neptuniens connus. La découverte d’un nouvel objet de Kuiper en 1992 marque le début d’une recherche systématique des objets trans-neptuniens. Début 2015, plus de 1300 objets trans-neptuniens avaient été détectés (http://www.minorplanetcenter.net/iau/lists/t_tnos.html). Les orbites de ces objets correspondent à plusieurs groupes dynamiques. Nous verrons dans la partie suivante qu'on distingue en particulier les objets appartenant à la ceinture de Kuiper de ceux appartenant au disque épars.
Environ la moitié des objets trans-neptuniens présente des orbites au-delà de Neptune ayant des faibles excentricités (e < 0.2) et des demi-grand axes généralement compris entre 37 and 48 unités astronomiques. Ces objets trans-neptuniens sont appelés les objets de Kuiper classiques et forment la ceinture de Kuiper. Cette ceinture a une structure similaire à la ceinture principale d’astéroïdes et est structurée par des résonances avec l’orbite de Neptune. Ainsi de nombreux objets de Kuiper, dont Pluton, sont en résonance 2:3 avec Neptune.
D’autre part, un nombre croissant d’objets trans-neptuniens présentent des orbites de forte excentricité (e > 0.2), des périhélies au-delà de l’orbite de Neptune et des demi-grand axes supérieurs à 48 unités astronomiques. Ces objets font partie du disque épars. L’objet le plus massif de ce disque épars est Eris. On peut noter que l’orbite de Sedna avec un périhélie de 76 UA et un aphélie d’environ 900 UA est tout à fait exceptionnelle. Aussi Sedna peut être considéré comme un objet du nuage de Oort interne. La strcuture du nuage est discuté dans la partie traitant de l'orbite des comètes.
Les objets se trouvant aujourd'hui dans la ceinture de Kuiper et le nuage de Oort se sont très vraisemblablement formés dans la zone actuelle des planètes géantes. Ils ont ensuite été repoussé à des distance héliocentriques plus élevés suite aux interactions gravitationnelles avec les planètes géantes.
Les objets trans-neptuniens étant éloignés et de faible luminosité, il n’est pas aisé d’en déduire leurs caractéristiques physiques comme la taille ou la masse. Néanmoins, certains objets trans-neptuniens possèdent un ou plusieurs satellites. C’est, par exemple, le cas d'Eris qui possède un satellite, Dysnomie, et de Pluton autour duquel gravitent au moins 5 satellites. Si la période de révolution et le rayon de l’orbite des satellites sont mesurés, alors la masse du système peut être calculée grâce à la troisième loi de Kepler. Ainsi les masses d'Eris et de Pluton sont de 1.67 × 1022 kg et de 1.31 × 1022 kg. On remarquera que Eris est légèrement plus massif que Pluton.
Comme pour la masse, la mesure des diamètres des objets trans-neptuniens peut être délicate. Pour des objets dont l’orbite est bien connue, la méthode la plus précise pour mesurer la taille est l’occultation stellaire. Lors d’une occultation stellaire, l’objet étudié passe devant l’étoile et projette une ombre à la surface de la Terre. La mesure de la durée de l’occultation en différents points à la surface de la Terre permet alors de calculer le diamètre de l’objet occultant de manière relativement précise. Les rayons de Pluton et d'Eris sont actuellement estimés à 1153 ± 10 km et 1163 ± 6 km.
Connaissant la taille et la masse, la densité moyenne de ces objets est immédiatement déduite. La valeur de la densité moyenne renseigne sur la composition globale de ces objets. La densité volumique d'Eris étant d’environ 2.5 g.cm-3, celui-ci doit être composé majoritairement de roches. D’autre part, connaissant la taille et la magnitude, l’albédo peut aussi être estimé rapidement. Ainsi Eris possède un albédo de 0.96, ce qui fait d'Eris un des objets les plus réfléchissants du système solaire et qui indique la présence possible de glaces à la surface.
On notera que les occultations stellaires peuvent aussi révéler la présence d’atmosphère. Ainsi, Pluton est entouré d’une faible atmosphère dont la pression à la surface est estimée entre 6 et 24 microbars.
Malgré l’éloignement et la forte magnitude des objets trans-neptuniens, des observations photométriques et spectroscopiques dans le visible et le proche infrarouge permettent de contraindre la nature chimique des surfaces des objets de Kuiper. Sans surprise, l’objet dont la nature chimique de la surface est la mieux connue est le plus brillant, c’est-à-dire Pluton. En effet, les observations spectroscopiques dans le proche infrarouge ont montré que le composé principal est l’azote moléculaire (N2) avec des quantités plus faibles de méthane (CH4) et de monoxyde de carbone (CO). Dans le cas de Pluton, les observations actuelles permettent aussi de mettre en évidence des hétérogénéités à la surface. Le méthane a été détecté sur d’autres objets trans-neptuniens de grande taille, néanmoins l’azote et le monoxyde de carbone n’ont été détecté que sur Pluton (et Triton, le satellite principal de Neptune). En effet, même si le méthane n’est pas le composé le plus abondant, c'est le plus facile à détecter dans le proche infrarouge grâce à ces bandes d’absorption intenses. On notera que ces composés, l’azote, le méthane et le monoxyde de carbone, sont extrêmement volatiles et ne peuvent être présents en phase solide que sur des objets à la fois suffisamment froids pour les condenser et suffisamment massifs pour éviter l’échappement gravitationnel.
Néanmoins, tous les objets trans-neptuniens n’ont pas la même composition de surface. En effet, de la glace d’eau ainsi que des hydrates d’ammoniac ont été détectés à la surface de certains d’entre eux.
A ce jour (Mai 2015), aucun objet trans-neptunien n’a été survolé par une sonde spatiale. Néanmoins, la sonde spatiale New Horizons lancée le 19 janvier 2006 doit survoler Pluton le 14 Juillet 2015 à une distance d’environ 10 000 km. Il s’agira donc du 1er survol d’un objet trans-neptunien par une sonde spatiale. Après le survol de Pluton, la sonde New Horizons continuera sa trajectoire dans la ceinture de Kuiper et devrait encore survoler un ou deux autres objets. Néanmoins, cette phase de la mission et les objets à survoler ne sont pas encore définis.
Les comètes sont parfois visibles à l'œil nu, aussi sont-elles connues depuis l'Antiquité et ont parfois été représentées sur certaines œuvres d'art anciennes. Dans la croyance populaire, l'apparition d'une comète était associée à un bon ou à un mauvais présage suivant les cas. D'après Aristote, les comètes étaient un phénomène atmosphérique. La nature extraterrestre des comètes ne sera démontrée qu'en 1577 par Tycho Brahé qui effectua des mesures de parallaxes montrant que les comètes pouvaient être plus lointaines que la Lune. Certaines comètes ont eu une importance historique. En particulier, le retour de la comète 1P/Halley en 1758 avait été prédit par Edmond Halley. Cette prédiction permit alors de démontrer la théorie de la gravitation newtonienne. D'autre part, la comète 1P/Halley a été également la première comète survolée par des sondes spatiales en 1986.
Certaines comètes ont une orbite très elliptique, leur distance au Soleil peut varier de manière très significative au cours de l’orbite. Aussi lorsqu’elles se rapprochent, elles développent une activité : leur noyau est alors entouré d’une atmosphère constituée de gaz et de poussières. Bien que de faible densité, cette atmosphère peut être très étendue et brillante. C’est cette activité qui distingue les comètes des autres petits corps du système solaire.
De nos jours plus de 3800 comètes ont été observées (http://www.minorplanetcenter.net/). Durant les dernières décennies les comètes les plus remarquables ont été C/1996 B2 Hyakutake, C/1995 O1 Hale-Bopp, C/2006 P1 McNaught. D'autre part, depuis 1P/Halley, 6 autres comètes ont été survolées par des sondes spatiales : 26P/Grigg-Skjellerup, 19P/Borelly, 9P/Tempel, 81P/Wild 2, 103P/Hartley 2 et 67P/Churyumov-Gerasimenko qui est accompagnée par la sonde Rosetta depuis août 2014.
Les comètes ont généralement des orbites très excentriques. Leur distance au Soleil varie donc de manière très significative durant leur orbite. Elles sont généralement classifiées en fonction de leur période de révolution : les comètes ayant une période inférieure à 200 ans sont appelées comètes à courtes périodes alors que celles ayant une période supérieure à 200 ans sont appelées comètes à longue période. L’inclinaison des orbites des comètes à courtes périodes est généralement proche du plan de l’écliptique alors que les comètes à longues périodes ont une inclinaison aléatoire. Il est possible que les comètes à longues périodes puissent évoluer en comètes à courtes périodes suite à des interactions gravitationnelles avec les planètes géantes. On distingue aussi la famille des comètes de Jupiter qui possédent des périodes orbitales inférieures à 20 ans. Ces comètes sont ainsi nommées car leurs orbites sont déterminées par influence gravitationnelle de Jupiter. De plus, étant qu'elles ont des inclinaisons faibles et un sens de révolution autour du Soleil identique à celui des planètes, ces comètes trouvent très vraisemblablement leur origine dans le cainture de Kuiper.
Les comètes dont les orbites présentent de très longues périodes et des inclinaisons aléatoires proviendraient d’un réservoir appelé « nuage de Oort ». Celui-ci se situerait entre 50 000 et 100 000 unités astronomiques et aurait la forme d'une coquille sphérique entourant l'ensemble du système solaire. Il faut noter qu'aucun corps n'a jamais été observé à de telles distances du Soleil ; aussi l'existence du nuage de Oort n’est déduite que des observations des comètes à longues périodes. La densité de matière étant très faible à de telles distances du Soleil, les comètes du nuage de Oort ne se sont pas formées in-situ. Elles se seraient agrégées dans la zone des planètes géantes et en auraient été éjectées suite à des interactions gravitationnelles.
Les comètes dont les orbites présentent des périodes inférieures à 200 ans et des inclinaisons proches du plan de l’écliptique proviendraient quant à elles du nuage de Kuiper.
L’activité cométaire, c’est-à-dire le développement d’une faible atmosphère entourant le noyau solide est la caractéristique qui distingue les comètes des autres petits corps du système solaire. Le développement de cette faible atmosphère est dû à la sublimation des glaces contenues dans le noyau. Cette sublimation est induite par le réchauffement du noyau lorque celui-ci se rapproche du Soleil. Aussi lorsque les comètes sont situées à quelques unités astronomiques du Soleil, différentes grandes structures sont observables :
Ces différentes structures, ainsi que la petite taille et le faible albédo des noyaux cométaires, rendent très difficile l’observation directe de ces noyaux cométaires depuis le sol ou l’orbite terrestre. Aussi notre connaissance sur la composition des noyaux cométaires provient majoritairement de l’étude de leurs atmosphères.
La composition des comètes peut être déterminée par des observations depuis le sol et l’orbite terrestre dans tous les domaines de longueur d’onde. Ces observations ont permis de détecter dans la coma plus de 20 molécules gazeuses. L’eau est la molécule gazeuse la plus abondante ; le dioxyde de carbone (CO2) et le monoxyde de carbone (CO) présentent de fortes abondances de l’ordre de 10%. Ces molécules gazeuses présentent une grande diversité chimique et certaines sont relativement complexes comme le cyano-acétylène (HC3N) ou l’éthylène glycol (HO-CH2-CH2-OH). D’autre part, la nature de certains minéraux peut aussi être déterminée par des observations à distance. Ainsi les grains cométaires sont majoritairement constitués de silicates. Néanmoins, ces grains contiennent aussi une matière organique réfractaire. Cette composante organique présente en phase solide dans les grains cométaires est très difficile à observer depuis la Terre et n’a été mise en évidence de manière directe que par des mesures in-situ.
Notre connaissance sur la composition des noyaux cométaires provient donc majoritairement de l’étude de leurs atmosphères. Les observations de l’environnement cométaire permettent de déduire que les noyaux cométaires sont constitués d’un mélange de minéraux, de composés organiques réfractaires et de glaces de composés volatils.
Il faut noter qu’une partie des poussières extra-terrestres collectées dans la haute atmosphère terrestre ou au sol ont très vraisemblablement une origine cométaire. D’autre part, la sonde spatiale Stardust a collecté des grains dans l’environnement de la comète 81P/Wild2 puis les a ramenés sur Terre en janvier 2006. Ces échantillons disponibles au laboratoire permettent de déterminer de manière relativement précise la composition minéralogique des comètes.
La comète de 1P/Halley est la première à avoir été survolée par une sonde spatiale en 1986. A cette occasion, 5 sondes spatiales ont approché la comète 1P/Halley : Sakigake, Suisei, Vega-1, Vega-2 et Giotto. Le survol le plus proche a été réalisé par la sonde Giotto en mars 1986 à une distance de 596 km. Le noyau de la comète 1P/Halley a donc été le premier à avoir été photographié, ses dimensions ont alors été estimées à 16 × 8 × 7 km. La sonde Giotto a poursuivi sa course et a ensuite survolé la comète 26P/Grigg-Skjellerup en juillet 1992. Depuis 5 autres comètes ont été survolées :
Depuis août 2014, la sonde Rosetta accompagne la comète 67P/Churyumov-Gerasimenko durant une partie de son orbite autour du Soleil. Pour la première fois, il ne s’agit pas d’un survol du noyau, mais d’une mise en orbite autour du noyau ce qui permet de faire une étude plus détaillée de la comète mais aussi de suivre le développement de son activité lors de son approche du Soleil. D’autre part, un module nommé Philae a atterri sur la surface du noyau de 67P/Churyumov-Gerasimenko le 12 novembre 2014. Cette mission devait durer jusqu’en décembre 2015, mais a été prologée jusqu'en septembre 2016..
Les météorites sont des objets d’origine extra-terrestre retrouvés à la surface terrestre et donc disponibles en laboratoire pour des analyses physico-chimiques détaillées. Les météorites ne sont pas des petits corps du système solaire puisqu’elles n’orbitent plus autour du Soleil. Avant d’atteindre le sol terrestre, ces objets extra-terrestres traversent l’atmosphère terrestre. Lors de cette traversée atmosphérique, ils subissent un très fort échauffement produisant une traînée lumineuse appelée météore. Concernant les météorites, les chutes sont distinguées des trouvailles. Les chutes sont les météorites pour lesquelles la traversée atmosphérique a été observée alors que les trouvailles sont celles qui ont été retrouvées au sol sans que la date d’impact soit connue.
Les corps parents de la plupart des météorites sont des astéroïdes. L’étude des météorites en laboratoire permet d’obtenir des informations inaccessibles aux observations astronomiques classiques et de mieux comprendre l’évolution des astéroïdes mais révèlent aussi de précieuses informations concernant la formation du système solaire et les processus physico-chimiques présents dans le disque proto-planétaire. En particulier, certaines météorites contiennent une très grande diversité de composés organiques ou des inclusions qui constituent les tout premiers solides condensés dans la nébuleuse primodiale et qui permettent de dater l’origine du système solaire dans son ensemble.
On peut noter que le flux annuel de météorites à la surface de la Terre est estimé à 1010 – 1011 g/an et que ce flux est dominé par les micrométéorites ayant des dimensions de l’ordre de quelques micromètres.
L’étude des météorites a montré une très grande diversité de ces objets et elles sont subdivisées en deux grandes familles : les météorites différenciées et les météorites non-différenciées. Les météorites non-différenciées contiennent un matériau qui n’a pas été profondément altéré dans le corps parents et sont aussi appelées chondrites car elles contiennent généralement des chondrules qui sont des inclusions de forme sphérique ayant des tailles de l’ordre de quelques micromètres jusqu’au centimètre. Le matériau des météorites différenciées a subi de profondes modifications dans le corps parents.
Les météorites non différenciées, aussi appelées chondrites, sont elles même subdivisées en trois classes principales en fonction de leur composition : i.) les chondrites carbonées qui contiennent plusieurs pourcents en masse de carbone, ii.) les chondrites à enstatite qui sont riches en enstatite (minéral de formule MgSiO3) et iii.) les chondrites ordinaires qui sont les plus courantes. Bien que non-différenciées, les chondrites ont pu subir quelques processus d’altération depuis leur formation : métamorphisme thermique, altération aqueuse ou chocs. Néanmoins, certaines chondrites primitives possèdent une composition élémentaire très proche de celle du Soleil ce qui montre une formation très ancienne et quasi contemporaine de celle du Soleil. Ces météorites font partie des matériaux les plus primitifs que nous possédions sur Terre et peuvent alors fournir des contraintes concernant les conditions régnant dans le disque protoplanétaire ainsi qu’une datation du système solaire grâce à des méthodes de datation isotopique.
Les météorites différenciées sont elles aussi subdivisées en trois classes principales : i.) les achondrites qui sont principalement composées de minéraux, principalement des silicates ii.) les météorites métalliques constituées principalement de fer et de nickel et qui présentent des structures de cristallisation particulières appelées les figures de Widmanstätten et iii.) les lithosidérites constituées d’un mélange de minéraux et de métal. Celles-ci proviennent de corps parents suffisamment massifs pour avoir subi un processus de différentiation. Les météorites métalliques proviendraient du cœur métallique de ces corps parents alors que les achondrites proviendraient des régions externes de ces corps parents.
Certaines chondrites carbonées possèdent une composition élémentaire très proche de celle du Soleil malgré un appauvrissement pour les éléments les plus volatils (H, He, C, N,...). Ces météCes météorites se sont donc formées en même temps que le système solaire et n'ont pas subi de changement de composition important depuis. D’autre part, des études par spectrométrie de masse en laboratoire permettent de mesurer l’abondance d’éléments à l’état de traces. Il est donc possible de mesurer l’abondance d’éléments radioactifs à très longue durée de vie ainsi que l’abondance des éléments produits par ces processus radioactifs. Ces méthodes de datation radiométrique ont permis de déterminer l’âge de formation des météorites les plus primitives : 4.56 milliards d’années. Cette date correspond à la condensation des premiers solides dans le système solaire. On pourra retenir que sans l’étude en laboratoire des météorites, l’âge de notre système solaire ne serait pas connu avec autant de précision.
La datation absolue de roches anciennes est généralement réalisée grâce à la mesure de l'abondance d'éléments naturellement radioactifs. En effet, au cours du temps, l'abondance des noyaux parents décroît alors que celle des noyaux fils augmente. A un instant t, l'abondance des noyaux parents dépend de son abondance initiale et de son temps caractéristique de décroissance : . Il faut noter que le temps de demi-vie , qui correspond au temps nécessaire pour que l’abondance initiale soit divisée par deux, est souvent utilisé à la place du temps caractéristique de décroissance. Ces deux temps sont liés par la relation .
A l’instant t, l'abondance des noyaux fils est égale à si tous les noyaux parents se désintègrent pour donner le même noyau fils. En combinant, les deux équations précédentes, peut être exprimée en fonction de qui sont les deux quantités mesurables. Néanmoins,l'abondance initiale de noyaux fils est généralement inconnue. La roche ayant pu subir une différentiation chimique lors de sa formation, elle peut être inhomogène. Les différentes mesures réalisées sur la même roche seront donc normalisées à l'abondance d'un isotope non radioactif de l'élément fils. En mesurant plusieurs échantillons de la même roche, l’âge de celle-ci ainsi que l'abondance initiale de l'élément fils radioactif pourront être déterminés (voir exercice dans la partie "Se Tester".).
Un des couples d'éléments couramment utilisé est le couple 87Rb (élément parent) et 87Sr (élément fils), les abondances de ces deux éléments sont normalisées à l'abondance de 86Sr. Ces abondances sont mesurées par spectrométrie de masse en laboratoire. Les différentes mesures seront représentées dans un diagramme 87Sr / 86Sr en fonction de 87Rb / 86Sr. La pente de la droite obtenue est liée à l’âge de formation de la roche alors que l’ordonnée à l’origine donne la rapport initial 87Sr / 86Sr. En normalisant à un isotope stable et en effectuant différentes mesures sur une roche hétérogène, les deux inconnues précédentes peuvent donc être déterminées et en particulier l’âge de la roche. Cette méthode n’est valable que si le système étudié, la roche ou la météorité, est clos, c’est-à-dire si aucun des éléments étudiés n’a pu diffuser à l’extérieur du système.
La datation absolue des météorites, et en particulier des inclusions les plus anciennes qu’elles contiennent, nous permet de dater la formation du système à 4.56 milliards d'années. Sans l'étude des météorites et des méthodes de datations liées aux isotopes naturellement radioactifs, l'obtention d'un chiffre aussi précis ne serait pas possible. L’étude des météorites et de l’ensemble des échantillons d’origine extra-terrestre disponibles au laboratoire permet donc de dater de manière absolue la formation du système solaire dans son ensemble.
L’atmosphère des comètes est appelée coma. La principale source des espèces gazeuses présentes autour des noyaux cométaires est la sublimation des glaces contenues dans celui-ci. Les molécules gazeuses produites directement depuis la surface ou la sous-surface du noyau sont appelées « molécules mères ». Une fois dans l’environnement cométaire ces molécules gazeuses sont soumises au flux ultraviolet du Soleil et peuvent se photo-dissocier en de nouvelles espèces gazeuses plus petites appelée « molécules filles ». Par exemple, la molécule d’eau peut se photo-dissocier en radicaux hydroxyle (OH) et en atomes d’hydrogène. La distribution spatiale autour du noyau est l'élément essentiel pour comprendre l’origine des espèces gazeuses. Afin de déterminer les mécanismes de production des différentes espèces gazeuses présentes dans la coma puis remonter aux abondances des molécules présentes dans le noyau ; les distributions spatiales mesurées grâce aux observations astronomiques doivent être comparées à un modèle. Le modèle le plus simple pour décrire la distribution spatiale des molécules est le modèle de Haser.
Dans le cadre du modèle de Haser, la densité des molécules mères dans la coma n’est régi que par l’expansion générale de la coma et par leur photolyse sous l’effet du rayonnement UV solaire. La densité volumique (en molécules.m-3) en fonction de la distance r au noyau, vérifie donc l’équation de conservation de la masse : où est la durée de vie de la molécule mère étudiée dans l’environnement cométaire et la vitesse d’expansion des gaz dans la coma.
En supposant un état stationnaire, une vitesse constante dans la coma et une symétrie sphérique, l’équation précédente se simplifie : où est appelée « longueur d’échelle parent », elle correspond à la longueur caractéristique de photolyse de la molécule mère.
La condition initiale permettant d’intégrer l’équation différentielle précédente est donnée par le taux de production Q (en molécules.s-1) qui correspond au nombre de molécules mère émises depuis la surface du noyau en 1 seconde. L’intégration de l’équation précédente conduit à : .
Pour les molécules filles, la densité volumique dans la coma est régi par les mêmes processus auxquels il faut rajouter la production directement dans la coma par photolyse de la molécule mère. Dans ce cas, l’équation de conservation de la masse s’écrit avec deux termes dans le membre de droite ; i.) un terme de production qui correspond à la photodissociation de la molécule mère et ii.) un second terme de destruction correspond à la photodissociation de l’espèce fille considérée. Soit et les densités volumiques des espèces mère et fille, ainsi que et leurs temps de vie respectifs dans l’environnement cométaire. L’équation de conservation de la masse pour une espèce fille s’écrit alors : En utilisant les mêmes hypothèses géométriques et dynamiques que précédemment et en imposant la condition initiale n_F (0)=0, on trouve : . Dans cette dernière équation, Q est le taux de production de la molécule mère dont est issue la molécule fille, la longueur d’échelle parent et la longueur d’échelle fille qui correspondent respectivement aux longueurs caractéristiques de destruction par photolyse des espèces mère et fille.
Ce modèle est très simple, voir simpliste au regard de nos connaissances actuelles sur les comètes. En particulier, la production de gaz à la surface du noyau est inhomogène et les environnements cométaire n’ont pas une symétrie sphérique. Néanmoins, ce modèle permet d’obtenir des ordres de grandeurs pertinents en particulier pour les longueurs d’échelles et des versions modifiées de ce modèle continuent à être utilisées pour calculer les taux de production des espèces gazeuses à partir des observations.
Après la découverte de Dysnomie, l’unique satellite de Eris, son orbite a pu être déterminée (Brown et al., 2007, Science, 316, 1585). Son demi-grand axe et sa période sont 37400 ± 180 km et 15.773 ± 0.002 jours, respectivement.
A partir de la 3ème loi de Kepler, calculer la masse du système Eris-Dysnomie.
Le rayon de Eris a été déterminé à 1163 ± 6 km par occultation stellaire (Sicardy et al., 2011, Nature, 478, 493). Calculer la densité de Eris. Que peut-on en conclure ?
Difficulté : ☆
Le flux de micrométéorites à la surface de la Terre est estimé à (40 ± 20) × 106 kg.an-1 pour des grains ayant des masses comprises entre 10-9 et 10-4 grammes.
Les glaces cométaires sont majoritairement constituées de glace d’eau. Dans la coma, la vitesse d’expansion des molécules d’eau est d’environ 0.5 km.s-1 et la photodissociation de l’eau conduit à la formation de radicaux hydroxyles (OH) et d’atomes d’hydrogène. Les temps de vie typiques de l’eau, du radical hydroxyle et de l’atome d’hydrogène sont de 6 × 104 s, 2 x 105 s et de 106 s, respectivement. En supposant une vitesse d’expansion des radicaux hydroxyles égale à celle des molécules d’eau et de 12 km.s-1 pour l’atome d’hydrogène, calculer les dimensions caractéristiques des coma de H2O, OH et H.
Difficulté : ☆☆ Temps : 15 min
Sachant que le temps de demi-vie du Rubidium 87 est de 48.8 milliards d'années et connaissant les abondances suivantes, calculer l'âge de la météorite dans laquelle ces abondances ont été mesurées.
0.758 | 0.74864 |
0.7255 | 0.7465 |
1.52 | 0.79891 |
1.49 | 0.79692 |
1.555 | 0.80152 |
1.685 | 0.80952 |
0.1542 | 0.7091 |
0.1533 | 0.70895 |
Le survol de l'astéroïde 253 Mathilde par la sonde américaine NEAR en juin 1997 a permis d'estimer, que :
Déterminez la masse volumique exacte de l'astéroïde, et indiquez les barres d'erreur correspondantes. Comparez cette masse volumique à celle d'objets connus dans le système solaire.
Estimez la porosité de Mathilde dans l'hypothèse où cet astéroïde serait constitué d'un matériau chondritique peu dense, dont la masse volumique
Que concluez-vous quant à sa structure interne?
Proposez une origine possible à la grande porosité de Mathilde.
Des éléments orbitaux de la comète sont définis comme suit : q = 0.783022 AU ; e = 1.000236 ; i = 111.8227°.
En quelle année cette comète a-t-elle été découverte ?
À quel type de conique correspond son orbite ? Comment une telle orbite est-elle atteinte ?
Est-elle sur une orbite directe ou rétrograde ?
Géométrie des observations
Sur des éphémérides prévisionnelles pour novembre, on pouvait lire
Date | Ascension droite | Déclinaison | Δ (UA) | R(UA) | Phase(°) | magnitude | |
2006-11-06 | 17:51:56 | +25:17.0 | 1.084 | 1.065 | 54.9 | 8.9 | |
2006-11-11 | 18:26:00 | +20:19.4 | 1.169 | 1.127 | 51.1 | 9.4 |
Pourquoi peut-on dire, qu'en novembre, la comète s’éloignait du Soleil et qu’elle était visible dans l’hémisphère nord.
Activité de la comète
La circulaire de l'IAU en bas de page (Circulaire 8772) indique que des observations dans l’infrarouge (10,55 μm) avec le télescope MMT de 6,5 m de diamètre ont mis en évidence le 7 novembre une structure détachée dans la coma à 3,4’’ du noyau (soit à 2700 km pour une distance de 1,10 UA). Le noyau était non résolu et la structure s’allongeait sur environ 3’’. Des estimations des magnitudes visuelles sont également fournies. - Faites une suggestion raisonnable pour la taille d’un noyau. Calculer le diamètre apparent du noyau de la comète lors des observations.
Calculez le pouvoir séparateur théorique du télescope à la longueur d’onde des observations. Est-il logique que le noyau n’ait pas été résolu ?
Discutez les différences entre les magnitudes des éphémérides et des observations. Proposez des interprétations.
Estimez la taille (en km) de la structure observée. Proposez une interprétation justifiée du phénomène, tenant compte également de la question des magnitudes.
Au voisinage de l'orbite terrestre, la masse volumique moyenne du nuage zodiacal est de l'ordre de
A combien pourrait-on estimer le nombre de grains de poussière zodiacale de rayon ≈ 10 mm et de masse volumique ≈ 2 g. cm-3 dans un cube de 100 m de côté dans la très haute atmosphère terrestre ?
Plusieurs processus sont à l'oeuvre à la surface des planètes et petits corps du Système Solaire. Leur nature, intensité et conséquence varient principalement en fonction de la composition de la surface (silicatée/glacée), de sa distance à l’étoile et la présence ou non d’une atmosphère. Si le corps planétaire est actif, il peut régulièrement faire « peau neuve » (par volcanisme notamment) alors qu’un corps mort est condamné à voir sa surface se dégrader, parfois lentement mais toujours sûrement.
Dans ce qui suit, nous décrirons les principaux processus qui façonnent les surfaces planétaires, à savoir :
Les cratères d’impact sont des dépressions de surface, généralement circulaires, résultant de l’impact de fragments solides d’origine météoritique ou cométaire. Ils sont présents sur quasiment toutes les surfaces planétaires solides du système solaire et la cratérisation représente la principale cause d’altération des surfaces des corps dépourvus d’atmosphère (excepté pour Io et Europe). Les impacts sont aussi le principal mécanisme d’apport et d’excavation de matériel planétaire ; certaines planètes ou satellites se sont formés par agrégation après collision (la Lune, par exemple) ; les volatiles, océans et atmosphères, présents sur certains corps ont sans doute été apportés par des objects impacteurs (en l’occurrence des comètes).
L’étude des cratères est intéressante à plus d’un titre. Leur forme et leur taille renseignent sur la nature (composition, résistance, stratifications, porosité) des surfaces planétaires cibles, de leurs impacteurs et les propriétés d’une éventuelle atmosphère. Leur distribution informe sur l’âge des surfaces planétaires et apporte des clés dans la compréhension de leur histoire d’autant que les impacts peuvent être à l’origine d’évènements importants voire catastrophiques (formation de la Lune, extinction des dinosaures sur Terre il y a 65 millions d’années…), les plus larges ayant même pu modifier les paramètres orbitaux de certains corps. Les études statistiques des cratères fournissent aussi des informations sur la population des corps impacteurs du système solaire qui sont ce qui reste des planétésimaux de l’accrétion planétaire et donc, à ce titre, des objets très primitifs, témoins privilégiés de la jeunesse du système solaire.
Ce bestiaire de cratères illustre la variété en termes de forme et d’échelle des cratères planétaires. La morphologie des cratères dépend avant tout de leur taille. Les plus petits d’entre eux, les cratères simples, présentent une forme en bol, avec des bords surélevés. La majorité des cratères lunaires ayant un diamètre inférieur à 15 km sont de ce type. Au delà de ce diamètre, ils présentent un pic central avec éventuellement des terrasses et des dépôts et sont dits complexes. Les cratères complexes sont moins profonds que les cratères simples. Le diamètre de transition entre ces deux types de cratères varie de façon inversement proportionnelle à la gravité de la planète : un pic central apparaît dans les cratères martiens dont la taille est supérieure à 10 km alors que sur Terre, les pics apparaissent dès que les cratères ont un diamètre supérieur à 2-3 km. Dans les cas d’impacts plus gros, le pic central est remplacé par un anneau montagneux voire par des anneaux multiples si le diamètre augmente encore. Une partie des matériaux excavés par l’impact peut, après avoir parcouru une trajectoire balistique, retomber et provoquer la création de cratères secondaires, à proximité du cratère principal. Enfin, si l’impact est suffisamment puissant pour percer la croûte et provoquer des épanchements, on parle de bassins d'impact. Le bassin d'Hellas sur Mars (plus de 2000 km de diamètre) est sans doute le plus grand bassin d'impact du système solaire. Avec le temps, l’érosion ou encore les mouvements du sol altèrent les cratères dont nous n’observons finalement qu’une forme dégradée.
Les corps qui ne sont pas protégés par une atmosphère (Mercure, Lune, astéroïdes, satellites glacés du système extérieur…) sont directement et constamment exposés aux rayons d’origine solaire et galactique ainsi qu’au bombardement micro-météoritique. Ils subissent, de plus, de grandes variations de température. Ces différents phénomènes dégradent progressivement leur surface, généralement caractérisée par une couche superficielle très poreuse appelée régolithe.
La notion de régolithe est large ; elle désigne « tout matériel d’origine continentale, quel qu’en soit l’âge, recouvrant les roches saines et dures ». Cependant, en planétologie, on l’utilise généralement pour évoquer la couche de poussière, rocheuse ou glacée, recouvrant la surface de corps solides dépourvu d’atmosphère protectrice (Mercure, la Lune, les satellites de Mars, tous les satellites du système extérieur sauf Titan, les astéroïdes et, dans une moindre mesure, Mars et les comètes).
Les régolithes planétaires sont d’abord créés par impacts météoritiques (voir chapitre Cratérisation des surfaces) puis évoluent sous l’effet de l’érosion spatiale (ou « space weathering » en anglais) c’est-à-dire des effets combinés du bombardement micro-météoritique, de la collision des rayons cosmiques d’origine solaire ou galactique ou encore de l’irradiation et de la pulvérisation cathodique (« sputtering ») par les particules du vent solaire. Les chocs thermiques, auxquels sont particulièrement soumis les surfaces sans atmosphère, contribuent également à la désagrégation physique (ou thermoclastie) des roches et donc au développement du régolithe.
Les propriétés et le degré de maturité d’un régolithe varient en fonction de la composition et de la position dans le Système Solaire de l’objet planétaire. Le régolithe lunaire est de loin le mieux connu. Il recouvre l'ensemble de la surface du satellite sur une profondeur de 2 à 8 mètres dans les mers et pouvant même excéder 15 m dans les terres les plus anciennes (4.4 Ga). Il repose sur plusieurs mètres d’un méga-régolithe constitué de gros blocs rocheux, éjectas d’anciens grands impacts. Le régolithe de Mercure est probablement très semblable à celui de la Lune quoique peut être légèrement plus développé car le flux micro-météoritique y est plus important et le contraste thermique entre le jour et la nuit accru. Le développement d'un régolite mature est, en revanche, nettement plus lent sur les astéroïdes en raison de leur faible gravité. Sur Mars, qui possède une atmosphère tenue, l’érosion spatiale s’est combinée à d’autres formes d’érosion (hydrique, éolienne… voir chapitre Erosion et sédimendation des surfaces avec atmosphère) pour former un épais manteau de poussière et de débris. Io est aussi un cas à part car le volcanisme qui y sévit efface immédiatement les traces d’impact. Enfin, la volatilité de la glace d’eau, ainsi que des glaces de CO2 (dioxyde de carbone) ou de CH4 (méthane), rend les surfaces glacées du système solaire particulièrement vulnérables à l’érosion spatiale.
Les surfaces des corps dotés d’une atmosphère (Vénus, Terre, Mars, Titan, éventuellement Pluton) sont protégées de l’érosion spatiale et subissent modérément le bombardement météoritique et les effets thermiques. En conséquence, elles n’ont pas ou peu de régolithe. En revanche, elles sont soumises à l’action conjuguée de l’air et de solvants liquides lorsqu’ils existent. Partout où il y a une atmosphère, même extrêmement dense (Vénus) ou, au contraire, tenue (Mars), l'activité éolienne transporte les sédiments les organisant notamment en champs de dunes. Sur Pluton de telles formations n'ont pas encore été observées sans doute pour des raisons de résolution. Sur Terre, aujourd’hui ou sur Mars, hier, le cycle de l’eau a, en outre, façonné la surface via l’érosion pluviale, fluviatile ou glaciaire créant, transformant et distribuant la matière sédimentaire. Sur Titan, c’est le méthane et l’éthane qui modifient les paysages.
Les corps solides du système solaire présentent des visages multiples et en même temps étrangement familiers. C’est que des processus semblables à ceux que l’on observe sur Terre y sont à l’œuvre. La planétologie comparée consiste à s’appuyer sur la connaissance de notre planète pour comprendre comment ont évolué d’autres mondes. Au passage, nous observons des processus a priori connus se développer dans des environnements radicalement différents et du même coup enrichissant la compréhension que nous en avons.
Ce principe s’applique particulièrement bien lorsqu’on compare les paysages terrestres à ceux des trois autres corps du système solaire possédant une atmosphère : Vénus, Mars et Titan. Tous présentent à leur surface des dunes, preuves de l’activité éolienne qui y sévit (voir figure ci-contre). Cependant la taille, la forme de ces dunes varient d’une planète à l’autre. La connaissance des dunes terrestres permet de comprendre l’origine de ces divergences et donne des clefs pour déduire de l’observation des dunes extraterrestres les régimes de vents qui les ont sculptées. On reconnait également la signature de l’érosion fluviale à la surface de Mars, pourtant sèche aujourd’hui. L’étude des paléo-réseaux fluviaux ou des vallées de débâcle permet de reconstituer une partie de l’histoire géologique de la planète rouge. Sur Titan, par analogie avec le cycle de l’eau sur Terre, les phénomènes météorologiques liés au cycle du méthane et de l’éthane peuvent aussi être mieux compris et prédits. Enfin, même Pluton, récemment observé par la sonde américaine New Horizons, présente des paysages connus, en particulier des sols polygonaux typiques des régions glaciaires et périglaciaires des hautes latitudes sur la Terre et sur Mars (voir figure ci-contre).
Sur les corps les plus actifs tels que la Terre, Io ou Europe, le renouvellement de la surface s’opère principalement par l’activité volcanique et tectonique. Il s’agit de processus endogènes c’est-à-dire ayant une cause interne, par opposition aux processus exogènes décrits précédemment.
Le volcanisme est lié au transfert de matière (magma, éléments volatiles et matériaux cristallisés) de l’intérieur vers la surface. Il est l’une des expressions les plus spectaculaires de l’activité interne d’un corps. Il participe au renouvellement des surfaces en recouvrant de ses épanchements (laves) les cicatrices du passé et peut aussi contribuer à la création ou à l’enrichissement d’une atmosphère. De nombreuses planètes ou satellites du système solaire portent sur leur surface les traces d’une activité volcanique passée (Mars, Lune), récente (Vénus) et même présente (Terre, Io, Europe, Encelade).
L’activité tectonique est l’ensemble des mécanismes de mouvements de surface responsables de déformations à grande échelle de la croûte d’une planète. Beaucoup de corps présentent à leur surface des failles, des chaînes dorsales et escarpements témoignant d’une activité tectonique passée. Cependant, à ce jour, le mouvement de plaques tectoniques n’a été observé que sur la Terre.
Le processus d’impact et ses conséquences varient avec la vitesse du corps impacteur et la nature du sol impacté et de son impacteur. Si la planète possède une atmosphère, le projectile est freiné et chauffé ce qui peut entrainer sa vaporisation partielle voire totale ou sa fragmentation. Les météorites de moins de 10 m de diamètre parviennent rarement jusqu’au sol terrestre. Les modèles d’ablation atmosphérique prédisent un nombre réduit de cratère de moins de 20 km de diamètre sur Titan (seul satellite du système solaire possédant une atmosphère substantielle, voir chapitre Erosion et sédimendation des surfaces avec atmosphère), ce que semble confirmer les observations de la sonde Cassini.
Lorsque le projectile, ou ce qu’il en reste, atteint la surface, le processus d’impact commence ; on le décompose classiquement en trois phases qui, en réalité, se chevauchent dans le temps : la phase de contact et compression, la phase d'excavation et la phase de modification et relaxation. C'est ce qu'illustre la figure ci-contre.
L'appliquette "Cratérisation" permet d'appréhender les effets d’un impact météoritique sur Mercure, la Terre (avec ou sans atmosphère), la Lune et Mars en fonction des caractéristiques de l’impacteur (vitesse, angle d’arrivée, taille, densité) et de la surface impactée (densité).
Cette appliquette illustre les effets d’un impact météoritique sur Mercure, la Terre (avec ou sans atmosphère), la Lune et Mars en fonction des caractéristiques de l’impacteur (vitesse, angle d’arrivée, taille, densité) et de la surface impactée (densité).
Pour le détail des formules à partir desquelles a été construire cette appliquette, se référer à : G. S. Collins, H. J. Melosh, R. A. Marcus: Earth Impact Effects Program: A Web-based computer program for calculating the regional environmental consequences of a meteoroid impact on Earth, Meteoritics & Planetary Science 40, Nr 6, 817–840 (2005).
A vous de jouer en répondant notamment aux questions ci-dessous!
On rappelle que les astéroïdes sont composés de roches et de métaux ; leur densité varie entre 2000 et 8000 et leur vitesse à l’entrée de l’atmosphère terrestre est généralement comprise entre 11 et 21 km/s. Les comètes, quant à elle, sont essentiellement composées de glace ; leur densité est comprise entre 500 et 1500 et leur vitesse à l’entrée de l’atmosphère terrestre est généralement comprise entre 30 et 72 km/s.
En utilisant l'appliquette, vérifiez, quand cela est possible, les résultats des exercices Création du régolithe lunaire par cratérisation et Cratères secondaires.
Retrouvez le diamètre de transition entre cratère complexe et cratère simple pour chaque corps planétaire. Comment évolue-t-il avec la gravité ?
En comparant les sorties de l’appliquette pour les cas « Terre » et « Terre sans atmosphère », déduisez le principal effet de l’atmosphère.
Retrouvez le coefficient de la loi en puissance qui lie le diamètre final d’un cratère simple à l’accélération de pesanteur du corps sur lequel il se trouve.
Estimez le diamètre de la météorite à l’origine de Meteor Crater, en Arizona, sachant que ce cratère a un diamètre d’environ 1.2 km, que l’impacteur était très probablement riche en fer et en nickel, et qu’il a frappé la Terre avec un angle d’environ 80°. Vérifiez que l’ordre de grandeur théorique de la profondeur finale du cratère est en accord avec la réalité.
Mêmes questions pour le cratère lunaire complexe Tycho dont le diamètre est de 85 km sachant que l’impacteur qui lui a donné naissance avait une trajectoire basse au dessus de l’horizon (c’est-à-dire avec un angle d’arrivée d’au moins 45°) et que sa densité était proche de celle de la Lune.
En l’absence d’échantillon du sol, la datation par comptage de cratères est la seule méthode pour estimer l’âge relatif des surfaces planétaires. Celle-ci s’appuie sur deux règles simples:
Ces règles reposent sur l’idée que la population des impacteurs a évolué au cours du temps ; la taille des projectiles et le taux de cratérisation étaient nettement plus importants dans la jeunesse du système solaire, à une époque où les débris étaient abondants. Ces derniers ont progressivement été mobilisés pour former les planètes, les plus gros planétésimaux disparaissant en premier jusqu’à ce que les impacteurs moyens puis petits se fassent rares aussi. Si le bombardement météoritique a affecté de façon uniforme la surface d’une planète donnée, certaines régions en ont gardé toutes les cicatrices alors que d’autres ont connu depuis des épisodes de rajeunissement (par volcanisme par exemple, voir Renouvellement des surfaces).
L’échelle ci-contre renseigne sur le niveau de cratérisation des principales surfaces solides du système solaire, les surfaces les plus jeunes étant les moins cratérisées.
Ainsi, l’étude de la distribution des cratères (nombre de cratères en fonction de leur taille) permet-elle de donner un âge relatif à différentes unités de surface. Pour déterminer leur âge absolu il faudrait connaître précisément l’histoire de l’évolution du flux d’impacteurs dans le système solaire. Une partie de cette histoire a pu être retracée grâce à la datation radiogéniques d’échantillons lunaires collectés lors des missions Apollo. Ces datations précises, comparées à la distribution des cratères lunaires, ont permis de dresser des courbes d’évolution dans le temps de la densité et de la taille des impacteurs, révélant notamment un pic d’impacts il y a environ 4 milliard d’années lors d’une phase appelée le Grand Bombardement Tardif (ou Late Heavy Bombardement, LHB). Les surfaces du système solaire ayant atteint le niveau de saturation sont sans doute vieilles de 4 milliards d’années.
En tenant compte du fait que le flux des impacteurs devait varier avec la distance au Soleil et, lorsque cela est nécessaire, de la présence d’une atmosphère, les enseignements du cas lunaire peuvent être extrapolés afin de dater les autres surfaces planétaires. Cependant il est important de garder à l’esprit que cette extrapolation est sujette à caution ; la position des planètes et la densité des atmosphères ont pu, en effet, varier au cours de l’histoire du système solaire.
Les surfaces des corps sans atmosphère sont de véritables champs de bataille subissant en permanence:
Tous ces processus sont exogènes, c’est-à-dire ayant une cause externe à l’objet qu’ils affectent. Lentement mais sûrement ils érodent les surfaces mais sont aussi à l’origine de la formation des atmosphères extrêmement tenues, appelées exosphères, que l’on trouve autour de Mercure, de la Lune, de la plupart des satellites glacés et même des anneaux de Saturne.
Les surfaces sans atmosphère sont constamment bombardées par des grains météoritique de diamètre <1 mm. Ce bombardement micro-météoritique ne contribue pas à augmenter le volume de régolithe (le régolithe lunaire ne grandit que de 1 mm/106 ans et, en raison de leur faible gravité, les astéroïdes perdent même constamment une partie de leur régolithe) mais il en modifie durablement les propriétés et la distribution.
Les impacts micro-météoritiques pulvérisent progressivement les premiers millimètres du sol, réduisant la taille des particules à la surface. Ce phénomène de fragmentation (ou «comminution» en anglais) est, en partie, compensé par un phénomène d’agglutination: lorsque les impacts sont suffisamment rapides, certains matériaux du sol fondent et, en refroidissant, se soudent (formant des sphérules de verre sur la Lune par exemple) ou soudent entre eux des fragments de roches et de minéraux donnant naissance à des particules plus grosses. Certains matériaux sont même vaporisés sous l’effet des micro-impacts avant d’être redéposés à la surface. Le régolithe lunaire est constitué d’environ 30% d'agglutinates, agrégats dont la taille varie de quelques micromètres à quelques millimètres et présentant à leur surface des nanoparticules de fer intégrées lors de la vaporisation puis re-condensation de minéraux ferrifères (olivine et pyroxène notamment). L’érosion spatiale sur la Lune est donc synonyme d’un obscurcissement (l’albédo diminue) et d’un rougissement de la surface avec le temps. Le régolithe lunaire est dit mature lorsque les processus de fragmentation et d’agglutination se compensent ; la taille des grains est alors ~60 μm. Un régolithe immature est constitué de grains plus gros et d’une proportion réduite d’agglutinates.
Dans le même ordre d'idée, sur les surfaces glacées, le bombardement micro-météoritique participe à la recristallisation de la glace lorsqu’elle est amorphe (c’est-à-dire sans arrangement précis, par opposition à la glace cristalline qui présente une structure héxagonale) à la surface par un processus de recuit (« annealing » en anglais) et lutte donc contre le travail d’amorphisation mené par les rayons solaires UV et les particules ionisées énergétiques (voir Radiations d’origine solaire et cosmique).
Enfin, sur les astéroïdes où la vitesse d’échappement est faible, le bombardement micro-météoritique, aidé par d’autres processus tels que le « sputtering» (voir Radiations d’origine solaire et cosmique), contribue à l’éjection et à la perte des particules les plus petites. Ainsi s’attend-on à trouver un sol plus grossier à la surface des plus petits astéroïdes.
Le bombardement micro-météoritique modifie également la distribution des composés des régolithes. Les premiers millimètres du sol lunaire sont en permanence « labourés » par des micro-impacts ce qui a pour effet d’homogénéiser la composition verticale (en profondeur) du régolite. On parle d’"impact gardening" (de l’anglais « garden », jardiner). Ce processus est néanmoins très lent – il faut au moins 100 000 ans pour entièrement retourner et mélanger le premier centimètre du sol lunaire. Les couches plus profondes du régolithe ne sont retournées qu’à l’occasion d’impacts plus importants donc plus rarement.
La distribution horizontale des composés du régolite est, quant à elle, contrôlée par les lois de retombée balistique des éjectas autour du cratère principal (voir Processus de cratérisation des surfaces) et varie peu sous l’effet du bombardement micro-météoritique. Les micro-impacts peuvent néanmoins, localement, apporter de nouveaux éléments à la composition de surface.
Les surfaces sans atmosphère sont également soumises à un bombardement permanent par des particules plus ou moins énergétiques en premier lieu desquelles des photons X et ultra-violet (UV) solaires, des ions issus du vent solaire et des rayons cosmiques provenant de notre Galaxie ou d’au-delà. Ces radiations modifient chimiquement, physiquement et structurellement les surfaces sur une profondeur allant de quelques micromètres à quelques mètres, en fonction de l’énergie des particules.
Le vent solaire est un flux de plasma essentiellement composé de particules d’hydrogène et d’hélium ionisées dont l’énergie est modérée (0.3-3 keV/nucléon). Ce flux varie, en température et en vitesse, avec l’activité du Soleil. Lors d’éruptions solaires et d’éjection de masse coronale, des rafales de particules solaires particulièrement énergétiques (1-100 MeV/nucléon) balayent notre système stellaire.
Les corps pourvus d’un champ magnétique propre (Mercure, Terre, Ganymède) sont protégés en grande partie des radiations, leur magnétosphère déviant les particules chargées le long des lignes de champ et agissant ainsi comme un bouclier. A l’inverse, les magnétosphères des géantes gazeuses, en piégeant et accélérant les particules chargées, produisent d'intenses ceintures de rayonnement et soumettent les satellites qui leur sont les plus proches à de grandes doses de radiations. En particulier, Io et Europe, autour de Jupiter, reçoivent des doses 100 à 1000 fois plus élevées que la Lune.
Les principaux effets du bombardement par les particules solaires et cosmiques sur les surfaces sont les suivants :
Sur ce dernier point, notons que les surfaces glacées sont particulièrement sensibles aux radiations car elles sont trois fois moins résistantes que les surfaces silicatées et plus volatiles (c’est-à-dire susceptibles de changer de phase). Rappelons que la glace d’eau peut exister sous plusieurs formes: différents états cristallins (en fonction essentiellement de la température) ou amorphes. A basses températures, le bombardement par les particules UV et les ions peut modifier la structure cristalline de la glace en surface, voire même entrainer son amorphisation. Europe, qui baigne dans magnétosphère jovienne et est, par conséquent, soumise à des taux de radiation particulièrement élevés, présente une surface jeune mais largement amorphisée alors que la phase cristalline est stable à la surface de Callisto, satellite près de 3 fois plus éloignée de Jupiter. Ganymède, qui se trouve entre Europe et Callisto et est, de surcroît, protégé par un champ magnétique propre, présente de la glace amorphe aux pôles (là où les lignes de champs sont ouvertes) et cristalline ailleurs.
Les corps sans atmosphère peuvent connaitre des variations de températures considérables au cours d’une journée. Plus l’inertie de la surface (c’est-à-dire sa capacité à stocker la chaleur) est faible et plus la rotation du corps est lente, plus le contraste jour/huit est important. Mercure, en particulier, subit les chocs thermiques les plus violents du système solaire : la température à sa surface peut varier de -170°C à 430°C.
Sur les surfaces silicatés du Système Solaire, la différence de réponse (dilatation/contraction) des minéraux des roches à l’alternance jour/nuit induit des contraintes mécaniques (surpression) pouvant déboucher sur la fissuration progressive voire l’éclatement de certaines roches. Plus les changements de température sont prononcés et rapides, plus ce processus de désagrégation, appelé thermoclastie, est efficace. En outre, les roches dont la taille excède la profondeur de peau diurne (la profondeur du sol qui subit les fluctuations diurnes du flux solaire - en général quelques centimètres) sont soumises à un fort gradient de température qui peut les fragiliser à long terme.
Sur les surfaces glacées du système solaire, en raison de la grande volatilité de la glace d’eau (c’est-à-dire de sa capacité à changer de phase), le cycle jour/nuit peut s’accompagner d’un phénomène de migration/ségrégation thermique.
Les surfaces des satellites glacés sont généralement constituées d’un mélange, aux proportions variables, de glace et d’un composé optiquement sombre (matière organique, soufrée ou silicatée). Les régions les plus riches en glace étant aussi les plus brillantes, elles sont moins efficacement chauffées par le Soleil (elles réfléchissent une grande partie du flux solaire) et le taux de sublimation de la glace y est bas. Inversement, dans les régions les plus sombres, le taux de sublimation de la glace peut être élevé. Ce déséquilibre permet un transfert de la glace des régions sombres et chaudes vers régions brillantes et froides. Ce transfert prend fin quand toute la glace du sol des régions sombres a disparu (laissant un sol encore plus sombre) et s’est redéposé dans les régions plus claires (accentuant alors leur brillance). Au passage, il est fréquent qu’une partie des volatiles se perde dans l’espace ou vienne enrichir une exosphère.
Le phénomène de migration/ségrégation thermique a pour effet de renforcer les contrastes d’albédo à la surface et, en séparant la glace de la matière sombre, va à l’encontre des processus de bombardements (météoritiques ou par des particules de haute énergie) qui tendent à homogénéiser le régolithe. Ce phénomène peut être local (exemple de Callisto) ou global (exemple de Japet). Sur Japet, même si l’origine de la matière sombre est vraisemblablement exogénique (en provenance de Phoebe), il est fort probable que le phénomène de migration/ségrégation participe à accentuer le contraste entre les basses et moyennes latitudes, très sombres, de la face avant du satellite et les pôles, particulièrement brillants : le jour, la glace des régions équatoriales se sublime et migre vers les pôles, plus froids, ou elle se re-condense. Sur Callisto, les crêtes des cratères des régions équatoriales sont recouvertes d’un manteau blanc résultant sans doute de la migration de la glace du fond des dépressions, généralement plus chaudes car doublement chauffées, à la fois par le flux solaire direct et par le flux solaire réfléchi sur les parois. Ce processus de modification du paysage par sublimation est aussi à l’œuvre sur Mars où ni l’eau ni le CO2 ne sont stables à la surface.
L’appliquette "Migration" vise à évaluer l’efficacité du phénomène de migration/ségrégation par rapport à d’autres processus d’érosion spatiale sur les principaux satellites glacés du Système Solaire.
En raison de la grande volatilité de la glace, les surfaces glacées sans atmosphère sont soumises à un phénomène de migration/ségrégation thermique. L’appliquette ci-dessous vise à évaluer l’efficacité de ce phénomène par rapport à d’autres processus d’érosion spatiale sur les principaux satellites glacés du Système Solaire. Elle s’inspire du travail de thèse de J.R. Spencer: The surfaces of Europa, Ganymède, and Callisto- An investigation using Voyager IRIS Thermal Infrared Specta, Ph.D dissertation by John R. Spencer, 1999.
Lisez l’essentiel à savoir ci-dessous et essayez de répondre aux questions.
L'appliquette Migration
Le taux instantané de sublimation de la glace peut, en première approximation, s’exprimer de la façon suivante : où est la densité volumique de la glace (), est la masse molaire de l'eau (), est la constante universelle des gaz parfaits () et , la température instantanée (en K).
s’obtient en égalisant le flux solaire (entrant) et le flux émis par la surface (sortant) : où est la constante de Stefan-Boltzmann (), est la constante solaire (c’est-à-dire la puissance reçue du Soleil par unité de surface normale aux rayons solaires à la distance héliocentrique de 1 UA) (), est la distance héliocentrique en UA du corps glacé, est est l’albédo de la surface et est l’angle d’illumination du Soleil à la surface (l’angle entre la normale à la surface et la direction de l’ensoleillement). Il dépend de la latitude, de l’heure locale et éventuellement de la saison. Ici on considère que .
est la pression de vapeur saturante de la glace en Pascal, c’est-à-dire la pression à laquelle la phase gazeuse de l’eau est à l’équilibre avec sa phase solide à la température . Dans la gamme de températures des satellites glacés du système solaire (130-150 K), il a été établi semi-empiriquement que : .
Mise en jambe : par une analyse dimensionnelle, retrouvez la dimension de ?
Comparez l’amplitude du phénomène de ségrégation thermique entre les satellites galiléens (), les satellites saturniens () et ceux d’Uranus (). Vous vous placerez à l’Equateur, à midi, en été et prendrez un albédo de pour la glace équatoriale.
Tracez le taux de sublimation lié au phénomène de ségrégation thermique en fonction de la latitude et de l’albédo de la glace pour un satellite galiléen. Comparez son intensité sur Europa (), Ganymède () et Callisto ().
À quelle(s) latitude(s) ce phénomène est-il le plus actif ?
Dans le système de Jupiter, la vitesse de « laboure » des régolithes par impacts micro-météoritiques est de quelques mm/an. L’intensité du phénomène de « sputtering », quant à elle, décroit avec la distance à Jupiter : mm/an sur Europe, mm/an sur Ganymède et mm/an sur Callisto. Que peut-on en déduire sur l’efficacité du phénomène de ségrégation thermique sur Europe, Ganymède et Callisto ? Discutez.
Les surfaces des corps avec atmosphère sont certes protégées de l’érosion spatiale mais elles subissent d’autres formes d’érosion, souvent plus efficaces, liées à l’activité atmosphérique. Ces formes d’érosion se traduisent généralement par une perte graduelle de substance et notamment de relief. Elles sont aussi parfois à l’origine de paysages spectaculaires.
Il existe plusieurs agents et types d’érosion. Dans ce qui suit nous aborderons :
Et nous mentionnons seulement ici:
Quelque soit son moteur, l’érosion comporte trois phases étroitement liées :
Les gaz (par le biais du vent), l’eau, le méthane, l’éthane liquides sont des fluides. Avant de décrire leur action sur les surfaces planétaires, quelques rappels sur l’écoulement des fluides s’imposent.
Un fluide est un milieu matériel déformable (il change de forme sous l'action d'une force extérieure). Il est constitué de particules libres de se mouvoir les unes par rapport aux autres. Les liquides sont des fluides peu compressibles ; ils conservent le même volume quelque soit leur forme et présentent une surface propre. Les gaz, en revanche, sont des fluides compressibles ; ils tendent à occuper tout l'espace disponible et n'ont pas de surface propre.
Qu’ils soient gazeux ou liquides, les fluides sont caractérisés par leur densité ρ et viscosité η. La densité ou masse volumique est la masse du fluide par unité de volume (en kg/m3). Elle est une mesure du nombre de molécules par unité de volume. La viscosité est une mesure de la résistance d’un fluide au changement de forme (en kg/(m⋅s) ou Pa.s); elle détermine la vitesse de mouvement du fluide. Lorsque la viscosité augmente, la capacité du fluide à s'écouler diminue. Les liquides ont une densité et une viscosité supérieures à celles des gaz: les molécules sont plus rapprochées, des liaisons (forces de van der Waals, interactions dipolaires) s'établissent entre elles qui augmentent la cohésion de l'ensemble. Le tableau ci-dessous donne les caratéristiques des atmosphères et agents liquides des planètes solides du Système Solaire.
Fluide | Densité ρ () | Viscosité η ( Pa s) | Vitesse typique (m/s) |
Eau liquide | 1000 | 1540 | 5 |
Méthane liquide | 450 | 184 | |
Atmosphère terrestre | 1.27 | 17.1 | 40 |
Atmosphère martienne | 0.027 | 10.8 | |
Atmosphère de Vénus | 71.92 | 33.0 | |
Atmosphère de Titan | 5.3 | 6.3 | 0.5-1 |
Glace | 992 |
Pour un fluide s'écoulant sur une paroi (le vent ou un agent liquide au dessus d’un sol), la viscosité décrit la contrainte de cisaillement, c’est-à-dire la force tangentielle (par opposition aux forces normales, perpendiculaires à la paroi) qui s’applique par unité de surface sur la paroi. Cette contrainte de cisaillement s’accompagne de l'existence d'un gradient de vitesse d'écoulement dans le fluide. En effet, il existe une couche limite contiguë à la paroi, dans laquelle la vitesse du fluide passe de zéro, au niveau de la paroi, à sa la valeur maximale correspondant à celle d'un fluide libre. L'épaisseur de cette couche limite varie suivant l'état de la surface (plus la surface est lisse, plus la couche est mince). Plus précisément, on peut montrer que la vitesse de l’écoulement croit avec la hauteur au dessus de la paroi de manière logarithmique comme l'illustre la figure ci-contre.
Un fluide peut s’écouler de différentes façons. Lorsque les lignes de courant (c’est-à-dire les tangentes en tous points parallèles à la direction de l'écoulement) restent parallèles entre elles et rectilignes, l’écoulement est dit laminaire. Au contraire, quand l’écoulement est désorganisé et le siège de tourbillons, on parle de régime turbulent (voir la figure ci-contre).
Afin de déterminer le régime en vigueur autour d’un "obstacle" (une roche dans l’eau ou un grain de sable dans le vent par exemple), on définit le nombre de Reynolds: où est le diamètre de l’obstacle et la vitesse terminale ou de sédimentation du fluide (voir ici et là). Si le nombre de Reynolds est grand, les forces inertielles l’emportent sur les forces de frottement liées à la viscosité du fluide ; le régime est turbulent et des tourbillons se développent autour de l’obstacle. Au contraire, si le nombre de Reynolds est petit, en faisant « coller » le fluide à l’obstacle, les forces de viscosité tendent à faire disparaître les tourbillons ; le régime est laminaire.
Les vents sont provoqués par les contrastes de températures à la surface d’une planète et par la rotation de la planète. Les effets de l’activité éolienne sur un paysage sont multiples. Le vent déplace la matière sédimentaire, la redistribue, l’organise parfois en dunes et en modifie les propriétés physiques par abrasion mécanique.
Si l’action destructrice du vent est limitée par rapport à celle d’un agent liquide, les roches se trouvant sur le chemin de saltation (processus de transport des grains par sauts successifs, voir ici) des grains déplacés par le vent sont néanmoins progressivement polies, taillées, striées. L’efficacité de l’abrasion par le vent dépendant de la vitesse d’impact des grains, il est peu probable qu’elle soit élevée sur Titan et Vénus. En revanche, elle devrait l’être sur Mars comme semble le confirmer les images de la surface.
Initier le mouvement d’une particule requiert d’avantage d’énergie que d’entretenir ce mouvement. Dans cet effort, l’idée que plus la particule est petite, plus elle est facile à mettre en mouvement est erronée ; il n’est pas si aisé d’arracher des particules fines à la surface. Ralph Bagnold (1896-1990), grand explorateur des déserts terrestres, a mis en évidence l’existence d’une taille de particule pour laquelle le mouvement à la surface était le plus facile à initier. Ce diamètre seuil peut êtres estimé par la relation empirique suivante : où est la densité du grain, est l’accélération de pesanteur de la planète, la densité de l’air et η sa viscosité. On a pu vérifier sur Terre que la répartition en taille des grains constituant les dunes était globalement distribuée autour de .
La vitesse de cisaillement (qui caractérise la force que le vent exerce sur le sol) seuil de mise en mouvement d’un grain de diamètre est alors : .
La vitesse de l’écoulement (ici du vent), qui varie de manière logarithmique avec la hauteur au dessus du sol (voir la figure), est liée à la vitesse de cisaillement par la formule empirique suivante : où est un facteur lié à la rugosité de surface, environ égal à 1/30 de la taille des grains lorsque ces derniers sont compactés à la surface. Typiquement, sur la Terre et sur Mars, =0.2-0.3 mm. C’est le gradient de vitesse d’écoulement au dessus du sol qui crée un cisaillement et permet de transférer l’énergie du vent vers les grains.
En tout logique, plus la gravité de la planète est faible, plus la taille des particules faciles à déplacer est grande et plus la vitesse seuil de mise en mouvement est petite. Sur Terre comme sur Titan, où les particules sont respectivement constituées de quartz et d’hydrocarbures solides, ∼0.2 mm. Cependant, sur Titan, qui 44 fois moins massif que la Terre, un vent à 1 m de la surface de 0.5 m/s suffit à initier leur mouvement alors que sur Terre un vent minimum de 4.5 m/s est requis. Sur Mars, la gravité est réduite aussi mais la faible densité atmosphérique élève la vitesse de cisaillement seuil de mise en mouvement. L’atmosphère dense de Vénus, au contraire, facilite la mise en mouvement de la matière sédimentaire. L’appliquette Erosion permet d’apprécier la facilité d’entrainement de la matière sédimentaire sur différents corps planétaires.
En dessous de la vitesse seuil , aucune particule, même petite, ne décolle.
En effet, pour les particules dont le diamètre , la vitesse de cisaillement seuil de mise en mouvement décroit en mais reste supérieure à car le déplacement des petites particules est gêné par la présence d’une couche visqueuse tout près de la surface et/ou l’existence de forces cohésives (forces électrostatique ou de van der Waals). Il a fallu plusieurs tempêtes (« dust devils ») sur Mars pour balayer la poussière installée sur les panneaux solaires de Spirit et d’Opportunity.
Pour les grains dont le diamètre , la viscosité de l’air n’est plus un obstacle mais la vitesse seuil de cisaillement nécessaire pour initier leur mouvement croit en selon : . Evidemment, plus le grain est grand et/ou lourd, plus il est difficile à mettre en mouvement. Un air dense, cependant, facilitera son déplacement.
L’activité éolienne et, lorsqu’elle existe (sur Terre et Titan), l’activité fluviale participent efficacement au transport des sédiments des surfaces planétaires dotées d’une atmosphère. L’initiation de ce mouvement se fait plus ou moins facilement en fonction de la nature des sédiments (densité), des caractéristiques du fluide (densité et viscosité de l’air ou de l’agent liquide) et de la pesanteur. C’est ce qu’illustre cette appliquette.
Le modèle simplifié sur lequel s’appuie cette appliquette est décrit en partie dans la section activité éolienne. Pour plus de détails se référer à : « Planetary Surface Processes » de H. Jay Melosh, Cambridge University Press, 2011.
A vous de jouer en essayant de répondre aux questions ci-dessous.
Mise en mouvement des sédiments sur Vénus, la Terre, Mars et Titan
Les caractéristiques (densité, viscosité) des fluides (atmosphères, liquides) présents à la surface de Vénus, la Terre, Mars et Titan sont donnés ici. Rappelons que la composition des sédiments varie d’un corps planétaire à l’autre : du quartz (2650 ) sur Terre, du basalte (2900 ) sur Vénus et Mars et de la glace d’eau (992 à 92 K) et/ou de la matière organique (1500 ) sur Titan.
Testez l’appliquette pour un cas quelconque et expliquez la courbe obtenue et notamment les 2 régimes qui se dégagent.
Sur quel objet planétaire le transport des particules sédimentaires par le vent est-il le plus facile ? Classez les planètes par ordre de facilité du transport éolien et expliquez.
Toutes ces planètes présentent des dunes à leur surface, sur laquelle les grains constituant ces dunes sont sans doute les plus fins ?
Trouvez la combinaison Planète-Atmosphère-Sédiments pour laquelle l’entrainement de la matière sédimentaire à la surface requiert les vents les plus faibles.
La taille typique des grains constituant les dunes sur Terre est de l’ordre de 200 μm. Commentez.
Comparez la mise en mouvement d’un grain à la surface par le vent à celle d’un grain situé au fond d’une rivière sur Terre. Expliquez.
Même question pour Titan. Notez que la composition des sédiments sur Titan n’est pas encore bien identifiée. Il pourrait s’agir de matière organique, de glace d’eau ou d’un mélange de ces composés. L’agent liquide est le méthane liquide.
Comparez le transport fluvial sur Titan à celui sur Terre.
Dans le passé, de l’eau liquide coulait sans doute à la sa surface de Mars. Comparez l’activité paléo-fluviale de Mars à celle présente de la Terre. Que se passe-t-il pour les grains les plus petits ?
Quelle doit être la vitesse minimum du vent à 1 m du sol pour la mise en mouvement de grains à la surface de Mars. Qu’en déduisez vous ?
Un bon moyen de prédire comment le vent déplacera un grain de diamètre et de densité , est de comparer la vitesse de cisaillement de l’écoulement à la vitesse limite de chute du grain dans l’atmosphère , aussi appelée vitesse terminale: où est un facteur caratéristique lié à la taille et à la forme du grain. pour les grains de forme sphérique caractérisés par un nombre de Reynold suffisamment grand pour considérer que l’écoulement autour d’eux est de nature turbulente et pour les grains plus petits pour lesquels la viscosité de l’air joue un rôle non négligeable (petit nombre de Reynolds). Pour ces cas là on peut aisément montrer : .
Lorsque la vitesse de cisaillement de l’écoulement est nettement supérieure à , le grain mis en mouvement entre en suspension ; il peut alors s’élever très haut dans l’atmosphère et traverser des distances intercontinentales. La condition étant plus facilement vérifiée pour des grains petits et/ou légers, ce type de mouvement concerne essentiellement les poussières.
Lorsque la vitesse de cisaillement de l’écoulement est comprise entre la vitesse seuil de mise en mouvement et la vitesse limite de chute (), le grain arraché à la surface est entrainé par le vent et se déplace alors par sauts successifs. C’est le phénomène de saltation. Les grains sont soulevées par le vent sur une longueur (qui correspond à une hauteur de quelques centimètres ou dizaines de centimètres sur Terre) et retombent sous l'effet de leur propre poids, en rebondissant et en éjectant d'autres particules par impact. Une fois le mouvement de saltation initié, il requiert un vent moins fort pour être entretenu dans la mesure où, à chacun de ses sauts, le grain transmet une partie de son énergie cinétique à de nouveaux grains. Notons néanmoins que le mouvement de saltation peut être contrarié par le passage sur une surface rugueuse (ou la végétation sur Terre) et la présence d’une force de cohésion entre les grains (notamment la tension superficielle si les grains sont humides).
Enfin, les grains de plus grande dimension et/ou plus massifs, plus difficiles à soulever (), roulent ou glissent à la surface. Ils se déplacent ainsi de proche en proche sans jamais perdre le contact avec le sol. En réalité, leur mouvement est davantage déclenché par l'impact des particules en saltation plutôt que par l'action du vent. C’est la reptation.
Des vents excédant la vitesse seuil de déplacement ont été directement mesurés sur la Terre, Vénus et Titan. Mais cela ne suffit pas à expliquer pourquoi au moins 13% de la surface de Titan, 1.5% des continents terrestres, 0.7% du sol de Mars et 0.004% de la surface de Vénus observée par le Radar de Magellan sont couverts de dunes. Le mécanisme de formation de ces accumulations sableuses est complexe et nous n’en donnerons que le principe ici.
Les premiers grains mis en saltation, en retombant au sol, transmettent une partie de leur énergie à d’autres grains qui peuvent alors plus facilement se mettre en mouvement. La quantité de grains en saltation augmente ainsi progressivement jusqu’à ce que le flux soit saturé c’est-à-dire jusqu’à ce que le fluide ne puisse plus se charger en sable. Commence alors l’accumulation ; le sable érodé en amont se dépose sur le sol. Si la quantité de sable est suffisante, une dune apparaitra.
La morphologie des dunes est très variable (en étoile, barkhane, linéaire, transverse, … etc.); elle dépend non seulement du régime de vent en vigueur (unidirectionnel ou multidirectionnel, permanent ou oscillant) mais aussi de la disponibilité et de la nature des sédiments sur place. Dans les régions où la direction du vent s’inverse périodiquement, à l’échelle d’un jour ou d’une saison, les dunes sont souvent de type linéaire. L’essentiel des dunes observées sur Titan sont de ce type. Elles sont très semblables aux structures observées sur Terre en Namibie ou encore dans le désert d’Arabie Saoudite.
Il est important de souligner que le flux en masse de sédiment transporté par le vent étant proportionnel au cube de la vitesse de cisaillement , l’orientation des dunes est donc plus volontairement contrôlées par des vents rares mais exceptionnellement puissants plutôt que par des vents présents tout au long de l’année mais dont l’intensité est faible. En particulier, il a été récemment montré que les dunes de Titan était sculptées lors de rares tempêtes tropicales, ce qui a permis de résoudre le mystère de leur orientation, contraire à celle des vents moyens prédits par les modèles climatiques mais en accord avec la direction de propagation des vents forts soufflant aux moments des Equinoxes.
Enfin, soulignons qu’il existe d’autres formes édifices éoliens, notamment des yardangs, (crêtes rocheuses sculptée par le vent) et trainées (« wind streaks ») sans expression topographique.
Si la surface de Mars a pu voir l’eau couler dans le passé, aujourd’hui seules les surface de la Terre et de Titan sont soumises à l’érosion pluviale et fluviale. Il pleut, en effet, sur Terre partout où la température l’autorise. Sur Titan, ce sont les cycles du méthane et de l’éthane qui régissent la météo. Lorsque le sol est perméable, les « eaux » des pluies s’y infiltrent, venant parfois enrichir des aquifères - ou « alcanofères » sur Titan- souterrains, jusqu’à le saturer avant de s’écouler à la surface.
Au fur et à mesure, l’écoulement liquide décompose et désagrège le socle rocheux en place (aussi appelé substrat), par altération physique, mécanique mais aussi chimique, et participe ainsi à la production d’une masse sédimentaire ensuite transportée à l’état de grains ou de manière dissoute vers de plus basses altitudes
Altération physique: Plusieurs processus physiques provoquent la fragmentation mécanique du matériel rocheux sans en affecter la composition. En particulier, sur Terre, l’eau, en s’infiltrant, dans les fissures des roches les fragilise et contribue à leur désagrégation par cryoclastie (processus de fragmentation lié au cycle de gel/dégel) ou haloclastie (processus de fragmentation lié à la formation de cristaux de sels suite à l’évaporation de l’eau sur Terre). Ces processus étant liés à des changements de phase de l’agent liquide, ils ne sont sans doute pas très efficaces sur Titan où les variations de température à la surface sont très limitées (<2° pendant la journée, <4° d’une saison à l’autre).
Abrasion mécanique: Les débris solides transportés dans les écoulements sont aussi de puissants agents d’érosion; ils entaillent le substrat rocheux pour creuser des vallées et saper des berges. Un liquide étant plus dense qu’un gaz, l’activité fluviale est un agent d’érosion nettement plus efficace que l’activité éolienne : elle exerce une pression plus forte sur les sols, est capable de transporter des débris plus gros et est davantage aidée dans ses attaques mécaniques par la gravité. Pendant leur transport prolongé, les débris voient généralement leur taille se réduire et leur forme s’arrondir ; 10 km suffisent à façonner un galet de calcaire sur Terre - 300 km pour un galet siliceux. L’ampleur de ce travail d’érosion dépend de la vitesse et de la viscosité du fluide en mouvement ainsi que de la nature (notamment de la dureté) des sédiments et du socle rocheux. Est-ce l’érosion fluviale qui a façonné les pierres arrondies de 2 à 20 cm de diamètre photographiées par la sonde Huygens à la surface de Titan (voir la figure ci-contre)? Et si oui, combien de kilomètres on été nécessaires pour leur donner leur forme ? Des travaux préliminaires sur l’érodabilité de la glace d’eau à -180°C (la matière probable de la croûte de Titan) suggère que l’érosion par les rivières d’hydrocarbure sur Titan est aussi efficace que l’érosion fluviale sur Terre.
Altération chimique:Les activités pluviale et fluviale peuvent aussi modifier la nature chimique du socle rocheux, notamment par :
On l’a vu avec l’activité éolienne, la capacité d’un fluide à mobiliser un sédiment de diamètre d et de densité σ dépend de la densité ρ du fluide, de sa viscosité η et, bien sûr, de sa vitesse d’écoulement. En utilisant une loi d’échelle, l'appliquette "Erosion" permet de comprendre comment les différents paramètres en jeu agissent sur la mise en mouvement de la matière sédimentaire et de comparer l’action d’entrainement du vent sur différents corps planétaires à celle d’un solvant liquide (eau ou méthane liquide). Cependant, sans entrer dans le détail, soulignons que le modèle d’initiation de mouvement présenté dans la section "Activité éolienne: transport (initiation)" s’applique mal au mouvement des petites particules dans un fluide liquide, notamment parce que les forces de cohésion sont moindres et de natures différentes que celles en jeu dans un fluide gazeux. La figure ci-contre montre que des vitesses d’écoulement moins importantes sont requises pour transporter des petites particules dans l’eau ou le méthane liquide.
Une fois mis en mouvement, les sédiments peuvent être transportés. Les modes de transport des sédiments par un agent liquide sont sensiblement les mêmes que ceux vu pour l’activité éolienne: suspension (les particules ne sont jamais en contact avec le fond de la rivière), saltation (les grains se déplace en rebondissant sur le fond) et traction (les grains se déplacent en roulant ou en glissant au fond sans jamais perdre le contact avec le sol). Le transport des sédiments dans un liquide par saltation ou traction est aussi appelé charriage. A cette liste vient néanmoins s’ajouter la possibilité de transporter certains composés sous une forme dissoute (voir ici). Soulignons que l’addition d'une faible quantité de substance en suspension ou en solution peut augmenter grandement la viscosité du liquide.
Pour prédire le mouvement d’un grain dans une rivière, on peut comparer la vitesse de cisaillement du fluide à ce qu’on appelle la vitesse de sédimentation c’est-à-dire la vitesse minimale qu'un flot doit avoir pour transporter, plutôt que déposer, un sédiment de diamètre d et de densité σ. La vitesse de sédimentation est à l’activité fluviale ce que la vitesse terminale est à l’activité éolienne. Elle dépend de la pesanteur, de la taille de la particule, de sa densité et de celle du fluide, et, pour les plus petites particules (celles dont le nombre de Reynolds est inférieur à 1), de la viscosité du fluide.
A l’instar de ce que l’on a vu pour l’érosion éolienne, la vitesse de sédimentation peut s’écrire: pour les petites particules sphériques autour desquels l’écoulement est laminaire et pour les particules sphériques plus grosses dont autour desquels l’écoulement est de nature turbulente.
Si l’écoulement est gravitaire (uniquement produit par l’action de la pesanteur), la vitesse de cisaillement basal (au fond d’un lit de rivière) est lié, en première approximation, à la profondeur du flot h (ou la hauteur des « eaux »), à la pente du lit () et à la gravité par la relation : . Dans la pratique, on peut considérer que si , les grains sont suspendus dans le liquide et si , ils sont charriées (par saltation ou traction) ; les sédiments restent alors confinés dans une zone proche du fond. Plus la pente locale est forte ou plus le niveau des «eaux» est haut (notamment en période de crue), plus la matière sédimentaire sera facilement et abondamment transportée.
Notons que parce que la vitesse de l’écoulement n'est pas constante sur une section de cours d'eau (elle est maximale un peu en-dessous de la surface et dans l'axe du cours d'eau et minimale sur le fond et près des berges), une rivière profonde aura peu d'action sur le fond au contraire d’un écoulement très superficiel (quelques décimètres). Sur Terre, à vitesse égale en surface, la force érosive des wadi (lits de rivières généralement asséchées, en milieu aride) est en effet bien plus forte que celle des rivières des pays tempérés.
La figure ci-contre illustre les modes de transport des gros grains sédimentaires sur la Terre, Titan et Mars. Elle montre notamment que, pour une même vitesse d’écoulement, des sédiments plus gros peuvent être charriés sur Titan par rapport au cas terrestre. D’autre part, du fait de leur densité plus faible, les sédiments composés de glace sont a priori plus faciles à transporter que des sédiments de nature organique.
Les « eaux » fluviales sont généralement collectées au sein de bassins de réception et viennent alimenter un réseau fluviatile hiérarchisé (rigoles, ruisseaux, rivières et fleuves sur Terre). Notons, une différence notable avec le cas éolien : l’agent liquide, contrairement au vent, ne se répartit pas sur toute la surface mais suit la ligne de plus grande pente en restant confiné dans un lit. Les filets d' « eau » confluent et fusionnent en chenaux de taille croissante. La mise en place de ces réseaux fluviatiles dépend de la pente régionale, du débit de liquide et de la nature du substrat (notamment de sa perméabilité). Sur pente forte, les chenaux sont multiples et confluent: le réseau fluviatile est dit en tresse: c'est le cas des portions amonts des cours d'eau (torrents de montagne). Quand la pente devient faible les différents cours d’ « eau » se rejoignent généralement en un unique chenal d'écoulement, souvent sinueux: le réseau à méandres caractérise la plaine alluviale proche de l'embouchure.
La matière sédimentaire mobilisée est déposée à l’endroit où la pente diminue formant ce que l’on appelle des cônes de déjection ou cônes alluviaux. La consolidation des sédiments est à l'origine de la formation des couches sédimentaires mais cette matière peut aussi être re-mobilisée lors de nouveaux épisodes pluvieux. Sur Terre, les sédiments finissent souvent leur voyage dans les océans. C’est peut être aussi le cas sur Titan dont les plus grands lacs sont connectés à des réseaux fluviatiles complexes (voir la figure ci-contre). Les amas de dépôts à l’embouchure des fleuves sont appelés deltas. De part et d’autre du lit limité par les berges, il est aussi fréquent de trouver des levées alluviales, topographies bombées formées par les dépôts des crues. Quelques exemples de paysages fluviaux sur la Terre, Titan et Mars sont présentés sur la figure ci-contre.
Les dessins que forment les réseaux fluviatiles à la surface renseignent sur la nature du substrat rocheux, la pente locale et une éventuelle activité tectonique. Ils fournissent également des informations précieuses sur les climats présents ou passés. Cependant il faut garder à l’esprit que le flux de sédiments transportés variant en , la forme des chenaux d’écoulement est généralement représentative d’événements catastrophiques et notamment d’épisodes de crue. Enfin, soulignons que tous les chenaux ne sont pas d’origine fluviale : les chenaux visibles à la surface de Vénus ont été creusés par des coulées de lave.
Quel point du cours la figure ci-contre illustre-t-elle ?
Une météorite (sphérique) composée de roches denses ayant une densité et un rayon de 1 km frappe la Lune avec une vitesse de .
Calculer l’énergie cinétique de ce projectile ?
Quelle est l’amplitude équivalente M de cet impact sur l’échelle de Richter ? On utilisera la formule: . Qu’en serait-il si la météorite était composée de fer (donc de densité de )?
3) Quelle fraction de cette énergie est nécessaire à la vaporisation totale du projectile ? On considérera que l’énergie de vaporisation est égale à .
Quel est le diamètre du cratère transitoire crée par cet impact ? On supposera que la Lune a la même densité que la météorite et que le projectile arrive sur la surface lunaire avec un angle de 30°.
D’après votre analyse de l’exercice "Catégorie de cratères", s’agit-il d’un cratère simple ou complexe ?
Quel est le volume de matière déplacé sachant que la profondeur du cratère transitoire vaut le tiers de son diamètre ?
Sachant qu’un tiers du volume déplacé est éjecté et redéposé hors du cratère, combien d’impacts de ce type faudrait-il pour recouvrir d’éjectas toute la surface de la Lune sur une épaisseur moyenne de 5 m ?
Cet exercice s'inspire d'un exercice proposé dans "Planétologie" de C. Sotin, O. Grasset et G. Tobie, Edition Dunod, Paris, 2009.
Une météorite de fer ayant une densité de et un diamètre de frappe la Lune avec un angle de et une vitesse de .
Estimer la taille du cratère formé par cet impact.
Des roches sont excavées du cratère avec une vitesse de . A quelle distance du cratère principal se formeront les cratères secondaires ?
Reprendre les questions 1) et 2) pour un impact sur Mercure. Comparer avec le cas lunaire et conclure.
Commentez cette figure extraite de Shkuratov & Bondarenko (Icarus 149, 329, 2001) donnant l’épaisseur du régolithe de différentes régions de la face visible de la Lune en fonction de l’âge de la surface . A votre avis, quel type d’observation a permis d’estimer ?
Triton, le plus grand satellite de Neptune, possède une atmosphère tenue, composée presque uniquement d’azote. Cette atmosphère a probablement comme origine des geysers dont les traces (en l’occurrence des traînées sombres orientées dans le sens du vent dominant résultant de l’éjection puis de la retombée à la surface de panaches de poussières de 2 à 8 km de haut, cf. figure) ont été observées sur la calotte polaire australe du satellite par la sonde Voyager 2. La densité de l’atmosphère de Triton à la pression de surface (∼5 Pa) est de et la viscosité de l’azote à la température de surface (∼38 K) est . L'accélération de pesanteur à la surface de Triton est 0.78 .
Supposons que des grains de glace d’eau soient présents à la surface de Triton.
Quelle taille ont les grains susceptibles d’être déplacé ?
Quelle vitesse doit avoir le vent à 1 m au dessus de la surface pour les déplacer?
Comparez cette vitesse à la vitesse du son dans l’atmosphère de Triton (environ 127 m/s) et concluez sur la probabilité qu’une future mission, dotée de l’instrumentation adéquate, trouve à la surface du satellite des dunes.
A votre avis, quels processus pourraient être à l’origine de la matière sédimentaire sur Triton ?
Cet exercice s'inspire d'un exercice de "Planetary Surface Processes" de H. Jay Melosh, Cambridge University Press, 2011.
Considérons un cours d’eau particulièrement calme s’écoulant à 1 m/s. Le fond de ce cours d’eau est à 1 m de la surface.
Combien de temps faut-il à un grain de sable de 2 µm de diamètre pour atteindre le fond du cours d’eau ?
Même question pour une particule fine d’argile de 0.2 µm de diamètre?
A votre avis, les particules d’argile fines participent-elles à la sédimentation au fond du cours d'eau ?
La sonde Voyager 1 a détecté 9 volcans actifs à la surface de Io. En supposant que chacun de ses volcans a un taux d’éruption de 50 km3/an, déterminer :
La vitesse moyenne de renouvellement de la surface sur Io en cm/an.
Le temps nécessaire au renouvellement total de la surface de Io sur une épaisseur d’1 km.
Quel est le type de ce cratère ? Décrivez-le.
Sachant que ce cratère se trouve sur Mars, quelle limite supérieure peut-on donner sur son diamètre ?
Si le cratère était sur la Lune, cette limite supérieure serait-elle plus petite ou plus grande ? Et la couverture d’éjectas du cratère serait-elle plus ou moins étendue ?
Sachant que le diamètre du cratère est de 5 km, quelle est (environ) sa profondeur?
Quel était le diamètre du cratère transitoire pendant la phase d’excavation ?
En supposant que le projectile qui a créé ce cratère était de même densité que la surface de Mars et qu’il a percuté cette surface avec un angle de 30° et une vitesse de 10 km/s, quelle était la taille de ce projectile ?
On a négligé l’atmosphère de Mars mais quel effet aurait-elle sur la taille finale du cratère ?
Quelle est l’amplitude équivalente M de l’impact sur l’échelle de Richter ? On utilisera la formule : où est l’énergie cinétique du projectile. On supposera que la densité de l’impacteur est celle du basalte soit et qu’il est sphérique.
Outre les météorites et les micrométéorites, quelles particules bombardent la surface de Mars ? Décrivez brièvement les principaux processus d’altération associés à ce bombardement.
En particulier à quel processus est due la couleur rouge de Mars ?
Comment l’altération spatiale évolue-t-elle avec l’activité solaire ?
Peut-on s’attendre à une thermoclastie efficace sur Mars ? Justifiez votre réponse.
Quel processus est à l’origine des sols polygonaux observées sur Mars ?
Peut-on s’attendre à des processus de migration/sublimations sur Mars ? Justifiez votre réponse.
Il y a des édifices éoliens sur Mars, notamment des dunes.
Estimez ce que doit être le diamètre moyen des grains des dunes sur Mars ? On considérera que l’atmosphère de Mars a une densité de et une viscosité de 10,8 et que les sédiments sont de nature basaltique.
Quelle doit être la vitesse minimum du vent à 1 m du sol pour la mise en mouvement des grains de dunes à la surface de Mars.
Les grains des dunes de Vénus sont-ils en général a priori plus fins ou, au contraire, plus grossiers ?
Pourquoi les sédiments fins sont-ils difficiles à déplacer sur Mars ?
Pourquoi les galets devaient être plus faciles à transporter dans les paléo-rivières de Mars que dans les rivières de la Terre ?
Dans cette partie, nous verrons comment s'établit la structure thermique dans les couches externes fluides (principalement gazeuses, ce que l'on appelle les atmosphères) des planètes, ainsi que les conséquences de l'existence d'une telle structure.
Il est possible de parcourir la partie Découvrir avec un simple bagage de Terminale scientifique ou d'amateur de vulgarisation scientifique. En revanche, la bonne compréhension des phénomènes en jeu et la capacité à calculer même approximativement les conditions moyennes au sein d'une atmosphère planétaire exigent un bagage en physique générale niveau licence, à savoir plus précisément :
L'observation de la seule biosphère connue à jour (celle de la Terre) conduit les exobiologistes à poser comme nécessaire la présence d'eau liquide (ou au moins d'un liquide aux propriétés analogues comme l'ammoniac) à la surface d'une planète pour qu'une chimie prébiotique complexe, puis une activité biologique au sens propre, puisse s'y développer. Si bien que la notion d'habitabilité planétaire est de nos jours quasiment devenue un synonyme de présence possible d'eau liquide.
Or, si la disponibilité de l'eau dans l'Univers ne fait guère de doutes (la molécule H2O étant l'une des plus répandues), la question de son apport sur les planètes telluriques fait encore l'objet de débats. Surtout, la permanence de son état liquide est encore plus difficile à obtenir, et nécessite une fourchette de conditions de pression et de température bien particulières (ainsi, à la pression atmosphérique terrestre, doit-on se trouver entre 0°C et 100°C pour que l'eau puisse demeurer liquide). Les conditions de pression et de température au sein des atmosphères planétaires de leur sommet jusqu'à l'éventuelle surface constituent donc l'un des facteurs essentiels conditionnant les phénomènes pouvant s'y dérouler (qu'ils soient de nature biologique, ou plus simplement chimique ou météorologique).
Une autre question cruciale est celle de la détectabilité de telles planètes dans notre voisinage galactique. Le seul moyen envisageable pour caractériser ces planètes consiste en l'étude spectroscopique (c'est-à-dire, décomposé selon ses différentes "couleurs") du rayonnement qui nous parvient. Ce rayonnement peut nous parvenir principalement par deux processus physiques distincts :
Il existe trois modes de transport de la chaleur au sein des atmosphères planétaires, qui déterminent les variations de température au sein de ces atmosphères :
Une des plus importantes caractéristiques des atmosphères planétaires est leur épaisseur verticale. En toute rigueur, leur densité décroît continûment avec l'altitude jusqu'à rejoindre celle du milieu interplanétaire, si bien qu'il est difficile de leur attribuer une épaisseur bien définie. On peut néanmoins caractériser la rapidité avec laquelle cette densité décroît avec l'altitude (atmosphère plus ou moins bien "tassée" verticalement). Le lecteur intéressé par une définition quantitative pourra se reporter ici.
Cela définit ce que l'on appelle l'échelle de hauteur atmosphérique, qui représente la différence d'altitude entraînant une division de la pression atmosphérique (liée à la densité) par un facteur constant ()
Cette échelle de hauteur est le résultat du compromis entre deux phénomènes physiques : la gravitation qui tend à tasser les molécules de l'atmosphère vers le bas, et l'agitation thermique des molécules qui tend à les disperser dans tout l'espace, y compris vers le haut. À ce titre, et toutes choses égales par ailleurs, l'échelle de hauteur atmosphérique est :
Planète (ou satellite) | Vénus | Terre | Mars | Jupiter | Io | Saturne | Titan | Uranus | Neptune | Triton | Pluton |
---|---|---|---|---|---|---|---|---|---|---|---|
Échelle de hauteur (en km) | 16 | 8,4 | 11 | 25 | 7,9 | 48 | 21 | 27 | 22 | 14 | 18 |
Dans le système solaire, les valeurs extrêmes vont de pour la Terre à environ pour Saturne. Ces valeurs sont en général très petites devant le rayon de la planète, si bien que l'on peut négliger la courbure de la planète et considérer l'atmosphère comme une succession de couches planes empilées de bas en haut. C'est ce que l'on appelle l'approximation plan-parallèle.
Là où la convection est le mode de transport dominant d'énergie dans une atmosphère, on constate une décroissance régulière de la température avec l'altitude selon un coefficient (en °C/km ou K/km) appelé gradient adiabatique. En effet, si l'on considère une masse de gaz au cours de son transport dans un courant de convection vertical, celle-ci devra lutter contre la pesanteur et donc fournir de l'énergie pour ce faire. Or, le seul "réservoir" d'énergie d'un gaz parfait réside dans sa capacité calorifique. Il y aura donc une conversion partielle de son énergie thermique (en fait, de son enthalpie puisqu'on y inclut le travail des forces de pression) vers de l'énergie potentielle de pesanteur, et donc une baisse de la température de la parcelle d'air d'autant plus grande que celle-ci aura acquis davantage d'altitude (voir ici pour la démonstration). Si une région de l'atmosphère est soumise à cette circulation et en négligeant les autres modes de transport d'énergie, la température y décroît alors avec l'altitude en suivant ce gradient adiabatique.
En pratique cependant, les atmosphères planétaires ne sont pas constituées que de gaz parfaits, mais comportent des gaz en équilibre avec leur propre phase condensée (liquide ou solide). C'est le cas par exemple sur Terre de la vapeur d'eau qui constitue une proportion variable de l'atmosphère terrestre et se trouve parfois en équilibre avec des gouttes d'eau liquide ou des cristaux de glace d'eau. Ou encore de Titan où c'est le méthane gazeux qui se trouve parfois au contact de gouttes de méthane liquide. En ce cas, il existe un réservoir d'énergie supplémentaire pour une parcelle d'atmosphère en mouvement ascendant, à savoir l'énergie libérée par le gaz condensable lorsqu'il se convertit en gouttelettes liquides ou en cristaux solides, ce que l'on appelle la chaleur latente de condensation. Ce réservoir supplémentaire d'énergie limite alors la baisse de température avec l'altitude vers une valeur plus faible. On parle alors de gradient adiabatique humide, que l'on distingue du gradient adiabatique sec en l'absence de condensation.
La couche atmosphérique où la convection est le mode dominant de transport d'énergie s'appelle la troposphère, caractérisée par la décroissance en température décrite ci-dessus. C'est la couche atmosphérique la plus profonde, au contact de la surface pour les planètes telluriques. Au-dessus de la troposphère, les densités plus faibles rendent le transport d'énergie par rayonnement comparativement plus efficace que la convection, car le milieu dilué devient davantage transparent au rayonnement thermique.
Le corps noir est un objet physique idéal qui absorbe tout le rayonnement électromagnétique qu'il reçoit (sa réflectivité est donc nulle à toutes les longueurs d'onde).
La propriété fondamentale du corps noir est que l'intégralité du rayonnement électromagnétique en provenance de cet objet est d'origine thermique. Le spectre de ce rayonnement ne dépend alors que de la température du corps noir en question. En particulier :
Certains objets réels sont de bonnes approximations du corps noir idéal, du moins sur certains intervalles de longueur d'onde et dès que le rayonnement réfléchi y est négligeable devant l'émission thermique et en l'absence de processus d'émission autres que thermiques. C'est par exemple le cas de la plupart des objets du quotidien dans le domaine infrarouge moyen (pour les longueurs d'onde autour de .), ou encore des étoiles dans le domaine visible.
Il est d'usage de distinguer deux intervalles spectraux différents lorsque les planètes ont une température notablement plus faible que leur étoile (ce qui est toujours le cas dans le système solaire, mais pas toujours pour les planètes extrasolaires !).
La température d'équilibre d'une planète est la température théorique de sa surface (si on suppose cette température uniforme) en l'absence d'atmosphère. C'est une grandeur théorique qui n'a pas vocation à être mesurée, contrairement à la température effective.
La température d'équilibre se détermine à partir d'un simple bilan de rayonnement (visible et thermique). Cela revient à négliger les autres sources d'énergie que le rayonnement de l'étoile hôte (le Soleil pour la Terre par exemple) : géothermie, réactions chimiques ou nucléaires, transitions de phase, etc. Sont pris en compte :
La température de surface influe ici sur le rayonnement thermique. Elle est égale à la température d'équilibre lorsque le bilan est équilibré, à savoir : Puissance lumineuse reçue = Puissance lumineuse réfléchie + Puissance rayonnée thermiquement, ce qui est équivalent à Puissance lumineuse absorbée = Puissance rayonnée thermiquement.
Une remarque importante est que cette définition repose sur l'hypothèse irréaliste d'une température de surface homogène sur l'ensemble de la planète, donc avec une redistribution parfaite de l'énergie. Cette température est donc un outil théorique plus qu'une température physiquement mesurable. Le lecteur intéressé par une approche plus quantitative (mais identique conceptuellement) pourra se reporter ici.
La température effective est une mesure de la puissance émise thermiquement par une planète. Elle se définit comme la température du corps noir (idéal) émettant la même puissance totale (en comptant toutes les longueurs d'onde) que la planète par unité de surface. Contrairement à la température d'équilibre, c'est une grandeur expérimentalement mesurable.
Nous connaissons assez bien le système solaire pour pouvoir mesurer les températures effectives des planètes et les comparer aux températures d'équilibre théoriques. Le résultat est résumé sur le tableau ci-dessous :
Planète (ou satellite) | Mercure | Vénus | Terre | Lune | Mars | Jupiter | Saturne | Titan | Uranus | Neptune |
---|---|---|---|---|---|---|---|---|---|---|
Température d'équilibre (°C) | 161 | -42 | -19 | -2 | -63 | -163 | -192 | -191 | -215 | -227 |
Température effective (°C) | 161 | -42 | -19 | -2 | -63 | -149 | -178 | -191 | -214 | -214 |
Température moyenne de surface (°C) ** | 161 ** | 462 | 15 | -2 ** | -58 ** | N/A | N/A | -179 | N/A | N/A |
** : On suppose la conductivité thermique très grande, d'où une température de surface uniforme sur la planète.
Pour la plupart des planètes extrasolaires (hormis les plus grosses et les plus chaudes), seule la température d'équilibre peut être estimée (en supposant un albédo donné par un modèle théorique). Les ordres de grandeur de ces deux températures sont comparables lorsque la source d'énergie principale de l'atmosphère est le rayonnement de l'étoile hôte, comme c'est le cas dans le système solaire. Pour les planètes telluriques (et le satellite de Saturne Titan), ces deux températures sont mêmes égales car les sources d'énergie interne à la planète ont un effet négligeable sur l'atmosphère, ce qui n'est pas le cas pour les géantes gazeuses.
On constate également sur le tableau précédent que pour les corps possédant une surface solide, la température moyenne de la surface est toujours au moins égale à la température effective (égale pour un corps sans atmosphère comme la Lune ou bien Mercure, supérieure pour ceux possédant une atmosphère). Ce phénomène est appelé effet de serre et sera expliqué plus en détail à la page suivante.
Le phénomène essentiel à l'origine de l'effet de serre au sein d'une atmosphère réside dans la différence d'absorption des rayonnements infrarouge thermique (en provenance de la planète) et visible/UV (en provenance de l'étoile) par les constituants de l'atmosphère. Les constituants gazeux d'une atmosphère (en excluant les particules solides ou liquide en suspension comme les poussières ou les cristaux et gouttelettes des nuages) sont en général transparents pour la lumière visible émise par leur étoile. En revanche, certains de ces gaz (comme la vapeur d'eau H2O, le dioxyde de carbone CO2 ou encore le méthane CH4) absorbent très bien le rayonnement infrarouge d'origine thermique émis par la planète.
Cette différence d'absorption entre les rayonnements conduit à une séparation entre les régions :
Or, le bilan d'énergie de la planète impose que ce soit la couche rayonnant vers l'espace qui soit à la température effective permettant un équilibre entre la puissance reçue et celle absorbée. Il faut donc que l'énergie absorbée en profondeur puisse être transportée jusqu'à cette altitude de rayonnement. Comme l'atmosphère profonde située entre ces deux niveaux est opaque aux infrarouges, le rayonnement n'est pas le mode le plus efficace de transport, et c'est la convection qui prend le relais. Cette atmosphère profonde, s'étendant depuis l'altitude d'émission infrarouge jusqu'en bas (surface ou intérieur planétaire pour les géantes) n'est autre que la troposphère définie précédemment. Afin que ce transport d'énergie par convection puisse avoir lieu, il faut que la température de surface soit plus élevée que celle au sommet de la troposphère selon le gradient adiabatique. La température au sommet de la troposphère étant égale à la température effective, la température de surface est en conséquence plus élevée, ce qui est la définition même de l'effet de serre.
Ce sont les couches atmosphériques situées au-dessus de la troposphère, où la convection joue un rôle négligeable.
La couche atmosphérique située au-dessus de la troposphère est (en général, voir page suivante) appelée mésosphère. Le transport d'énergie s'y fait exclusivement par rayonnement. La température y décroît avec l'altitude en tendant vers une valeur appelée température de peau atmosphérique. Cette décroissance s'y effectue de façon beaucoup plus modérée que dans la troposphère située en dessous et soumise au gradient adiabatique.
Au sommet de la mésosphère, l'atmosphère devient complètement transparente à tous les rayonnements (les rayonnements visible ou IR thermique ne peuvent donc y déposer leur énergie) et extrêmement ténue (la convection est donc inefficace). Le transport d'énergie y est donc assuré faute de mieux par des processus de conduction qui sont eux-mêmes très inefficaces à grande distance. Cette zone connaît donc d'énormes contrastes de température verticaux et horizontaux car l'énergie qui y est déposée par les particules énergétiques de l'espace interplanétaire ou les rayonnements X et γ de l'étoile s'évacue très difficilement, ce qui conduit à l'appellation de thermosphère. La température y décroît avec l'altitude, comme montré plus en détail ici.
Certaines atmosphères planétaires possèdent une couche supplémentaire appelée stratosphère située entre la troposphère et la mésosphère. Cette couche est une couche radiative (la convection n'y joue aucun rôle dans le transport vertical de la chaleur) et connaît une inversion de température : la température y croît avec l'altitude ! Cette inversion est causée par une absorption partielle de la lumière et/ou des UV stellaires assez haut dans l'atmosphère, si bien que cette énergie ne peut pas s'évacuer par convection et seulement difficilement par radiation. Il se crée alors une anomalie chaude qui déforme le profil de température, allant jusqu'à l'inversion de température.
Dans le système solaire, Vénus et Mars ne possèdent pas de stratosphère (ces atmosphères principalement constituées de CO2 rayonnent très efficacement en infrarouge le peu de puissance absorbé à haute altitude, si bien que les anomalies de températures n'altèrent pas la forme du profil thermique). La Terre en possède une, causée par l'absorption des UV solaires par l'ozone (O3), sous-produit du dioxygène (O2) d'origine biologique. Les planètes géantes en possèdent également (causée par des composés hydrocarbonés absorbant les UV) ainsi que Titan (par absorption des UV solaires sur les particules du brouillard photochimique produit dans la haute atmosphère).
Nous allons à présent aborder les lois quantitatives permettant de modéliser simplement les profils verticaux de température au sein des atmosphères planétaires. Cela nécessite quelques rappels sur le rayonnement thermique, dit de "corps noir".
L'intensité lumineuse , définie comme la puissance émise par unité de surface émettrice, par angle solide autour de la direction du rayon et par unité de longueur d'onde émise par tout corps noir idéal de température , est donnée par la loi de Planck :
où , et désignent respectivement les constantes fondamentales de Planck, de la vitesse de la lumière et de Maxwell-Boltzmann. Cette fonction possède des propriétés mathématiques aux conséquences importantes pour la suite du cours.
Elle donne la position du maximum en de à température donnée, comme illustré précédemment.
Autrement dit, plus le corps est chaud, et plus il émet principalement à des longueurs d'ondes courtes et ce de façon inversement proportionnelle. Cela justifie la séparation du spectre lumineux en :
La séparation entre les deux domaines est prise de façon conventionnelle autour de . Dans le contexte exoplanétaire, une remarque importante s'impose dès maintenant : la plupart des exoplanètes actuellement connues sont extrêmement chaudes, avec des températures excédant souvent , si bien que la limite entre infrarouge thermique et lumière stellaire est décalée vers de plus courtes longueurs d'onde, voire devient complètement dénuée de sens. Cela empêche notamment d'appliquer tels quels les modèles atmosphériques conçus dans le système solaire qui distinguent ces deux catégories.
Lorsque l'on ne s'intéresse pas au détail du spectre émis par le corps noir, il est souvent intéressant de calculer le flux (c'est à dire la puissance par unité de surface émettrice) total émis par le corps noir dans un demi-espace (par exemple, pour une surface planétaire, vers le haut). Pour cela, il suffit d'intégrer la loi de Planck sur sa variable spectrale , et sur les d'angle solide en question. Le calcul donne alors le résultat suivant, connu sous le nom de loi de Stefan-Boltzmann :
où est connu sous le nom de constante de Stefan-Boltzmann. La puissance émise par un corps noir dépend donc énormément de sa température (une augmentation relative de de sa température entraîne ainsi une augmentation d'environ du flux émis).
Le corps noir est un modèle abstrait que l'on ne rencontre pas dans la vie courante. Le spectre thermique émis par un corps donné se trouvant à l'équilibre thermodynamique à la température peut alors s'exprimer comme où est une grandeur sans dimension appelée émissivité (qui dépend de la température, mais de façon moins marquée que la fonction de Planck si bien que par souci d'alléger les notations, on ne la note pas en général comme on le devrait en toute rigueur).
Considérons un corps noir en contact radiatif avec un corps réel à travers un filtre laissant seulement passer les radiations à la longueur d'onde . On sait qu'une fois l'équilibre thermodynamique atteint, ces deux corps en contact radiatif auront la même température . Si l'on note la fraction du rayonnement incident absorbée par le corps réel, que l'on appelle absorbance, il en renvoie la fraction complémentaire . Un bilan net des flux (nul à l'équilibre) à travers le filtre donne alors la relation , ce qui se simplifie en . C'est la loi de Kirchhoff, que L'on résume souvent en "les bons absorbeurs sont les bons émetteurs".
Cette page développe de façon quantitative les notions vues de façon qualitative ici.
Le bilan radiatif à l'équilibre imposant l'égalité entre la puissance rayonnée par la planète et la puissance absorbée par la planète, on obtient alors l'équation suivante :
qui se résout directement, après simplification du rayon de la planète (ce qui signifie qu'en première approximation, la température d'une planète ne dépend pas de sa taille) en :
ce qui permet de constater que cette température décroît avec la distance à l'étoile, et est proportionnelle à celle de l'étoile. Ainsi, toutes choses égales par ailleurs, pour une étoile naine rouge d'une température moitié de celle du Soleil, il faut pour conserver une température d'équilibre donnée se rapprocher de l'étoile d'un facteur quatre : on peut d'ores et déjà affirmer que les zones habitables autour des petites étoiles de faible température (naines rouges) sont très proches de ces dernières. Notons au passage que la température d'équilibre d'une planète est bornée par celle de son étoile, plus précisément comprise entre (à très grande distance) et à la limite où l'orbite de la planète est tangente à son étoile (et la planète de rayon négligeable devant l'étoile).
Cette équation relie l'augmentation de la pression en descendant avec la masse volumique locale (autrement dit, elle exprime le fait que l'origine physique de la pression au sein des atmosphères est le poids de la colonne de gaz située à la verticale). La différence de pression entre le haut et le bas d'une couche d'épaisseur (la direction verticale étant bien définie en géométrie plan-parallèle) dépend donc de la masse contenue dans un volume de section horizontale et d'épaisseur , d'où, par équilibre des forces verticales s'exerçant sur ce volume
Une simplification par fait donc apparaître : la pression décroît bien avec l'altitude, selon la masse volumique et la gravité locales.
La forme habituelle de cette équation , où désigne la constante des gaz parfaits, P la pression, V le volume occupé, n le nombre de moles et T la température n'est pas vraiment adaptée à une formulation locale (intensive, dirait-on en thermodynamique). Il vaut mieux la présenter sous la forme , où l'on voit apparaître la densité molaire (homogène à des ) locale. Or, cette grandeur est proportionnelle à la masse volumique selon la relation où désigne la masse molaire. Il est alors possible d'exprimer la masse volumique du gaz parfait en fonction des conditions de pression et température locales, ainsi que de la masse molaire du gaz constituant : .
On suppose ici que l'atmosphère est constituée d'un gaz parfait de masse molaire , et que l'atmosphère est de surcroît isotherme à la température selon l'altitude. L'utilisation de l'équation d'état du gaz parfait au sein de l'équilibre hydrostatique donne, par substitution de , avec désignant une grandeur homogène à une altitude. On l'appelle échelle de hauteur, et son interprétation est plus claire en intégrant l'équation différentielle où elle apparaît, avec la condition à la limite inférieure :
L'échelle de hauteur représente donc la hauteur caractéristique avec laquelle la pression décroît avec l'altitude pour tendre vers dans l'espace interplanétaire à grande distance de la planète (mais l'approximation plan-parallèle, ainsi que la thermodynamique usuelle à l'équilibre cessent d'être valides à quelques dizaines d'échelles de hauteur au-dessus de la surface).
Dans le cas d'une atmosphère non isotherme, la résolution formelle est un peu plus complexe, mais l'idée générale d'une décroissance localement exponentielle selon une échelle de hauteur locale dépendant de la température locale reste valable.
On peut reformuler la constante des gaz parfaits selon où désigne la constante de Maxwell-Boltzmann et la constante d'Avogadro, puis simplifier dans l'expression de . On obtient alors où désigne la masse d'une molécule de gaz : une molécule de gaz à la hauteur caractéristique possède donc une énergie potentielle de pesanteur du même ordre que son énergie cinétique microscopique (thermique) moyenne. On comprend donc bien pourquoi représente le compromis entre l'agitation thermique qui tend à disperser les atmosphères ( est croissant avec ), et le poids qui a tendance à tasser les atmosphères vers le bas : décroît avec (atmosphère dense) et (gravité forte).
Dans un modèle purement radiatif d'une colonne d'atmosphère (sans convection ni conduction), il est relativement facile d'estimer l'effet de serre causé par une atmosphère (transparente en lumière visible et partiellement opaque au rayonnement infrarouge thermique) entourant une planète tellurique.
On supposera que la surface possède une émissivité égale à en infrarouge thermique, et que celle de l'atmosphère (directement reliée à son absorbance via la loi de Kirchhoff) est prise constante et égale à dans tout le domaine infrarouge thermique (c'est ce que l'on appelle l'approximation grise). L'atmosphère est considérée ici isotherme à la température . On négligera aussi les flux d'énergie éventuels provenant de l'intérieur de la planète, et on supposera que l'étoile émet de façon négligeable dans l'infrarouge thermique, situé loin de son maximum d'émission dans le visible (ou le proche IR pour les plus froides d'entre elles).
La situation est très simple pour les flux stellaires. désigne le flux moyen à la surface de la planète, qui se déduit du flux à incidence normale appelé constante solaire (ou stellaire) par l'égalité des puissances : (voir le raisonnement définissant la température d'équilibre pour plus de détails, désigne ici le rayon planétaire). On en déduit immédiatement : un facteur 2 s'explique aisément par le fait que seul un hémisphère est éclairé, et l'autre facteur 2 par la moyenne du cosinus de l'angle d'incidence intervenant dans le calcul local du flux.
En vertu de la définition de l'émissivité, l'atmosphère rayonne donc dans chacun des demi-espaces inférieur (vers la surface) et supérieur (vers l'espace). En vertu de la loi de Kirchhoff, cette émissivité est égale à son absorbance, si bien que la fraction complémentaire du rayonnement en provenance de la surface (considérée comme un corps noir) réussit à la traverser, le reste étant absorbé (on néglige les processus de diffusion ici ; seules les émissions et absorptions sont prises en compte).
Le bilan des flux à la surface donne alors à l'équilibre radiatif (synonyme d'égalité entre la somme des flux entrants et la somme des flux sortants) : , tandis que celui au niveau de la couche atmosphérique donne . Nous avons donc deux équations pour les deux inconnues et , et la résolution du système donne alors : et où l'on aura reconnu la température d'équilibre définie précédemment.
Le modèle vu précédemment a l'inconvénient de ne pas pouvoir excéder une augmentation de température à la surface de . Ceci est insuffisant dans le cas des atmosphères très épaisses comme celle de Vénus, où le rapport excède ! Cela signifie que de telles atmosphères ne peuvent se modéliser par une unique couche isotherme, même totalement absorbante aux rayons infrarouges. Il existe différents modèles plus complexes permettant de mieux rendre compte des effets de serre intenses.
Une première idée est d'ajouter, au-dessus de la première couche atmosphérique complètement opaque au rayonnement thermique de la planète, une ou plusieurs couches (la dernière couche immédiatement avant l'espace pouvant être partiellement transparente). Ces différentes couches atmosphériques peuvent alors chacune adopter des températures différentes, et former ainsi un profil de température décroissant avec l'altitude. Il faut ainsi environ une centaine de couches opaques pour rendre compte de la température de surface de Vénus.
L'étude d'un modèle à deux couches atmosphériques fait l'objet d'un petit projet .
Une vision plus réaliste mais ne faisant toujours intervenir que des échanges d'énergie par rayonnement consiste à découper l'atmosphère en un mille-feuille constitué d'une infinité de couches atmosphériques infiniment fines (d'un point de vue radiatif). En restant dans l'approximation grise en infrarouge thermique et transparente en lumière visible, il est même possible (mais hors-programme au niveau licence) de démontrer l'expression du profil de température en fonction de la profondeur optique en infrarouge thermique : . Notons que dans ce modèle, on obtient : le seul équilibre radiatif tend à créer une discontinuité de température au niveau de la surface, ce qui déclencherait alors des processus de convection pour y remédier. Un tel contraste thermique est néanmoins observable à la surface des planètes telluriques éclairées par le Soleil, comme une plage sur Terre par beau temps (le sable peut alors être brûlant et l'air frais), ou mieux encore dans les déserts de Mars.
Néanmoins, dans les atmosphères épaisses ou pour expliquer l'existence des stratosphères, l'absorption de la lumière stellaire par l'atmosphère doit être prise en compte (par exemple, seuls quelques pourcents de la lumière solaire atteint directement la surface de Vénus). Des expressions analytiques deviennent alors délicates à trouver, mais des modèles numériques peuvent être utilisés pour déterminer les profils de température dans une colonne d'atmosphère (ce que l'on appelle un modèle 1D radiatif). On peut également profiter de la puissance de calcul des ordinateurs pour abandonner d'autres approximations : il est par exemple indispensable d'abandonner l'approximation grise en infrarouge thermique si l'on veut simuler le spectre du rayonnement thermique émis par la planète.
Lorsqu'une parcelle de gaz se déplace verticalement de façon adiabatique, sa température varie sous l'effet des variations de pression. Si l'on considère un déplacement élémentaire entre l'altitude et d'une masse d'un gaz de capacité calorifique à pression constante Cp, d'entropie S et de volume V à la pression P et à la température T, un bilan de son enthalpie H donne puisque (déplacement adiabatique). La variation de pression étant reliée au déplacement vertical selon la loi hydrostatique , on obtient alors en posant , appelé gradient adiabatique (sec). La détente adiabatique d'une parcelle de gaz ascendante conduit donc à un refroidissement proportionnel à la différence d'altitude selon le gradient adiabatique.
Une autre façon, peut-être plus intuitive, de considérer ce phénomène est d'interpréter la relation intermédiaire obtenue : la variation d'enthalpie du gaz (son "énergie thermique" en tenant compte des forces de pression) est directement reliée à sa variation d'énergie potentielle. Faire monter une parcelle de gaz lui coûte de l'énergie potentielle, ce qui est prélevé sur l'énergie thermique interne de ce gaz en l'absence de chaleur communiquée depuis l'extérieur.
Certaines atmosphères comportent des espèces chimiques condensables. L'exemple par excellence est la vapeur d'eau sur Terre, qui peut se condenser en glace ou un eau liquide. On rencontre aussi ce cas de figure sur Titan avec cette fois le méthane, ou encore dans les atmosphères des géantes gazeuses au niveau de leurs couches nuageuses. Le bilan précédent doit alors être modifié pour tenir compte de la libération de chaleur latente causée par le changement d'état qui peut arriver lorsque l'espèce condensable est saturée.
Le nouveau bilan d'enthalpie est alors donné par où désigne l'enthalpie massique de condensation et la masse d'espèce volatile qui se condense au cours du déplacement au sein de la parcelle de gaz. On arrive alors à l'expression suivante pour le nouveau gradient adiabatique (dit gradient adiabatique humide) : où désigne la fraction massique du volatil au sein de la parcelle de gaz. On constate alors que est plus faible que en valeur absolue : la libération de chaleur latente par liquéfaction ou condensation compense partiellement le refroidissement dû à l'ascension.
Vénus | Terre | Mars | Jupiter | Saturne | Uranus | Neptune | Titan | |
---|---|---|---|---|---|---|---|---|
-10.5 | -9.8 | -4.5 | -2 | -0.71 | -0.67 | -0.85 | -1.3 | |
-5 | -0.5 |
La comparaison entre le profil thermique à un instant donné et le gradient adiabatique au même endroit permet de connaître la stabilité de l'atmosphère vis-à-vis des phénomènes de convection. Supposons pour bien comprendre un profil thermique isotherme. Si un mouvement local amène une parcelle de gaz à un niveau plus élevé de façon assez rapide pour qu'aucun échange thermique n'ait lieu (par conduction ou rayonnement), celle-ci va se refroidir en suivant le gradient adiabatique, et sera donc plus froide et plus dense que ses environs immédiats. Cette parcelle aura donc tendance à retomber jusqu'à son niveau de départ, puisqu'un gaz plus froid est également plus dense toutes choses égales par ailleurs : par exemple, pour un gaz parfait, . On est donc en présence d'une atmosphère stable.
À l'inverse, si le profil thermique décroît plus fortement avec l'altitude que ce qu'indique le gradient adiabatique, cette parcelle de gaz sera certes refroidie si elle est soumise à un déplacement ascendant adiabatique, mais elle se retrouvera tout de même légèrement plus chaude que l'atmosphère environnante, et donc moins dense. Elle pourra donc continuer son mouvement ascendant jusqu'à ce qu'elle rencontre une zone stable où le profil thermique décroît moins vite que le gradient adiabatique. Une telle zone où des mouvements de convection à grande échelle peuvent se développer à partir d'une petite perturbation est dite instable. L'effet à long terme de ces mouvements de convection va conduire à un mélange qui homogénéisera le profil vertical de température jusqu'à retrouver une situation marginalement stable, c'est-à-dire avec un profil thermique suivant exactement le gradient adiabatique.
Les profils thermiques purement radiatifs tels que ceux modélisés ici ont tendance à voir leur pente croître en valeur absolue à mesure que la profondeur optique infrarouge croît en s'enfonçant dans l'atmosphère profonde. Sous couvert d'hypothèses raisonnables concernant la composition du gaz considéré parfait (pour ) et la croissance de selon le niveau de pression dans l'atmosphère, il est possible (mais hors-programme) de montrer que la pente du profil radiatif excède, en valeur absolue, le gradient adiabatique pour voisin de l'unité. Les régions atmosphériques situées en dessous () deviennent donc instables vis-à-vis de la convection qui s'y développe, et le profil thermique se met alors à suivre non plus la valeur donnée par le seul équilibre radiatif, mais le gradient adiabatique. On appelle cette couche atmosphérique troposphère. Les couches situées au-dessus () sont quant à elles stables vis-à-vis de la convection, et l'équilibre radiatif y est valable : on se trouve alors dans la stratosphère ou la mésosphère, selon l'existence ou non d'une inversion de température.
Notons qu'il existe quand même une troposphère dans les atmosphères des planètes telluriques trop peu opaques au rayonnement infrarouge thermique pour avoir (par exemple Mars, et dans une moindre mesure la Terre). En ce cas, l'instabilité de départ est causée par la discontinuité de température au niveau de la surface planétaire (voir ici), qui donne naissance à des mouvements de convection s'étendant jusqu'à une altitude équivalente à une échelle de hauteur environ.
Les profils thermiques les plus simples ne comportent qu'une troposphère surmontée d'une mésosphère, et le profil thermique y décroît toujours avec l'altitude. Mais il existe parfois au sein de la zone purement radiative une anomalie, une zone où la température croît avec l'altitude. Une telle zone est appelée stratosphère. Pour qu'une telle couche existe au sein d'une atmosphère, il faut qu'elle absorbe elle-même une partie du flux stellaire (dans le domaine visible, UV ou proche IR) et qu'elle soit relativement mauvaise émettrice en infrarouge thermique afin que l'énergie reçue par absorption du flux stellaire ne soit pas immédiatement perdue par rayonnement infrarouge thermique. Si l'on néglige les processus de diffusion lumineuse (ce qui est une hypothèse souvent vérifiée dans le domaine infrarouge thermique en l'absence de nuages, mais assez inexacte pour la lumière stellaire à plus courte longueur d'onde), le critère quantitatif pour l'existence d'une stratosphère est d'avoir une région verticale d'épaisseur optique en lumière stellaire et en infrarouge thermique tels que .
Dans le système solaire, la Terre possède une stratosphère due à la présence d'ozone, qui est un très bon absorbant de la lumière UV du Soleil. Comme, à l'altitude où cette absorption a lieu, l'atmosphère est froide et sèche, et que l'atmosphère terrestre est pauvre en , il y a peu d'absorption du rayonnement infrarouge, et donc aussi une faible émissivité infrarouge ( et étant les gaz à effet de serre principaux au sein des atmosphères telluriques). Les conditions d'existence d'une stratosphère sont donc réunies. En revanche, les atmosphères de Vénus et de Mars, constituées principalement de qui est un excellent émetteur infrarouge, ne possèdent pas de stratosphère. Dans le système solaire extérieur, on trouve également des stratosphères, dues à la présence de méthane () au sein de ces atmosphères qui absorbe bien dans l'infrarouge proche émis par le Soleil. Dans le cas de Titan, la stratosphère est due non seulement au méthane, mais aussi à l'absorption de la lumière solaire par les particules du brouillard photochimique qui l'entoure à haute altitude.
Au sommet de la mésosphère, vers un niveau de pression de , l'atmosphère devient trop peu dense pour être efficacement absorbante au rayonnement infrarouge et ainsi échanger de l'énergie de façon radiative. Le seul phénomène encore capable de transporter l'énergie devient alors la conduction thermique, obéissant à la loi de Fourier : où désigne la conductivité thermique du milieu et le flux de chaleur ainsi transporté. La structure thermique dans cette couche est alors dictée par la position des sources et des puits de chaleur :
Les positions respectives de ces puits et de ces sources causent un profil thermique croissant avec l'altitude, et pouvant atteindre des températures très élevées la journée car la conductivité thermique d'un tel milieu dilué est très faible, la chaleur peut donc y être piégée de façon très efficace. On nomme donc cette couche thermosphère. Sur Terre, la dissociation des molécules de par les UV solaires est une source de chaleur intense (ces molécules très fragiles vis-à-vis des rayonnements dissociants et/ou ionisants sont nombreuses dans l'atmosphère terrestre), si bien que les températures thermosphériques peuvent atteindre des valeurs très élevées, supérieures à . Pour les planètes géantes du système solaire, la source d'énergie est principalement due au chauffage par effet Joule dans l'ionosphère (friction des électrons libres). En revanche, dans les atmosphères telluriques riches en comme celles de Vénus et Mars, la dissociation des molécules est relativement difficile et le dioxyde de carbone est un radiateur efficace même à faible pression, ce qui entraîne des maxima de température diurne bien plus faible, pouvant même disparaître complètement pendant la nuit. On appelle alors parfois cette couche cryosphère lorsque ce phénomène se produit.
Voici quelques questions sur les définitions des grandeurs employées
Difficulté : ☆ Temps : 30 min
Exprimer la masse d'une colonne d'atmosphère de surface en fonction de la pression à la surface et de l'accélération de la gravité . Faire l'application numérique approchée dans le cas de la Terre.
[3 points]
On considère à présent une boîte rectangulaire de surface et de hauteur au sein de laquelle la pression est partout égale à et la température partout égale à . Cette boîte contient en outre la même masse de gaz que la colonne d'atmosphère considérée à la question précédente.
Exprimer la masse volumique du gaz contenu dans la boîte en fonction de , puis en fonction de .
[1 points]
En utilisant l'équation d'état du gaz parfait, exprimer alors en fonction notamment de et de la masse molaire du gaz.
[2 points]
En déduire une nouvelle interprétation de l'échelle de hauteur atmosphérique.
[1 points]
Difficulté : ☆ Temps : 30 min
Voici un tableau résumant les caractéristiques des planètes connues (en 2017) du système TRAPPIST-1. L'étoile centrale est une naine rouge ultrafroide ( et )
Nom | Masse () | Rayon () | Distance à l'étoile (UA) | (K) |
---|---|---|---|---|
b | 0.79 | 1.086 | 0.01111 | |
c | 1.63 | 1.056 | 0.01522 | |
d | 0.33 | 0.772 | 0.02145 | |
e | 0.24 | 0.918 | 0.02818 | |
f | 0.36 | 1.045 | 0.0371 | |
g | 0.566 | 1.127 | 0.0451 | |
h | 0.086 | 0.715 | 0.0596 |
Compléter la colonne du tableau en supposant que toutes ces planètes ont le même albédo bolométrique que la Terre. On donne pour la Terre et .
[4 points]
Même question dans le cas où on considère un albédo nul pour ces planètes. Commenter.
[2 points]
Les limites de la zone d'habitabilité dans le système solaire sont de 0,95 UA (bord interne ; plus près, le flux stellaire trop important entraîne un effet de serre divergent pour la vapeur d'eau) et 1,37 UA (bord externe ; plus loin, même l'effet de serre d'une atmosphère riche en CO2 ne permet plus de maintenir des températures de surface au-dessus de 0°C). Calculer les limites correspondantes pour le système TRAPPIST-1. Quelles planètes pourraient alors être habitables ?
[2 points]
Compléter le tableau ci-dessus en indiquant, pour chaque planète (supposées d'albédo terrestre) ainsi que pour l'étoile TRAPPIST-1, la longueur d'one du maximum de son émission thermique. Comparer avec la situation du système solaire.
[1 points]
Difficulté : ☆☆☆ Temps : 45 min
On considère une atmosphère transparente en lumière visible et partiellement opaque aux IR thermiques (absorbance et émissivité ), et de température uniforme à l'équilbre radiatif. À l'instant intial, on perturbe la température de cette atmosphère d'une quantité . varie ensuite en fonction du temps.
Pourquoi peut considérér que l'absorbance et l'émissivité de l'atmosphère sont égales (pour une longueur d'onde donnée) ?
[1 points]
Exprimer le surcroît de flux thermique émis par une colonne atmosphérique de surface dans tout l'espace. On se limitera à l'ordre 1 en .
[2 points]
Exprimer la capacité calorifique (à pression constante) de cette colonne d'atmosphère en fonction notamment de la capacité calorifique massique , de la pression de surface et de la gravité de surface .
[1 points]
Montrer alors que obéit à l'équation différentielle suivante :
[2 points]
Résoudre alors cette équation en faisant apparaître une constante de temps appelée temps radiatif .
[1 points]
Application numérique : on donne pour la Terre et pour Mars les valeurs suivantes.
Terre | Mars | |
---|---|---|
[K] | 242 | 181 |
0,77 | 0,18 | |
[Pa] | 105 | 640 |
[m/s²] | 9,8 | 3,7 |
[J/K/kg] | 1000 | 800 |
Calculer pour ces deux planètes.
[1 points]
Estimer alors l'amplitude thermique diurne de température sur Terre et sur Mars.
[2 points]
Vous venez d'être embauché par un célèbre réalisateur Hollywoodien en tant que conseiller scientifique pour son prochain film de science-fiction. L'action se déroulera sur une lune tellurique nommée Pandore d'une planète géante appelée Polyphème en orbite autour de l'étoile . Toutes les données numériques pertinentes se trouvent ci-dessous.
Étoile (α Centauri) :
Polyphème :
Pandore :
On se propose à présent d'estimer l'opacité infrarouge de l'atmosphère de Pandore à l'aide d'un modèle simple. L'atmosphère est supposée parfaitement transparente en lumière visible et absorbe la totalité des rayonnements infrarouges thermiques. La température de l'atmosphère, supposée uniforme, sera notée .
Afin d'améliorer ce modèle, on ajoute une seconde couche atmosphérique partiellement opaque aux IR thermiques au-dessus de la première couche (qui reste complètement opaque à ces mêmes IR thermiques). On note la température de la couche supérieure et celle de la couche profonde . La couche 1 absorbe une fraction du rayonnement IR thermique. Ces deux couches sont toujours considérées parfaitement transparentes en lumière visible.
Compte tenu de la composition atmosphérique, s'attend-on à trouver une stratosphère sur Pandore ? Si oui, quelle serait l'espèce chimique responsable ?
Calculer le gradient adiabatique sec . Le gradient adiabatique humide sera-t-il inférieur ou supérieur en valeur absolue ?
Représenter l'allure du profil thermique moyen de Pandore. On considérera que la troposphère s'étend sur une échelle de hauteur , et on fera figurer l'échelle de hauteur, les différentes couches atmosphériques et les températures à leurs limites quand cela est possible.
Les objectifs de ce chapitre sont, d'une part, d'acquérir quelques notions de base de dynamique des fluides et, d'autre part, d'explorer les différents régimes dynamiques qu'on peut observer sur les planètes de notre Système Solaire.
Les concepts abordés dans ce chapitre font appels à des notions de:
On connait très peu de choses sur les atmosphères des exoplanètes connues. Or cette question est fondamentale, tant pour les planètes géantes gazeuses dont l'atmosphère constitue la majeure partie de la planète, que pour les planètes à surface solide où le rôle de l'atmosphère dans leur habitabilité est primordial. Une atmosphère étant une enveloppe fluide en mouvement, son étude passe par sa dynamique et la compréhension de sa circulation.
Il existe deux méthodes complémentaires pour mieux comprendre la circulation atmosphérique : l'observation et la théorie. Notre connaissance de la circulation des atmosphères des exoplanètes est limitée car les observations sont à l'heure actuelle très difficiles. C'est pourquoi le recours à la théorie de la circulation atmosphérique, en se basant sur la mécanique des fluides, sert de socle à l'étude des circulations atmosphériques des exoplanètes. L'utilisation de modèles informatiques pour la simulation d'une atmosphère permet d'étendre cette théorie à des cas plus complexes tenant compte des nuages, aérosols, surface, etc ...
Les observations de la circulation atmosphèrique d'exoplanètes existent mais sont très rares. Par exemple, on a pu mesurer pour la planète HD 189733b son spectre d'émission et en tirer une carte de température. On a aussi pu mesurer les vents en haute altitude (d'au plus 10 000 km/h) de la planète HD 209458b par effet Doppler des lignes d'absorption du monoxyde de carbone présent dans son atmosphère. Toutefois, ces exemples restent rares si bien qu'en comparaison les observations des atmosphères planètaires de notre système solaire semblent exister à profusion. La connaissance de la dynamique atmosphérique des exoplanètes passe donc aussi et surtout par l'étude comparée des atmosphères du sytème solaire. Toutefois, notre système solaire ne présente pas toute la gamme des types d'exoplanètes connues, et par exemple l'étude d'une planète gazeuse géante chaude en rotation synchrone avec son étoile sur une orbite de 3 jours, cas assez exotique au regard du sytème solaire, passera également par la théorie et les moyens de simulation ...
Détecter et connaître les grandes caratéristiques physiques d'une exoplanète (orbite, taille, masse) est la première étape dans la compréhension d'une exoplanète. Connaître son atmosphère est la suite logique et la science actuelle en est à ses balbutiements dans ce domaine. L'étude des planètes du système solaire, tellement plus accessibles, et l'utilisation de modèles de climats s'avèrent nos meilleurs atouts pour comparer et extrapoler notre savoir à toutes les planètes en général.
On a vu que la notion de température d'équilibre ou effective requiert plusieurs hypothèses. L'une d'entre elles est que l'énergie rayonnée par unité de surface de la planète vers l'espace est homogène, c'est-à-dire qu'elle est la même en tous points, depuis l'équateur jusqu'aux pôles.
Or, la figure 1 nous donne un exemple pour la Terre qui montre la limite de cette hypothèse. On peut y voir que l'énergie absorbée par la Terre provenant du Soleil (et donc principalement dans la bande visible du spectre lumineux) dépend de la latitude, comme attendu d'après la figure 2. On y remarque surtout que l'énergie émise par la Terre vers l'espace, principalement de la bande infrarouge, dépend aussi de la latitude et est différente de la courbe d'énergie reçue. Ceci est un simple constat, issu d'observations, qu'il va s'agir d'interpréter.
En comparant les valeurs des puissances émises et reçues dans la figure 1, on constate qu'il y a une perte d'énergie vers les pôles et un gain d'énergie vers l'équateur. En vertu du principe de conservation de l'énergie, et en supposant que la planète est dans un état stationnaire, on ne peut que conclure que de l'énergie est transférée de l'équateur vers les pôles. Ce transfert d'énergie est causé par le mouvement global de l'atmosphère de la planète (et des océans s'ils sont présents).
On verra plus loin dans le cours que cette différence en énergie est également le moteur de la circulation atmosphérique.
Plus généralement, ce cours sur la dynamique atmosphérique va de pair avec celui sur la structure thermique des atmosphères. On y aborde ici les mouvements fluides à grande échelle, tandis que le cours sur la structure thermique aborde l'équilibre radiatif et les mouvements convectifs verticaux uniquement.
Les échanges d'énergie à l'échelle globale d'une planète sont fondamentaux pour comprendre la circulation à grande échelle. Historiquement, la première description et compréhension de ces mouvements a été faite sur Terre au 18ème siècle.
L'exemple le plus célèbre de la preuve d'une circulation atmosphérique à grande échelle provient de l'observation des vents permettant la navigation sur les océans terrestres. Les vents dominants soufflent d'Est en Ouest aux latitudes tropicales (environ 30°S à 30°N, et qu'on appelle alizé). Une explication satisfaisante de l'origine de ces vents fut donnée par George Hadley en 1735 : il existe une circulation à l'échelle de la planète qui transporte des masses d'air depuis l'équateur jusqu'aux tropiques en formant une cellule, qu'on appelle cellule de Hadley tel qu'on peut le voir sur la Figure 1.
L'origine des alizés est la suivante : quand une masse d'air tombe vers la surface aux tropiques, elle retourne à l'équateur. Ce faisant elle subit la force de Coriolis : elle est donc déviée vers sa droite dans l'hémisphère Nord, ou vers sa gauche dans l'hémisphère Sud, c'est-à dire vers l'Ouest dans les deux cas. Inversement, une masse d'air qui part de l'équateur vers les tropiques subira une déviation vers l'Est et formera un courant jet en altitude au niveau des tropiques et orienté vers l'Est.
L'origine des alizés est ainsi comprise, mais quid de l'origine de la cellule de Hadley en elle-même ? Elle provient de la différence d'énergie reçue par la Terre en fonction de la latitude. La hauteur d'échelle atmosphérique est plus grande à l'équateur (ou, autrement dit, l'air est plus dilaté), ce qui cause un gradient horizontal de pression entre l'équateur et les pôles, de plus en plus marqué à mesure que l'on s'élève du sol (voir Figure 2). Ce gradient de pression provoque un mouvement d'air en altitude, de l'équateur vers les tropiques. Le reste de la cellule de Hadley se met en place pour "fermer" la circulation d'air, par simple conservation de la masse.
Le mécanisme de la cellule de Hadley, connu depuis longtemps sur Terre, semble être universel dans les atmosphères des planètes, mais avec des caractéristiques différentes (extension en latitude, nombre de cellules) selon les propriétés physiques de l'atmosphère. Il est essentiel à la compréhension des mouvements à grande échelle d'une atmosphère et permet d'expliquer le transfert d'énergie de l'équateur vers les tropiques. Il est en réalité très complexe à comprendre dans les détails, et on trouve sur Terre d'autres mécanismes de transfert d'énergie au-delà des tropiques (voir Figure 1).
La circulation de Hadley n'est pas une cellule de convection. Son origine est une différence de chauffage en latitude, suivant l'horizontale, et non un gradient thermique vertical qui génère une force de flotabilité qui s'oppose à la gravité comme dans le cas de la convection. Ainsi, pour déterminer les dimensions de la cellule de Hadley il faut connaître la vitesse de rotation de la planète et le gradient horizontal de pression, des phénomènes qui ne rentrent pas en jeu dans les causes de la convection.
La rotation de la planète est la clé de la circulation atmosphérique, comme on vient de le voir sur Terre avec le rôle de la force de Coriolis dans la formation de la cellule de Hadley. Ainsi, il est fondamental de garder en tête les périodes de rotation pour les planètes du système solaire.
L'obliquité, qui est l'angle entre l'axe de rotation et la perpendiculaire au plan de l'orbite autour du Soleil, nous renseigne sur les saisons. Dans le cas de Vénus, l'obliquité proche de 180° signifie que la rotation est rétrograde : Vénus tourne de l'Est vers l'Ouest, dans le sens opposé aux autres planètes.
Corps | Période de révolution (jours) | Période de rotation | Obliquité |
---|---|---|---|
Vénus | 224.7 | 243.0 jours | 177.4° |
Terre | 365.2 | 23h56 | 23.4° |
Mars | 687.0 | 24h37 | 25.2° |
Jupiter | 4335.3 | 9h50 | 3.1° |
Saturne | 10757.7 | 14h14 | 26.7° |
Titan | 10757.7 | 15.95 jours | 26.7° |
Les informations que nous possédons sur ces planètes proviennent d'observations, de résultats de modèles et des équations régissant l'atmosphère.
Les méthodes d'étude des atmosphères planétaires comprennent des moyens différents tels que la télédétection (en utilisant des telescopes sur la Terre ou des vaisseaux spatiaux); des mesures directes in situ obtenues par sondes, ballons, atterrisseurs; des études de laboratoire; et des modèles de circulation atmosphèrique. Les mesures des mouvements atmosphériques sont accomplies principalement par les moyens suivants :
La Terre et Mars présentent des circulations à grande échelle très similaires typiques d'une planète en rotation rapide - les deux planètes ont des périodes de rotation similaires (Table). La différence principale est due à la présence des océans sur la Terre. En définitive, les deux atmosphères sont mises en mouvement par la différence d'énergie reçue sur la surface en fonction de la latitude.
La circulation atmosphérique à grande échelle se caractérise par des cellules de circulation entre différentes latitudes. Si la cellule de Hadley rejoint l'équateur aux latitudes moyennes à environ 30 ° Nord et Sud comme vu auparavant, les cellules de Ferrel ne fonctionnent pas du tout sur le même mécanisme que les cellules de Hadley. Elles mettent en jeu des ondes planétaires baroclines qui dominent les mécanismes de transfert. Les cellules de Ferrel se situent entre les latitudes 30 et 60 ° dans chaque hémisphère, dans lesquelles on trouve un courant-jet. On trouve également une cellule polaire de latitude 60° au pôle dans chaque hémisphère, délimitée par le vortex polaire.
Cette structure en cellule est un comportement moyen de l'atmosphère, qui varie avec les saisons et surtout avec les conditions météorologiques locales, dépendant de nombreaux phénomènes transitoires et chaotiques. Par exemple le centre de la cellule a tendance à se déplacer de part et d'autre de l'équateur lorsque le point subsolaire varie en latitude selon la période de l'année. De plus, il n'existe pas non plus de courant ascendant ou descendant continu et clairement mesurable dans les branches des cellules pour un observateur momentané en un endroit donné. Il s'agit là d'un comportement moyen qui peut être dominé par des effets locaux ou temporaires (cycle jour/nuit, topographie, perturbation météorologique, etc ...). La manifestation la plus tangible de ces cellules à tout un chacun demeure néanmoins la présence de courants jets.
Tout comme la Terre, Mars possède également une cellule de Hadley. Du fait de l'atmosphère plus ténue de Mars (la pression au sol y est de seulement 6 mbar en moyenne, par rapport à 1000 mbar sur la Terre), les gradients de pression relatifs des pôles à l'équateur sont plus grands et la cellule de Hadley y est plus étendue. Pendant l'équinoxe on trouve deux cellules de Hadley centrées sur l'équateur comme sur Terre, mais durant le solstice, on ne trouve plus qu'un seule grande cellule de Hadley des moyennes latitudes de l'hémisphère d'été vers les moyennes latitudes de l'hémisphére d'hiver. Il faut noter que la différence notable de position de l’ascendance au moment du solstice entre la Terre et Mars vient de la faible inertie de la surface martienne (contrairement aux océans terrestres), qui fait que le maximum de température se déplace complètement dans l’hémisphère d’été alors qu’il reste dans les tropiques sur Terre.
L'atmosphère de Vénus est caractérisée par une dynamique complexe: une super-rotation rétrograde domine dans la troposphère/basse mésosphère, tandis qu'une circulation solaire-antisolaire peut être observée dans la thermosphère. La super-rotation s'étend depuis la surface jusqu'au sommet des nuages avec des vents de seulement quelques mètres par seconde près de la surface et atteignant une valeur maximale de 100 au sommet des nuages (70 km), ce qui correspond à un periode de rotation de 4 jours terrestres. Les processus responsables du maintien de la super-rotation zonale dans la basse atmosphère et sa transition vers la circulation solaire-antisolaire dans la haute atmosphère sont encore méconnus.
En plus de la super-rotation zonale, une cellule de Hadley s'écoulant de l'équateur aux pôles avec des vitesses de moins de 10 a été observée au sommet des nuages. La circulation de Hadley ou méridienne sur Vénus joue un rôle important dans le transport d'air chaud vers les pôles et d'air froid vers l'équateur. Il s'agit d'une cellule dans chaque hémisphère et elle n'est pas limitée aux régions proches de l'équateur comme sur la Terre où la cellule de Hadley est limitée par la force de Coriolis, mais elle s’étend jusqu’aux pôles.
Il y a très peu mesures directes de la circulation atmosphérique de Titan, un satellite de Saturne, avec une période de rotation de 16 jours. Comme sur Vénus, une super-rotation est prévue dans la haute atmosphère; néanmoins, au contraire de Vénus, les saisons sur Titan jouent un rôle important dans la circulation générale. Les observations obtenues par la sonde Cassini-Huygens montrent la présence d'un seul jet très intense direct vers l'est avec des vitesses de 190 entre les latitudes 30-50 dans l'hémisphère nord. L'existence d'une circulation de Hadley de l'équateur au pôle a été également prédite. L’hémisphère Nord est l’hémisphère d’hiver au moment des observations de Cassini. Les cellules de circulation prédites vont d’un pôle (été, ascendance) à l’autre (hiver, subsidence) pendant la majeure partie de l’année, avec une transition autour de l’équinoxe au cours de laquelle l’ascendance se déplace pour changer d’hémisphère, la cellule se réduisant sur l’hémisphère de printemps pendant qu’une autre se développe sur l’hémisphère d’automne, puis prend sa place.
Sur les planètes telluriques les vitesses du vent sont mesurées par rapport à la surface de la planète. Comme les géantes gazeuses et les géantes glacées ne disposent pas d'une surface solide, les vents sont généralement mesurés par rapport à la période de rotation de leur champ magnétique. Chacune des quatre planètes géantes (Jupiter, Saturne, Uranus, et Neptune) montrent une circulation zonale intense formée par un système de courants-jets qui alternent leur circulation (Est-Ouest) avec la latitude.
Les planètes géantes gazeuses de notre Système solaire, Jupiter et Saturne, sont composées essentiellement de gaz légers, comme l'hydrogène et l'hélium. On observe aussi la formation de nuages constitués de méthane, d'ammoniac, et du sulfure d'hydrogène.
Au niveau des nuages d'ammoniac, Jupiter possède environ 6-8 courants-jets par hémisphère, avec une vitesse maximale à l'équateur où le jet dirigé vers l'est atteint une vitesse zonale de m s-1, et à 23° Nord les vents atteignent jusqu'à 180 m s-1. Saturne possède 4-6 courants-jets par hémisphère, avec un très fort et large jet équatorial direct vers l'est à une vitesse maximale de m s-1. Jupiter affiche également de nombreux tourbillons de courte durée et des tempêtes de longue durée comme la Grande Tache rouge.
Les planètes géantes glacées de notre Système solaire, Uranus et Neptune, sont constituées principalement d'eau, méthane ou d'ammoniac.
Les deux planètes glacées montrent un jet équatorial dirigé vers l'ouest - avec une vitesse de m s-1 et de m s-1 respectivement pour Uranus et Neptune - et deux jets intenses aux latitudes moyennes dirigés vers l'est avec une vitesse maximale de 200 m s-1. Comme sur Jupiter, forts tourbillons, convection et tempêtes ont été observés sur Neptune. Au contraire, sur Uranus aucune tempête n'a été observée.
Comme toute équation de la physique, les équations régissant la dynamique atmosphérique doivent s'exprimer dans un système de coordonnées et un référentiel choisis arbitrairement. Un tel système naturellement adapté à une sphère, et donc à une planète, sont les coordonnées sphériques , où est la distance au centre de la sphère, est la l'angle de la longitude, et est l'angle de la latitude.
On définit également un repère local pour tout point de l'espace de coordonnées , avec comme base le triplet où est dirigé vers l'Est, dirigé vers le Nord, et selon la verticale locale vers le haut. Le référentiel d'étude est ce référentiel local, lié à la rotation de la planète, il s'agit donc d'un référentiel tournant, donc non galiléen.
Pour résumer, on travaille dans deux référentiels différents, ce qui donne trois systèmes de coordonnées différents :
L'exercice suivant permet de se familiariser avec la manipulation mathématique des coordonnées et des repères. Les resultats serviront à établir l'équation fondamentale de la dynamique.
Montrer que dans le référentiel de la planète, un point de coordonnées sphériques a pour coordonnées cartésiennes
Exprimer , et dans le repère de la planète en fonction des angles et
Montrer qu'une vitesse dans le référentiel local au point de coordonnées sphériques s'exprime par .
Exprimer , et en fonction de , et .
Pour résoudre les équations régissant une atmosphère, on se place dans le référentiel local, lui-même dans un référentiel tournant avec la planète. Ce référentiel n'est pas inertiel, c'est-à-dire qu'il est en accélération par rapport à un référentiel inertiel. Afin de poser le principe fondamental de la dynamique, il est essentiel de tenir de compte de l'accélération apparente du référentiel d'étude, sous la forme de pseudo-forces.
Traditionnellement et pour des raisons pratiques on parle de force, ou pseudo-force, en multipliant l'accélération apparente par la masse de l'objet. On parlera ici plutôt de l'accélération d'une force apparente afin de s'affranchir du terme de masse, qui disparaitra dans les équations finales.
Les deux forces apparentes à considérer dans le cas d'une atmosphère sont la force centrifuge et la force de Coriolis.
L'expression mathématique des forces apparentes requiert l'emploi du produit vectoriel, défini ainsi:
Le produit vectoriel des vecteurs et s'écrit et correspond au vecteur orthogonal à la fois à et tel que le triplet soit de sens direct. et que le module du produit soit où est l'angle direct de vers . Ainsi, si et sont colinéaires, leur produit vectoriel sera le vecteur nul.
Le produit vectoriel s'écrit avec des coordonnées dans un système cartésien uniquement :
Cette relation n'est pas valable en coordonnées sphériques. Il faut faire la transformartion en coordonnées cartésiennes pour pouvoir utiliser cette relation.
La force centrifuge est la force apparente due au fait que le référentiel d'étude est en rotation, donc en accélération. En effet, l'orientation de la vitesse d'un point lié à la planète varie, mais pas son module. Ainsi, une particule au repos dans un référentiel galiléen aura une force apparente dans le référentiel de la planète.
On définit le vecteur rotation comme étant le vecteur orienté selon l'axe de rotation de la planète et de module avec la période de rotation de la planète. L'accélération de la force centrifuge s'exprime avec le vecteur position depuis l'axe de rotation où la force s'applique. Dans un système de coordonnées sphériques, on a , avec le vecteur position depuis le centre de la planète.
Une autre manière de l'exprimer est de dire qu'il s'agit d'une accélération perpendiculaire à l'axe de rotation, orientée vers l'extérieur et de valeur
La force centrifuge est regroupée avec la force de gravité, dont l'accélération vaut , l'indice faisant référence à la masse de la planète. On obtient une force dont l'accélération totale est . Cette force dérive d'un potentiel, qu'on appelle le géopotentiel, somme de l'action de la gravité et de la force centrifuge.
Démontrer par l'analyse ou par un schéma en 3D que correspond bien à une accélération perpendiculaire à l'axe de rotation, orientée vers l'extérieur et de valeur . Comment s'exprime cette accélération dans le référentiel local ?
Par la suite on fait l'approximation que l'accélération due au géopotentiel est orientée selon l'axe . Quelle erreur est faite pour la Terre ? pour Jupiter ?
Dans un référentiel en rotation, une autre force apparente est à prendre en compte lors d'un déplacement. Il s'agit de la force de Coriolis, qui tient compte du fait que le déplacement d'une particule génère une accélération apparente supplémentaire. Par exemple, le mouvement rectiligne d'une particule est apparement dévié pour un observateur situé dans un référentiel tournant.
L'accélération de la force de Coriolis s'exprime avec le vecteur vitesse de la parcelle d'air considérée.
La vitesse d'une parcelle d'air dans l'atmosphère est généralement orientée parallèlement à la surface locale, c'est-à-dire que sa composante radiale (c'est-à-dire sa composante verticale locale) est en général petite par rapport à au moins une des deux autres. En négligeant la composante radiale, on constate les choses suivantes :
Ceci explique pourquoi certaines structures atmosphériques, tels les ouragans ou les anticyclones, tournent toujours dans le sens des aiguilles d'une montre dans l'hémisphère Nord, et dans le sens contraire dans l'autre hémisphère.
Démontrer par l'analyse ou par un schéma en 3D les 3 points ci-dessus.
Les écoulements atmosphériques peuvent être décrits en utilisant deux points de vue classiques, appelés eulérien ou lagrangien :
L'écoulement est suivi par un observateur depuis une position fixe. C'est le cas, par exemple, d'un atterrisseur sur Mars fixé au sol qui mesure la vitesse du vent, la température, ou la pression. Cette description est souvent préférée car elle est la plus pratique.
Dans ce cas, les particules fluides sont suivies le long de leurs trajectoires. C'est la description la plus intuitive.
Les descriptions lagrangienne et eulérienne sont liées à travers la dérivée particulaire, encore appelée dérivée totale, et qui s'écrit . Soit une grandeur physique vectorielle de l'écoulement, dépendant du point d'observation et du temps . La variation de la grandeur s'écrit :
Où est la vitesse du fluide avec composants: , , .
Dans la cas où la grandeur est un champ scalaire , la relation est la même.
La dérivée particulaire décrit la variation avec le temps en suivant la particule en mouvement (point de vue lagrangien), en revanche décrit la variation locale avec le temps en un point d'observation fixé (point de vue eulérien) .
Le mouvement d'une particule dans un fluide est décrit par la deuxième loi de Newton (conservation de la quantité de mouvement) qui lorsqu'elle est appliquée à la mécanique des fluides donne l'équation de Navier-Stokes. Dans un système en rotation l'équation du mouvement d'une parcelle de fluide est:
avec est la dérivée particulaire qui s'écrit , la vitesse du fluide, la somme des forces s'appliquant sur la parcelle et la densité du fluide.
Soit en détaillant les forces :
avec l'accélération de la force de Coriolis, les forces dues au gradient de pression, l'accélération du géopotentiel, et qui désigne l'accélération dues à la viscosité. Ce qui donne :
(1)
où est le vecteur de rotation de la planète est le gradient de pression.
Comment s'exprime l'accélération de la force de Coriolis dans le repère local ?
On a . Or il a été vu en exercice les expressions des dérivées temporelles des vecteurs , et . Ceci nous permet d'établir les équations de Navier-Stokes dans le référentiel local, en notant que et :
Ce système d'équations décrit tous les types de mouvements atmosphériques à toutes les échelles. Ces équations sont compliquées à résoudre, mais dans bien des cas utiliser une approximation est suffisante pour modéliser de nombreux phénomènes atmosphériques dynamiques.
Déduire les équations de Navier-Stokes en coordonnées sphériques à partir de l'équation fondamentale de la dynamique (Equation 1).
Les équations de la dynamique sont très compliquées car elles forment un système non linéaire. Ceci signifie que la somme de deux solutions n'est pas forcément solution du problème, ce qui rend la résolution de ces équations très ardue, et à ce jour encore source de recherches. Cependant, en fonction des phénomènes étudiés et des caractéristiques de l'atmosphère planétaire, certains termes de ces équations peuvent en dominer d'autres. Pour estimer les différents termes dans les équations, on utilise la méthode de l'analyse d'échelle. Les ordres de grandeur des différents termes en jeu dans les équations fondamentales de la dynamique seront très différents selon l'échelle des écoulements que l'on souhaite étudier. Dans le tableau ci-dessous on compare les termes dominants sur les planètes à rotation rapide (la Terre) avec ceux sur les planètes à rotation lente (Vénus):
Terre | 10-5 | 10-5 | 10-8 | 10-3 | 10-6 | 10-12 |
Vénus | 10-3 | 10-5 | 10-5 | 10-5 | 10-7 | 10-12 |
avec le rayon de la planète. On a , où est l'altitude depuis la surface.
On peut alors appliquer les approximations suivantes:
On obtient alors les équations primitives de la météorologie :
À ce système d'équations on ajoute l'équation des gaz parfaits:
Avec la constante universelle des gaz parfaits et la masse molaire du gaz qui constitue l'atmosphère, et dépend donc de sa composition. Pour l'air terrestre, on a
ainsi que l'équation de conservation de la masse:
Enfin, le premier principe de la thermodynamique:
Avec le forçage diabatique et la température potentielle : , où , la chaleur spécifique à pression constante et une pression de référence.
On obtient ainsi 6 équations avec 6 inconnues ().
Ce système d'équations primitives est le plus complet utilisé pour l'étude de la circulation générale de l'atmosphère. C'est notamment celui utilisé par les modèles de circulation générale.
Les équilibres géostrophique et cyclostrophique sont deux approximations des équations primitives. Ils sont purement diagnostiques : ils ne contiennent pas de dérivées dans le temps, d'où l'impossibilité de faire des prédictions. Néanmoins, ils sont des outils puissants pour décrire différents écoulements observés dans les planètes.
L'approximation géostrophique est un développement des équations primitives utilisée aux moyennes latitudes sur les planètes à rotation rapide (Terre, Mars). On suppose l'équilibre entre la force de Coriolis et la force due au gradient horizontal de pression. La force centrifuge est négligée.
D'après ces équations, lorsque cet équilibre est valide, la vitesse du vent est directement proportionnelle au gradient horizontal de pression. Notez que l'équilibre géostrophique cesse d'être valide autour des latitudes équatoriales.
En combinant les deux composantes de la vitesse, on peut introduir le vent géostrophique comme :
La circulation générale des planètes à rotation lente (Vénus, Titan), aussi bien que les vortex et les tourbillons sur toutes les planètes, peut être approximée par l'équilibre cyclostrophique. Cela suppose l'égalité entre la composante dirigée vers l'équateur de la force centrifuge et le gradient méridional de la pression. La force de Coriolis est négligée.
L'équation du vent cyclostrophique peut alors être écrite comme :
Montrer à partir de l'équation que l'équation du vent cyclostrophique peut être écrite comme :
où : J kg-1 K-1, et est la coordonnée de pression logarithmique, avec la pression au niveau de référence.
Le nombre de Rossby est un nombre sans dimension qui permet de caractériser les mouvements atmosphériques. Il est défini par:
où est une vitesse caractéristique du système, est la vitesse angulaire de rotation de la planète, et est une longueur caractéristique du système.
Quelle est la dimension du nombre de Rossby ?
Une valeur de nombre de Rossby très supérieure à l'unité indique que la force de Coriolis due à la rotation de la planète est négligeable par rapport à la force d'inertie, dans ce cas on parle d'équilibre cyclostrophique. Dans le cas contraire d'un nombre de Rossby inférieur à l'unité, l'équilibre est dit géostrophique.
Equilibre géostrophique | [Terre, Mars] | |
Equilibre cyclostrophique | [Vénus, Titan, Ouragans] |
Les valeurs du nombre de Rossby pour différents systèmes sont comparées sur le tableau ci-dessous :
Vénus | ∼103 |
Terre | ∼1 |
Mars | |
Titan | |
Tourbillons de poussière | ∼102-103 |
Tornades | ∼103 |
Ouragans |
La Terre et Mars présentent une circulation atmosphérique aux grandes échelles très similaire et typique des planètes à rotation rapide : les deux planètes ont en fait une période de rotation similaire (Voir Tableau). La principale différence entre eux vient de:
Un régime géostrophique des vents zonaux domine la circulation dans les deux planètes en dehors des latitudes tropicales. Aux latitudes moyennes, à la fois sur la Terre et sur Mars, la circulation est caractérisée par deux courant-jets, un dans chaque hémisphère.
Sur la Terre, ces jets sont des vents zonaux qui circulent de l'ouest vers l'est et leur vitesse augmente avec l'altitude jusqu'à la tropopause. Au-dessus de la tropopause ces jets affaiblissent, et puis ils augmentent encore avec l'altitude au-dessus de km jusqu'à km, où ils atteignent une vitesse de 60 m s-1.
Sur Mars, en raison de l'atmosphère très ténue et de l'absence des océans, l'atmosphère réagit presque instantanément au chauffage solaire. C'est aussi la raison pour laquelle les courant-jets dépendent des variations saisonnières. Au solstice d'hiver dans l'hémisphère nord, le courant-jet est centré entre de latitude atteignant une vitesse maximale de 40 m s-1 à 5 km. Il augmente encore à 35 km, où il atteint une vitesse de 110 m s-1. A cette même époque, le courant-jet dans l'hémisphère sud est beaucoup plus faible.
Il faut noter que ces configurations des vents sont une moyenne temporelle et spatiale et ils sont vus rarement sur des journées individuelles. Les configurations des vents d'un jour à l'autre dévient considérablement de cette circulation globale.
Vénus et Titan sont deux planètes à rotation lente, caractérisées respectivement par une période de rotation de 244 jours (Vénus) et 16 jours (Titan). Une description détaillée de leur circulation peut être trouvée ici. Les deux planètes sont caractérisées par des forts vents zonaux dans l'ensemble de l'atmosphère, une caractéristique appelée super-rotation. Sur Vénus, la super-rotation atteint une vitesse supérieure à 100 m s-1 au sommet des nuages (vers 70 km d'altitude), correspondant à une période de rotation de 4 jours terrestres (60 fois plus rapide que Vénus elle-même). Différentes études ont montré que sur les planètes qui tournent lentement, comme Vénus et Titan, les forts vents zonaux au sommet des nuages peuvent être décrits par l’équilibre cyclostrophique. Ce qui donne une possibilité de reconstruire le vent zonal si le champ de température est connu.
D'autres systèmes cyclostrophiques à petite échelle sont les ouragans et les tornades (Figure 1); ils sont caractérisés par un centre de basse pression et de forts vents. En raison d'un nombre de Rossby élevé (Tableau 1), la force de Coriolis peut être négligée pour les tornades et les ouragans, et on suppose l'équilibre entre la force centrifuge et le gradient de pression.
Selon le glossaire de météorologie (AMS 2000), une tornade est une colonne d'air tournant violemment, en contact avec le sol et la base des nuages, et souvent (mais pas toujours) visible comme un nuage en forme d'entonnoir (Figure 1). La plupart des tornades ont des vitesses de vent entre 18 m s-1 et 135 m s-1. Son vortex a un diamètre typique de quelques centaines de mètres et tourne, en général, dans le sens contraire des aiguilles d'une montre dans l'hémisphère Nord. Les tornades se produisent sur tous les continents, mais sont plus fréquentes dans les États-Unis, où le nombre moyen de tornades enregistrées est d'environ 1000 par an, avec la majorité d'entre eux sur les plaines centrales et dans les états du sud. Les tornades sont associées à des orages violents et sont alimentés par l'afflux d'air chaud et humide. En général, ils sont le résultat de l'instabilité produit par la différence de température et d'humidité entre la surface, où l'air est plus chaud, et les niveaux supérieurs de l'orage, où l'air est plus froid.
Ouragan est le nom utilisé pour indiquer les cyclones tropicaux qui se produisent dans l'Atlantique ou le Pacifique Est. Les ouragans sont marqués par une région centrale d'air descendants, l'oeil, enfermé par des orages forts associés à des vents et des pluies intenses. Comme pour le cas des tornades, l'énergie des ouragans est fournie principalement par libération de chaleur latente dans l'air humide. Les ouragans sur la Terre se forment dans les régions tropicales au-dessus des océans chauds, et ils s'affaiblissent lorsqu'ils arrivent sur terre, où la source d'énergie disparaît. Dans l'oeil d'un ouragan, le nombre de Rossby locale est toujours et peut arriver jusqu'à 100. Dans ce cas, l'équilibre devient cyclostrophique.
Les cyclones tropicaux sur la Terre et le vortex polaire de Vénus présentent des similitudes morphologiques et dynamiques, comme on peut voir dans la Figure 2. Le vortex de Vénus et les ouragans sont caractérisés par différentes échelles horizontales et durée de vie: le vortex de Vénus à un diamètre de 12000 km et il semble être permanent; les plus grands cyclones tropicaux observés sur la Terre ont un rayon de moins de 1000 km et durent environ une à deux semaines dans leur phase de maturité. La source d'énergie est aussi différente pour le vortex sur Vénus et les ouragans terrestres: la source d'énergie pour les ouragans est la libération de chaleur latente; le vortex polaire sur Vénus reçoit un apport d'énergie par le dépôt du rayonnement solaire au niveau des nuages et par l'émission thermique dans la basse atmosphère. Malgré leurs différences, les circulations du vortex de Vénus et des ouragans est très similaires: à partir du leur comparaison une meilleure compréhension de la dynamique de Vénus peut être atteinte.
Les tourbillons de poussière, présents à la fois sur la Terre et Mars, sont caractérisés par des vitesses de vent de rotation élevées, des champs électrostatiques importants et sont rendus visibles par la présence de poussière et de sable soulevé. Ils sont distincts des tornades car les tornades sont associées à des orages tandis que les tourbillons de poussière se forment sous un ciel clair.
Sur la Terre (Figure 3), l'étude de tourbillons de poussière est fondamentale pour comprendre leur rôle dans la convection et l'érosion des zones arides. Les tourbillons de poussière se produisent généralement en été dans les régions désertiques plus chaudes. Ils sont des événements transitoires et la plupart ne durent que quelques minutes.
Sur Mars (Figure 4), les tourbillons de poussière peuvent avoir un effet important sur le cycle global de poussière. Les tourbillons de poussière sur Mars ont d'abord été identifiés dans les images prises par l'orbiteur Viking comme des petits nuages avec des longues ombres coniques. En plus, des traces laissées au sol par des tourbillons de poussière ont été détectées dans des images de la Mars Orbiter Camera et ont été également observées au sol par des atterrisseurs. Les tourbillons de poussière martiens et terrestres semblent avoir une morphologie similaire. Cependant, les tourbillons de poussière martiens sont un ordre de grandeur plus grand que ceux terrestres, atteignant souvent quelques kilomètres d'altitude et des centaines de mètres de diamètre avec des bases étroites et des larges sommets.
Pour caractériser les différents types des instabilités atmosphériques on utilise le nombre de Richardson, un nombre sans dimension défini par:
Où est le cisaillement vertical du vent.
est nommée fréquence de Brunt-Väisälä définie comme la différence entre le gradient vertical de température et le gradient adiabatique :
est la fréquence d'oscillation d'une particule soumise à un déplacement vertical. Pour l'atmosphère est instable et une particule déplacée de son état initial s'éloignera irréversiblement. Si , la stabilité est "neutre", la particule déplacée demeura à sa nouvelle altitude. Enfin, pour se produit une oscillation de la particule autour de son état initial.
Dans ce cas, correspondant à un valeur négative de la fréquence de Brunt-Väisälä , la couche atmosphérique est instable et la turbulence est soutenue par la convection.
Parfois on observe de la turbulence dans des couches atmosphèriques thermiquement stables. Cette turbulence, dite de Kelvin-Helmholtz, est crée dans des régions où il y a du cisaillement du vent. Un valeur positive de nombre de Richardson au-dessous d'une valeur critique est une condition nécessaire afin que l'instabilité de Kelvin-Helmholtz se puisse produire. L'écoulement de Kelvin-Helmholtz est le résultat du cisaillement de vitesse entre deux fluides glissant l'un par rapport à l'autre.
Condition suffisante pour une écoulement stable.
Les ondes atmosphériques sont des perturbations des champs atmosphériques qui se propagent dans l'espace et/ou le temps. C'est un mécanisme important dans la dynamique des atmosphères car les ondes permettent de transporter des perturbations, transporter de l'énergie et de la quantité de mouvement d'une région à une autre.
On peut représenter de manière simplifiée une onde atmosphérique par une fonction sinusoïdale, en fonction d'une dimension spatiale de coordonnée et d'une dimension temporelle de coordonnée :
Où est l'amplitude de l'onde; est le nombre d'onde; est la longueur d'onde (en mètres); est la pulsation; est la période (en secondes). est la phase de l'onde, c'est-à-dire la valeur de la perturbation lorsque et . La longueur d'onde est définie comme étant la distance séparant deux crêtes consécutives d'une onde. Si (en mètres par seconde) est la vitesse de propagation de l'onde, on définit la fréquence (en hertz) par : .
Le champ physique représenté par est une variable atmosphérique. Il peut s'agir de la température, pression, le vent, etc ... La dimension de l'amplitude est donc la même que celle de la variable représentée par la perturbation .
Une manière plus compacte et efficace pour représenter une onde est la notation exponentielle. On écrit la perturbation sous sa forme complexe de la manière suivante :
Avec le nombre imaginaire . La perturbation réelle est définie comme étant la partie réelle de sa forme complexe :
En utilisant la relation trigonométrique bien connue , on obtient que l'amplitude complexe vaut :
L'amplitude complexe contient ainsi l'information à la fois sur l'amplitude et la phase de l'onde. Cette notation est très pratique car elle permet notamment de dériver ou d'intégrer une onde par rapport à l'espace ou au temps. Par exemple :
Ainsi, dériver par rapport à la coordonnée spatiale revient à multiplier l'onde complexe par . De même, une dérivation temporelle revient à multiplier par .
De la même manière, on peut montrer que trouver une primitive de l'onde complexe revient à diviser par , donc à multiplier par . De même, multiplier par permet de trouver une primitive par rapport à .
À partir des équations primitives, il est possible de trouver les ondes susceptibles de se propager dans l'atmopshère en utilisant la méthode des perturbations. Il s'agit d'écrire chaque champ (par exemple avec la pression ) comme étant la somme d'une valeur fixe solution des équations et d'une petite perturbation : . Ceci permet de linéariser les équations primitives en obtenant une équation pour les petites pertubations. Ces pertubations correspondent à des ondes que l'on peut ainsi étudier au moyen d'un cadre formel.
L'onde la plus évidente est l'onde sonore dont le calcul va être détaillé ci-dessous. On définit les petites perturbations comme étant des ondes se propageant horizontalement et verticalement :
avec et les nombres d'ondes horizontaux et verticaux respectivement. On fait l'approximation que la rotation et la gravité sont négligeables dans le cas qui nous intéresse. De plus, on suppose un fluide au repos, où la dérivée lagrangienne est égale à la dérivée eulérienne. Ainsi dans les équations primitives la force de Coriolis s'annule, tout comme la force centrifuge. En posant avec la vitesse du son, les équations du mouvement horizontal et de l'équation de continuité s'écrivent ainsi :
Soit, en utilisant les propriétés de la notation exponentielle :
Par identification, on obtient :
qui nous donne la relation entre longueur d'onde et période d'une onde sonore.
Le traitement des ondes atmosphériques est un sujet complexe; dans la page qui suit, nous allons donner un aperçu général des principaux types d'ondes en comparant différentes planètes, mais sans entrer dans le détail.
Une analyse plus détaillée des phénomènes ondulatoires peut être trouvé dans la liste suivante des livres:
Les ondes atmosphériques peuvent se manifester de diverses manières: comme oscillations de la température, de la densité et de la vitesse du vent, ou à travers des structures régulières de nuages. Ils peuvent être classés sur la base de facteurs différents: (1) mécanismes de restauration; (2) échelles de temps et d'espace; (3) ondes stationnaires ou qui se déplacent.
Le mécanisme de restauration des ondes de gravité est la poussée d'Archimède. Elles sont créées: (1) par la topographie (ondes orographiques), lors du passage d'une masse d'air au-dessus d'un relief montagneux; ou (2) par des instabilités dues à la présence d'orages ou de fronts d'air. Ils sont très communs dans les mésosphères des planètes telluriques. Sur Terre, les ondes de gravité révèlent souvent leur présence à travers des formations nuageuses, comme dans le cas des ondes orographiques. À des altitudes plus élevées, des images des nuages polaires mésosphériques, aussi connus sous le nom de nuages noctulescents, montrent souvent des structures ondulatoires probablement dues à la propagation vers le haut des ondes de gravité. Dans l'atmosphère martienne, des ondes de gravité ont été observées dans des images de nuages mésosphériques de glace de CO2 obtenues par la High Resolution Stereo Camera à bord de la mission européenne Mars Express et elles sont produites par la topographie (montagnes et cratères). Plusieurs missions spatiales ont détecté des ondes de gravité dans l'atmosphère de Vénus à la fois comme des oscillations sur le champ de température et comme des structures sur la couche de nuages. Elles sont probablement causées par des mouvements convectifs ou par des instabilité de de Kelvin-Helmholtz. Dans la haute atmosphère des planètes géantes (Jupiter, Uranus, et Neptune), des ondes de gravité ont été détectées par des oscillations dans les profils verticaux de température. Elles sont probablement la manifestation d'ondes de gravité générées près de la tropopause se propageant vers le haut.
Ces ondes sont un type d'ondes de gravité produites par l'instabilité de Kelvin-Helmholtz (Figure 2).
Les ondes de Rossby ou ondes planétaires sont caracterisées par une grande longueur d'onde. Elles sont dues à la variation de la force de Coriolis selon la latitude, quand une masse d'air se déplace à latitudes plus ou moins élevées. Sur la Terre, les ondes de Rossby sont des phénomènes permanents dans les latitudes moyennes et sous-polaires. Souvent, des cyclones et des anticyclones se forment dans les crêtes de l'onde. De la même façon, des ondes de Rossby se forment dans l'atmosphère vers les régions polaires de Mars. Dans les planètes géantes Jupiter et Saturne, il y a une grande variété d'ondes atmosphériques à l'extérieur de la région équatoriale qu'on suppose être des ondes de Rossby. Sur Saturne, un système ondulatoire hexagonal existe autour du pôle Nord, qui pourrait être une onde de Rossby. On peut voir divers exemples d'ondes de Rossby sur différentes planètes dans la figure ci-contre.
Les ondes de marées thermiques sont des ondes d'échelle planétaire excitées par les variations de l'insolation du sol dues au cycle jour-nuit. Ces ondes se manifestent sur le champ de pression et sur les composants du vent et elles évoluent avec le temps solaire local. Les ondes de marée thermique dans l'atmosphère de Mars ont une amplitude beaucoup plus élevée que sur la Terre car le forçage thermique sur Mars est très fort à cause de l'absorption dans le proche infra-rouge du atmosphérique, l'absorption du rayonnement infra-rouge émis par la surface, la présence de la poussière dans l'atmosphère et le fait que l'atmosphère y soit plus ténue. L'effet des marées thermiques sur la circulation zonale et méridienne moyenne est donc très important dans l'atmosphère martienne. Sur Vénus, l'absorption du rayonnement solaire se produit essentiellement dans la couche de nuages et des études ont proposé que les marées solaires jouent un rôle important dans la super-rotation de Vénus à ce niveau.
Difficulté : ☆☆☆ Temps : 1 h
On modélise une tornade par une circulation tangentielle autour d'un centre. Le rayon caractéristique de la tornade est défini par tel que : pour , et pour , .
À l'aide du théorème de Stokes, donner l'expression de en tout point de l'espace. Exprimer en particulier la vitesse maximale en fonction de et de . Où est-elle atteinte ?
[2 points]
En pratique, est inférieur au kilomètre et de l'ordre de 100 m/s. Quelle approximation est la plus justifiée : cyclostrophique ou géostrophique ?
[1 points]
Exprimer alors une équation différentielle portant sur la pression . On considèrera par la suite que .
[2 points]
On considère la masse volumique de l'atmosphère constante. Intégrer alors cette équation différentielle et exprimer en fonction de , et , puis de et . Justifier le signe de .
[3 points]
Application numérique Exprimer à la surface pour la Terre et pour Mars à l'aide de la loi des gaz parfaits. À l'aide des données du cours, calculer alors pour une tornade terrestre avec . En supposant la même valeur de sur Mars, estimer alors sur Mars.
[1 points]
Difficulté : ☆☆ Temps : 30 min
On considère une dépression martienne de rayon et de différence de pression en son centre avec la pression moyenne à la surface de Mars . Cette dépression se situe à la latitude . On se placera par la suite dans le cadre de l'approximation géostrophique. La température moyenne sur Mars est voisine de , la pression moyenne de surface voisine de , l'accélération de la gravité y vaut et la masse molaire de l'atmosphère y est de .
Calculer la masse volumique de l'atmosphère à la surface de Mars.
[1 points]
Calculer la valeur du paramètre de Coriolis .
[1 points]
Estimer l'ordre de grandeur du gradient radial de pression dans cette dépression.
[1 points]
En appliquant la relation géostrophique, estimer la norme de la vitesse du vent tangentiel à la distance du centre de la dépression. Quelle sera sa direction ?
[2 points]
Vérifier a posteriori la validité de l'approximation géostrophique.
[1 points]
Les frottements à la surface entraînent une déviation du vent à proximité d'un angle valant par rapport aux isobares (considérés ici comme des cercles concentriques). Exprimer le flux de masse gazeuse entrant par la surface latérale de la dépression, de périmètre et s'étendant verticalement sur une échelle de hauteur . En déduire alors la vitesse moyenne verticale du vent au sein de la dépression et son signe (ascendant ou descendant).
[2 points]
Difficulté : ☆☆☆ Temps : 1 h
On considère les températures moyennées (zonalement, c'est-à-dire en longitude) au niveau de la surface pour les mois de janvier () et juillet () à différentes latitudes sur Terre.
Latitude | [°C] | [°C] |
---|---|---|
30°N | +12 | 25 |
45°N | 0 | 20 |
60°N | -12 | 15 |
Estimer le gradient de température sur la direction nord-sud à 45°N en janvier et en juillet. On donne le rayon terrestre .
[2 points]
Difficile et facultatif Des différences horizontales de température (selon ici) se traduisent par des différences horizontales d'échelle de hauteur atmosphérique . En supposant les pression au niveau uniformes selon , montrer que les pressions à l'altitude sont telles que :
[2 points]
Difficile et facultatif Le léger (d'ordre 1 en ) gradient horizontal de pression ainsi créé engendre un léger vent géostrophique . Montrer que .
[2 points]
L'équation obtenue précédemment se généralise sous la forme et s'appelle équation du vent thermique. Calculer le cisaillement vertical du vent zonal en utilisant cette équation. On donne la vitesse angulaire de la rotation sidérale terrestre .
[1 points]
En considérant le vent nul à la surface et la température constante avec l'altitude, estimer alors la vitesse du vent zonal au sommet de la troposphère à une altitude (soit environ une échelle de hauteur) en hiver puis en été. Dans quelle direction souffle ce vent (appelé courant jet) ?
[2 points]
Dans la figure suivante, on voit que l'énergie absorbée dans le visible dépend de la latitude (courbe bleue). Sachant que la puissance émise par le Soleil et reçue par la Terre est de 1361 W/m2 au total, quelle est l'équation régissant la relation entre la puissance reçue sur Terre et la latitude ?
Quelle serait l'allure de cette figure pour une planète ne possédant pas d'atmosphère ?
Dans la figure suivante, on a fait figurer le vent à deux altitudes différentes (300 et 925 Pa). Comment interprétez-vous l'orientation et l'intensité des vents ? Quel lien faites-vous avec les zones où les nuages sont absents ou présents ? Les zones arides et boisées sur Terre ?
Quel est le lien entre variation particulaire et la variation totale d'un grandeur ? Comment interpréter le cas où le fluide est au repos (vitesse du fluide nulle) ?
Un ami vous affirme que le sens de rotation d'un vortex créé par de l'eau s'écoulant d'un lavabo dépend de l'hémisphère dans lequel on se trouve. Il en veut pour preuve que ce sens est toujours le même dans sa salle de bains et que ses nombreuses expériences de voyage de par le monde ne permettent pas de mettre ce fait en doute. Qu'en pensez-vous ?
Vous vous trouvez sur un manège tournant et souhaitez lancer un balle à votre ami situé de l'autre côté du manège. Si le manège tourne dans le sens des aiguilles d'une montre, Devez-vous lancer la balle à droite, à gauche, ou dans la direction de votre ami pour qu'elle lui arrive directement dans les bras ?
Vue de haut : vous êtes un bonhomme bleu avec un ami orange sur un manège gris.
Contrairement à vous, votre ami a eu mal au coeur et est descendu du manège pour s'asseoir sur un banc. Vous souhaitez néanmoins toujours lui lancer une balle, ce que vous tentez au moment où vous êtes le plus proche de lui. Devez-vous lui lancer la balle à droite, à gauche ou dans sa direction.
Vue de haut : vous êtes toujours un bonhomme bleu sur un manège gris mais votre ami orange n'est plus sur le manège. .
Il est possible de recréer une gravité artificielle dans un vaisseau spatial en le mettant en rotation autour d'un axe central. Les astronautes peuvent ainsi profiter d'une gravité telle que ressentie à la surface de la Terre dans un anneau qui tourne autour de son centre. Afin qu'ils ne ressentent pas de gêne lorsqu'ils se déplacent dans l'anneau, quelle doit être le diamètre minimal de l'anneau ?
Y-a-t-il de la vie ailleurs que sur Terre ?
Avec les récentes détections de planètes telluriques depuis la Terre ou par le télescope spatial Kepler, cette question ancestrale prend tout son sens. Nous savons à présent que la plupart des étoiles sont entourées de planètes rocheuses comme la Terre. Cependant, de nombreuses questions demeurent : Les conditions propices à la vie sont elle fréquentes ou exceptionnelles ? Où faut-il chercher ? A quoi ressemblent les objets, dans notre galaxie, capables d’héberger la vie ? Ce cours propose d’identifier les différents critères à réunir pour qu’une planète (ou une lune) soit susceptible d’héberger de la vie.
Une planète sera dite “habitable” si y sont réunies un ensemble de conditions qui la rendent propice à l’apparition et au maintien de la vie telle que nous pouvons l'imaginer et la reconnaitre. Cela ne signifie pas pour autant que la vie va effectivement s’y développer !
La vie telle que nous pouvons l'imaginer (et la reconnaitre) à partir de notre expérience terrestre se base sur la chimie du carbone en solution dans l'eau liquide et une évolution par réplication/reproduction. Pour être habitable, une exoplanète doit donc vérifier simultanément quatre critères : Avoir du carbone, de l'eau liquide, une source d'énergie et une surface solide ou liquide.
I. Elle doit contenir du carbone. Le carbone est présent dans 95% des composés chimiques connus à ce jour et est un élément chimique indispensable à la vie. D'une part, chaque atome de carbone est capable de former quatre liaisons moléculaires. D'autre part, les atomes de carbone forment avec les autres atomes (oxygène, hydrogène, ... mais aussi carbone !) des liaisons dont la stabilité n'est ni trop grande, ni trop faible. Ce sont ces deux propriétés qui sont à l'origine de la richesse de la chimie du carbone, justement appelée chimie "organique". D'autres atomes, comme par exemple le silicium sont eux aussi capables de créer simultanément 4 liaisons. Le silicium forme cependant avec certains atomes (notamment l'Oxygène) des liaisons beaucoup trop stables pour pouvoir permettre une diversité de composés chimiques nécessaire à la vie.
II. Une planète habitable doit avoir de l'eau liquide stable, à sa surface sous forme d'océans ou de lacs, ou dans des nappes d'eau souterraines. Sur Terre, l'eau liquide est indispensable à la vie telle que nous la connaissons. En son absence, il n'existe aucune activité biologique ni reproduction. Certains organismes peuvent survivre desséchés à l'état de "spores", mais leur métabolisme est stoppé. Inversement, presque partout où l'eau liquide est présente, même à grande profondeur sous-terre, ou dans des conditions extrêmement chaudes, acides, salées, etc.. la vie est active. L'eau liquide semble ainsi être la condition nécessaire et suffisante pour la vie terrestre telle que nous la connaissons. En effet, en l'état actuel de nos connaissances, l'eau liquide est le seul solvant permettant une chimie aussi riche que la biochimie. L'eau possède un moment dipolaire élevé. Cela lui permet de former des liaisons hydrogène, ingrédient nécessaire pour 1) stabiliser les molécules d'eau entre elles et 2) stabiliser les macromolécules (briques du vivant). Ensuite, l'eau sous sa forme liquide est stable pour une grande gamme de températures et de pressions, à des températures propices à une chimie relativement rapide.
III. Il faut une source d'énergie (lumineuse, chimique, ...) pour initier la synthèse et le développement des molécules organiques qui constituent la base de la vie.
IV. Il est difficile de concevoir que la vie puisse se développer sur une planète gazeuse. En l'absence de surface liquide ou solide stable, il faudrait par exemple que la vie profite de gouttelettes nuageuses. Cependant, celles ci étant sans cesse en train de s'évaporer et de se reformer, les conditions semblent insuffisamment stables dans le temps pour que la vie puisse apparaître et se développer.
Pour la vie telle que nous pouvons l'imaginer, une planète (ou une lune, par extension) sera donc habitable si elle héberge de l'eau liquide. Cependant, les environnements où l'eau liquide est présente n'offrent pas tous les mêmes avantages pour l'apparition de la vie et son évolution. On peut ainsi distinguer quatre catégories de corps habitables.
D'abord, il y a les planètes/lunes similaires à la Terre, capables de conserver de l'eau liquide à leur surface. Les éventuels êtres vivants peuvent alors utiliser l'énergie lumineuse venue de l'étoile hôte, qui est essentielle car moteur de la photosynthèse. Sur Terre, la quasi-totalité des organismes vivants fonctionnent, directement ou indirectement, grâce au mécanisme de photosynthèse. C'est cette source d'énergie considérable qui a permis à la vie de modifier l'atmosphère et la surface de notre planète.
Les planètes/lunes de cette catégorie ont un jour possédé des caractéristiques similaires à celle de la Terre (catégorie 1) mais ont par la suite perdu leur eau liquide en surface. Sur ces planètes, la vie a pu apparaître et se développer en surface, et ensuite envahir le sous-sol (la vie est abondante sur Terre jusqu'à parfois plusieurs kilomètres de profondeur). Lorsque la surface est devenue inhabitable, la vie a pu subsister en profondeur là où l'eau liquide est restée présente. C'est peut-être le cas pour Mars, cas qui sera détaillé dans la suite de ce cours.
Dans cette catégorie, on trouve les planètes/lunes qui possèdent un océan d'eau liquide sous une couche de glace en surface, et en contact direct avec un noyau rocheux. Europe (satellite naturel de Jupiter) et Encelade (autour de Saturne) appartiennent à cette catégorie. Sur ces corps, la température à la surface est inférieure à -100°C, mais l'eau est maintenue liquide en profondeur par l'énergie thermique générée par la dissipation des marées gravitationelles due à l'excentricité de leurs orbites autour de Jupiter et Saturne..
Enfin, les planètes/lunes de la catégorie IV ont un océan d'eau liquide souterrain comme pour la catégorie III, mais surmontant une couche épaisse de glace. En effet si la quantité d'eau présente sur ces objets est trop grande, le diagramme de phase de l'eau prédit l'existence d'une couche de glace à haute pression, entre l'océan liquide et le noyau silicaté.
Les corps du Système Solaire faisant partie de cette catégorie sont notamment Ganymede (Jupiter) et Callisto (Jupiter).
Les photons ne pouvant atteindre l'océan souterrain, le mécanisme de la photosynthèse ne peut pas fonctionner.
Sur les objets de catégorie III, une vie éventuelle peut néanmoins profiter de l'énergie chimique et des nutriments apportés par l'activité hydrothermale et volcanique. .
Sur les objets de la catégorie IV, l'eau est en "sandwich" entre deux couche de glace. La vie ne peut bénéficier de l'apport de matériaux et d'énergie en provenance du sous-sol via du volcanisme.
Si la vie n'est présente qu'en sous-surface (catégories II, III et IV), elle peut alors difficilement modifier l'aspect de la surface. Surtout, en l'absence de photosynthèse, son activité biologique sera très limitée et elle ne pourra presque pas influencer la composition chimique d'une éventuelle atmosphère. Sa détection depuis la Terre apparait donc beaucoup plus difficile que pour la catégorie I.
Dans la suite de ce cours, nous nous intéresserons essentiellement aux exoplanètes habitables de la première catégorie car ce sont les seules où la vie peut être détectée à distance.
Les organismes complexes qui constituent "la vie" pourraient avoir besoin de beaucoup de temps pour se former et évoluer. Sur Terre, nous ne savons pas quand la vie est apparue. Des traces d'êtres vivants (fossiles, anomalie isotopiques, "stromatolites") semblent présentes dans les plus anciennes roches sédimentaires actuellement disponibles sur Terre. Ces traces sont débattues, mais elles suggèrent que la vie bactérienne était abondante moins d'un milliard d'années après la formation de la Terre. Cependant, plus de 3 milliards d'années ont ensuite été nécessaires pour que les premières formes de vie multicellulaires à l'origine des animaux et des hommes apparaissent.
Pour que la vie puisse évoluer, il faut que la planète hôte soit capable de conserver du carbone, de l'eau liquide et une surface stable pendant plusieurs milliards d'années. Maintenir les conditions de température et de pression propices à l'eau liquide en surface se révèle être le critère le plus contraignant.
Une première limite sur la durée de l'habitabilité d'une planète est donnée par la durée de vie de son étoile hôte, ou plus précisemment par la durée de vie sur la séquence principale (Diagramme Hertzsprung-Russel), pendant laquelle son énergie est créée dans son cœur par fusion nucléaire des noyaux d'hydrogène en noyaux d'hélium. Sa luminosité est alors stable ou évolue doucement. Quand une étoile quitte la séquence principale, la variation importante de son flux lumineux ne permet pas aux planètes environnantes de conserver des conditions stables à leur surface et donc de potentiellement conserver leur habitabilité. Le soleil, par exemple, sortira de la séquence principale dans près de 5 milliards d'années pour entrer dans une phase de géante rouge. Si la Terre est alors toujours à la même distance du Soleil, elle recevra une quantité d'énergie plusieurs milliers de fois plus importante qu'aujourd'hui. La Terre ne sera alors plus habitable ...
La durée de vie d'une étoile de la séquence principale dépend essentiellement de sa masse. Plus une étoile est massive, plus sa durée de vie sera courte, et donc moins elle sera susceptible d'héberger une planète durablement habitable. Les étoiles dont la masse est supérieure à 1,5 fois celle du Soleil sont peu propices à posséder des planètes hébergeant de la vie "développée", car leur durée de vie est inférieure à 4.5 milliards d'années, soit le temps qu'il a fallu sur Terre pour que la vie intelligente apparaisse depuis la formation du Soleil.
Une planète habitable (de catégorie I) doit avoir de l'eau liquide disponible à sa surface. Il faut pour cela qu'elle ait d'abord été capable d'avoir accumulé de l'eau, puis de la conserver à sa surface, et enfin de la garder dans son état liquide.
L'eau est abondante dans notre galaxie. Il est ainsi très probable que les planètes ont au moment de leur formation de grandes quantités d'eau à disposition. Par la suite, comètes et météorites peuvent alimenter ces mêmes planètes en eau.
Pour une planète, avoir de l'eau semble être une chose commune. Mais il est bien plus difficile de garder cette eau en phase liquide ... L'eau peut exister essentiellement sous trois formes : solide, liquide et gazeuse. La gamme de températures pour laquelle une planète peut avoir de l'eau liquide stable à sa surface dépend donc principalement de sa pression de surface. Actuellement sur Terre, cette gamme s'étend de 0 à 100°C car la pression au sol est de 1013 hPa.
Remarque : La présence de sels dissous dans l'eau liquide peut permettre d'abaisser sa température de solidification de quelques dizaines de degrés et également d'augmenter sa température d'ébullition
Une planète habitable est susceptible de perdre son eau par des mécanismes d'échappement atmosphérique. En particulier, l'eau liquide à la surface d'une planète habitable est en équilibre avec son atmosphère. La vapeur d'eau injectée peut monter dans la haute atmosphère et être photolisée par le flux UV en provenance de l'étoile, libérant ainsi des atomes d'hydrogène et d'oxygène. Les atomes d'hydrogène, légers, vont s'échapper facilement de la gravité. Si la quantité d'eau dans la haute atmosphère et le flux UV sont suffisament élevés, la planète initialement habitable peut perdre la totalité de son hydrogène et donc de son eau vers l'espace.
Il existe une méthode pour quantifier la perte en eau d'une planète par échappement atmosphérique. Le deutérium D (un proton+un neutron) est un isotope de l'hydrogène H (un proton). Il est présent en quantité à peu près constante depuis la formation de l'Univers. Pourtant, lors du mécanisme d'échappement atmosphérique décrit plus haut, l'hydrogène, plus léger que le deutérium, va s'échapper plus facilement. Au cours du temps, la proportion de deutérium sur une planète qui perd son eau vers l'espace va augmenter. Plus la proportion de deutérium est importante par rapport à celle de l'hydrogène (rapport D/H), plus la perte atmosphérique a été importante. Cependant, le rapport D/H ne renseigne pas sur la quantité d'eau initialement présente.
Tout corps chaud se refroidit avec le temps en émettant un rayonnement thermique. Au premier ordre, la puissance rayonnée par un corps ne dépend que de sa température et de sa surface.
Sur Terre, les conditions de température et de pression sont idéales pour conserver de l'eau liquide à la surface. Pour compenser le refroidissement de la surface terrestre et de ses océans par émission thermique, il faut une source extérieure d'énergie. Par le haut de l'atmosphère, c'est le flux solaire. Par le bas, c'est le flux géothermique. En pratique c'est le flux solaire qui domine par plus de 3 ordres de grandeur les autres sources d'énergie dans le bilan radiatif terrestre.
En premier lieu, c'est donc le flux stellaire reçu par une planète qui va dicter si oui ou non la planète va être capable de garder de l'eau liquide à sa surface. Si la planète est trop proche de son étoile, la température de la planète sera trop élevée pour conserver de l'eau dans son état liquide. Si la planète est trop loin de son étoile, ou voire même si la planète est seule, sans étoile - on l'appelle dans ce cas "planète flottante" -, elle ne recevra alors plus suffisamment d'énergie pour conserver la température minimale nécessaire au maintien d'eau liquide à sa surface.
Note : La photosynthèse - mécanisme essentiel pour la vie - est alimentée par le flux solaire.
Sur Terre, le flux géothermique est en moyenne 3000 fois plus faible que le flux solaire. Pourtant, sur d'autres corps, il peut être beaucoup plus important. Sur Io, un satellite de Jupiter encore volcaniquement actif, le flux géothermique moyen est 25 fois plus élevé que sur Terre. Ceci est dû aux forces de marée gravitationnelle exercées par Jupiter sur Io qui, par friction, réchauffent l'intérieur du satellite. Il est donc possible que, dans certaines configurations, le flux géothermique joue un rôle important dans le bilan radiatif d'une planète/lune et donc sur son habitabilité.
Note : Si une exoplanète reçoit un flux stellaire trop faible pour alimenter la photosynthèse, il est possible que d'autres mécanismes prennent le relais. C'est en particulier le cas de la vie chimiolithotrophique, qui puise son énergie des sources hydrothermales.
La composition et l'épaisseur de l'atmosphère d'une planète jouent également un rôle prépondérant dans son bilan radiatif. En particulier, la présence de gaz à effet de serre contribue généralement à l'augmentation de la température de surface d'une planète. Un gaz à effet de serre a en effet la propriété particulière d'être quasi-transparent dans le domaine du visible (là où la majorité du flux solaire est émis), mais très absorbant dans le domaine de l'infrarouge (qui correspond au domaine du rayonnement thermique de la planète). Les gaz à effet de serre, chauffés par cette absorption, émettent eux aussi un rayonnement thermique dont une partie est captée par la surface, contribuant à son réchauffement. (Plus d'informations dans ce cours)
Sur Terre, les principaux gaz à effet de serre sont l'eau (HO), le dioxyde de carbone (CO), le méthane (CH), ou encore l'ozone (O). Néanmoins, notre expérience dans le Système Solaire prouve qu'il existe en fait toute une variété de compositions atmosphériques possibles : l'atmosphère de Jupiter est composée essentiellement de dihydrogène (H) et d'hélium (He) ; celle de Vénus essentiellement de CO ...
Ce qu'il faut retenir des gaz à effet de serre : Une planète très proche de son étoile doit posséder peu de gaz à effets de serre pour conserver de l'eau liquide à sa surface alors qu'une planète très éloignée doit en avoir en grandes quantités !
Ce qui permet à la Terre de garder son eau liquide est un équilibre subtile entre le flux solaire qu'elle reçoit et le flux thermique qu'elle émet, fonction notamment de sa température.
Prenez la Terre et éloignez la du Soleil. Le flux solaire qu'elle reçoit va diminuer, impliquant une baisse directe de la température à sa surface. De ce fait, de la glace et de la neige supplémentaires vont se former et donc augmenter le pouvoir réfléchissant - appelé aussi "albédo" - de la surface. Un dépôt de neige peut être par exemple jusqu'à 10 fois plus réfléchissant qu'une étendue d'eau liquide. Ainsi, le flux solaire absorbé diminuera de plus belle, conduisant à des températures encore plus basses ...
On représente ci-dessous une simulation de la Terre, éloignée soudainement de 11% du Soleil. Après 20 ans, et via le mécanisme déstabilisant de "Runaway glaciation" (glaciation galopante) présenté ici, la Terre est complètement gelée.
Si la Terre, par ce phénomène de "Runaway Glaciation", finit par être complètement recouverte de glace, alors on dit qu'elle est entrée dans l'état "Terre Boule de Neige" ou aussi "Snowball Earth". Dans cet état, les températures à la surface de la Terre sont très froides, et l'albédo élevé de la glace/neige conduit la Terre à réfléchir une grande partie du flux solaire qu'elle reçoit.
Si on réexpose la Terre gelée au flux solaire qu'elle reçoit actuellement, elle restera gelée, suivant un phénomène d'hysteresis. Ainsi, pour un même flux solaire, la Terre peut être dans deux états d'équilibre différents ! Pour que la Terre Boule de Neige retrouve son état actuel, il faut qu'un ingrédient supplémentaire entre en jeu, comme par exemple une augmentation des gaz à effets de serre ...
Prenons maintenant la Terre et rapprochons là de quelques pourcents du Soleil. L'augmentation du flux lumineux que la planète reçoit va provoquer une augmentation de sa température de surface. Les océans et mers de la Terre, réchauffés, vont évaporer plus d'eau. La vapeur d'eau étant un puissant gaz à effet de serre, la température de surface de la Terre va continuer d'augmenter. Si le flux solaire reçu par notre planète est alors suffisamment grand, l'évaporation des océans va s'emballer jusqu'à leur épuisement. La vapeur d'eau correspondante va former une épaisse atmosphère opaque au rayonnement infrarouge thermique. La température de la surface augmentera juqu'à plus de 1500°C pour pouvoir rayonner dans le visible où la vapeur d'eau laisse passer le rayonnement nécessaire à son refroidissement.
Les planètes habitables de catégorie I possèdent de l'eau liquide en surface et sont donc tout autant sujettes à ce mécanisme d'emballement de l'effet de serre.
Une planète habitable de catégorie I possède de l'eau liquide à sa surface, et donc de la vapeur d'eau dans son atmosphère. Une partie de cette vapeur d'eau va rejoindre les hautes couches de l'atmosphère. Le flux UV de l'étoile va photodissocier les molécules d'eau et les atomes d'hydrogène, légers, vont alors s'échapper vers l'espace.
Le mécanisme d'emballement de l'effet de serre prédit qu'une planète qui se réchauffe aura de plus en plus de vapeur d'eau dans son atmosphère, et donc perdra de plus en plus rapidement son eau vers l'espace. Si cet échappement est suffisamment rapide (suffisamment d'eau dans la haute atmosphère, suffisamment de radiation UV), alors la planète habitable peut perdre la totalité de son eau avant même d'être entrée dans l'état du "Runaway Greenhouse". On appelle cette limite chaude de l'habitabilité le "Moist Greenhouse".
La Zone Habitable désigne classiquement la gamme de distances pour lesquelles il n'est pas impossible qu'une planète puisse avoir de l'eau liquide à sa surface, et donc être propice à une vie capable d'exploiter la photosynthèse. Bien sur, un objet peut se trouver dans cette zone et ne pas être habitable (exemple: la Lune).
Une planète trop proche de son étoile verra toute son eau liquide s'évaporer à cause du mécanisme de "Runaway Greenhouse". Pour une étoile donnée, on définit alors la limite "intérieure" - ou chaude - de la Zone Habitable par la distance orbitale minimale jusqu'à laquelle il est possible qu'une planète puisse garder son eau liquide. En pratique, on prend une planète totalement ou partiellement couverte d'eau liquide, et on cherche la distance minimale jusqu'à laquelle on peut l'emmener avant que ses océans ne s'évaporent.
Une planète trop éloignée de son étoile verra toute son eau liquide geler à cause du mécanisme de "Runaway Glaciation". Pour une étoile donnée, on définit alors la limite "extérieure" ou - froide - de la Zone Habitable par la distance orbitale maximale jusqu'à laquelle il est possible qu'une planète puisse garder son eau liquide. À la limite, on choisit l'atmosphère de la planète pour qu'elle maximise l'effet de serre. En pratique, la plupart des travaux de recherche ont eté effectué en supposant une planète possédant une atmosphère épaisse de CO2 (un bon gaz à effet de serre, et composant probable de l'atmosphère des planètes telluriques) : on cherche alors la distance maximale jusqu'à laquelle une telle planète peut garder de l'eau liquide à sa surface.
La Terre a une période de rotation sur elle-même de 24 heures, et autour du Soleil de 365 jours. La Lune, elle pourtant, montre toujours la même face à la Terre. Sa période de rotation autour de la Terre est égale à sa période de rotation sur elle-même (sidérale). On dit alors qu'elle a une résonance spin-orbite 1:1 ; on dit aussi qu'elle est en rotation synchrone. Mercure fait 3 tours sur elle-même quand elle fait 2 tours autour du Soleil. Elle a une résonance spin-orbite 3:2.
Il existe en fait une multitude de possibles périodes de rotation pour une planète autour de son étoile. Pourtant, quand une planète a une orbite trop proche de son étoile, l'action des forces de marées influence sa rotation. D'une part, elles tendent à redresser son axe de rotation (l'obliquité tend vers zero) et ses pôles ne reçoivent presque plus de rayonnement stellaire. D'autre part, elles freinent sa rotation, jusqu'à eventuellement la synchroniser autour de son étoile (la même face est toujours exposée à l'étoile). C'est par exemple ce qu'il s'est passé pour la Lune autour de la Terre.
La Zone Habitable autour d'étoiles de faible masse est relativement proche de l'étoile. En conséquence, les planètes situées dans la Zone Habitable de ces étoiles auront une obliquité nulle et une rotation ralentie, voire synchrone.
Quand une planète est en rotation synchrone autour de son étoile, elle reçoit toute son énergie (lumineuse) sur la même face. Les deux pôles (Nord et Sud) et la face cachée ne reçoivent alors plus d'énergie. Dans certains cas, l'eau liquide à la surface de la planète peut se retrouver intégralement piégée sous forme de glace au niveau des pôles ou bien de la face cachée. On appelle cela un "piège froid".
Sur ce type de planètes, les climats possibles (détaillés dans la suite de ce cours) sont bien différents de ce que nous connaissons sur Terre ...
Le mécanisme moteur qui permet au Soleil d'alimenter la Terre en énergie lumineuse est la fusion nucléaire. A mesure que les atomes d'hydrogène fusionnent, des éléments plus lourds comme de l'Hélium se forment. Au cours du temps, la proportion d'Hélium dans le coeur du Soleil augmente. Le noyau du Soleil devient de plus en plus dense et de plus en plus chaud. Les réactions nucléaires s'y font alors plus intenses. Résultat : La luminosité du Soleil augmente avec le temps.
Il y a trois milliards d'années, le Soleil était 20% moins lumineux qu'aujourd'hui. Si vous éloignez aujourd'hui et soudainement la Terre de 11% (ou diminuez son flux de 20%), alors elle sera très rapidement complètement gelée. Pourtant, la présence continuelle de vie sur Terre depuis près de 3,5 milliards d'années suggère que notre planète a été capable de garder de l'eau liquide à sa surface pendant toute cette période.
Il existe plusieurs scénarios possible pour expliquer la présence continuelle d'eau et de vie sur Terre depuis 4 milliards d'années. Voici un exemple : Il y a 4,5 milliards d'années, la surface de la Terre est réchauffée par la présence d'une grande quantité de CO2 dans l'atmosphère. Il y a 4 milliards d'années, la vie apparaît sous forme de bactéries, notamment "méthanogènes": ces formes de vie consomment le CO2 et libèrent du méthane qui contribue à l'effet de serre de l'atmosphère. Parallèlement, un autre type de bactéries produit de l'oxygène grâce à la photosynthèse. Dans un premier temps cet oxygène est consommé par oxydation des roches, puis il commence à s'accumuler dans l'atmosphère il y a 2,3 milliards d'années. Cette augmentation de la quantité d'oxygène dans l'atmosphère, toxique pour les bactéries méthanogènes, conduit au déclin du méthane. Conséquence : la Terre se refroidit et entre dans une ère glaciaire (Glaciation Huronienne) d'où elle sort rapidement par augmentation du CO2 et de son effet de serre. De -3,8 milliards d'années à nos jours, la Terre, malgré plusieurs autres ères glaciaires (Glaciations Néoprotérozoiques), sera restée capable de maintenir à sa surface de l'eau liquide et de la vie.
Dans 6 milliards d'années, le Soleil sortira de la Séquence Principale pour se transformer en Géante Rouge. La Terre sera alors engloutie par le Soleil, dont le rayon aura été multiplié par ~ 200.
Dans 1 milliard d'années, la Terre recevra approximativement 10% de plus que le flux solaire actuel. Cela est suffisant pour que le mécanisme d'emballement de l'effet de serre agisse ... L'ensemble de l'eau présente dans les océans s'évaporera pour former une atmosphère dont la température dépassera 1500°C et la pression de surface vaudra quelques centaines de bars. La Terre, sans eau liquide à sa surface, ne sera alors plus habitable !
Dans 900 millions d'années, la température de la Terre aura suffisamment augmenté pour que le CO2 présent dans notre atmosphère soit dissout dans nos océans. Dans 900 millions d'années, la quantité de CO2 passera en dessous du seuil de 10ppm (pour rappel, la concentration actuelle en CO2 est ~ 400ppm, soit 0,04%) en deçà duquel la photosynthèse de toutes les plantes terrestres s'arrêtera. Sans photosynthèse, la vie telle que nous la connaissons ne pourra plus subsister.
Dans 100 ans, le réchauffement climatique provoquera une augmentation de la température terrestre moyenne de 1,5°C à 4°C. En cause, l'activité humaine est à l'origine des émissions en gaz carbonique, puissant gaz à effet de serre. Il est toutefois important de préciser que le réchauffement climatique ne peut pas conduire au phénomène de "Runaway Greenhouse".
Si la Terre a été capable de conserver de l'eau liquide pendant 4 milliards d'années, c'est très certainement grâce à un certain nombre de mécanismes physiques et chimiques stabilisants.
La Terre est capable de réguler la quantité de dioxyde de carbone contenu dans son atmosphère. Pour faire "simple", le présent dans notre air tend à se dissoudre dans l'eau douce issue des précipitations sur les continents sous forme d'ion HCO3-. En ruisselant sur les surfaces, cette eau dissout aussi les roches silicatées (typiquement: ) présente à la surface de la Terre. Les produits de ces dissolutions sont transportés par les rivières vers les océans où ils s'accumulent. Au delà d'une certaine concentration, les ions se combinent pour former des carbonates (constituant des roches calcaires). L'équation bilan est typiquement: . Sur Terre de nos jours, la formation des carbonates à partir des ions dissous est assurée par certains organismes vivants pour fabriquer des coquilles ou des squelettes. Une fois formé, le carbonate tombe au fond des océans et forme des sédiments qui sont transportés lentement par le plancher océanique se subductant par tectonique des plaques. En profondeur, les hautes pressions et températures inversent la réaction et libèrent le CO2. Celui ci est réinjecté dans l'atmosphère par le volcanisme : la boucle du "cycle des carbonate silicate" est bouclée.
Si la Terre entre dans une ère glaciaire, l'eau liquide ne peut plus lessiver les continents et la couche de glace qui se crée entre les océans et l'atmosphère empêche le CO2 de se dissoudre. Pendant ce temps les volcans continuent à injecter du CO2 qui va s'accumuler dans l'atmosphère, jusqu'au point où la quantité de gaz à effet de serre dans l'atmosphère sera suffisante pour que la Terre sorte de l'ère glaciaire.
La réaction de dissolution de la roche par le CO2 augmente avec la température. Donc si la Terre se réchauffe, la quantité de CO2 dans l'atmosphère diminuera et la Terre se refroidira. Il s'agit donc d'un véritable "thermostat géophysique".
Note : Le mécanisme à rétroaction négative des Carbonates-Silicates agit sur une période de temps ~ 0,5 millions d'années, ce qui est suffisamment rapide pour influencer l'évolution climatique à long terme de notre planète, mais largement insuffisant pour contrebalancer le réchauffement climatique induit par l'Homme.
La présence de la Lune résulte de la collision entre deux objets à l'origine de la formation de la Terre et de la Lune. Sans la Lune pourtant, l'obliquité de la Terre varierait chaotiquement de ±0° à ±85° sur des périodes de temps ~ 10 millions d'années.
La Lune stabilise l'obliquité de la Terre et par conséquent son climat.
Mars est aujourd'hui une planète froide et sèche. Sa température de surface moyenne est d'environ -70°C et sa pression de surface de 6 millibars. Sous ces conditions, l'eau à la surface de Mars n'existe que sous sa forme de glace, en équilibre avec de la vapeur d'eau présente dans l'atmosphère. Pourtant, un grand nombre d'indices suggère que Mars fut autrefois une planète qui possédait toutes les caractéristiques nécessaires pour être habitable ...
En 1972, la sonde Mariner 9 découvre pour la première fois des lacs et des réseaux de rivière à la surface de Mars. Leur présence suggère que l'atmosphère de Mars fut un jour suffisamment chaude et épaisse pour que de l'eau liquide soit stable à sa surface, et capable d'éroder Mars pour former lacs et rivières. La grande majorité de ces réseaux de rivières ont été observés sur des terrains datés de plus de 3,5 milliards d'années, en utilisant la méthode de comptage par cratères. Depuis, la présence de grandes quantités d'eau liquide sur Mars autrefois a été confirmée par de multiples observations géomorphologiques et minéralogiques effectuées depuis des satellites en orbite ou grâce à des robots (rovers) à la surface.
Pourtant, il y a 3,5 milliards d'années, le Soleil était 25% moins brillant qu'aujourd'hui. Mars recevait alors 35% du flux solaire que nous recevons actuellement sur Terre. Difficile donc d'expliquer la formation de ces rivières et encore plus d'imaginer que Mars ait pu un jour être habitable.
L'exemple de Mars montre d'abord qu'une planète a pu être propice à l'eau liquide en surface (et donc propice à une vie capable de photosynthèse) en recevant un flux d'énergie solaire faible, si faible qu'il reste difficile de l'expliquer avec les modèles climatiques. La planète Mars primitive nous offre donc une référence empirique sur la limite extérieure de la zone habitable.
L'exemple de Mars met aussi en évidence le fait que pour rester habitable, et en particulier propice à une vie capable d'évoluer en surface, il faut pouvoir conserver son atmosphère en évitant sa perte par échappement dans l'espace et en recyclant les volatiles piégés à la surface par réaction chimique.
Mars est enfin un exemple de l'habitabilité de type 2: la vie aurait pu démarrer dans des conditions favorables, avec de l'eau liquide en surface. Après avoir atteint une complexité suffisante, elle pourrait subsister malgré les conditions arides actuelles, notamment en profondeur.
Vénus est le meilleur exemple pour illustrer ce qu'il arrive à une planète trop proche de son étoile.
De prime abord, Vénus est une planète très similaire à la Terre. C'est une planète tellurique, comme la Terre. Son rayon équatorial et sa masse valent respectivement 0,949 fois et 0,815 fois ceux de la Terre.
Pourtant, la surface et l'atmosphère de Vénus sont bien différentes de celles de la Terre. Vénus a aujourd'hui une température de surface moyenne de 480°C et une pression de surface de 90 bars. L'atmosphère de Vénus est essentiellement composée de CO 2 et la vapeur d'eau ne représente que 0.002% (20 ppm) de la composition de son atmosphère. Si jamais l'eau présente dans l'atmosphère de Vénus devait se condenser à sa surface, cela créerait une couche d'eau liquide de seulement 3 centimètres !! Et pourtant, tout indique que Vénus et la Terre étaient initialement composées des mêmes ingrédients.
L'eau est une molécule abondante dans la galaxie. C'est aussi le cas sur Terre, sur Mars ... Cependant, l'eau est présente en quantité très limitée sur Vénus ! Il est probable que Vénus ait eu de l'eau en quantité importante lors de sa formation. Mais si c'est le cas, elle n'a pas été capable de la garder. Du fait de la température de surface élevée de Vénus, l'eau (initialement peut-être liquide) se serait transformée progressivement en vapeur d'eau. L'échappement atmosphérique de l'hydrogène présent dans l'eau aurait alors transformé Vénus en la planète sèche que nous connaissons aujourd'hui.
Au début des années 1990, la sonde spatiale américaine Magellan est envoyée en orbite de Vénus. Son radar révèle avec une précision alors inégalée la topographie de la planète, nous indiquant que l'eau liquide n'a pas pu couler sur Vénus depuis au moins 1 milliard d'années ! Cette observation permet d'établir une limite empirique de la limite chaude de la Zone Habitable : il y a 1 milliard d'années, Vénus (qui recevait alors 1,76 fois le flux solaire reçu actuellement sur Terre) n'était pas habitable. Mais l'activité volcanique intense à la surface de Vénus, à l'origine du resurfaçage de la surface de Vénus, ne permet pas de remonter plus loin qu'un milliard d'années dans l'histoire de la planète : il est donc très difficile pour l'instant de savoir si Vénus a pu un jour posséder des océans à sa surface.
Vénus a-t-elle un jour été habitable ? Y'a-t-il de la vie dans l'atmosphère vénusienne (Vénus pourrait être habitable au sens de la classe II grâce aux gouttelettes d'eau présentes dans son atmosphère) ? Un certain nombre de missions spatiales à venir pourraient nous en apprendre davantage ...
Si la vie réussit à émerger sur une planète, notre expérience sur Terre montre qu'il lui faut ensuite du temps avant d'atteindre un stade d'intelligence élevé. Sur Terre, il a fallut 4 milliards d'années. Et la Terre a été capable de maintenir les conditions nécessaires à son habitabilité pendant tout ce temps ! Pourtant, un certain nombre de phénomènes extrêmes peuvent venir perturber épisodiquement l'habitabilité d'une planète ...
A mesure que les étoiles très massives (> 8 masses molaires) consomment leur carburant par fusion, des éléments de plus en plus lourds sont formés (de l'Hélium jusqu'au Fer) et leur coeur se densifie. Au delà d'une certaine limite, les forces de pression au sein du noyau d'une telle étoile ne sont plus capables de contrebalancer l'effet de la gravité. L'étoile va alors imploser puis exploser : c'est ce qu'on appelle une "Supernova". L'énergie libérée lors d'un tel évènement est considérable et l'essentiel de cette énergie est relâché pendant un temps très court (quelques dizaines de jours) de telle sorte que les étoiles et leur planètes se trouvant dans les environs peuvent être fortement irradiés par un rayonnement hautement énergétique.
À l'échelle du système stellaire, le principal danger pour une planète habitée vient des collisions météoritiques. L'énergie libérée lors d'une collision peut être considérable et suffisante pour "stériliser" une planète. Par exemple, l'impact météoritique qui a donné naissance au cratère Chixculub, au Mexique, a libéré l'équivalent (en énergie) de J, soit 10 milliards de fois l'énergie libérée par la bombe nucléaire larguée sur Hiroshima.
Considérant notre expérience du Système Solaire, il y a toutes les raisons de croire que le volcanisme est un phénomène courant parmi les planètes extrasolaires.
Pourtant, un volcanisme accru peut perturber l'habitabilité d'une planète. En fonction des gaz à effet de serre ou des aérosols et poussières injectés et leur quantité, une planète peut être fortement impactée (fort réchauffement ou refroidissement) par d'intenses épisodes volcaniques.
Sur Terre, paradoxalement, l'arrêt définitif du volcanisme pourrait très bien conduire aussi à un refroidissement extrême de notre planète. Car c'est en effet le volcanisme qui, au long terme via le cycle des Carbonates-Silicates, régule la quantité de gaz à effet de serre de notre planète et donc sa température.
La condition la plus restrictive pour qu'une exoplanète soit dans la zone habitable - et donc potentiellement habitée par une vie détectable- est la présence d'eau liquide stable à sa surface. Notre expérience dans le Système Solaire / grâce aux premières observations d'exoplanètes montre qu'il existe une grande diversité de planètes. Pourtant, parmi cette diversité, la seule planète dont nous savons qu'elle possède de l'eau liquide stable depuis plus de 4 milliards d'années à sa surface est la Terre. Existe-t-il des planètes de configurations bien différentes de la Terre mais qui pourtant sont capables d'avoir de l'eau liquide stable à leur surface ? Si oui, à quoi ressemblent de telles exoplanètes ? Autour de quelles étoiles peut-on les trouver ? Quels gaz composent leur atmosphère ? ...
Flux lumineux reçu ; Composition, Taille et Masse de la planète ; Composition et Masse de l'atmosphère ; Paramètres orbitaux (excentricité, obliquité ...) de la planète ; Vitesse de rotation ... Ce sont tout autant de paramètres capables de favoriser ou non la présence d'eau stable à la surface d'une planète. Il est extrêmement difficile de prédire à l'avance quel genre d'exoplanètes nous allons découvrir dans les années à venir. Il est donc essentiel de comprendre, parmi tout ce panel de paramètres, quels sont ceux qui peuvent permettre à une planète ou non d'avoir de l'eau liquide stable et donc d'héberger de la vie.
Si vous connaissez par exemple la masse d'une planète et la distance qui la sépare de son étoile, il est possible de spéculer sur la nature et l'épaisseur de son atmosphère, élèments essentiels pour savoir si la planète peut potentiellement être habitable.
Imaginez une planète dans la Zone Habitable de son étoile, mais dont la masse serait 20 fois plus faible que celle de la Terre, comme Mercure par exemple. Dans ce cas, la planète n'exercera pas une gravité suffisante pour pouvoir garder une atmosphère capable de maintenir de l'eau liquide à sa surface.
Mais la masse d'une planète et sa distance à l'étoile ne sont pas des conditions suffisantes pour étudier son habitabilité. Il existe un grand nombre de configurations dans lesquelles une planète pourrait être habitable ... comme les planètes en rotation synchrone ? les planètes ayant une atmosphère d'hydrogène ? Les planètes ayant un flux géothermique très élevé ? ... Ce sont tout autant de candidats aux caractéristiques exotiques mais dont il faut explorer les possibilités ...
Les processus physiques qui entrent en jeu dans l'évolution du climat d'une planète sont nombreux. En voici une liste non-exhaustive :
La manière la plus réaliste de tenir compte de tous ces phénomènes physiques est d'utiliser un modèle de climat. Pour plus d'informations, veuillez vous reporter au cours sur les Modèles de Climat.
Dans un modèle Radiatif-Convectif, ou Modèle à 1 dimension, on représente la totalité de l'atmosphère d'une planète par une unique colonne composée d'un nombre discret de couches atmosphériques. Dans un GCM (Global Climate Model), ou Modèle à 3 dimensions, l'atmosphère est discrétisée selon les trois dimensions de l'espace.
Les modèles 3D ont l'avantage d'être plus complets et réalistes. Ils ont cependant le défaut d'être rapidement limités (par comparaison aux modèles 1D) par la puissance de calcul requis.
Les modèles 1D comme celui-là ( accessible aussi là) sont plutôt fiables lorsqu'il s'agît de modéliser des planètes où la température de surface varie peu d'un point à un autre. C'est le cas des planètes avec une atmosphère très dense et/ou ayant une rotation suffisamment rapide. Dans le cas où il existe un contraste de température marqué entre deux points d'une même planète, le modèle 1D n'est plus représentatif de la planète. C'est notamment le cas des planètes en rotation synchrone, qui sont irradiées d'un côté (haute température) et pas de l'autre (basse température).
Prenons le cas d'une planète en rotation synchrone, sans atmosphère, en tout point à l'équilibre thermique, et avec un albédo de surface constant A. Et faisons l'hypothèse très simpliste qu'une face reçoit en tout point un flux solaire constant alors qu'une autre ne reçoit pas du tout de flux. Soit le flux moyen reçu sur l'ensemble de la surface. Le bilan radiatif 1D donne : , soit , avec la température moyenne d'équilibre de la planète (1D).
La planète est composée de deux faces d'aires égales : une éclairée et une autre non. Pour 50% de la planète, du côté de la face cachée, . Pour les 50% restants, car le côté éclairé de la planète reçoit un flux lumineux deux fois plus élevé que le flux moyen reçu sur l'ensemble de la surface, . La température moyenne d'équilibre de la planète (3D) vaut donc .
En bref, ~ ! Pour ce cas particulier, l'erreur est considérable. En fait, de manière plus générale, plus l'écart-type sur la température d'équilibre d'une planète est grand, plus l'erreur commise sur le calcul de sa température de surface par un modèle 1D sera grande.
La limite intérieure de la Zone Habitable ou limite chaude de l'Habitabilité correspond à la distance orbitale à partir de laquelle toute l'eau liquide à la surface d'une planète est vaporisée. Quand le flux lumineux reçu par une planète augmente, l'évaporation de ses océans augmente aussi. La vapeur d'eau ainsi formée étant un puissant gaz à effet de serre, la température à la surface de la planète va s'élever, entrainant une augmentation de l'évaporation, et ainsi de suite ...
Prenez la Terre et rapprochez là progressivement du Soleil. Au fur et à mesure, sa température de surface et la quantité de vapeur d'eau dans son atmosphère vont augmenter. Ainsi, l'émission thermique de la Terre vers l'espace va augmenter. Jusque là, la Terre reste en état d'équilibre et à une valeur de flux solaire reçu va correspondre une température d'équilibre.
Mais à partir d'un certain flux solaire (i.e., une certaine distance à l'étoile centrale), la surface de la Terre entre dans un état hors-équilibre. La quantité de vapeur d'eau est telle que l’atmosphère devient totalement opaque dans le domaine de l'infrarouge. Le rayonnement infrarouge ne peut plus s’échapper vers l’espace et par conséquent la surface de la Terre n'est plus capable de se refroidir. Elle va donc se réchauffer continument jusqu'à ce que celle ci soit de nouveau capable de se refroidir par émission thermique dans le proche infrarouge - visible. C'est ce qui arrive une fois que la surface atteint une température de ~ 1800 Kelvins. A cette température, la Terre est si chaude qu'elle émet dans le proche infrarouge - visible, gamme de longueur d'onde qui correspond à une "fenêtre" dans le spectre d'absorption de la vapeur d'eau.
L'estimation la plus récente de la limite intérieure de la Zone Habitable, et via la mécanisme de Runaway Greenhouse, est de 0.95 A.U. et a été établie à partir de Modèles 3D (GCM).
Alors que les modèles 1D faisaient l'hypothèse que l'atmosphère de la Terre, en se rapprochant du Soleil, serait très vite saturée en vapeur d'eau ... les modèles 3D ont mis en évidence la présence de région non-saturées en eau au niveau des tropiques, augmentant ainsi l'émission thermique de ces régions, et repoussant la limite chaude de l'Habitabilité vers l'intérieur.
Difficulté : ☆☆☆ Temps : 1 heure
Si la Terre entre en Runaway Greenhouse, quelle est la pression atmosphérique maximale qu'elle peut atteindre ?
Dans le cas de la Terre, quel est la différence d'énergie (en Joules et en ordre de grandeur) entre les deux états d'équilibre correspondant à 1) l'entrée en Runaway Greenhouse et à 2) la sortie du Runaway Greenhouse ? On fera d'abord l'hypothèse que les échanges entre l'atmosphère/les océans et le sous-sol sont nuls.
Inévitablement, la luminosité du Soleil augmente avec le temps. Les modèles standards d'évolution stellaire indiquent que la luminosité du Soleil évolue comme suit : , avec l'âge relatif du Soleil par rapport à aujourd'hui, l'âge du Soleil ( milliards d'années) et la luminosité actuelle du Soleil. Estimez 1) le temps nécessaire pour initier le mécanisme de Runaway Greenhouse sur Terre à partir d'aujourd'hui, et 2) le temps nécessaire pour atteindre le premier état d'équilibre en sortie du Runaway Greenhouse. On fera l'hypothèse que l'albédo planétaire de la Terre vaut (dans ces conditions) .
Recalculez maintenant l'énergie () nécessaire pour passer d'un état d'équilibre du Runaway Greenhouse à l'autre en prenant en compte cette fois-ci le chauffage du sous-sol. Calculez alors le nouveau temps nécessaire pour sortir du Runaway Greenhouse. On pourra utiliser le profil de température fourni ci-joint.
Prenez à nouveau la Terre et rapprochez là progressivement du Soleil. À 1 Unité Astronomique, c'est la Terre actuelle. À 0.95 Unité Astronomique, le climat de la Terre s'emballe vers un état de "Runaway Greenhouse". Mais avant d'atteindre cet état, la Terre passe progressivement d'états d'équilibre en états d'équilibre de plus en plus chauds et humides. Les hautes couches de l'atmosphère sont alors elles aussi de plus en plus chaudes et humides. Le flux extrême UV en provenance du Soleil peut alors atteindre les molécules d'eau et les casser en atomes d'oxygène et hydrogène. Ces derniers sont légers et peuvent facilement être éjectés dans l'espace.
Par ce mécanisme, la Terre pourrait progressivement perdre tout l'hydrogène de son atmosphère et donc la totalité de son réservoir d'eau.
Pour savoir à quelle vitesse la Terre perdrait l'hydrogène de son atmosphère, il est important d'identifier le processus limitant de l'échappement atmosphérique ... 1. L'eau s'évapore des océans dans la couche la plus basse de l'atmosphère. Cette eau est très rapidement mélangée dans les couches basses de l'atmosphère. 2. Les molécules d'eau sont transportées plus lentement vers les hautes couches de l'atmosphère. 3. Dans les hautes couches de l'atmosphère (jusqu'à l'exosphère), les molécules d'eau sont photodissociées pour donner de l'hydrogène qui, léger, va rapidement s'échapper vers l'espace.
En fonction de la quantité d'eau injectée dans la stratosphère, le processus limitant va être ou bien la diffusion ou bien la photodissociation (dans ce cas, la quantité limitante est le flux incident d'UV utilisé pour la photodissociation).
Il est pour l'instant difficile de savoir si la Terre deviendra un jour (à mesure que la luminosité solaire augmente) inhabitable via le mécanisme d'emballement de l'effet de serre ou bien via la perte de son eau dans l'espace. Le taux d'échappement de l'hydrogène est principalement fonction de la quantité d'eau présente dans les hautes couches (stratosphère) de l'atmosphère ; pourtant, les différents modèles de climat (1D et 3D) à la pointe de la recherche dans ce domaine montrent des écarts considérables dans leurs estimations du contenu en vapeur d'eau dans la haute atmosphère terrestre ...
La série d'exercices ci-dessous propose justement de comparer les résultats de deux modèles de climats différents (non représentatifs).
Difficulté : ☆☆ Temps : 15 minutes
Imaginons une planète habitable sur laquelle le mécanisme de Moist Greenhouse serait dominant. Etablir la relation liant la durée de vie de ses océans et le taux d'échappement de son hydrogène vers l'espace.
Prenons le cas de la Terre. En considérant uniquement le mécanisme de Moist Greenhouse, donnez une limite supérieure du temps de vie des océans de la Terre en considérant les résultats du modèle 1D.
Donnez maintenant une limite inférieure du temps de vie des océans de la Terre en considérant les résultats du modèle 3D.
La limite froide de l'Habitabilité en surface, ou limite extérieure de la Zone Habitable, correspond à la distance orbitale maximale jusqu'à laquelle une planète peut garder de l'eau liquide à sa surface.
Pour pouvoir estimer cette limite, il s'agit de trouver l'atmosphère la plus efficace pour permettre à une planète de garder son eau liquide aussi loin que possible de son étoile. Il s'agit donc de trouver le meilleur cocktail de gaz à effets de serre, en quantité et en proportion, et qui soit physiquement crédible.
Un gaz à effet de serre est un gaz capable d'absorber une fraction importante du flux thermique émis par la surface d'une planète, tout en laissant passer la majorité de la lumière en provenance de son étoile (ultraviolet, visible, et proche infrarouge). Cela a pour effet de réchauffer la surface de la planète. Sur Terre, par exemple, les gaz à effet de serre présents dans l'atmosphère réchauffent en moyenne la surface de ~ 33°C.
Il existe de nombreux gaz à effet de serre (CO2,H2O,CH4,NH3, ...), mais seulement certains d'entre eux sont susceptibles d'être réellement présents sur une planète habitable. Les deux gaz les plus réalistes d'une atmosphère de planète habitable sont le dioxyde de carbone et la vapeur d'eau. D'autres gaz comme par exemple l'ammoniac (NH3) et le méthane (CH4) sont envisageables dans une atmosphère abondantes en réducteurs (H2,CO, ...) mais sont rapidement photodissociés par le flux UV s'ils n'en sont pas protégés ou ne sont pas renouvelés.
En fait, il se trouve que l'une des manières les plus efficaces (et aussi plausibles) pour réchauffer une planète est d'avoir une atmosphère épaisse de CO2 !
Le problème, c'est qu'on ne peut pas réchauffer autant qu'on veut une planète en lui ajoutant des gaz à effet de serre à l'infini ... Au delà d'une certaine quantité, alors que l'opacité des gaz à effet de serre dans l'infrarouge commence à saturer, la proportion de rayonnement stellaire absorbé diminue aussi à cause de la diffusion Rayleigh qui tend à réfléchir une partie des photons incident vers l'espace. Si on considère une planète composée d'une atmosphère de CO2 (sans nuages), la distance (du Soleil actuel) la plus lointaine à laquelle une telle planète peut garder de l'eau liquide sera de 1,67 Unités Astronomiques. Cette distance correspond à la limite extérieure de la Zone Habitable et a été établie pour une pression de 8 bars de CO2 (en supposant une gravité terrestre).
Les nuages ont un rôle important à jouer pour la limite extérieure de la Zone Habitable. Les nuages reflètent une partie de la lumière stellaire incidente, mais peuvent aussi contribuer à l'effet de serre en absorbant le rayonnement venu de la surface et de la basse atmosphère pour rayonner à une température de brillance plus froide. Dans certains cas (voir ci-dessous) ils peuvent même réfléchir le rayonnement thermique de la surface. Ils peuvent donc contribuer positivement comme négativement, selon les situations, au bilan radiatif de la planète considérée.
Il se trouve que lorsque des nuages de CO2 se forment dans une atmosphère épaisse de CO2, la température de surface se réchauffe davantage, repoussant plus loin encore la limite extérieure de la Zone Habitable. Cela est dû à la diffusion du rayonnement thermique par les particules de glace qui composent les nuages de CO2, et qui indirectement réfléchissent vers la surface le rayonnement thermique infrarouge. En prenant en compte ce procédé, la limite froide de l'Habitabilité peut être repoussée jusqu'à 2.5 Unités Astronomiques ! (en supposant une couverture nuageuse totale).
Plus une étoile a une faible masse, plus sa luminosité sera petite, et donc plus la Zone Habitable sera proche de cette étoile. Les Naines M, qui sont les étoiles les moins massives de la Séquence Principale (masse comprise entre 0,075 et 0,4 masse solaire) ont une Zone Habitable de 5 à 50 fois plus proche que celle autour du Soleil.
Plus une planète est proche de son étoile, plus les forces de marée exercées par son étoile sur elle vont s'accentuer.
Lorsqu'une planète orbite autour de son étoile, la force de gravité (qui diminue avec la distance) ressentie par la planète n'est pas la même en tout point. La partie de la planète la plus proche de son étoile est plus attirée par l'étoile que la partie lointaine. En conséquence, l'étoile déforme la planète et crée un renflement dans sa direction (et dans la direction opposée).
Si la planète tourne plus rapidement sur elle-même que sa révolution autour de son étoile, ce renflement va se décaler légèrement par rapport à l'axe Etoile-Planète. La planète étant un corps non-élastique, il faut en effet un laps de temps non-nul pour que le renflement revienne dans la direction de l'étoile.
En conséquence, il se crée un décalage angulaire entre le renflement et la direction de l'étoile. Ceci a pour effet de créer un couple de rappel opposé au sens de rotation de la planète : la planète freine. Cet effet va durer tant que la vitesse de rotation de la planète est supérieure à sa vitesse de révolution. Dans cette situation, l'état d'équilibre le plus stable est la rotation synchrone.
En fonction des propriétés de la planète et de son étoile, le temps qu'il faut pour qu'une planète se synchronise avec son étoile est très variable. On estime que avec la vitesse de rotation initiale de la planète, la distance Planète-Etoile, le moment d'inertie de la planète ( pour une sphère, on a par exemple ), la constante gravitationnelle, et respectivement la masse de la planète et de l'étoile et le rayon de la planète. et sont deux coefficients qui caractérisent la réponse de la planète aux forces de marée.
Finalement, on retiendra que . On a avec le flux reçu par la planète et la luminosité de la planète. On choisit le flux moyen reçu par une planète habitable, indépendant de la planète et de l'étoile. Donc on a . Pour des étoiles de la Séquence Principale, on a de plus la relation Masse-Luminosité suivante : .
Bref, . Par exemple, en considérant ce mécanisme, une planète dans la Zone Habitable d'une Naine M de 0,2 masses solaires se synchronisera ~ fois plus rapidement qu'une planète, comme la Terre, dans la Zone Habitable du Soleil.
Note : Les forces de marée gravitationnelle peuvent être à l'origine de deux effets supplémentaires : 1. circulariser les orbites (les planètes en moyenne trop proches de leur étoile ont une excentricité qui diminue avec le temps) et 2. redresser l'obliquité (les planètes trop proches de leur étoile ont une obliquité qui tend vers 0).
En fait, lorsque la planête est entourée d'une atmosphère sufisamment épaisse, il existe une autre force de marée qui pourrait retarder voire empêcher la synchronisation d'une planète : la force de marée thermique.
Prenez une planète avec une atmosphère épaisse, comme Vénus par exemple. Lorsque le Soleil chauffe la zone subsolaire de cette planète, l'atmosphère s'y réchauffe et se dilate. La pression augmente en altitude. Pour équilibrer les forces de pression atmosphérique, une partie de la masse de l'atmosphère est redistribuée vers le coté nuit, créant cette fois-ci un renflement dans la direction perpendiculaire à la direction du Soleil.
Si la rotation d'une telle planète est plus rapide que sa révolution autour de son étoile , on aura un décalage angulaire entre l'orientation du renflement et la perpendiculaire à la direction de l'étoile. Si est inférieur à 180°, le renflement va provoquer un couple accélérateur du même sens que la rotation de la planète.
Si ce couple est suffisamment important, la période de rotation de la planète va converger vers un état d'équilibre différent de la rotation synchrone, où couples de marée gravitationnel et thermique se compensent. C'est par exemple ce qui est arrivé à Vénus.
Il y a finalement deux critères majeurs pour savoir si une planète habitable va finir en rotation synchrone ou non. Plus la masse de son étoile est faible, et moins son atmosphère est épaisse, plus les chances sont grandes pour que la planète entre (et rapidement) en rotation synchrone.
Une planète en rotation synchrone autour de son étoile lui montre toujours la même face. Une telle planète possède une face fortement irradiée, mais une face et deux pôles non éclairés.
Prenons le cas d'une planète en rotation synchrone qui n'aurait ni océans, ni atmosphère. Sur une telle planète, les échanges de chaleur se font très mal d'un point à l'autre de la planète. Du coup, la différence de température entre la face irradiée et la face cachée sera extrême. Du côté caché, la température de surface dépendra essentiellement du flux géothermique . Soit . Alors que du côté irradié, et notamment au niveau du point substellaire, , avec le flux stellaire au point substellaire, l'angle zénithal et l'albédo de la surface.
Rajoutez maintenant à cette planète une atmosphère et des océans. Le transport de chaleur assuré par l'atmosphère et les océans va alors réduire les écarts de température entre les deux faces ...
Si vous rapprochez la Terre du Soleil et que vous dépassez la limite de 0.95 UA, la Terre va partir en "Runaway Greenhouse" et ne sera plus habitable.
Prenez maintenant une planète similaire à la Terre mais orbitant en rotation synchrone autour d'une étoile similaire au Soleil. Si vous dépassez la limite de 0.95 UA, une telle planète peut rester habitable !
À mesure que cette planète se rapproche de son étoile, le flux lumineux reçu au point substellaire augmente. Ceci crée une zone de forte convection à l'origine de la formation de nuages épais très réfléchissants. La couverture nuageuse de la face irradiée peut atteindre jusqu'à 80%. Plus le flux stellaire augmente, plus ce mécanisme est efficace, plus l'albédo planétaire augmente. Conclusion : La limite intérieure de la Zone Habitable est largement repoussée vers l'intérieur.
Note : Lorsque ce mécanisme entre en jeu, la quantité de vapeur d'eau injectée dans la stratosphère est fortement augmentée, ce qui soulève la question de l'échappement atmosphérique de l'hydrogène.
Si vous déplacez cette planète beaucoup trop près de son étoile, le mécanisme décrit précédemment n'est plus suffisant pour assurer son habitabilité. En fonction de son état initial, la planète peut alors diverger vers deux états possibles et pourtant bien différents : 1. Elle peut entrer en Runaway Greenhouse. 2. Toute l'eau de la planète peut se retrouver piégée du côté froid. Cette "bistabilité" résulte de la compétition entre d'un côté le taux d'évaporation, côté jour, et de l'autre l'efficacité du transport/le taux de condensation de la vapeur d'eau dans les pièges froids, côté nuit.
1. Si la quantité de vapeur d'eau initiale dans l'atmosphère est suffisante, alors l'effet de serre de la vapeur d'eau va s'emballer en évaporant la totalité du réservoir d'eau de la planète. C'est l'état classique du "Runaway Greenhouse". 2. Mais si la quantité initiale de vapeur d'eau dans l'atmosphère est insuffisante, l'évaporation de l'eau liquide côté jour n'est pas suffisamment intense pour dépasser le taux de condensation côté nuit. Le seul état d'équilibre alors possible arrive lorsque la totalité de l'eau côté jour s'est évaporée pour finir, sous forme de glace, côté nuit.
Quand une planète a une orbite trop proche de son étoile, et par l'action de forces de marées, elle finit rapidement par avoir une orbite synchrone autour de son étoile. Les planètes "froides" de la Zone Habitable sont à priori moins concernées par cet effet, puisqu'elles sont beaucoup plus éloignées de leur étoile que les planètes "chaudes" de la Zone Habitable. Dans le cas du Soleil par exemple, une planète qui se trouverait à la limite intérieure de la Zone Habitable (0.95 UA) peut se synchroniser ~ 30 fois plus rapidement qu'une planète située au niveau de la limite extérieure (1.67 UA). Résultat : Une planète froide comme Mars n'a aucune chance d'être un jour en rotation synchrone car le temps que cela lui prendrait est bien supérieur à la durée de vie du Soleil.
Pourtant, autour d'étoiles de faible masse, la Zone Habitable est beaucoup plus rapprochée de l'étoile. Et les planètes "froides" de la Zone Habitable de telles étoiles sont susceptibles elles aussi d'entrer en rotation synchrone.
Les planètes en rotation synchrone ont très certainement, sous l'effet des forces de marée gravitationnelle, une obliquité très redressée (proche de , comme Mercure). Résultat : de telles planètes peuvent posséder plusieurs points froids (au niveau des pôles mais surtout au niveau de la face non éclairée). Pour qu'une planète "froide" (peu irradiée par son étoile) soit capable de garder de l'eau liquide à sa surface, il faut déjà qu'elle soit capable de conserver son atmosphère à l'état gazeux. En particulier, une planète en rotation synchrone dont l'atmosphère (composée par exemple de ...) serait trop peu épaisse pourrait condenser l'ensemble de ses espèces gazeuses. De l'espèce la moins volatile à l'espèce la plus volatile, la vapeur d'eau va d'abord se condenser du côté froid, puis au tour du et enfin ... même du !!! Une telle planète n'est pas capable de conserver son atmosphère sous forme gazeuse et ne peut donc pas être habitable (de classe I).
Lorsque l'atmosphère d'une planète en rotation synchrone s'épaissit (par exemple en injectant du ) :
Autour d'une étoile type solaire, le premier point aurait un effet très réduit car la diffusion Rayleigh augmente l'albédo planétaire à mesure que la pression atmosphérique augmente. Mais c'est essentiellement autour des étoiles M (de faible masse) que des planètes "froides" peuvent entrer en rotation synchrone. Aux longueurs d'onde d'émission d'une telle étoile, la diffusion Rayleigh a une influence très limitée, et il est possible d'augmenter très fortement l'effet de serre d'une atmosphère en atteignant une pression atmosphérique très élevée.
Ainsi, si la planète possède une pression atmosphérique suffisante, l'effondrement de l'atmosphère peut être évité. Si c'est le cas, la planète est alors soumise au principe de Maximum Greenhouse correspondant à la distance orbitale à laquelle elle se trouve. NB : On peut noter que la présence d'un océan (contribuant très fortement au transport de chaleur) à la surface d'une telle planète peut permettre d'abaisser la pression critique à laquelle l'atmosphère condense.
A l'heure actuelle, on considère que les étoiles de faible masse - appelées aussi Naines M - sont les meilleurs candidats pour héberger des planètes porteuses de vie. D'abord, elles sont plus nombreuses que les étoiles d'autres type. Parmi toutes les étoiles de notre galaxie, on compte près de 75% de Naines M. Ensuite, ces planètes ont une luminosité stable dans le temps. Leur Zone Habitable est donc plus stable encore que dans notre Système Solaire et la vie (et surtout la vie intelligente) bénéficie en théorie de plus de temps pour se développer.
Si les Naines M sont de bons candidats pour être hôtes de planètes habitables, la proportion de rayonnement UV et X qu'elles émettent (par rapport à leur luminosité totale) est bien plus élevé que le soleil, surtout au début de leur histoire. Intégré sur 5 milliards d'années, il peut être jusqu'à 30 fois plus important pour une Naine M que pour notre étoile.
Les planètes dans la Zone Habitable de Naines M recoivent donc un flux X-UV jusqu'à plusieurs dizaines de fois plus important que sur Terre. Or, c'est justement la partie du spectre stellaire à l'origine de l'échappement atmosphérique.
Il est aussi important de noter que pendant cette phase d'activité initiale accrue des Naines M, d'autres phénomènes comme des éjections de masse coronales ou des éruptions stellaires peuvent affecter lourdement l'évolution de l'atmosphère des planètes environnantes, d'autant plus qu'autour de telles étoiles, les planètes habitables sont beaucoup plus proches et donc affectées par de tels évènements.
Les Naines M sont les étoiles de la Séquence Principale qui possèdent la température de brillance la plus faible. Du coup, le pic de leur spectre d'émission est décalé, par rapport au Soleil par exemple, vers des longueurs d'onde plus élevées. A ces longueurs d'onde, la diffusion Rayleigh de l'atmosphère est moins efficace et l'absorption de la vapeur d'eau (et d'autres gaz à effet de serre comme le CO) est accrue. Dans ces conditions, les planètes qui ont une atmosphère semblable à la Terre seront plus facilement chauffées autour d'étoiles de faible masse. Ceci a pour effet de décaler légèrement vers l'extérieur les deux limites de la Zone Habitable des étoiles de faible masse.
De plus, autour des étoiles M, le mécanisme de "Runaway Glaciation" décrit plus tôt est beaucoup moins efficace que sur Terre car l'albédo de la glace/neige y est réduit. L'albédo spectral de la glace/neige décroît avec la longueur d'onde et le pic d'émission d'une Naine M est décalé, par rapport au Soleil, vers les grandes longueurs d'onde. Ceci résulte en un albédo équivalent de la glace/neige plus faible que sur Terre.
Les planètes dans la Zone Habitable des étoiles M sont très proches de leur étoile. La proportion de planètes en rotation synchrone autour de telles étoiles sera donc à priori plus grande qu'autour d'étoiles de type solaire. En considérant à la fois l'effet des marées gravitationnelles et thermiques , prenons le cas d'une Naine M de 0,3 masse solaire. Une planète semblable à la Terre (pression de surface de 1 bar) qui serait dans la Zone Habitable d'une telle étoile pourrait être aussi bien synchrone que non-synchrone ...
Difficulté : ☆ Temps : 5 minutes
Les étoiles de la Séquence Principale dont la masse est supérieure à celle du Soleil ne sont pas très nombreuses. Elles peuvent héberger des planètes comme n'importe quelle autre étoile. Mais à priori, ce sont de très mauvais candidats pour héberger des planètes habitables ...
Qu'est ce qui limite l'habitabilité des étoiles massives ?
Certaines étoiles sont trop peu massives au moment de leur formation pour permettre à leur coeur d'atteindre la température de fusion thermonucléaire de l'hydrogène. Si leur masse est supérieure à environ 13 fois la masse de Jupiter, elle peuvent néanmoins être chauffé par la fusion du deuterieum. Ces étoiles avortées sont des Naines Brunes. C'est généralement le cas pour les étoiles de masse < . Aujourd'hui, près de 1300 Naines Brunes ont déjà été détectées mais on estime que notre galaxie compte environ 1 Naine Brune pour 6 étoiles.
A la différence des étoiles de la Séquence Principale, la luminosité d'une naine brune décroît avec le temps. La zone habitable autour d'une Naine Brune se déplace vers l'intérieur du système avec le temps.
Comme la luminosité d'une Naine Brune diminue très rapidement, la Zone Habitable se déplace très rapidement vers l'intérieur. La durée de vie dans la Zone Habitable des planètes, immobiles elles, est très courte.
De plus, lorsqu'une planète entre dans la Zone Habitable, elle aura été été auparavant très chaude. La totalité de son eau disponible en surface aura été sous forme de vapeur depuis sa formation. Et cette eau est susceptible de s'être échappée dans l'espace ...
Ainsi, plus une planète entre tard dans la Zone Habitable, plus elle y restera longtemps, mais plus aussi elle sera resté dans un état chaud auparavant ...
On pourra quand même noter que pour l'instant, il n'existe pas d'observations des émissions UV/X de naines brunes. Il est donc délicat d'estimer le taux d'échappement en eau des planètes avant d'entrer dans la Zone Habitable.
Les planètes dans la Zone Habitable d'une Naine Brune sont extrêmements proches de leur étoile. Par exemple, dans le cas d'une Naine Brune "classique" de 0.04 masses solaires, seules les planètes situées à une distance inférieure à ~0.003 U.A. sont continuement dans la Zone Habitable pour au moins ~4 milliards d'années. Parmis ces planètes, celles qui sont situées à une distance inférieure à 0.002 U.A. sont en deçà de la limite de Roche, distance critique à partir de laquelle les forces de marée exercées par l'étoile sur la planète dominent les forces de cohésion de la planète. Résultat : De telles planètes se disloquent.
Ainsi, si une planète semblable à la Terre orbite suffisamment longtemps (et pas trop près !) dans la Zone Habitable d'une Naine Brune, elle sera vraisemblablement en rotation synchrone.
Grâce à l'accumulation de près de 20 ans d'observations d'exoplanètes, il est aujourd'hui possible d'estimer plusieurs termes de la fameuse équation de Drake, équation qui tente d'évaluer simplement la probabilité que nous aurions à communiquer avec d'autres civilisations dans notre galaxie. Le premier terme de l'équation - taux de formation d'étoiles dans la galaxie - est pour l'instant le mieux contraint (~10 étoiles/an). Il est possible en réalisant des statistiques sur les observations faites d'exoplanètes d'évaluer (au moins au premier ordre) la proportion d'étoiles ayant un système planétaire, et il apparaît aujourd'hui en effet que la présence de planètes autour d'une étoile semble être bien plus la règle que l'exception. Par exemple, en utilisant l'ensemble des observations réalisées par la méthode des vitesses radiales, il a été estimé (Howard, 2010) que près de 23% des étoiles devraient posséder une planète de taille similaire à la Terre (entre 0.5 et 2 masses terrestres) et qu'autour d'environ 50% des étoiles M (Bonfils, 2013) orbiteraient des planètes telluriques (de 1 à 10 masses terrestres).
Un certain nombre de systèmes planétaires aujourd'hui détectés pourraient possiblement héberger des planètes rocheuses (< 10 masses terrestres) situées dans la Zone Habitable de leur étoile. C'est le cas de HD85512b, Gliese 667Cc, HD40307g, Kepler-22b ... Parmi toutes ces planètes, quelle fraction est adaptée à l'apparition et au développement de la vie telle que nous pouvons l'imaginer ? L'estimation des quatrièmes et cinquièmes termes de l'équation de Drake nécessite de répondre à cette question.
Dans les années 1960, des scientifiques américains se lancent dans un grand projet : rechercher des signaux artificiels d'origine cosmique. Une des manières les plus efficaces (à notre connaissance) pour communiquer à longue distance est d'utiliser les ondes radio (faible absorption atmosphérique, peu énergétiques, ...). Les scientifiques du projet SETI ( Search for ExtraTerrestrial Intelligence) se mettent alors en tête d'utiliser des radiotélescopes pour observer le ciel à la recherche de signaux extraterrestres. Mais 50 ans plus tard, aucune observation fructueuse n'a été réalisée ...
Le lancement du satellite Kepler en 2009 révèle la présence d'un grand nombre de systèmes multiplanétaires (près de 500 à la date du 1er Janvier 2016). Il est maintenant possible de connaître la position relative des différentes exoplanètes d'un même système planétaire au cours du temps, et donc de savoir à quel moment deux planètes d'un même système planétaire sont alignées avec la Terre. Dans ces conditions particulières, il est possible d'"intercepter" une communication focalisée d'une planète à l'autre ... Les scientifiques du projet SETI se servent aujourd'hui de ces informations pour pointer avec plus de pertinence leur radiotélescopes. Affaire à suivre ...
Une manière probablement plus scientifique et moins hasardeuse de détecter des planètes habitées est de s'intéresser à l'ensemble des planètes où la vie aurait pu un jour apparaître et de répondre aux questions suivantes : 1. Comment la vie peut-elle modifier son environnement (atmosphère, surface, ...) ? 2. Ces changements peuvent-ils être observés depuis la Terre ?
Pour détecter la présence d'une espèce chimique à la surface ou dans l'atmosphère d'une exoplanète, il convient de réaliser un spectre en absorption, en émission ou en réflexion de la planète. En 1993, l'équipe de Carl Sagan décide d'utiliser cette technique en pointant la sonde Galileo (alors en chemin vers Jupiter) vers la Terre à la recherche de signatures éventuelles de la vie. Ils conclurent alors que la présence simultanée de dioxygène en grande quantité et de méthane est un signe d'activités biologiques. Sur Terre, le dioxygène (~21% de la composition atmosphérique) est essentiellement le produit de la photosynthèse. Les cyanobactéries et les plantes sont les principaux responsables de la production d', utilisant les photons émis par le Soleil pour former à partir du et de l'eau des molécules organiques. Le méthane produit sur Terre a lui aussi une origine essentiellement biologique. C'est la combinaison de méthane (gaz réducteur) et de dioxygène(gaz oxydant), situation chimiquement instable, qui témoigne de la production simultanée de ces deux gaz, caractéristique d'une activité biologique.
Note : L'ammoniac , produit également de manière biologique (et dans les mêmes proportions), pourrait jouer un rôle (gaz réducteur) similaire à celui du méthane. Néanmoins, l'ammoniac est présent en très faible quantité dans l'atmosphère terrestre car il est facilement photodissocié par le flux UV. Il existe d'ailleurs un certain nombre d'autres "biomarqueurs" de l'activité biologique terrestre comme les oxydes d'azote (), les chlorofluorocarbures (gaz CFC) ... mais qui sont (pour un certain nombre de raisons) à priori présents en trop faibles quantités pour être détectés dans les années à venir par des techniques de spectroscopie.
On notera enfin qu'il existe un certain nombre de processus abiotiques (e.g. non-biologiques) qui dépendent d'un grand nombre de paramètres et qui sont susceptibles de biaiser la présence de tel ou tel biomarqueur. Finalement, c'est surtout le déséquilibre chimique dans l'atmosphère (présence de l'oxydant et du réducteur sur Terre) qui semble être un bon indicateur de présence de vie.
Les planètes effectivement habitées ne représentent (à priori) qu'une fraction des planètes habitables. Comment peut-on observer de l'eau liquide à la surface d'une exoplanète ?
Dans les décennies à venir, il semble raisonnable d'espérer que les premières observations spectroscopiques de planètes telluriques dans la Zone Habitable seront réalisées. Il sera alors possible d'y confronter les notions présentées dans ce cours et ainsi très probablement de les mettre à jour ...
Voici quelques questions pour tester vos connaissances. À chaque question, il n'y a qu'une seule réponse possible.
Difficulté : ☆ Temps : 10 minutes
Lorsque deux étoiles sont suffisamment proches qu'elles orbitent autour d'un barycentre commun, on dit qu'elles forment un système d'"étoiles doubles" ou d'"étoiles binaires". Les systèmes d'étoiles doubles sont communs dans notre galaxie, puisqu'environ 1 planète sur 2 se trouve dans un système d'étoiles binaires.
De nombreuses planètes ont déjà été détectées autour d'étoiles doubles. On propose dans cet exercice d'explorer l'habitabilité des planètes orbitant de tels systèmes.
La première catégorie de planètes présentes dans les systèmes binaires représente les planètes ayant une orbite circumbinaire. Ces planètes orbitent autour des deux étoiles à la fois.
Soit un système binaire composé de deux étoiles rigoureusement identiques. À quel système plus simple ce système est-il équivalent ? Estimez la position de la Zone Habitable associée, par rapport à un système composé d'une étoile seule. Estimez de même le changement pour le temps de synchronisation.
Soit maintenant un système binaire composé d'une étoile solaire et d'une étoile M de 0,3 masse solaire. Comparez la luminosité des deux étoiles. A quel système plus simple ce système binaire s'apparente-t-il ?
La deuxième catégorie de planètes présentes dans les systèmes binaires comporte les planètes ayant une orbite non-circumbinaire : ces planètes orbitent autour d'une seule des deux étoiles.
Donnez une condition pour que la stabilité orbitale d'un tel système soit assuré. À quel système plus simple ressemble alors le système ?
Quel est le risque - du point de vue de l'habitabilité de la planète - si l'étoile hôte est moins massive que l'étoile environnante.
pages_pus7-chap13-2/test-phen-ondul.html
pages_pus7-chap13-3/test-onde-gravitationnelle.html
pages_pus7-chap13-4/test-sources-ondes.html
pages_pus7-chap13-4/test-frequence-spectre.html
pages_pus7-chap13-5/test-detecter-ondes.html
pages_pus7-chap13-6/test-premiere-detection.html
pages_pus7-chap13-6/test-phase-spiralement.html
pages_pus7-chap13-6/test-fusion-desexcitation.html
pages_pus7-chap13-eval/eval.html
pages_definition-systeme-solaire/bb-exercices-intro-planetologie.html
pages_promenade-telluriques/bb-exercices-mercure.html
pages_promenade-telluriques/bb-exercices-venus.html
pages_promenade-telluriques/bb-exercices-terre.html
pages_promenade-telluriques/bb-exercices-mars.html
pages_geologie-comparee/bb-exercices-geologie.html
pages_atmospheres-planetaires/bb-exercices-atmospheres.html
pages_asteroides/bb-exercices-asteroides.html
pages_cometes/bb-exercices-cometes.html
pages_repere-locaux/utilisation-simulations.html
Commencer par chercher la valeur de la déclinaison pour laquelle la hauteur est maximum à l'aide de la première simulation, en prenant en compte la réponse à la question précédente. Vérifier qu'un changement d'ascension droite ne modifie pas le résultat.
A partir de la déclinaison, on peut obtenir l'ascension droite correspondante à l'aide de la deuxième simulation.
pages_applications/mctc-qcm-reperage.html
pages_heliocentrisme/mctc-qcm-kepler.html
pages_distances-systeme/mctc-qcm-distances.html
pages_dynamique-systeme/mctc-qcm-trajectoire.html
pages_mouvements-planetes/mctc-qcm-planete.html
pages_relativite-einstein/mctc-qcm-relativite.html
pages_types-eclipses/stlp-qcm-type-eclipse.html
pages_nombre-eclipses-soleil/stlp-exercice-02-eclipsesol.html
pages_stlp-qcm/stlp-qcm-calendriers.html
pages_stlp-qcm/stlp-qcm-mvmts-terre-lune.html
pages_stlp-qcm/stlp-qcm-saisons-levers-couchers.html
pages_stlp-qcm/stlp-qcm-eclipses.html
pages_stlp-qcm/stlp-qcm-duree-eclipses.html
pages_kezako-lumiere/bog-qcm-ondes.html
pages_lsd-reflexion/lsd-rfx-mise-en-evidence.html
pages_lsd-reflexion/lsd-rfx-mise-en-evidence.html
pages_lsd-refraction/lsd-rfr-mise-en-evidence.html
pages_lsd-refraction/lsd-rfr-mise-en-evidence.html
pages_lsd-refraction/lsd-rfr-mise-en-evidence-2.html
pages_lsd-refraction/lsd-rfr-mise-en-evidence-3.html
pages_lmc/lm-ov-ir.html
pages_lmd/lmd-or-iv.html
pages_lmd/lmd-ov-ir.html
pages_forces-qcm/force-qcm-1.html
pages_forces-qcm/force-qcm-2.html
La masse de la Lune vaut 0,0123 la masse de la Terre.
pages_atmosphere-solaire/so-questions1.html
pages_unite-distance/unite-distance-sexercer.html
pages_unite-angle/unite-angle-sexercer.html
pages_unite-temps/unite-temps-sexercer.html
pages_temps-sideral/temps-sideral-sexercer.html
pages_temps-sideral-determination/temps-sideral-determination-sexercer.html
pages_periode-sideral-synodique/periode-sideral-synodique-sexercer.html
pages_changement-spatial/changement-spatial-sexercer.html
pages_changement-temporel/changement-temporel-sexercer.html
pages_supernovae/supernovae-sexercer.html
pages_loi-hubble/loi-hubble-sexercer.html
pages_enonce-loi-kepler/enonce-loi-kepler-sexercer.html
pages_vitesse-orbitale/vitesse-orbitale-sexercer.html
pages_conique/conique-sexercer.html
pages_vitesse-radiale-extrasolaire/vitesse-radiale-extrasolaire-sexercer.html
pages_spectres-stellaires/spectres-stellaires-sexercer.html
pages_raies-hydrogene/raies-hydrogene-sexercer.html
pages_absorbant/absorbant-sexercer.html
pages_loi-de-wien/loi-de-wien-sexercer.html
pages_temperature-couleur/temperature-couleur-sexercer.html
pages_flux-noir/flux-noir-sexercer.html
pages_magnitude-apparente/magnitude-apparente-sexercer.html
pages_magnitude-absolue/magnitude-absolue-sexercer.html
pages_effet-doppler/effet-doppler-sexercer.html
pages_effet-doppler-raie/effet-doppler-raie-sexercer.html
pages_type-spectral/type-spectral-sexercer.html
pages_classe-de-luminosite/classe-de-luminosite-sexercer.html
pages_accretion-echauffement/accretion-echauffement-sexercer.html
pages_milieu-interstellaire/milieu-interstellaire-sexercer.html
pages_critere-jeans/critere-jeans-sexercer.html
pages_temps-evolution/temps-evolution-sexercer.html
pages_foyer-primaire/foyer-primaire-sexercer.html
pages_afocal/afocal-sexercer.html
pages_champ-ouverture/champ-ouverture-sexercer.html
pages_diffraction-image/diffraction-image-sexercer.html
pages_resolution-spatiale/resolution-spatiale-sexercer.html
pages_resolution-spectrale/resolution-spectrale-sexercer.html
pages_reseau-dispersion/reseau-dispersion-sexercer.html
pages_reseau-blaze/reseau-blaze-sexercer.html
pages_spectro-reseau/spectro-reseau-sexercer.html
pages_coherence-temporelle/coherence-temporelle-sexercer.html
pages_coherence-spatiale/coherence-spatiale-sexercer.html
pages_coherence-interferometrie/coherence-interferometrie-sexercer.html
pages_multispectral/multispectral-sexercer.html
pages_interferometrie-spatiale/interferometrie-spatiale-sexercer.html
pages_detection-quantique/detection-quantique-sexercer.html
pages_detection-rendement/detection-rendement-sexercer.html
pages_rapport-signal-bruit/rapport-signal-bruit-sexercer.html
pages_bruit-gaussien/bruit-gaussien-sexercer.html
pages_bruit-photons/bruit-photons-sexercer.html
pages_shannon/shannon-sexercer.html
pages_seeing/seeing-sexercer.html
pages_formation-setester1/qcm1.html
pages_se-tester/qcm.html
pages_se-tester/qcm.html
pages_se-tester/qcm.html
pages_se-tester/qcm.html
pages_se-tester/qcm.html
pages_se-tester/qcm.html
pages_se-tester/qcm.html
pages_se-tester/qcm.html
pages_se-tester/qcm.html
pages_fluide-temperature-setester-qcm/definitions.html
pages_fluide-temperature-setester-qcm/effetdeserre-exo.html
Revoir la définition de l'effet de serre : l'absorption du rayonnement thermique n'est pas le seul critère !
pages_fluide-temperature-setester-qcm/profils.html
Revoir les définitions.
pages_habit-setester/qcm.html
pages_terre-etoiles/exercice-terre.html
Pensez aux forces (ou aux accélérations) qui en s'équilibrant, permettent aux planètes de rester sur leurs orbites. La première, la force (ou accélération) gravitationnelle a été découverte par Isaac Newton et est proportionnelle au carré de l'inverse de la distance (au Soleil). La seconde est associée à l'accélération centrifuge (celle que l'on ressent dans les manèges ou celle utilisée dans les machines à tambour pour essorer le linge) et est proportionnelle au carré de la vitesse, divisé par la distance.
pages_terre-etoiles/bord-du-systeme-solaire.html
Observer la trajectoire des planètes et de Pluton sur la vidéo montrant le voyage de la sonde New Horizons vers Pluton.
pages_terre-etoiles/bord-du-systeme-solaire.html
Une année représente 31,5 millions de secondes. La distance Pluton-Soleil est de 40 unités astronomiques. On supposera que l'orbite de New Horizons est radiale.
pages_terre-etoiles/exercice-distances-comparees.html
Le volume d'une sphère est donné par V=4/3 π R3. On peut ainsi calculer le volume moyen occupé par chacune des 1400 étoiles. La distance moyenne entre deux étoiles sera approximée à la racine cubique de ce volume moyen.
pages_visite-galaxie/exercice-la-galaxie.html
Faire l'hypothèse que la Galaxie est essentiellement un disque, et imaginer plusieurs positions par rapport à la Galaxie. Que verrions-nous si nous étions situés à l'extérieur du disque ? A l'extrême bord du disque de la Galaxie ?
pages_visite-galaxie/test-galaxie.html
La circonférence d'un cercle est égale à 2πR, R étant le rayon et π=3,14159.
pages_visite-galaxie/exercice-tn.html
L'angle en radian observé de la Terre est le rapport entre la distance S2-trou noir divisé par la distance au Centre Galactique. Une milli-arcseconde est égale à 4,85 10-9 radian. On fera l'hypothèse que l'étoile S2 et le trou noir sont dans un plan perpendiculaire à la ligne de visée.
pages_visite-galaxie/exercice-trou-noir.html
Faire attention aux unités et convertir G en km3 kg-1 s-2.. La méthode la plus simple utilisera le fait que pour une même masse, le rapport des vitesses de libération est l'inverse de la racine du rapport des rayons.
Utiliser la formule donnant la vitesse de libération en fonction de la masse, de G et du rayon.
pages_galaxie-univers-local/exercice-satellites-galaxie.html
On s'aidera de la relation pour déterminer M. Une année-lumière correspond à 9467 milliards de kilomètres et G=6,67 10-20 km3 kg-1 s-2.
Pour une distribution de masse sphérique, seule la masse interne au rayon où se trouve la particule-test (ici le Nuage de Magellan) affecte cette dernière. Le volume d'une sphère est .
On utilisera la même méthode que pour la première question (a.l. = année-lumière). Pour la 2ème partie de la question on utilisera le fait que la masse contenue dans un rayon supérieur à 163 000 années-lumières est plus grande que 375 milliards de masses solaires.
pages_galaxie-univers-local/exercice-attracteur.html
La masse de la Terre est de 5,97 1024 kg et son rayon de 6372 km. La masse du Soleil est de 2 1030 kg et la distance Terre-Soleil est de 150 millions de km. La constante gravitationnelle est G= 6,67 10-20 km3 kg-1 s-2.
On utilisera la même méthode qu'en 2). Une année-lumière correspond à 9 467 milliards de kilomètres.
On fera l'hypothèse d'équilibre entre l'accélération gravitationnelle et l'accélération centrifuge.
On fera aussi l'hypothèse d'équilibre entre l'accélération gravitationnelle et l'accélération centrifuge.
pages_univers-lointain/exercice-univers-lointain.html
L'angle en radian observé de la Terre est le rapport entre le diamètre de la Galaxie (90 000 années-lumière) et la distance de la galaxie lointaine.
pages_univers-lointain/exercice-expansion-univers.html
On utilisera les formules suivantes : , et , où c est la vitesse de la lumière, c=300 000 km/s.
On utilisera aussi les formules suivantes : , et , où c est la vitesse de la lumière, c=300 000 km/s.
pages_univers-lointain/exercice-expansion-univers.html
On prendra π=3,14159.
pages_univ-debut/exo-suba.html
L'énergie de masse est où c est la vitesse de la lumière, celui d'un photon est avec la constante de Planck et a fréquence du photon.
pages_observation/bb-exo-distance-etoiles.html
Il s'agit simplement d'une règle de 3.
pages_methodes-detection/exo-rapport-flux.html
Le rayon de la Terre est 6378 km, et la distance Terre-Soleil est de 1,50 x 108 km,
pages_methodes-detection/exo-vrad.html
Appliquer la loi
pages_methodes-detection/exo-transit1.html
La chute de luminosité est de l'ordre de (Rpl/R*)2 (voir page précédente)
pages_methodes-detection/exo-transit2.html
L'orbite de la Terre autour du Soleil a un rayon de km. L'orbite de Jupiter a un rayon de km. le Soleil a un rayon de km.
pages_resultats-observations/exercice-orbite-exoplanete.html
Calculer la distance de la planète à l'étoile quand elle est au périapse de son orbite, et comparer cette distance au rayon de l'étoile.
pages_defrepere/mctc-application-sphere.html
Il faut chercher des directions fixes communes à tous les observateurs. Quelles sont-elles ?
pages_defrepere/calculcoordpolaire.html
Utiliser les formules du cours, attention aux unités pour l'angle si vous utilisez votre calculette.
pages_defrepere/calculpolaire3d.html
On fera attention aux signes de x et de y pour déterminer le bon angle φ.
pages_defrepere/conversion.html
On donnera les valeurs trouvées en utilisant les subdivisions de chaque unités (par exemple h,min et secnde).
pages_defrepere/mctc-exo-repere-equatorial.html
Dans l'hémisphère nord le Soleil culmine dans le ciel le jour du solstice d'été et il est au plus bas le jour du solstice d'hiver.
Ne pas oublier que le Soleil est toujours dans l'écliptique été comme hiver et que l'écliptique est toujours visible dans le ciel jour et nuit.
pages_defrepere/relation-ecliptique-equatoriale.html
Le système (1) lorsque l'on prend une latitude nulle à la forme simplifier suivante : . Faites attention aux unités, la calculatrice en ligne utilise des radians !
pages_defrepere/calcul-latitude-geocentrique.html
On calculera d'abord la valeur de u, puis les valeurs de et .
pages_defrepere/mctc-exo-temps-sideral.html
Quelle est la valeur de l'angle horaire d'un astre qui passe au méridien? Quelle est la formule fondamentale liant l'ascension droite et l'angle horaire?
pages_defrepere/variation-temps-sideral.html
Faire une règle de trois en sachant qu'en 23h 56min 4s de temps moyen le temps sidéral varie de 24h ou utiliser directement les formules de conversions.
pages_defrepere/utilisation-simulations.html
Attention au décalage horaire ! Pour simplifier, on pourra prendre minuit heure locale sans tenir compte des différences heures d'été / heures d'hiver.
Par convention, la longitude est positive vers l'Est. Donc 140° E = +140°.
pages_defrepere/exercice-meridien.html
On utilisera les deux solutions (1) et (2) avec la condition portant sur la hauteur, pour choisir la bonne solution.
pages_defrepere/mctc-exo-declinaison.html
C'est la latitude du lieu ! Pourquoi ?
pages_mesure-distances/mctc-exo-triangulation.html
Pour calculer la distance CH, il suffit de résoudre le triangle ABC connaissant les deux angles en A et B et la base AB. On applique une des relations entre angles et côtés dans un triangle.
Rappel : dans un triangle quelconque ABC, on a la relation :
pages_mesure-distances/mctc-calcul-triangulation.html
La distance Alexandrie-Syène est de 5000 stades soit 800 km. L'angle zénith-observateur-Soleil mesuré depuis Alexandrie est de 7°.
Le diamètre apparent du soleil est 0,5°.
pages_mesure-distances/mctc-distances-systeme-solaire.html
Appliquer le théorème de Thalès.
pages_kepler/mctc-demi-grand-axe.html
Appliquer la troisième loi de Kepler pour des corps tournant autour du Soleil
pages_kepler/mctc-distance-terre-saturne.html
1 unité astronomique égale (environ): 150 millions de km, c'est le demi grand axe de la Terre sa période de révolution est un an
Calculer tout d'abord le demi-grand axe de Saturne
pages_stlp-problemes/stlp-probleme1-enonce.html
Calculer la longueur du parallèle puis calculer la vitesse moyenne
Le passage à l'heure d'été consiste à supprimer une heure dans la nuit du samedi 30 au dimanche 31.
pages_galaxies/exo-andromede.html
Repartir de la définition de l'année lumière, unité de distance.
Pour convertir des années-lumière en mètres, se souvenir qu'une année-lumière est la distance parcourue par la lumière en un an, à la vitesse de 300.000 km/s.
pages_galaxies/exercice-classification.html
Dessiner le diapason de Hubble comme aide-mémoire.
Faire comme pour la première question.
pages_galaxies/exercice-parallaxe.html
Se rappeler la définition de la parallaxe d'une étoile. La distance moyenne Terre-Soleil est d'environ 150 000 000 km. La seconde d'angle vaut 1/3600ème de degré d'angle. Il faut exprimer la parallaxe en radians.
Se rappeler la définition de la parallaxe.
pages_galaxies/exo-magabs.html
Calculer la distance pour laquelle on a M=m.
Se rappeler que le module de distance est la quantité m-M.
pages_galaxies/exercice-cepheides.html
Il faut mesurer la période de Céphéides dont on a pu mesurer la distance par une autre méthode, par exemple par leur parallaxe. Ceci permet de calculer les quantités a et b dans la relation <M>=a logP+b.
Se souvenir que si une relation présente une forte dispersion, c'est peut-être parce qu'on mélange des objets ayant des propriétés différentes.
pages_galaxies/exercice-redshift.html
Se rappeler que le décalage spectral est le décalage relatif d'une raie par rapport à sa position mesurée en laboratoire.
A faible décalage spectral z, la vitesse à laquelle s'éloigne la galaxie est le produit de z par la vitesse de la lumière. La distance de la galaxie est proportionnelle à la vitesse de la galaxie. Se rappeler la définition de la constante de Hubble et faire attention aux unités.
pages_galaxies/exercice-contenu-galaxies1.html
Se rappeler qu'une galaxie est composée d'étoiles, de gaz, de poussières. Elle peut éventuellement comporter un noyau actif dans son centre.
Se souvenir que le maximum de rayonnement d'une galaxie proche est dans le domaine visible ou infrarouge proche, mais qu'au fur et à mesure qu'une galaxie devient plus lointaine le maximum de son émission est décalé vers les grandes longueurs d'onde.
pages_galaxies/exo-contenu-galaxies2.html
Se souvenir que l'hydrogène neutre émet une raie à la longueur d'onde de 21 cm (au repos).
Il faudra utiliser un filtre centré sur la longueur d'onde de la raie Hα décalée vers le rouge.
Un spectre de galaxie est composé du rayonnement continu venant de toutes les étoiles et de raies d'émission dues au gaz ionisé. Pour avoir une image de la galaxie correspondant seulement au flux Hα, il faut enlever en chaque point de l'image prise en Hα, le flux de l'émission continue. Pour obtenir cette image de l'émission continue en Hα, à partir de l'image obtenue dans une partie du spectre où il n'y a aucune raie d'émission, il faut estimer le rapport de flux entre l'intervalle spectral du filtre dans lequel l'image a été prise et le filtre Hα. On suppose pour cela que les émissions des étoiles ne sont pas polluées par le gaz ionisé. On peut alors calculer ce rapport pour plusieurs étoiles et faire la moyenne.
pages_galaxies/exo-chp-vitesses.html
Le grand axe cinématique est l'axe suivant lequel l'amplitude de vitesse est maximale.
Regarder la barre indiquant le codage en couleurs au-dessus de la figure.
pages_galaxies/exo-cbs-rotation.html
Se souvenir qu'on n'a jamais accès directement à la masse des objets célestes, on peut seulement observer la lumière qu'ils émettent.
Comparer la vitesse de rotation d'une galaxie elliptique à celle d'une spirale.
pages_galaxies/exo-interactions.html
Regarder les simulations numériques de Toomre et voir laquelle donne un résultat ressemblant à la roue de la charrette.
pages_galaxies/exo-variabilite.html
Se souvenir que l'information sur la variation ne peut pas se propager plus vite que la vitesse de la lumière.
Se souvenir que les deux grands types d'observations sont la photométrie et la spectroscopie.
Se rappeler du modèle unifié
pages_galaxies/exo-modele.html
La matière dans l'univers étant dominée par la matière noire, ce sont les propriétés de la matière noire qui vont jouer un rôle primordial sur la formation des grandes structures dans l'univers.
pages_galaxies/exo-evol-chimique.html
Se souvenir que les éléments lourds sont formés dans les étoiles.
pages_structures/exo-cone.html
Se souvenir que pour tracer un diagramme en cône on a besoin de connaître la position et le décalage spectral de chaque galaxie.
Se souvenir que toutes les galaxies d'un amas sont concentrées dans une région angulaire très petite du ciel, mais sans avoir exactement la même vitesse de récession.
pages_structures/emx.html
5 keV correspondent à une énergie, obtenue en multipliant k (constante de Boltzmann) par la température T.
pages_structures/exo-fer.html
Appliquer la même relation en optique, en faisant attention au fait qu'ici c'est l'énergie de la raie qui est donnée et non sa longueur d'onde.
pages_base-optique-geo/bog-exo-mesure-c.html
La distance Terre-Soleil est de 1 unité astronomique, et celle entre Jupiter et le Soleil est de 5 unités astronomiques.
pages_base-optique-geo/bog-exercices.html
Utilisez la propriété que la lumière se propage en ligne droite dans un MHTI.
Considérer chaque point du Soleil comme une source ponctuelle. Intéressez-vous surtout aux bords de celui-ci.
pages_lois-snell-descartes/lsd-rfx-exercices.html
pages_lois-snell-descartes/lsd-rfx-exercices.html
Montrer que le rayon "tourne" de 180° après les deux réflexions.
Il suffira de montrer que la somme des angles incidents et réfléchis vaut
pages_lois-snell-descartes/lsd-rfr-mise-en-evidence-3.html
pages_lois-snell-descartes/lsd-rfr-refraction-limite.html
Lorsque l'angle d'incidence augmente, l'angle réfracté tend vers 90°. Alors que l'angle d'incidence est encore inférieur à 90°, l'angle réfracté atteint cette valeur. Si on augmente encore , l'angle réfracté disparaît. Le rayon incident est totalement réfléchi. Il y a réflexion totale !
pages_lois-snell-descartes/lsd-rfr-exercices.html
L'indice optique de l'air vaut 1. Celui de l'eau 1,33.
pages_lois-snell-descartes/lsd-rfr-exercices.html
On prendra la valeur 1 pour l'indice de l'air.
pages_lois-snell-descartes/lsd-exo-piece.html
L'indice optique de l'eau vaut 1,33.
pages_lentilles-minces/lm-grandissement-exo.html
Prenez les mesures sur les dessins.
pages_lentilles-minces/lm-grd-exo2.html
Pour ceux qui aurait la flemme de mesurer les distances sur les figures,
pages_lentilles-minces/lm-grd-exo2.html
Calculez la distance focale image à partir de la vergence. Calculez la distance en appliquant la relation de Chasles. En déduire la position de l'image en appliquant la formule de Newton.
pages_lentilles-minces/lm-rc-exos.html
Calculez en fonction de et . Déduisez-en une condition sur pour que l'image existe.
pages_miroirs-spheriques/ms-ccv-or-iv.html
Tracez l'image à l'aide des rayons présentés ici.
L'image se situe à l'horizontal du point .
L'image est virtuelle et dans le même sens que l'objet.
pages_miroirs-spheriques/ms-cvx-or-iv.html
Tracez l'image. Mesurez la ainsi que la taille de l'objet.
L'image est deux fois plus petite que celle de l'objet.
pages_instruments-photo/instru-ap-bilan.html
Le premier est une focale équivalente. Notez que les seconds sont des dénominateurs. Enfin, 49,2 est à peu près égal 12x4,1.
L'appareil affiche un zoom optique de 12x.
pages_instruments-oeil/instru-oeil-hypermetrope-exo.html
L'objet étant à distance fini, l'oeil accommode.
Reprenez la distance focale calculée à la question précédente.
pages_instruments-oculaire/instru-loupe-aa-exo.html
La tour Eiffel mesure et est distante de de l'esplanade.
pages_instruments-lunette/instru-lunette-grsst-exo.html
On parle d'opposition quand la planète est au plus proche de la Terre.
Le rayon équatorial de Jupiter est de . À l'opposition, elle se situe à environ de la Terre.
La résolution de l'oeil, c'est-à-dire la taille du plus petit détail visible, est de l'ordre de 1'.
pages_instruments-lunette/instru-lunette-champ-exo1.html
Le diamètre apparent de la Lune est de 0,5°. Celui de M31 est de .
pages_instruments-lunette/instru-lunette-bilan.html
Saturne est située à 10 u.a. du Soleil, et possède un diamètre de . Celui des anneaux est le double.
La division de Cassini mesure 5000 km de large.
Les télescopes modernes possèdent des ouvertures de l'ordre de .
pages_optique-ondulatoire/oo-tache-airy-exo.html
On prendra comme longueur d'onde la valeur moyenne de la bande visible, .
On prendra comme longueur d'onde la valeur centrale de la bande , .
Le diamètre apparent de Bételgeuse est de
pages_forces/force-gravitation-masse-excercice-1-b.html
La masse de la Terre vaut et son rayon moyen vaut .
pages_forces/force-gravitation-masse-excercice-2-a.html
Lorsqu'un corps matériel, de masse , a un mouvement circulaire autour de la masse attirante, il subit une force centrifuge (comme celle ressentie dans une voiture dans un virage) en sus de la force d'interaction des masses. La rotation de la Terre implique qu'un corps matériel à sa surface possède un mouvement circulaire autour de l'axe de rotation terrestre (appelé aussi l'axe Nord-Sud ou l'axe des pôles).
La force centrifuge dans le cas d'un mouvement circulaire uniforme vaut , où est la vitesse de rotation, la distance entre la masse et le centre du cercle, le vecteur unitaire dirigé du centre du cercle à la position de la masse.
Pour le cas d'un corps matériel à la surface terrestre, noter bien que c'est le centre du cercle (qui se situe le long de l'axe de rotation terrestre), et non le centre de la sphère terrestre. Donc, aux pôles cette force est nulle : (le centre du cercle = pôle) , et à l'équateur elle est maximale (, le centre du cercle = centre de gravité de la Terre), et elle varie du pôle à l'équateur selon la latitude du lieu.
Le rayon terrestre aux pôles vaut et à l'équateur . La masse de la Terre vaut .
pages_forces/force-gravitation-masse-excercice-2-b.html
En orbite, les forces doivent se compenser, donc la force de gravité doit être égale à la force centrifuge (cette dernière est définie dans l'aide de la question 1 de l'exercice précédent : ).
La vitesse minimale de mise en orbite à partir de la surface de la Terre correspond à celle lorsque .
pages_forces/force-gravitation-masse-excercice-2-c.html
Pour Jupiter : et . Pour le Soleil : et .
L'accélération constante et linéaire, , qui fait passer un engin d'une vitesse nulle à une vitesse, , sur une distance , vaut .
On négligera l'influence des autres planètes. Les vitesses s'ajoutant au carré, soit , où est la vitesse de libération de la Terre, et est la vitesse de libération du Soleil situé à millions de kilomètres de la Terre. A cette vitesse , il faudra aussi soustraire la vitesse liée au fait que la Terre est en orbite autour du Soleil, .
pages_forces/force-gravitation-masse-exercice-3-b.html
On négligera l'influence des autres planètes et on exprimera le rayon en Unité Astronomique avec 1 U.A. = distance Terre-Soleil. On utilisera pour la Terre, et pour le Soleil, . La Lune se situe à 0,0026 U.A. environ de la Terre. Mars atteint une distance minimale de la Terre à 0,37 U.A.
pages_forces/force-gravitation-complexe-exercice.html
et ; et ; et ; et pour un trou noir de masse intermédiaire et .
pages_forces/force-electromagnetique-charge-exercice-1.html
On choisira le Coulomb, unité SI de la charge électrique, en plus des unités de base, le kilogramme et la seconde.
pages_forces/force-electromagnetique-charge-exercice-2.html
La constante de gravitation vaut , la constante de Coulomb vaut .
pages_forces/force-electromagnetique-ions-exercice.html
La conductivité électrique est l'aptitude d'un corps matériel à laisser ses charges électriques se déplacer librement.
pages_forces/force-electromagnetique-quanta-exercice.html
On se souviendra que (), (), () et ou , que les électrons ont tendance à toujours remplir les couches internes (d'abord, , puis , etc.), et qu'une molécule a tous ses états quantiques remplis.
pages_forces/force-forte-couleur-exercice.html
On se souviendra que avec à la surface de la Terre.
On rapelle que la gravité est localement équivalente à une accélération, soit .
pages_forces/forces-resume-exercice.html
On considèrera la constante de couplage pour la force nucléaire forte égale à l'unité, , puisque c'est l'interaction la plus forte. Pour la force faible, on prendra .
pages_introduction-soleil/so-exo-tau.html
C'est aussi le principe qu'utilisent les patineurs pour effectuer leur rotation sur la glace : ils plient les bras (vous pouvez aussi l'expérimenter sur une chaise tournante sans trop de frottements)
pages_astrometrie-solaire/so-exo-carrington.html
Si besoin est, vous pouvez calculer le jour Julien à partir du site suivant.
pages_rayonnements/so-exo-temperature-soleil.html
On rappelle que :
On rappelle que :
pages_rayonnements/so-spectre-3.html
Il faut calculer les vitesses de rotation de l'équateur solaire, la variation de vitesse entre les deux bords, et, en appliquant la formule de l'effet Doppler, calculer le décalage en longueur d'onde.
pages_physique-solaire/so-energie.html
Le rayonnement solaire se propage suivant une sphère, dans toutes les directions. Plus le rayon de cette sphère augmente, plus le rayonnement par unité de surface de cette sphère diminue. Rappelons que la surface d'une sphère est .
pages_physique-solaire/so-exo-energie-solaire.html
On pourra supposer que le Soleil est de densité homogène car cela ne modifie pas de manière significative son énergie potentielle gravitationnelle totale.
pages_physique-solaire/so-exo-hydrostatique.html
A partir de l'équation d'équilibre hydrostatique local, on peut appliquer la loi des gaz parfaits en supposant la densité constante et en déduire la température.
pages_tp-maquette-stl/stl-exo-utilisation-maquette.html
Faire tourner la Terre dans un sens quelconque. Dans quelle direction se lève le Soleil ?
Chercher les valeurs du rayon des trois corps et des distances de la Terre au Soleil et à la Lune dans le cours et faire des règles de trois.
pages_tp-maquette-stl/stl-exo-maquette-jour-saison.html
Le tropique du Cancer correspond aux points de la Terre où le Soleil se trouve au zénith (c’est-à-dire à la verticale) au solstice d’été.
Le cercle polaire arctique (resp. antarctique) est la zone où il y fait toujours jour (resp. toujours nuit).
La question est ambiguë. Le jour peut être compris comme la durée de visibilité du Soleil en 24h00 ou comme la durée entre un lever et un coucher du Soleil.
Planter une aiguille à la latitude de la France, faire tourner la Terre sur elle-même et observer le temps que l'aiguille passe dans la zone éclairée par le Soleil et dans l'ombre.
Planter une aiguille à la latitude de la France, faire tourner la Terre sur elle-même et observer la direction de l'ombre de l'aiguille.
Le tropique du Capricorne correspond aux points de la Terre où le Soleil se trouve au zénith (c’est-à-dire à la verticale).
La question est ambiguë. Le jour peut être compris comme la durée de visibilité du Soleil en 24h00 ou comme la durée entre un lever et un coucher du Soleil.
Planter une aiguille à la latitude de la France, faire tourner la Terre sur elle-même et observer le temps que l'aiguille passe dans la zone éclairée par le Soleil et dans l'ombre.
Planter une aiguille à la latitude de la France, faire tourner la Terre sur elle-même et observer la direction de l'ombre de l'aiguille.
Planter une aiguille à la latitude de la France puis à l'équateur, faire tourner la Terre sur elle-même et observer le temps que l'aiguille passe dans la zone éclairée par le Soleil et dans l'ombre.
Planter une aiguille à la latitude de la France, faire tourner la Terre sur elle-même et observer la direction de l'ombre de l'aiguille.
Planter une aiguille aux différentes latitudes, faire tourner la Terre sur elle-même et observer le temps que l'aiguille passe dans la zone éclairée par le Soleil et dans l'ombre.
Planter une aiguille à la latitude de la France, faire tourner la Terre sur elle-même et observer la direction de l'ombre de l'aiguille.
pages_tp-maquette-stl/stl-exo-maquette-phases-lune.html
A quel moment de la journée voit-on la pleine Lune ?
Mesurer l'angle entre l'horizon et la direction de la Lune.
A quel moment de la journée voit-on le premier quartier ?
Mesurer l'angle entre le Soleil, la Terre et la Lune.
A quel moment de la journée voit-on le dernier quartier ?
Mesurer l'angle entre le Soleil, la Terre et la Lune.
Question piège ...
Mesurer l'angle entre le Soleil, la Terre et la Lune.
pages_tp-maquette-stl/stl-exo-maquette-eclipses.html
Placer la Lune à la nouvelle Lune ou à la pleine Lune plusieurs mois consécutifs.
Il faut que la Terre soit entre le Soleil et la Lune mais sans tordre la tige qui tient la Lune.
Il faut que la Lune soit entre le Soleil et la Terre mais sans tordre la tige qui tient la Lune.
D'où voit-on une éclipse de Lune et une éclipse de Soleil ?
pages_unites/unite-distance-sexercer.html
Calculatrice !
Le rapport d'échelle pour passer du Soleil à la pomme, est de l'ordre de 10 milliards à 1, la moitié si l'on tient compte du fait qu'est donné le rayon du Soleil, mais le diamètre de la pomme (ce n'est pas le facteur 2 de différence qui importe ici, mais les ordres de grandeur).
Le rayon terrestre étant 100 fois plus petit que celui du Soleil, il s'ensuit un rayon équivalent pour la Terre de l'ordre de 0.7 mm. Un bout de pépin !
Voir la page de cours !
La conversion des pc en m donne une distance de l'ordre de m ; en tenant compte du rapport , cela donne une distance de 4000 km.
La première pomme étant en France, la pomme la plus proche est, au choix, presque aux Etats-Unis, en Afrique équatoriale, ou en Inde. Entre les 2 pommes, il y a de tout petits noyaux (Jupiter, Saturne...), et des bouts de pépins (la Terre...), quelques poussières et microbes (les astéroïdes et comètes), et aussi et surtout du vide.
pages_unites/unite-distance-sexercer.html
Echelle conseillée :
Figure à l'échelle (sauf le Soleil)
1 pc = 3.26 AL.
Echelle conseillée :
Figure à l'échelle, mais orientations arbitraires.
pages_unites/unite-distance-sexercer.html
Déterminer le volume balayé par le vaisseau, nécessaire pour traverser la galaxie de part en part sans "toucher" une seule étoile.
Ce volume est cylindrique ; son rayon dépend surtout de la taille des étoiles, pas de celle du véhicule, car il est très petit par rapport à une étoile.
Comparer le volume précédemment trouvé au volume moyen offert à une étoile.
Pour éviter toute mauvaise surprise, le vaisseau ne doit pas voir d'étoile, repérée par son centre, dans une section de rayon (car ).
Le volume doit donc être libre de toute étoile. La probabilité d'en trouver une s'énonce , avec la densité stellaire. L'application numérique donne donc, avec , et , .
Bien répertorier les conditions du voyage : risque de collisions, durée du trajet, pause sandwich...
Que voit-on exactement d'une étoile : un point, un disque, une tache de diffraction ? Et combien d'étoiles a-t-on sur un pixel ?
Le risque de collision est minime, mais le temps de parcours ne saurait être inférieur, pour vos amis n'étant pas du voyage, à 17 000 ans (5.4 kpc 17 000 AL). Pour vous, pilote, cette durée dépend de votre vitesse : mieux vaut être relativiste, pour ne pas trop vieillir !
D'un point de vue observationnel, les étoiles ne sont pas des points matériels, mais des taches de diffraction. La densité stellaire est alors telle qu'il est impossible de résoudre spatialement ces objets : ces taches de diffraction des étoiles se superposent et contribuent à l'aspect uniformément brillant du bulbe.
pages_unites/unite-distance-sevaluer.html
Travailler dans l'approximation des petits angles.
Si , et
pages_unites/unite-distance-sevaluer.html
Se servir de la fonction ligne.
Avoir 3 onglets ouverts, pour le cours et chacune des appliquettes.
Sélectionner la case à remplir, et rentrer sa valeur précédée d'un symbole = dans la ligne de commande.
Pour convertir sans douleur les distances angulaires en UA, voir la définition du parsec : Une distance de 1 UA vue à 1 pc sous-tend 1", donc N UA à p parsec sous-tendent ...
La phase d'un globule est la distance du globule à l'étoile, mesurée en périodes de la céphéide. C'est donc le temps mis par la lumière pour aller de l'étoile au globule, divisé par la période de la céphéide.
N UA à p parsec sous-tendent N/p secondes d'arc.
pages_unites/unite-angle-sexercer.html
1 stéradian représente un angle solide de 1 radian par 1 radian :
Ne pas oublier que :
°
Avec les égalités :
il vient
En multipliant par , on trouve minutes d'angle carrées, et secondes d'angle carrées.
Se servir de la question précédente
Le ciel entier couvrant minutes d'angle carrées, un hémisphère représente champs de 1' par 1', soit champs de 12' par 12'.
Chaque champ nécessite 1 min de pose, soit un programme de minutes, ou de l'ordre de 8400 h.
Il faut compter, avec des nuits de 5 h efficaces, si l'on néglige tout temps mort (changement de filtres, dépointages...), 1680 nuits, soit un programme de 4.6 années
pages_unites/unite-angle-sevaluer.html
Une taille angulaire petite correspond, à une distance , à la taille linéaire . Mais il faut travailler dans le bon système d'unités.
L'unité naturelle des angles est le radian.
La conversion d'unité peut être introduite dans la fenêtre rapport d'unité.
pages_unites/unite-temps-sexercer.html
Il s'agit ici de gravitation.
Dès lors que l'on parle de la gravitation, intervient la constante gravitationnelle .
Essayez de dénicher une loi physique qui exprime une vitesse dans un problème gouverné par la gravitation.
L'accélération normale d'un satellite en orbite circulaire peut s'écrire en fonction du champ gravitationnel, à la distance :
Il est plus simple de procéder par induction, plutôt que de chercher des exposants qui satisfassent à :
On écrit p.ex. que l'accélération normale d'un satellite en orbite circulaire à la distance est égale au champ gravitationnel :
D'où il sort une vitesse caractéristique (que l'on rencontre dans tout problème gravitationnel, à une constante numérique près que l'analyse dimensionnelle ne permet pas de calculer)
Le temps dynamique ne peut être que de la forme
et donc
Définir en fonction de et
La masse volumique moyenne est proportionnelle à la masse divisée par le volume :
et donc le temps dynamique s'exprime :
Les application numériques donnent :
- noyau cométaire : 31 400 s, soit presque 9 h
- la Terre : 5100 s, soit 1h 25min
- la Voie Lactée : , soit environ 500 millions d'années
La constante de temps dynamique d'un noyau cométaire est plus longue que celle de la Terre, car la masse volumique moyenne est plus faible.
La constante de temps dynamique d'une galaxie représente une fraction non négligeable de l'âge de l'Univers. Elle donne l'ordre de grandeur de sa période de rotation moyenne.
La constance de temps dynamique pour la Terre représente l'ordre de grandeur d'une foultitude de phénomènes :
pages_unites/unite-temps-sexercer.html
pages_reperes/referentiel-sexercer.html
Dans ce cas, les déclinaisons sont nulles toutes les deux.
Un peu de trigonométrie : et .
Un peu plus de trigonométrie : comme , .
Les déclinaisons de A et B étant toutes deux nulles, la relation se réécrit simplement :
D'où la solution, évidemment simple :
Peut-être est-il utile de rappeler que
Avec des ascensions droites égales, la distance angulaire se réécrit :
Plus simplement :
Soit
Là encore, le résultat est assez intuitif
Que devient dans ce cas la contribution du terme avec les ascensions droites ?
Encore un peu de trigonométrie :
Moins courant, mais un cercle trigonométrique le justifie aisément :
La solution
s'écrit dans ce cas, avec .
Et donc, dans ce cas :
Si, de plus, les déclinaisons sont égales, on trouve alors
La distance angulaire, en passant par les pôles, est bien égale à 2 fois la colatitude ; la colatitude est le complément à (ou 90 deg) de la latitude.
pages_referentiels/changement-spatial-sexercer.html
Dans quel domaine de valeurs peut-il varier ?
Comme nécessairement , l'inégalité précédente n'a pas de solution si . Le cas limite est donc :
càd
càd , et en tenant compte de l'inégalité, il n'y a aucune solution si
Se baser sur la question précédente
Comme nécessairement , l'inégalité précédente admet toujours une solution si . Le cas limite est donc :
càd :
càd , et en tenant compte de l'inégalité, il y a toujours une solution si :
pages_referentiels/changement-temporel-sexercer.html
De la planète considérée et de la Terre, qui double qui ?
La période synodique vérifie
La table ci-contre donne les solutions,
Planète | |||
UA | an | j | |
Mercure | 0.3871 | 0.2408 | 115.88 |
Vénus | 0.7233 | 0.6152 | 583.92 |
Terre | 1.0000 | 1.0000 | -- |
Mars | 1.5237 | 1.8808 | 779.94 |
Jupiter | 5.2026 | 11.862 | 398.88 |
Saturne | 9.5547 | 29.457 | 378.09 |
Uranus | 19.218 | 84.020 | 369.66 |
Neptune | 30.109 | 164.77 | 367.49 |
Plus la planète est lointaine, plus son mouvement propre est lent, et donc son évolution se rapproche peu à peu de celle d'une étoile, animée essentiellement par le mouvement apparent dû à la rotation de la Terre autour du Soleil.
pages_referentiels/changement-temporel-sexercer.html
Convertir l'unité angulaire en minute de temps
On peut arriver au résultat de 2 façons différentes.
Soit calculer la vitesse angulaire du soleil (360 degrés en 24 h, 15 degrés à l'heure), et donc un parcours de 0.5 deg prend 2 minutes.
Soit, directement, convertir le diamètre angulaire en diamètre horaire : .
Estimer la part relative du mouvement propre de la Lune autour de la Terre et du mouvement d'entraînement dû à la rotation diurne.
Le mouvement propre de la Lune est-il vraiment important en 2 minutes ?
Comme la durée trouvée pour le Soleil est très courte devant la période de révolution synodique de la Lune (29.5 j), alors que la Lune présente le même diamètre angulaire que le Soleil, on peut négliger son mouvement. Il s'ensuit que la durée cherchée est sensiblement la même pour la Lune que pour le Soleil.
Montrer que 1 deg (2 diamètres solaires/lunaires) sépare le premier du dernier contact.
Montrer que le fait de considérer la révolution synodique de la Lune fige le mouvement du Soleil.
Pour "doubler" totalement le soleil, la lune doit passer de la configuration à la configuration , càd parcourir 2 diamètres, soit 1 deg.
Ceci représente 1/360ème de la période de révolution synodique (29.5 j), soit 0.082 j, càd environ 2 heures.
pages_referentiels/changement-temporel-sexercer.html
La question est peut être trop simple.
Si l'année hermienne vaut 1, le jour sidéral vaut 2/3, d'après l'énoncé, qui annonce 3 jours hermiens = 2 révolutions.
Identifier ce qui est sidéral, hermien, et la révolution de l'un par rapport à l'autre.
En unités d'année hermienne sidérale, la période de rotation propre est 2/3, et la période d'entraînement du référentiel hermien par rapport aux étoiles est 1. La relation de cours, vue avec une période synodique, s'écrit ici avec la période hermienne cherchée :
Avec la rotation hermienne sidérale, Avec la période hermienne sidérale, la rotation hermienne, et l'année hermienne sidérale.
Donc, dans le système d'unité choisi :
On en conclut que le jour hermien dure 2 années, comme l'illustre l'animation.
pages_referentiels/changement-temporel-sevaluer.html
Quelle rotation distingue les descriptions sidérale et synodique ?
La Lune n'est ni le Soleil, autour duquel la Terre tourne, ni les étoiles, considérées comme lointaines et fixes.
pages_referentiels/pointer-sexercer.html
Impossible de donner une solution dynamique. Mais vous trouverez la réponse sur le site de l'IMCCE, par exemple à l'entrée Observations des planètes, en choisissant l'objet et la date.
Exemple de solution, au jour où cet exercice a été rédigé : la position de Mars est de 10h37 en ascension droite, et 9°55 en déclinaison.
Ne pas oublier de passer d'abord en temps universel.
Impossible de donner une solution dynamique. Mais vous trouverez la réponse sur le site de l'IMCCE, à l'entrée Observations des planètes, en choisissant l'objet, la date, et en précisant le lieu d'observation.
Exemple de solution, au jour où cet exercice a été rédigé : à Nançay, le temps sidéral local de Mars est de 8h01.
Essayer de définir un critère simple de visibilité.
La planète doit être levée en début de soirée.
Impossible de donner une solution en temps réel. Mais vous trouverez la réponse sur le site de l'IMCCE, à l'entrée Visibilité des astres, en choisissant l'objet, la date, et en précisant le lieu d'observation.
Exemple de solution, au jour où cet exercice a été rédigé : Mars se couche vers 18h45 TU, soit 20h45 en heure locale, et n'est donc pas observable cette nuit.
pages_phenomenes-mutuels/eclipse-sexercer.html
136+1820-1 ans = 20 siècles
Pour =11200 s, on trouve =28 s/siecle2. Pour =12150 s, on trouve =30 s/siecle2. Résultat: s/siecle2.
Calculer la longueur du parallèle 35 deg.
Incertitude de localisation : L'équateur mesurant 40 000 km, le parallèle à 35 deg mesure lui 32 700 km. Une bande de longueur 1000 km est parcourue par la rotation de la Terre en 24 / 32.7 = 0.73 h, soit 44 min.
Incertitude de la rotation de la Terre : . Au bout de 40 siècles, l'incertitude est de l'ordre de 1600 s (un peu moins d'une demi-heure).
La comparaison des 2 résultats précédents montre que l'incertitude sur la localisation géographique, supérieure à l'incertitude temporelle sur la rotation de la Terre, ne permet pas de situer la Terre précisément par rapport à l'éclipse.
pages_phenomenes-mutuels/occultation-sexercer.html
N'a-t-on pas , par définition des variables ?
La relation entre vitesse angulaire et angle conduit à .
A quoi correspond la phase de pénombre ?
Quelle distance angulaire le satellite a-t-il parcouru durant l'occultation ?
La phase de pénombre débute au 1er contact entre les 2 objets, jusqu'à ce que l'étoile soit totalement occultée. Cette phase de à dure . Par symétrie, .
Lors de la phase de totalité, le satellite parcourt son diamètre moins celui de l'étoile. On a donc : .
On en déduit, par rapport à la centralité et .
Courbe de lumière de l'occultation. La flèche grise mesure la durée moyenne.
Déterminer les inconnues et les observables : vitesse angulaire, distances...
La vitesse angulaire de l'objet est mesurable : les diamètres angulaires et sont alors déterminés par les mesures de et .
La distance au soleil de l'objet occultant peut être déduite, par application des lois de la gravitation, de son mouvement. La mesure du diamètre linéaire de l'objet ou de l'étoile va dépendre de sa distance :
Il suffit de procéder dans l'ordre, et de calculer la vitesse angulaire, le rayon angulaire... ou de simplifier les calculs en prenant garde aux unités !
Avec une vitesse angulaire , s'exprimant en UA."/h, le diamètre angulaire s'écrit (AN : 0.05", en ayant pris soin d'exprimer le temps en heure, en accord avec l'unité de ).
Le diamètre linéaire vérifie . L'application numérique donne en UA."
.
Obtenir d'abord le diamètre angulaire de l'étoile.
Pour passer du diamètre angulaire de l'étoile à son diamètre linéaire, appliquer directement la définition du parsec.
Par règle de 3 entre les durées et les distances angulaires, le diamètre angulaire vaut : seconde d'arc.
Passer du diamètre angulaire de l'étoile (donné en seconde d'arc) et de la distance (donnée en parsec) au diamètre linéaire de l'étoile par la définition du parsec donne le résultat simplement en UA. A 4.7 pc, ce diamètre angulaire correspond à un diamètre linéaire , très proche du diamètre du Soleil (1.4 millions de km).
Remarquer que les durées à mesurer sont courtes.
pages_complements-ephemerides/coordonnee-geocentrique-sexercer.html
Réfléchir au système de coordonnées utilisé.
Les mesures sont effectuées en coordonnées géographiques, les observateurs pouvant p.ex. s'appuyer sur la verticale locale, et non sur une hypothétique et inconnue direction pointant le centre de la Terre.
En raison de la non sphéricité, le rayon de courbure local varie, et donc la mesure d'un arc d'ouverture fixée.
Voir la figure de la question précédente.
Comme le rayon de courbure local est plus important au pôle, une rotation d'un angle géographique de 10 degré sera plus importante au pôle.
Identifier au pôle et à l'équateur, et y calculer .
Les rayons de courbures aux pôles ou à l'équateur valent respectivement :
Avec l'hypothèse que est petit, et les développements limités usuels, on trouve :
On en déduit que la différence relative des mesures, de l'ordre de 1.2%, correspond à 3 fois le paramètre . En effet :
d'où l'aplatissement de la Terre, de l'ordre de 0.4%, cad 1/250.
pages_etalonnage-primaire/rr-lyrae-sexercer.html
Identifier les diagrammes bruités, et ceux pour lesquels les objets de faible magnitude n'ont pas été observés.
Pour certains amas (NGC7006, NGC5824, NGC6723, IC4499, NGC5897, M75), on remarque une coupure nette le long de l'échelle des magnitudes, qui correspond à la limite de sensibilité des instruments (il manque les objets les plus faibles).
Pour ces amas, la série principale n'est pratiquement pas visible. Dans le cas de M75, la zone du trou de la branche horizontale est difficilement identifiable car elle est proche de la limite instrumentale.
S'intéresser à leur latitude galactique .
On remarque que ces diagrammes sont direction proches du plan Galactique (faible latitude ). Ils souffrent d'une importante extinction. Ces deux effets (proximité du plan Galactique + extinction importante) se traduisent par une plus grande incertitude sur les magnitudes et un plus grand risque de contamination par des étoiles d'avant-plan appartenant au disque de la Voie Lactée.
Le bord bleu est, dans un diagramme B-V, sur la gauche.
La correction de l'extinction module-t-elle les magnitude à la hausse ou à la baisse ?
L'extinction fait apparaître les objets moins lumineux qu'ils ne le sont en réalité. La magnitude corrigée est donc nécessairement plus petite que la magnitude observée :
Avec le tableau de valeur, on procède ainsi :
Le calcul de la distance peut se mener avec l'appliquette, en application directe de la définition du module de distance. On procède ainsi :
- sélection de la colonne G (variable D), en cliquant sur G1 - introduction dans la ligne de commande de {=10^((F1+4.4)/5.)} ou {=10^((vo+4.4)/5.)}, avec F1 la colonne représentant la magnitude corrigée de l'extinction, et .
Le calcul d'incertitude se mène en différenciant l'équation du module de distance :
En prenant garde à la différence en bases du logarithme :
Avec, d'après l'énoncé, :
Soit une erreur de l'ordre de 5% qui, à 10 kpc, représente une incertitude de 500 pc.
En utilisant les relations :
ce qui via l'appliquette se traduit, par exemple pour , par :
= G1 * cos(C1/180.*pi) * cos(D1/180.*pi)... On trouve
L'appliquette ne permet (malheureusement) pas de calculer les moyennes demandées.
Les amas sont répartis de manière à peu près isotrope autour d'un point distinct de , situé dans la direction du centre Galactique. Les valeurs moyennes des positions en X et en Z donnent respectivement 8770 pc et 490 pc. Compte tenu des incertitudes sur les mesures, le centre de symétrie est donc situé dans le plan Galactique à environ 8.7 kpc (28 600 années de lumière) du Soleil, en bon accord avec les valeurs admises aujourd'hui.
pages_etalonnage-primaire/cepheides-sexercer.html
S'aider du tableau.
Sélectionner la case B1, et entrer dans la ligne de commande = 0.815 * B +2.52
Sélectionner la case E1, et entrer dans la ligne de commande = log(P)
Les calculs indiqués donnent :
Identifier les 2 points qui s'écartent de la distribution, et les éliminer en remplaçant leur magnitude par un tiret avant de procéder à l'ajustement.
La plupart des céphéides du Petit Nuage de Magellan s'ajustent autour d'une droite de pente légèrement inférieure à 2. Deux des étoiles apparaissent sensiblement en dehors de la relation période-luminosité : PNM01925, PNM02060. Il est probable que cet écart provienne d'un mauvais étalonnage de leur magnitude.
Après exclusion de ces valeurs, l'estimation linéaire donne une pente de -2.03 et une ordonnée à l'origine de 17.9 ; la pente semble cohérente avec la pente de -1.74 de la relation de Henrietta Leavitt.
Se servir encore de l'appliquette, pour identifier l'ordonnée à l'origine lorsque l'estimation a une pente forcée à -1.74.
En forçant une pente de -1.74 on obtient pour le diagramme en magnitude apparente une ordonnées à l'origine de 17.5.
En soustrayant membre à membre les relations en magnitudes apparente et absolue, on trouve le module de distance du Petit Nuage de Magellan
soit, d'après la définition du module de distance, une distance de 42.4 kpc (132 milliers d'années de lumière). En comparant aux dimension de la Voie Lactée , on constate que le Petit Nuage de Magellan est tout proche de notre Galaxie. En fait, il en est l'un des proches satellites.
Se servir, encore, du module de distance.
D'après les données, les modules de distance de M31, M33 et NGC6822 sont respectivement de 24.05, 24.05 et 23.80, soit des distances de 646, 646 et 575 kpc (2.0, 2.0 et 1.8 millions d'années de lumière).
En comparant à la dimension de la Voie Lactée, on voit que la distance de ces nébuleuses les place bien au-delà des limites de notre Galaxie. C'est cette découverte, couplée à la mesure de la taille de la Voie Lactée par H. Shapley, qui permit de clore le débat sur l'existence des univers îles et transforma notre univers d'étoiles et de nébuleuses en un univers de galaxies.
Comment joue l'absorption sur le module de distance du Petit Nuage de Magellan ?
Exprimé avec les mains : l'absorption ôte des photons, donc rajoute de la distance. Le module de distance est augmenté des effets de l'absorption dans notre Galaxie et interne à l'objet considéré.
L'absorption corrigeant à la hausse le module de distance du PNM de 0.72 magnitude, on trouve un module de 18.15+0.72 = 18.87, en bon accord avec la valeur admise aujourd'hui.
Pour les autres objets, repérés par rapport aux céphéides du PNM, il faut tenir compte de la correction différentielle par rapport au PNM.
On trouve finalement :
Nom | ext. galactique | ext. interne | |||
PNM | 0.37 | 0.35 | 18.15 | 18.87 | 18.70 |
M31 | 0.41 | 0.70 | 24.05 | 24.40 | 24.45 |
M33 | 0.32 | 0.38 | 24.05 | 24.03 | 24.60 |
NGC 6822 | 0.86 | 0.09 | 23.80 | 24.03 | 23.50 |
Ces résultats tenant compte de l'absorption sont en bien meilleur accord avec les valeurs admises aujourd'hui.
pages_etalonnage-primaire/cepheides-sevaluer.html
Il s'agit simplement d'exprimer de 2 façons différentes la distance linéaire entre l'étoile et le globule.
Il s'agit d'une simple application numérique.
Écrire le retard en fonction de la période et des données introduites.
Quelle grandeur est observable ?
Se servir de la relation trouvée entre les données et .
Le choix d'unité n'a pas été mené au hasard.
pages_indicateur-secondaire/statistique-global-sexercer.html
Résultats :
PGC | (deg) | largeur (km/s) | |
49157 | 13.03 | 66.6 | 340 |
49322 | 15.20 | 67.8 | 255 |
49275 | 13.34 | 64.1 | 430 |
48925 | 15.23 | 82.3 | 200 |
Estimer le rôle de la turbulence sur la raie, ainsi que celui de la projection.
La composante de la turbulence est à soustraire. Le facteur de déprojection est .
La largeur totale compte 2 fois la rotation
Pour passer de la largeur totale de la raie à la vitesse maximale, il faut tenir compte que la raie est élargie par les vitesses se rapprochant et s'éloignant de l'observateur. D'où les facteurs 2 dans la relation qui suit :
pour calculer les .
PGC | (deg) | largeur (km/s) | ||
49157 | 13.03 | 66.6 | 340 | 2.21 |
49322 | 15.20 | 67.8 | 255 | 2.06 |
49275 | 13.34 | 64.1 | 430 | 2.33 |
48925 | 15.23 | 82.3 | 200 | 1.91 |
pages_indicateur-secondaire/statistique-global-sexercer.html
Ouvrir le tableau d'une part, l'une des 2 images de l'autre. Y lire les coordonnées des objets.
Les étoiles brillantes, objets ponctuels, sont accompagnées d'une belle figure de diffraction. Ne pas les traiter.
L'unité des paramètres angulaires est visiblement le degré, pa variant de 0 à 180 deg, et i de 0 à 90.
Les objets caractérisés par une petite valeur de i semblent vus de face ; ceux pour lesquels ce paramètre tend vers 90 deg sont plutôt vus par la tranche : i représente l'inclinaison.
Les objets avec une valeur faible de pa (p.ex. PGC 49514) semblent avoir des axes principaux alignés avec ceux de la carte ; un objet avec pa de l'ordre de 45 deg (p.ex. PGC 49347) est globalement "en diagonale" par rapport aux axes de position et un autre objet avec pa de l'ordre de 134 deg (p.ex. PGC 49356) lui est orthogonal : pa représente le paramètre angulaire, à savoir l'orientation des axes.
Les figures des questions suivantes proposent quelques identifications.
L'inclinaison de PGC 49354 vaut 23.3 deg ; celle de PGC 49389 vaut 90.0 deg.
Comment reconnaître si elles sont proches selon la dimension radiale perpendiculaire au plan du ciel ?
Ces galaxies sont proches en ascension droite et déclinaison. Elles doivent également être proches selon la 3e dimension, vu que leurs vitesses de fuite par rapport au Soleil apparaissent très voisines (2300 et 2450 km/s).
Le fait d'avoir ces objets sur une même carte indique leur proximité dans le plan du ciel. Comment estimer leur éloignement ?
Un groupe d'objets va se caractériser par des vitesses radiales héliocentriques voisines. On repère donc les groupes par leur vitesse radiale. La représenter en fonction de l'une des coordonnées angulaires ou de la magnitude apparente.
Avec le critère sur la vitesse radiale héliocentrique, et en représentant cette vitesse en fonction d'une variable angulaire de position ou de la magnitude, on identifie différents groupes :
pages_indicateur-secondaire/statistique-global-sexercer.html
Réfléchir aux propriétés que doit avoir la galaxie.
Identifier les données nécessaires.
En ce qui concerne l'inclinaison, quelle mesure doit être possible, et qu'est-ce que cela implique ?
Critère sur les objets : il faut sélectionner, parmi la base de données, les galaxies de type spirale, appartenant à l'amas. On exclut donc les irrégulières, celles dont le type n'est pas défini, et celles dont la vitesse radiale est très différente de celle de NGC 5350.
Critère sur les mesures : il faut bien sur que les galaxies possèdent une mesure de ainsi qu'une magnitude. On exclut celles qui ne satisfont pas à ces critères.
Mesure de la vitesse de rotation : les galaxies ne doivent pas être vues de face afin que la mesure de vitesse de rotation par effet Doppler soit possible.
Avec ces critères quantifiés, il ne reste finalement qu'une douzaine d'objets (cf. tableau à la question suivante).
Dans quel sens l'extinction agit-elle ?
La correction des effets d'extinction est : Afficher le graphe de mbc fonction de logvrot, et puis se servir de la fonction ajustement.
L'estimation linéaire conduit à une pente de -6.3 et une ordonnée à l'origine de 26.9
Afficher le graphe de mbc fonction de logvrot, forcer le paramètre a à la valeur -5.8, choisir une valeur pour b et ajuster au mieux "à la main".
Un point apparaît hors norme dans l'estimation (PGC 49480). On l'élimine dans le tableau en remplaçant p.ex. sa magnitude mbc par un blanc. On trouve alors l'estimation avec une pente de -5.83 et une ordonnée à l'origine de 25.7.
En forçant la pente à -5.8, le coefficient à l'origine est de l'ordre de 25.6.
Si besoin, réviser la notion de module de distance.
L'estimation sur les données a conduit à une ordonnée à l'origine de +25.6, pour la magnitude apparente, contre -8 pour la magnitude absolue. Le module de distance vaut donc 33.6. On en déduit, par application de la relation que la distance vaut 52 Mpc.
Application de la relation de Hubble :
La valeur moyenne des vitesses est de l'ordre de 2400 km/s. L'application de la relation de Hubble donne .
pages_indicateur-secondaire/biais-malmquist-sexercer.html
La magnitude apparente de M31 et son module de distance sont donnés.
M31 = PGC 2557
Par application de la relation donnant le module de distance :
Toutes les galaxie sosies de M31 sont supposées avoir la même magnitude absolue.
A l'aide de l'appliquette, calculer le module de distance mu1.
Toujours à l'aide de l'appliquette, déduire (log(H01)) du module de distance mu1.
Le calcul, via l'appliquette, du module de distance est immédiat. , avec (sélectionner la case F1 et taper la commande = B1 + 21.4 ou bien = mb + 21.4).
Ensuite, on déduit par la relation demandée (sélectionner la case H1 et taper la commande = log(E1) - (F1-25)/5. ou bien = log(vrad) - (mu1-25)/5). Attention à sélectionner la bonne vitesse (vrad : vitesse radiale héliocentrique).
En appliquant la relation de Tully-Fisher pour le module de distance, on calcule (via la sélection de G1 et =mb+5.8*logv+8).
Ensuite, on déduit par la relation demandée (sélectionner la case I1 et taper la commande =log(E1)-(G1-25)/5. ou bien =log(vrad) -(mu2-25)/5).
Estimer la moyenne en représentant en fonction de PGC.
Pour la valeur log(H01), on estime la moyenne à 1.65, pour log(H02), elle vaut plutôt 1.55.
On s'aperçoit que augmente avec la vitesse radiale, et donc avec la distance. Ceci est incompatible avec la relation linéaire énoncée par la loi de Hubble. Mais l'effet n'est pas réel ; il provient du biais induit par la coupure en magnitude à grande distance.
Voir le cours.
La correction de Malmquist revient à corriger à la baisse de 23%. On obtient donc, de , la valeur non corrigée d'environ 44 km/s/Mpc, qui devient après correction environ 33 km/s/Mpc.
Convertir les unités km/s/Mpc en l'inverse d'un temps.
.
La définition du temps de Hubble est :
L'unité à traiter est le Mpc/km s. Comme , . Par ailleurs, .
On en déduit le temps de Hubble, de l'ordre de 27 milliards d'années, d'où l'âge de l'Univers de l'ordre de 18 milliards d'années dans le cadre de ce modèle.
pages_lois-kepler/enonce-loi-kepler-sexercer.html
Lesquelles étaient connues en l'an 1600 ?
De Mercure à Saturne, on compte 6 planètes, Terre incluse. Kepler, suivant l'option de Copernic, compte la Terre comme planète : c'est une forte opinion héliocentrique.
Introduire la notion de référentiel.
Il s'agit de choisir le référentiel héliocentrique comme référentiel d'étude, afin de pouvoir proprement corriger tout mouvement du mouvement relatif de la Terre autour du Soleil.
Le diamètre lunaire couvre environ 1/2 degré.
L'erreur de 8', rapportée au diamètre de la Lune de l'ordre de 30', en représente un petit quart.
Le diamètre angulaire maximal de Mars est donné par le rapport de son diamètre linéaire à la distance minimale Terre-Mars, de l'ordre de 0.5 UA (parfois moins, en raison de l'excentricité de l'orbite martienne) :
Le diamètre angulaire, donné par le rapport du diamètre linéaire à la distance considérée, vaut :
.
Il est à comparer à 8' = 480" ; 8' représentent 26.5 diamètres angulaires martiens.
La distance linéaire sur l'orbite est donc de 26.5 diamètres linéaires martiens, soit 180 000 km.
La fraction de l'orbite correspondante s'élève à 8' / 360.60' = 1/2700. Elle est parcourue en 687 j/2700 0.25 j, soit 6 heures.
pages_lois-kepler/newton-kepler-sexercer.html
Revenir aux définitions. Revoir l'expression du moment cinétique.
Le vecteur accélération s'identifie au champ gravitationnel :
Le vecteur moment cinétique s'écrit par définition :
Et donc :
car est nul, et
Dans la base directe :
Le produit vectoriel donne sans piège :
Dans le premier terme, est constant.
Par définition, , et donc
L'intégration du produit vectoriel est immédiate, le moment cinétique étant un vecteur constant :
s'intègre en .
Intégration du 2e membre :
s'intègre en .
Et il ne faut pas oublier la constante d'intégration, vectorielle, ici dénommée :
Le vecteur est perpendiculaire au vecteur moment cinétique, donc dans le plan de la trajectoire.
On rappelle la relation concernant le produit mixte :
En permutant les termes du produit mixte : .
Par ailleurs : .
On en tire la relation demandée, avec le paramètre égal à .
Schémas pour des excentricités de 0.4 et 0.7. On peut par exemple appuyer le vecteur excentricité sur le bipoint OF, le point O étant le centre de l'ellipse, et F le foyer correspondant au centre de force.
pages_lois-kepler/peser-kepler-sexercer.html
Il s'agit d'une application de la 3ème loi de Kepler. On rappelle
Le calcul en unités SI avec les données:
, , et la constante gravitationnelle ,
aboutit par application de la 3e loi de Kepler à :
On suppose une forme sphérique de rayon , de volume
La masse volumique s'écrit : ,
avec le volume , on trouve :
kg.m.
L'astéroïde (45)Eugénie semble peu dense, avec vraisemblablement un empilement lacunaire de roches.
Une hypothèse sur la masse volumique du petit satellite est nécessaire.
C'est impossible par la 3ème loi de Kepler. Une estimation, supposant une masse volumique moyenne identique à celle de Eugénie, conduit à une masse dans le rapport du cube des rayons :
D'où : . On peut vérifier, a posteriori et dans le cadre de l'hypothèse posée, que cette masse est très petite devant la masse du satellite principale, et que donc la 3ème loi de Kepler s'applique bien pour déterminer la masse d'Eugénie (cf. question 1).
pages_lois-kepler/peser-kepler-sexercer.html
Commencer par déterminer le rayon de la trajectoire du soleil autour du centre galactique, avec .
La conversion du rayon des pc aux m donne :
La détermination de la période résulte alors de la simple cinématique :
, soit s : de l'ordre de 230 millions d'années.
Mener le calcul en unités UA, an et , avec .
La mesure du rayon en UA donne : .
La 3e loi de Kepler aboutit alors à .
Le bulbe galactique représente l'équivalent d'environ 85 milliards de soleils.
pages_lois-kepler/peser-kepler-sevaluer.html
Définir convenablement un système, et faire un bilan de force
Exprimer l'accélération radiale en fonction de la vitesse et du rayon de courbure de la trajectoire.
Relier la vitesse orbitale au rayon et à la période orbitale .
pages_lois-kepler/peser-kepler-sevaluer.html
Traiter le calcul directement en UA et années
En UA et années; = 1 dans le système solaire
Le lien entre demi-grand axe, excentricité, périhélie et aphélie s'exprime par :
pages_lois-newton/deux-corps-sexercer.html
Énergie d'interaction gravitationnelle : .
Force :
En calculant les expressions des énergies d'interaction gravitationnelle entre 2 corps A et B :
et de la force d'interaction gravitationnelle :
On peut remplir le tableau suivant :
Interaction | Énergie d'interaction | Force |
(J) | (N) | |
Soleil-Lune | ||
Terre-Lune |
Ne pas se laisser impressionner par la question.
Quel système apparaît le plus énergétiquement lié ?
La comparaison des énergies potentielles d'interaction gravitationnelle montre que la Lune est plus liée au Soleil qu'à la Terre. On en déduit que la Lune tourne autour du Soleil... comme la Terre. Et si l'on regarde plus dans le détail, elle tourne aussi autour de la Terre.
D'un point de vue "galiléen", la Lune est plus liée au Soleil qu'à la Terre. Et sa trajectoire dans le référentiel héliocentrique est très proche d'un cercle ().
D'un point de vue géocentrique, la Lune tourne autour de la Terre.
pages_lois-newton/vitesse-orbitale-sexercer.html
Application directe du cours ! Aller voir la page Vitesse orbitale.
Le calcul des rayons orbitaux conduit à km pour Phobos et km pour Deimos. Et leur vitesses orbitales sont alors respectivement, par application de la loi .
On en déduit les périodes sidérales de révolution : , respectivement 7h50 et 30h30. Phobos a une période orbitale plus courte que la période de rotation propre de la planète : Phobos se lève à l'ouest et se couche à l'est.
pages_lois-newton/vitesse-orbitale-sexercer.html
Voir le cours : c'est une des notions les plus importantes !
Le rayon de la trajectoire est , d'où la vitesse orbitale , et la période .
Représenter la Terre, circulaire, et l'horizon, plan, de l'observateur, puis l'orbite du satellite.
Le satellite est visible sur la portion de trajectoire située au-dessus de l'horizon.
Représenter la Terre, circulaire, et l'horizon de l'observateur.
L'extension angulaire est , avec vérifiant , d'où .
L'arc de cercle couvre , soit 28/360 = 7.8% de la trajectoire totale.
La durée du survol est donc de 7 minutes environ.
pages_lois-newton/vitesse-orbitale-sevaluer.html
Notez que la 3e loi de Kepler pour les objets du système solaire, exprimée en UA et en années, est , où est le rayon de l'orbite et est la période.
Faire un schéma du triangle et notez qu'à l'opposition, la vitesse de la Terre est perpendiculaire à la direction de l'objet.
pages_lois-newton/vitesse-orbitale-sevaluer.html
La masse d'une coquille de rayon et épaisseur s'écrit
Le champ est sensible à la masse .
Un profil plat est un profil indépendant de .
Quelle relation entre masse et rayon ?
Ce n'est ensuite qu'une application numérique !
pages_lois-newton/vitesse-liberation-sexercer.html
Une trajectoire parabolique est associée à une énergie mécanique totale nulle.
A grande distance de Jupiter, on peut considérer comme nulles les énergies cinétique et potentielle des fragments cométaires.
Raisonner sur l'énergie, non sur le mouvement.
L'énergie potentielle d'un fragment de masse est, à la surface de Jupiter,
La conservation de l'énergie mécanique assure : .
D'où la mise en équation :
et donc la vitesse de chute :
Ne pas se lancer dans de gros calculs. Réfléchir à ce que représente la vitesse de libération par rapport à la vitesse de collision.
Définition de la vitesse de libération
La vitesse de libération doit permettre de quitter Jupiter. Énergétiquement, le bilan est exactement identique à celui de la chute des fragments. La vitesse de libération est donc :
pages_lois-newton/trou-noir-sexercer.html
Quelle est la nature de l'orbite ?
L'orbite, elliptique, annonce un mouvement képlérien.
Application directe de la définition de la parallaxe
1" à 1 pc correspond à 1 UA
Comme 1" à 1 pc correspond à 1 UA, 0.119" à 8000 pc correspondent à environ 950 UA.
Application directe du cours sur la 3e loi de Kepler.
Écrire la 3e loi de Kepler dans le système d'unités : année, unité astronomique, masse du Soleil
La 3e loi de Kepler s'écrit, dans le système d'unités proposé :
L'application numérique donne : . L'étoile S2 orbite donc dans un potentiel central créé par une masse de l'ordre de 3.7 millions de fois la masse du Soleil.
Un peu d'aide sur les coniques.
Application du cours :
Application du cours, le lien entre périastre, demi-grand axe et excentricité s'écrit :
L'application numérique donne 123 UA.
Application du cours :
La vitesse de libération du trou noir vaut , par définition, donc :
La conversion de la masse en masse solaire donne, pour l'application numérique :
Au voisinage du péricentre, l'accélération de S2 n'est que normale.
L'accélération normale vaut , avec le rayon de courbure.
Appliquer la relation newtonienne liant force et accélération normale.
Au voisinage du péricentre , l'accélération de S2 n'est que normale. L'accélération normale est égale au champ gravitationnel, càd :
D'où l'expression de la vitesse :
L'application numérique donne alors, avec :
, soit 2.3 % de la vitesse de la lumière.
pages_visuelles/intro-binaires-visuelles-sexercer.html
On appelle le centre de l'ellipse observée et A l'intersection de la demi-droite [0E) avec l'ellipse. Comme l'excentricité est invariante par projection, le fait que l'étoile primaire soit au foyer de l'orbite projetée montre que le grand axe de l'orbite projetée correspond à la projection du grand axe, ce qui ne peut avoir lieu que si ...
et implique un rapport de masse
La troisième loi de Kepler, en unités, UA, année, masse solaire, s'exprime :
La parallaxe étant de 0.1", le système double est situé à de nous et qu'une unité astronomique y est vue sous un angle de 0,1".
Le demi-grand axe apparent est égal à ; le demi-grand axe est donc de 30 UA.
On applique la troisième loi de Kepler pour calculer la somme des masses :
.
et on obtient et
pages_visuelles/masse-sirius-sexercer.html
Activité soit l'outil 'ligne', soit l'outil 'cercle'.
Faire une règle de trois et définir le rapport d'unité.
Avec l'outil 'cercle' centré sur Sirius A, 10" correspondent à 350 unités. On définit le rapport d'unité :
Pour le demi-grand axe : repérer les projections des péri- et apoastre.
Pour la période : s'appuyer sur les valeurs au voisinage de l'apoastre.
D'après la figure, on déduit la période et le demi-grand axe de l'orbite relative
Traduire la parallaxe en distance.
De la valeur angulaire du demi-grand axe et de la distance, déterminer le demi-grand axe en UA.
Utiliser la 3ème loi de Kepler
Si est le demi-grand axe mesuré en secondes d'arc et la parallaxe, le demi-grand axe linéaire , mesuré en UA est alors égal à , soit .
D'après la troisième loi de Kepler, on a par ailleurs :
où est exprimé en UA, en années, et et en masse solaire. Ce qui donne :
Définir le barycentre.
La demi-amplitude est à comparer au demi-grand axe.
La définition du barycentre G donne :
On peut ainsi comparer la demi-amplitude de AG au demi-grand axe, pour obtenir le rapport .
On en déduit les masses respectives : et .
pages_eclipses/orbite-courbe-lumiere-sexercer.html
Ecrire une relation entre , , et ; puis entre , , et .
Le trajet de la petite étoile pour aller de la position à la position est égal à . De la même façon, le trajet de la petite étoile pour aller de la position à la position est égal à . Si l'on assimile la corde de l'arc de cercle de la trajectoire à une droite, ce qui revient à dire que l'orbite est grande vis à vis des rayons des étoiles, on obtient :
D'où et
On a et , d'où et et donc, d'après le résultat de la question précédente :
A quoi correspond le minimum arrondi ?
Voir la loi de rayonnement du corps noir.
La même aire est occultée à chaque éclipse, que la petite étoile passe devant ou derrière la plus grosse.
En vertu de la loi de rayonnement du corps noir, c'est lorsque l'étoile la plus chaude est occultée que le minimum est le plus profond.
C'est lorsque la plus petite étoile est éclipsée que le fond du minimum est plat durant un certain laps de temps ; lorsque la plus grande est éclipsée, l'assombrissement du centre au bord arrondit la courbe de lumière. Ici, c'est donc la plus petite étoile qui est la plus chaude.
pages_eclipses/orbite-courbe-lumiere-sevaluer.html
On fera l'hypothèse que les étoiles ont un rayon moyen voisin du rayon solaire.
S'intéresser à la vitesse orbitale.
S'intéresser aux rayons stellaires.
Comparer les tailles des objets.
pages_eclipses/binaires-temperatures-sexercer.html
Voir le rayonnement du corps noir
, , donc le rayon de la plus froide est égal à 4.
D'après la loi de rayonnement du corps noir, on a : et .
D'où :
voir la page loi de Stefan.
La surface occultée est toujours égale à celle de la plus petite étoile (). Conséquence de la loi de rayonnement du corps noir, le minimum principal correspond donc à l'occultation de l'étoile la plus chaude, ici en l'occurrence, la plus petite...
La plus petite étoile est occultée, il s'agit donc d'une éclipse totale
Voir le paragraphe sur les mesures de température
Le rapport des profondeurs est de
pages_eclipses/binaires-temperatures-sevaluer.html
Voir la page sur les magnitudes .
Voir les pages sur le diagramme HR et celui sur les magnitudes magnitudes.
pages_spectroscopiques/binaires-masse-sexercer.html
Lorsque l'inclinaison du plan de l'orbite par rapport à la ligne de visée est nulle, les composantes radiales des vitesses orbitales sont nulles et les raies des deux étoiles se superposent... Mais si les deux étoiles sont de type spectral différent, ce qui est le cas le plus général, on verra dans le spectre des familles de raies correspondant à deux températures superficielles différentes, témoignant de la présence de deux objets distincts.
pages_spectroscopiques/binaires-masse-sexercer.html
Voir le cours sur l'effet Doppler issues de mesures spectrométriques.
La mesure en vitesse est limitée par la résolution
soit la valeur limite .
Penser à Kepler
La 3eme loi de Kepler, reliant la vitesse au demi-grand axe s'exprime :
Dans le cas d'un binaire spectroscopique, le système double n'est pas résolu en ses deux composantes, et les deux étoiles entrent dans la fente du même spectrographe, ce qui implique une proximité spatiale et donc une limitation à des périodes orbitales courtes, et des vitesses élevées.
pages_spectroscopiques/binaires-masse-sexercer.html
Les binaires spectroscopiques étant des couples serrés, si l'inclinaison est proche de 90°, la binaire est forcément aussi à éclipse. Ce qui se vérifie aisément par l'observation.
D'après les expressions de la page masses des composantes , la masse étant inversement proportionnelle à , on obtient bien une limite inférieure pour la masse de chaque composante.
pages_spectroscopiques/binaires-masse-sevaluer.html
Voir les exercices de la section sur les binaires à éclipse.
pages_exoplanete/vitesse-radiale-extrasolaire-sexercer.html
Revoir le cours !
C'est l'angle entre la normale au plan orbital et l'axe de visée.
Faire un schéma. A quelle condition sur le plan orbital a-t-on ou ?
Y'a-t-il autant de plans avec ou ?
Il y a un seul plan perpendiculaire à la ligne de visée (), mais une infinité qui la contiennent ().
Il faut estimer toutes les directions , et pour cela estimer l'angle solide compris entre les cônes centrés sur l'axe de visée et d'ouverture et .
La probabilité est mesurée par l'ouverture du cône de demi-angle au sommet . Son angle solide est . Le rayon d'ouverture du cône, proportionnel à , permet d'estimer comment la probabilité cherchée varie avec .
La différentielle de l'angle solide aboutit au même résultat.
On retrouve intuitivement que le cas est peu probable.
La définition d'une valeur moyenne conduit à :
avec la loi de probabilité associée.
Avec la loi de probabilité, la définition de la valeur moyenne de la variable conduit à :
Le numérateur vaut , car il est égal à la moyenne sur le même intervalle, de largeur , de , et que la somme des carrés des sinus et cosinus vaut 1.
Le dénominateur vaut 1.
La valeur moyenne est donc :
pages_exoplanete/vitesse-radiale-extrasolaire-sexercer.html
Définir la position du barycentre.
Le barycentre du système obéit à:
Différencier cette relation pour obtenir l'information en vitesse.
Par définition du barycentre, , avec O, un point fixe quelconque d'un repère galiléen. PG est la distance de la planète au centre de masse.
Dans le référentiel du centre de masse :
Commencer par faire le schéma, pour estimer dans les cas nul ou angle droit.
La relation entre , le module de et s'écrit :
La troisième loi de Kepler appliquée à la planète s'écrit :
Par ailleurs, la définition du périmètre de l'orbite donne le demi-grand axe en fonction de la période et de la vitesse :
On en déduit :
Et on en tire :
Reformulation de la question : quelle grandeur non directement observable peut finalement être ainsi mesurée ?
A partir des observables, et , et de la masse stellaire déduite des modèles stellaires, on a accès, au facteur près, à la masse de la planète... inaccessible par ailleurs.
Commencer par réécrire la 3ème loi de Kepler.
La 3ème loi de Kepler... toujours elle, permet d'écrire :
pages_exoplanete/limite-vitesse-radiale-sevaluer.html
Faire le calcul en SI, puis passer aux unités demandées.
Les axes du diagramme sont en échelle logarithmique décimale. Il faut prendre le logarithme de l'équation précédente pour tracer des droites sur le diagramme. En échelle log-log, l'origine du repère est en (a=1, et msin i=1).
Les observations ont vraiment débuté en 1995.
pages_exoplanete/methode-transit-sexercer.html
Estimer la différence de luminosité avec et sans éclipse, fonction de la surface stellaire visible, variable, et du flux surfacique, fixe.
avec , et . Donc :
Il s'agit d'une simple application numérique
En reliant la masse à la masse volumique et au volume, on trouve :
Cette planète est bien moins dense que Saturne (). C'est une géante gazeuse. Et si l'on trouvait un océan suffisamment grand, la planète y flotterait ...
pages_exoplanete/limite-methode-transit-sexercer.html
Faire un schéma, basé sur la figure de l'énoncé.
Le triangle étoile-diamètre planétaire permet d'écrire, le rayon de la planète étant supposé très petit :
Le problème est à symétrie de révolution. La position de la ligne de visée autour de l'étoile ne joue aucun rôle, la seule variable pertinente est l'angle .
Définition de la mesure d'un angle solide (unité stéradian):
avec et les angles d'Euler.
Dans le cas étudié, il y a symétrie de révolution autour de l'axe de révolution du système.
Mesure de l'angle solide d'un hémisphère :
Mesure de l'angle solide d'un cône de demi-angle au sommet :
La probabilité mesure la non-appartenance au cône précédemment défini.
Les angles et sont complémentaires : . On en tire :
Comme de plus le rayon stellaire est petit devant le rayon de la trajectoire de l'exoplanète, l'angle est petit, et l'on peut le confondre avec son sinus ou sa tangente.
Application numérique directe :
pages_exoplanete/astrometrie-extrasolaire-sexercer.html
Rappel : 1 AL = 63 000 UA.
Un objet est résolu spatialement si sa taille angulaire est supérieure à la taille de la tache de diffraction.
Le diamètre minimum du collecteur est atteint lorsque la tache de diffraction est égale la distance angulaire maximum entre le soleil et Jupiter :
Pour tout télescope de diamètre supérieur, l'astronome extraterrestre peut résoudre Jupiter autour du Soleil.
S'intéresser au rapport des flux respectifs du Soleil et de Jupiter.
Le rapport des flux est tellement disproportionné qu'il faut un meilleur pouvoir séparateur de l'instrument ou une plus grande distance entre les 2 objets pour espérer voir la planète.
pages_exoplanete/astrometrie-extrasolaire-sexercer.html
Un mouvement rectiligne uniforme est un mouvement non perturbé par quoi que ce soit.
L'étoile observée est isolée, et donc elle obéit au principe de Galilée.
Faire un schéma.
avec étant la distance du centre de l'étoile au centre de masse du système (étoile-planète)
Définir le centre de masse.
Etablir
D'après la définition du barycentre . Alors :
Le parsec est défini comme étant la distance d'une étoile ayant une parallaxe de 1".
Une étoile ayant une parallaxe de 0.1" est, par définition, à 10 pc.
Traduire la relation établie précédemment entre et , et l'exprimer dans le système d'unités (UA, masse de Jupiter).
Le produit , avec en pc et en seconde d'arc, donne directement une distance en UA.
On traite l'équation :
en tenant en compte que le produit , avec en pc et en " donne une distance en UA directement, par définition. En prenant directement en masse jovienne (), on obtient dans le système d'unités (UA, ), pour :
En échelle logarithmique, cette équation définit une droite de pente -1 ; elle passe par le point .
Pour une précision de 1 mas (1 millième de seconde d'arc), la courbe obtenue est définie par :
Parallèle à la précédente, elle contient le point .
Comme le montre le diagramme ci-joint, aucune planète du système solaire n'est ainsi détectable à ce niveau de précision astrométrique.
C'est la même chose que précédemment. Seule l'application numérique change.
Par rapport au cas précédent, le gain en précision d'un facteur 20 déplace la limite vers les faibles masses, passant p.ex. par le point .
Si les graphes ont été dressés, la réponse n'est plus qu'une question de domaine.
Planètes détectables : Jupiter, Saturne, Uranus et Neptune. Seules les planètes géantes sont donc détectables, pas la Terre !
pages_maree-terrestre/lune-maree-sexercer.html
Lien vers la page sur les périodes sidérale et synodique .
La Lune tourne autour de la Terre en 27.3 jours. Mais la Terre tourne autour du Soleil, donc il faut à la Lune un peu plus de temps pour finir une période apparente.
Jeter un coup d'oeil à la page concernant les changements de référentiel
Le changement de référentiel donne, pour la composition des vitesses angulaires :
donc
Le changement de référentiel donne :
On en déduit :
est la durée mise par la Terre pour faire un tour sur elle-même pour un observateur placé sur la Lune.
Cela permet de prévoir l'heure des marées.
Procéder comme pour le calcul de .
Composition des vitesses angulaires :
De la même façon que l'on a calculé :
soit .
Il y a 2 marées hautes par jour, et donc on observe une marée haute toutes les 12h 25min.
pages_maree-terrestre/approche-statique-sexercer.html
Il s'agit d'une règle de trois.
Lieux | dimension caractéristique (km) | hauteur de la marée (m) |
---|---|---|
océan global | 6400 | 1 |
mer | 640 | 0,1 |
lac | 64 | 0,01 |
flaque d'eau |
Dans une flaque d'eau, l'ordre de grandeur du phénomène de marée serait du dixième de micromètre. Il n'est pas pertinent de parler de marée dans ce cas, même pour un grand lac.
Le champ gravitationnel en un point éloigné de vaut .
L'un des points ou a intérêt à être confondu avec le centre de la Terre.
Expression du champ gravitationnel de la Lune au point (centre de laTerre) :
Expression du champ gravitationnel de la Lune au point , côté opposé à la Lune. En ce point, , et :
Le module du champ de marée est alors:
pages_maree-terrestre/soleil-maree-sexercer.html
Se référer au cours, qui montre que l'effet de marée est un effet différentiel.
Avec le notation que l'on identifie sans problème, le champ de marée de la Lune sur la Terre s'écrit : .
Et celui du Soleil sur la Terre : .
Simple application numérique de la question précédente.
Pour la marée, la Lune a une influence plus de deux fois supérieure à celle du Soleil.
pages_effet-de-maree/force-maree-sevaluer.html
Positionner le barycentre.
Identifier les champs gravitationnels et le terme lié au référentiel tournant. Faire un schéma.
Ecrire le principe fondamental de la dynamique dans le référentiel barycentrique.
Faire apparaitre dans le terme d'interaction gravitationnelle et négliger devant dans le terme de rotation.
Rappel : 1 AL 63 000 UA.
pages_effet-de-maree/limite-roche-sexercer.html
Énoncer la 3ème loi de Kepler pour le satellite.
La pulsation du mouvement est , avec la période orbitale.
La 3ème loi de Kepler appliquée au satellite, en orbite de demi-grand axe et période , s'écrit :
Comme , on peut supposer que le barycentre du système (planète-satellite) est confondu avec le centre de la planète.
Déterminer les distances respectives de et à la planète.
Force gravitationnelle agissant sur :
Pour un point du satellite à la distance de la planète, l'accélération d'entraînement est
Le terme d'inertie, fonction de la distance à la planète, confondu au centre de masse du système, s'écrit, avec la pulsation de rotation.
D'où, pour chacune des parties du satellite :
Exprimer et en fonction des termes précédemment établis.
D'après ce qui précède, le bilan dans le référentiel tournant s'écrit:
On peut en déduire :
Dans la cadre du modèle, cette force différentielle rend compte de l'effet de marée entre les 2 composantes du satellite.
La force de cohésion provient de l'attraction gravitationnelle entre et .
Force de cohésion produite par l'interaction gravitationnelle entre et , de masse identique et séparés par la distance :
La limite de Roche correspond à l'équilibre entre les forces de cohésion et celle de rupture, due à l'effet de marée.
Le satellite est à la limite de Roche quand on a l'égalité , pour une distance qui provient de :
Comme
Alors
La valeur observée de la limite de Roche est . Elle croît avec le rayon et la masse volumique de la planète.
La limite de Roche pour la Terre, sur un satellite de densité lunaire, vaut (avec le facteur 2.9) . La distance Terre-Lune se montant à 380 000 km, la Lune se situe bien au-delà de la limite de Roche de la Terre.
Limite de Roche pour Saturne et ses satellites :
Limite de Roche pour Saturne et un satellite en formation dans ses anneaux :
Les satellites sont bien en dehors de la limite de Roche, et les anneaux à l'intérieur.
La limite de Roche pour le Soleil vaut
soit de l'ordre de 5.6 fois le rayon du Soleil, et environ 20 fois moins que le périgée de la comète de Halley, qui ne risque pas d'être détruite par effet de marée. Mais il n'est pas rare que des comètes s'approchant du Soleil soient fractionnées.
pages_points-lagrange/stabilite-dynamique-sexercer.html
Tracer une coupe selon une direction, puis l'autre, sachant que L4 est un sommet
Le potentiel est d'allure parabolique. L4 est un maximum.
L'allure de la courbe de potentiel est :
Munir le plan orbital d'un repère cartésien s'appuyant sur L4, et donner la direction du vecteur rotation par rapport à ce plan
La composante de Coriolis s'écrit .
Etant perpendiculaire à la rotation, elle est nécessairement dans le plan orbital. Etant également perpendiculaire au mouvement, supposé radial, elle est nécessairement orthoradiale : elle va induire un mouvement de rotation autour de L4.
Il est nécessaire que cette composante de vitesse, radiale, soit de plus dirigée vers L4.
La composante de Coriolis s'écrit .
Toujours perpendiculaire à la rotation, elle reste nécessairement dans le plan orbital. Etant également perpendiculaire au mouvement, supposé orthoradial, elle est nécessairement radiale.
Afin que cette composante radiale agisse telle une force de rappel vers L4, un seul sens de rotation est possible : vérifier qu'il s'agit d'une rotation dans le même sens que la rotation orbitale.
pages_spectroscopie/spectres-stellaires-sevaluer.html
Les limites en longueurs d'onde des couleurs du spectre d'une lumière blanche sont les suivantes, en nm: Violet : 400-424 ; Bleu : 424-491 ; Vert : 491-575 ; Jaune:575-585 ; Orange : 585-647 ; Rouge : 647-700.
Aller prendre l'air le soir en ville, dans un coin avec éclairage public.
Pour le spectre d'émission... recommencer la balade de nuit.
Demander aux spectres et autres fantômes rencontrés durant vos précédentes balades nocturnes.
pages_spectroscopie/modele-bohr-sexercer.html
Il suffit d'utiliser la relation :
où E0=13,6 eV
Pour le premier niveau n=1 d'où .
Pour le deuxième niveau n=2 d'où
Pour le troisième niveau n=3 d'où
Pour le quatrième niveau on a n=4 d'où
Le diagramme des niveaux d'énergie est le suivant:
pages_spectroscopie/modele-bohr-sexercer.html
1eV = 1,6.10-19J
pages_spectroscopie/modele-bohr-sevaluer.html
c=3.108ms-1.
pages_spectroscopie/raies-hydrogene-sexercer.html
L'expression suivante vous sera utile :
où n est l'état final c'est-à-dire 1 pour les raies de Lyman, 2 pour les raies de Balmer et 3 pour les raies de Paschen; m étant l'état initial (pour Lyman la première raie m = 2 et la dernière raie m = ∞).
Pour la série de Lyman :
Pour la série de Balmer :
Pour la série de Paschen:
pages_corps-noir/spectre-corps-noir-sexercer.html
La relation entre fréquence et longueur d'onde du rayonnement s'écrit :
La relation entre et donne celle entre les intervalles spectraux et , par différentiation.
La relation entre fréquence et longueur d'onde du rayonnement s'exprime : . On en déduit :
Le signe négatif rappelle que les échelles en longueur d'onde et fréquence sont inversées. Par la suite, avec une définition adéquate des bornes de l'intervalle, on écrit :
La luminance correspond à la luminance spectrale intégrée sur un intervalle spectral
La conservation de l'énergie conduit à égaler les expressions trouvées pour la luminance, fonction de ou .
Rappel
La luminance, intégrée sur l'intervalle spectral, s'écrit donc de 2 façons différentes, qui doivent rendre compte de la même énergie dans l'intervalle spectral considéré :
d'où
La correspondance est établie.
pages_corps-noir/flux-noir-sexercer.html
Voir la définition de la puissance rayonnée par un corps noir sphérique de rayon et de température
La puissance du corps noir étant proportionnelle à et , il sort simplement :
Il s'agit d'une simple application de la question précédente
L'égalité des luminosités se traduit par :
On en déduit :
L'application numérique de la question précédente donne
Le diagramme est en échelle log-log. Plutôt que de représenter les valeurs de température 1000, 10000 K par les logarithmes décimaux 3 et 4 selon une échelle linéaire, il présente 1000 et 10000 en échelle logarithmique.
Avec une telle échelle, une loi de puissance se traduit linéairement par
Une ligne iso-rayon relie dans le diagramme des étoiles de températures et luminosités variables, mais rayons identiques.
On s'intéresse à la ligne iso-rayon de rayon solaire. Elle est caractérisée par l'équation reliant température et luminosité s'exprimant :
L'exposant 4 se traduit par une pente de 4 dans le diagramme log-log. La droite de pente 4 relie par exemple les points et . Attention : la pente apparaît négative car l'axe des températures est orienté vers la gauche dans le diagramme HR usuel.
L'application de l'expression donnant la luminosité
conduit, pour la géante rouge, à :
et pour la naine blanche :
pages_corps-noir/flux-noir-sevaluer.html
L'approximation des petits angles est amplement justifiée.
pages_corps-noir/temperature-effective-sexercer.html
Faire un schéma, et estimer la surface interceptée par la planète
Au niveau de la planète, le flux stellaire est dilué sur une sphère de surface . La section occultée par la planète, avec , correspond à celle d'un disque de surface .
Le rapport de ces 2 aires vaut :
d'où le résultat proposé.
Calculette !
Les applications numériques donnent :
Objet | (UA) | (km) | |
Jupiter | 5.2 | 71000 | |
Terre | 1 | 6400 |
L'énergie se conserve !
La conservation de l'énergie impose
Toute l'énergie reçue sera rerayonnée, soit directement, soit après thermalisation. D'après la définition de l'albédo, il s'ensuit le partage :
Aucun calcul à mener !
Le rayonnement directement réfléchi correspond au rayonnement solaire. Sa température de corps noir est donc .
Associer au rayonnement de type corps noir .
Le rayonnement thermique de la planète correspond, par hypothèse, à un rayonnement de corps noir de température .
Il vérifie :
Par ailleurs :
On en déduit :
D'où le résultat à démontrer :
Re-calculette !
L'application numérique donne environ 1000 K.
Aller voir la loi de Wien
La loi de Wien donne :
On en déduit que le maximum de rayonnement se situe aux alentours de .
pages_corps-noir/spectres-thermiques-sexercer.html
Ce n'est qu'une application numérique !
L'énergie thermique est :
L'énergie d'un photon vaut .
L'inégalité stricte demandée est bien vérifiée.
On rappelle le développement limité : , pour petit.
Avec l'approximation , valide vu l'hypothèse posée, on trouve :
Faire le lien entre les termes de l'étendue de faisceau et les termes énergétiques.
Intégrer simultanément la densité spectrale de luminance sur la surface collectrice , et sur tout l'angle solide , avec la propriété admise : .
La densité spectrale de luminance vaut :
Intégrée sur la variable de surface et celle d'angle solide , on trouve, avec , une puissance monochromatique :
Il ne reste plus qu'à intégrer sur l'intervalle spectral, sans oublier qu'une seule des deux polarisations est visible.
L'antenne n'est sensible qu'à une seule direction du champ électrique : la moitié de l'énergie est donc perdue. En supposant la densité spectrale de puissance uniforme sur l'intervalle de fréquence, on trouve une puissance :
Cette valeur apparaît directement proportionnelle à la largeur de l'intervalle spectral, fixée par la détection, et à la température de la source.
C'est pourquoi les radioastronomes définissent la puissance reçue par une température. Cette température correspond directement à celle du corps s'il rayonne comme un corps noir. Mais, toute énergie devenant ainsi une température (température de bruit du détecteur, ou de température d'antenne) par une simple règle de proportionnalité, cette température ne peut pas être considérée, dans la plupart des cas, comme une température thermodynamique.
pages_luminosite/magnitude-apparente-sexercer.html
est une puissance et une puissance surfacique
La luminosité est uniformément répartie sur la sphère de rayon :
Calcul de :
Comme une parallaxe de 1" correspond à une distance de 1 pc, alors une étoile ayant une parallaxe de 0.76" est à une distance de 1.3 pc, soit .
Calcul de :
pages_luminosite/magnitude-apparente-sexercer.html
Définition magnitude apparente d'une étoile.
La magnitude apparente s'écrit :
où est l'éclairement apparent de référence.
Revoir la définition de la magnitude apparente d'une étoile.
Objet A | Objet B | Rapport des éclairements apparents () |
---|---|---|
Soleil | Jupiter | |
étoile = 6 | ||
limite de détection | ||
Jupiter | étoile = 6 | |
étoile = 6 | Limite de détection |
pages_luminosite/magnitude-apparente-sexercer.html
Par définition, l'éclairement découle de la luminosité :
Par définition, l'éclairement découle de la luminosité :
La définition de la magnitude, , conduit à :
D'où la luminosité :
On applique la définition, avec le flux identiquement égal à .
L'application numérique donne :
6 cm | 11 |
60 cm | 16 |
6 m | 21 |
(mais un télescope de 6 m n'est pas conçu pour se rincer l'oeil).
Pour qu'une étoile soit visible, il faut que suffisamment de photons émis par celle-ci arrivent à l'observateur pendant un laps de temps. Pour voir des objets peu lumineux, il est alors nécessaire d'augmenter le temps de pose des instruments de mesure.
pages_luminosite/magnitude-apparente-sexercer.html
Revoir le cours, et la définition de la magnitude absolue.
Par définition de la magnitude absolue :
Le volume d'une sphère de rayon est... allons, un petit effort
...
Le volume de la sphère de rayon multiplié par la densité stellaire donne le nombre d'étoiles :
Eliminer la variable des équations précédentes
D'après ce qui précède, le rayon , exprimé en parsec, s'exprime en fonction des magnitudes par
De et , il sort immédiatement :
Il s'agit pour de vérifier :
Le facteur s'identifie à , nombre d'étoiles de magnitude inférieure à . Si l'on se réfère au tableau, recensant les objets les plus brillants, l'ordre de grandeur est correct.
pages_luminosite/magnitude-couleur-sexercer.html
L'oeil est sensible à la lumière... visible, du bleu au rouge. La réponse est maximale dans les couleurs verte et jaune, faible dans le rouge et le bleu. Les données du tableau Apprendre doivent être adaptées. Pour tenir compte du fait que l'oeil a un domaine de réception plus large que l'intervalle spectral dans la bande photométrique standard V, on prendra un intervalle équivalent de largeur .
Dans le domaine visible, par définition, la relation entre magnitude et éclairement monochromatique s'écrit :
On a la même relation avec l'éclairement (intégré sur la bande spectrale) :
La valeur de l'éclairement de référence se calcule par:
La réponse de l'oeil humain couvre un intervalle de presque 400 nm, mais avec une très faible réponse dans le bleu et le rouge ; ceci justifie la valeur de 127 nm introduite ici.
Le calcul de l'éclairement devient alors simplement :
Il en découle la puissance :
Energie d'un photon de longueur d'onde :
où est la constante de Planck , et la célérité de la lumière dans le vide.
L'énergie reçue pendant de seconde vaut :
L'énergie d'un photon de longueur d'onde étant:
On en déduit le nombre de photons correspond à cette énergie intégrée pendant de seconde sur la rétine :
pages_luminosite/magnitude-couleur-sevaluer.html
Voir le cours.
L'unité de l'éclairement monochromatique permet d'imaginer le résultat.
L'énergie d'un photon vaut .
Se prendre par la main et se lancer dans l'application numérique.
pages_luminosite/magnitude-absolue-sexercer.html
Définition de la magnitude absolue
La magnitude absolue est la magnitude conventionnelle qu'aurait l'étoile si sa distance était égale à 10 pc :
et est le module de distance de l'étoile.
Rappel :
L'application du résultat précédent conduit à :
Revenir aux définitions
Magnitude du Soleil s'il était à une distance de 1.33 pc de la Terre :
Magnitude du Soleil s'il était à une distance de 8 kpc de la Terre :
La magnitude d'une étoile vue à une distance peut s'exprimer ainsi :
La distance limite à laquelle une étoile de type solaire reste visible à l'oeil nu est :
ce qui reste dans l'environnement très proche du Soleil.
pages_luminosite/photometrie-energetique-sexercer.html
Identifier pour chaque unité la dépendance spectrale en .
Les solutions sont données en tableau :
Grandeur | Définition | Unité | Remarque |
---|---|---|---|
Puissance, luminosité | Puissance | W | pas de changement ! |
Eclairement, flux | Puissance par unité de surface normale à la propagation | Non plus | |
Eclairement monochromatique | Puissance par unité de surface et par unité spectrale | ||
Intensité, luminance monochromatique | Puissance transportée par unité spectrale, par unité d'angle solide, et par unité d'élément de surface |
pages_fizeau/effet-doppler-sexercer.html
Quelle composante de la vitesse est sensible à l'effet Doppler ?
L'effet Doppler trace les modulations de vitesse radiale. Au limbe, par projection, la vitesse sismique radiale est nulle.
pages_fizeau/effet-doppler-vitesse-sexercer.html
Revoir la page de cours reliant à ... allez, on est sympa :
L'application de la définition :
donne et .
L'application numérique donne simplement :
pages_fizeau/effet-doppler-vitesse-sexercer.html
Appliquer d'abord la loi de déplacement de Wien
L'application de la loi de Wien donne une variation de l'émission maximale du corps noir cosmologique dans le rapport inverse des températures.
La température ayant diminué d'un facteur 1000, la longueur d'onde a augmenté d'un facteur 1000. On en déduit le décalage spectral :
Application directe du cours
L'application de la définition :
donne, en développant :
Comme , le développement limité conduit à :
D'où l'application numérique , ce qui est très rapide !
pages_fizeau/effet-doppler-vitesse-sexercer.html
Procéder par règle de 3, avec l'outil proposé.
Les raies sont repérées aux positions (en pixel) : 132, 178, 253
Les intervalles spectraux, respectivement de 2100 et 5500 pm entre les raies 1 et 2 puis 1 et 3, correspondent à une mesure de 46 et 121 pixels.
La conversion et donc de l'ordre de l'ordre de 45.5 pm/px.
Application directe du cours
A 582 nm, un décalage de 45.5 pm représente une vitesse telle que :
Soit environ .
Les décalages spectraux mesurent respectivement, en pixels :
-10, +3, +14, -6.
D'où les décalages en vitesse de -230, 70, 330, -140 km/s
pages_fizeau/effet-doppler-raie-sexercer.html
L'onde radio parcourt le vide à la célérité de la lumière. Attention au doublement de la distance par aller-retour.
Un trajet de 616.125 s correspond à une distance aller-retour de , soit 0.616 UA. On en déduit que Mercure est très proche de la ligne Soleil-Terre, à une distance minimale d'approche de la Terre.
Dans ces conditions, Mercure est trop proche du Soleil pour être observé en lumière visible.
Faire un schéma
Un point possède une vitesse de rotation
La vitesse d'entraînement rotationnel vérifie :
avec la rotation angulaire.
Soit, pour un point de coordonnées cartésiennes (avec bien sûr :
La projection radiale est la composante selon , càd
Faire un schéma, avec les axes indiqués.
S'inspirer de l'animation sondage rotationnel . Dans les applications numériques, ne pas oublie un facteur 2 temporel (aller-retour de l'onde) ou fréquentiel (double décalage Doppler à l'absorption et à la réémission de l'onde)
La région de la surface hermienne contribuant au début du signal d'écho est le point le plus proche de la Terre : le point subterrestre. La fin correspond aux dernières régions touchées : au limbe.
La durée totale théorique de l'écho correspond à l'intervalle de temps pour parcourir radialement la planète du point subterrestre au limbe, càd parcourir son rayon :
Les lignes d'iso-retard sur la carte de Mercure [] sont des lignes à coordonnée fixée. Analytiquement, à la surface de la planète et dans le plan du ciel , l'équation
représente un cercle.
L'élargissement Doppler extrêmal est atteint au limbe, où l'entraînement rotationnel est le plus fort. Les lignes d'iso-fréquence correspondent aux lignes isovitesses : ce sont des droites parallèles à l'axe de rotation.
Pour un point de Mercure de coordonnées , le retard de l'écho et son décalage spectral vérifient :
Les valeurs extrêmes du délai et du décalage sont :
en ayant posé . On en déduit, pour un point du plan équatorial () :
En éliminant la variable , il sort la relation demandée :
Etudier les conditions de réflexion de l'onde, en supposant valide l'optique géométrique.
Montrer que les dates effectives d'observations vérifient , et en tirer les conséquences.
Pour calculer avec l'appliquette, la relation entre et se traduit par : = (B1/5.73) * sqrt(16.1 / (2*A1)), à faire calculer en ayant sélectionné la case C1
Le retard maximal théorique est bien plus long que celui enregistré. Le désaccord s'interprète par l'absence de signal réfléchi dans les régions proches du limbe.
Les lois de l'optique géométrique permettent d'interpréter les variations temporelles d'intensité du signal : la réflexion renvoie de moins en moins d'énergie vers la Terre dès lors que le signal s'éloigne du point subterrestre. Et donc, les données présentant un grand retard par rapport au point subterrestre ne pas exploitables.
Les dates effectives d'observations vérifient alors . Il s'ensuit que la relation entre et se simplifie en
en ayant procédé au développement limité : . Il en sort l'estimation de :
A l'aide de l'appliquette, on trouve de l'ordre de 1.65, voisin de 5/3. .
La rotation propre de Mercure est en résonance avec la révolution autour du Soleil. Mais elle est ici mesurée dans le référentiel tournant : la rotation propre sidérale découle du changement de référentiel, ici mesurée avec pour unité la révolution sidérale :
La rotation sidérale propre est plus lente que la révolution sidérale, est dans un rapport 3/2.
La diffraction conduit à un lobe d'antenne de taille angulaire commensurable .
Pour le flux réfléchi : proposer un modèle simple pour les conditions de réflexion au point subterrestre.
La diffraction conduit à un lobe d'antenne de taille angulaire . En regard, Mercure intercepte une fraction angulaire . La fraction du flux total intercepté par la planète est de l'ordre du rapport du carré de ces tailles angulaires, soit .
pages_signatures-spectrales/signature-spectrale-sevaluer.html
Ce n'est qu'un peu de cinématique.
On peut s'en sortir par simple analyse dimensionnelle.
A partir de , déterminer le volume moyen offert à un atome, et l'exprimer en fonction de et .
Il suffit de se servir des résultats précédents exprimant en fonction des autres paramètres.
Le type spectral étant fixé, la température effective est également fixée.
pages_classification-spectrale/classe-de-luminosite-sevaluer.html
S'intéresser aux raies de l'hydrogène
S'intéresser à la largeur des raies de l'hydrogène
S'intéresser aux raies du fer et du silicium.
pages_physique-evolution/pression-centrale-sexercer.html
Pour cette distribution sphérique :
Par application de la définition de la masse totale :
Si , alors :
D'où l'expression demandée :
Pour des calculs plus simples, on écrit :
Par définition :
De l'expression de la masse totale trouvée précédemment, on peut déduire de la même façon :
(seule la borne d'intégration supérieure a changé). On en déduit :
Ensuite, la définition du champ gravitationnel donne :
Il semble nécessaire d'avoir un exposant , afin d'éviter que le champ ne diverge au centre.
Mener le calcul, du centre vers la surface :
On cherche à intégrer la pression du centre vers la surface :
On suppose la pression de surface totalement négligeable. Il reste alors, en fonction de ce qui précède :
L'expression du champ a conduit à la restriction ; dans ce cas, la contribution en 0 ne diverge pas, et l'on trouve :
Traduire l'uniformité de la masse volumique sur l'exposant .
Est-il normal de retrouver ?
Retrouver est logique : l'analyse dimensionnelle permet cette seule écriture de la pression en fonction des 3 grandeurs reliées au problème gravitationnel .
Si la masse volumique est uniforme, c'est à dire si , on trouve :
Si la masse volumique pointe vers le centre, c'est àdire , on voit que la constante de proportionnalité devient de plus en plus grande. C'est ce que l'on a vu dans la partie cours, dans le cas du Soleil.
pages_physique-evolution/pression-centrale-sexercer.html
Le champ gravitationnel vaut .
Monter d'une hauteur la masse considérée coûte en énergie, dans le champ supposé uniforme :
Comparer les énergies en jeu.
L'énergie gravitationnelle comparée à l'énergie de fusion montre que la dépense énergétique peut faire fondre la base si , et donc si :
AN:
A un facteur 3 près, ça semble se tenir.
Ne pas se laisser désarçonner par les hypothèses, qui restent en ordre de grandeur très convenables.
L'égalité dans le cas limite, , et la définition de la masse pour une masse volumique uniforme conduisent à :
soit
AN : de l'ordre de 550 km. Avec une taille inférieure, un objet sera patatoïdal ; au-delà, il tend vers une forme sphérique.
pages_physique-evolution/pressions-sexercer.html
La relation de Heisenberg s'écrit, en notant et les incertitudes respectives.
Pour la suite, on considèrera le cas
Faire le lien entre la densité particulaire et le volume moyen par particule.
S'intéresser à l'encombrement au sein du gaz, en estimant qu'une particule occupe un volume de l'ordre de .
Une densité particulaire correspond à un volume par particule . Ce volume par particule est lui-même de l'ordre de . On en déduit :
La distribution de vitesse maxwellienne varie comme avec
Faire un schéma.
L'examen de la figure montre que vitesse moyenne et écart-type sont du même ordre de grandeur. On confond donc et .
Pour un gaz classique : .
Éliminer des relations précédentes les variables de quantité de mouvement et de position au profit de la densité particulaire.
Pour un gaz classique, la quantité de mouvement s'écrit .
De et on tire :
Puis
Comparer les masses en jeu.
Comme le rapport des masses entre le proton et l'électron vaut 2000, s'il y a des électrons, la pression électronique domine largement.
Se servir de la neutralité électrique.
L'essentiel de la masse se retrouve dans les nucléons.
La neutralité électrique assure .
L'essentiel de la masse se retrouve dans les nucléons : .
On retrouve alors le résultat du cours.
pages_physique-evolution/energie-potentielle-gravitationnelle-sexercer.html
Rappel : la masse volumique est supposée uniforme.
Par définition :
Le champ gravitationnel créé par cette masse à une distance vaut :
Le signe négatif rend compte de l'attraction gravitationnelle, et il faut bien distinguer les variables , rayon actuel de l'objet en cours de formation, et , distance à cet objet.
Le travail total est la somme des contributions des travaux de l'infini à la surface de l'objet
À partir d'une étape élémentaire, on somme pour obtenir le travail total :
L'intégration donne :
On en tire
Le travail de l'opérateur est l'opposé de la variation d'énergie potentielle de l'objet entre les 2 états considérés.
2 moyens de procéder au calcul, en interprétant l'usage de la notation différentielle, ou bien en raisonnant géométriquement.
L'usage de la notation différentielle doit permettre de passer de à .
L'accroissement de la masse s'écrit par différentiation :
on y reconnaît la masse d'une coquille d'épaisseur et de surface .
On a donc :
De l'expression du travail élémentaire qui précède, on tire l'expression de la variation d'énergie potentielle d'interaction gravitationnelle sur une étape élémentaire :
Avec la masse accrétée au rayon et une position entre et . Une première étape d'intégration conduit à apporter la masse de l'infini à la surface :
Le calcul de l'intégrale donne . D'où la variation de potentiel :
après avoir remplacé et par leur valeurs. Et donc finalement :
On retrouve ce résultat classique. L'expression est homogène ; le signe négatif rappelle que la formation d'une concentration de matière a dégagé de l'énergie (ou qu'il faut en dépenser pour démonter l'objet).
pages_physique-evolution/theoreme-viriel-sexercer.html
Il suffit d'introduire l'équation d'état du gaz parfait chaud.
Avec l'équation d'état du gaz parfait , on introduit simplement la pression, pour obtenir :
On peut par exemple commencer par écrire l'énergie potentielle sous forme intégrale
On a aussi besoin de la définition de la masse d'une coquille d'épaisseur au rayon :
La définition de l'énergie potentielle est :
On introduit le gradient de pression, via ce que donne l'équilibre hydrostatique, sans oublier au passage que :
On en déduit :
L'intégration par parties donne
Montrer que l'un des 2 termes de l'intégration par parties est nul.
Par parties :
Le terme tout intégré est nul, car nul aux 2 bornes ().
Tout le travail est fait, il n'y a plus qu'à comparer.
On a vu pour l'énergie cinétique :
Et pour l'énergie potentielle :
L'égalité trouvée précédemment :
conduit alors à :
On retrouve donc le théorème du viriel dans un cas particulier.
pages_physique-evolution/theoreme-viriel-sevaluer.html
La vitesse de contraction est .
Par définition, .
Le théorème du viriel donne , .
pages_naissance/amas-stellaire-sevaluer.html
Comment les amas évoluent-ils ?
pages_vie/fusion-nucleaire-sexercer.html
Exprimer l'énergie de la barrière coulombienne.
Exprimer la condition énergétique limite à remplir en
L'énergie totale d'un proton s'écrit :
Pour passer la barrière coulombienne en , le proton doit avoir une énergie vérifiant :
(énergie potentielle nulle à l'infini, énergie cinétique nulle au niveau de la barrière).
Faire le lien entre l'énergie cinétique et la température.
La température minimale vérifie :
Soit :
Avec les valeurs proposées, on trouve :
Cette valeur est surestimée, car ne prend pas en compte les phénomènes quantiques qui relaxent considérablement les conditions de fusion.
Réécrire le potentiel électrostatique en fonction de .
L'effet varie comme
Les équations précédentes se réécrivent avec la nouvelle énergie potentielle
Il s'ensuit une température de fusion :
La valeur de la température est encore plus élevée que pour l'hydrogène.
pages_vie/fusion-nucleaire-sexercer.html
Déterminer les expressions des énergies cinétique et potentielle, ainsi que leurs valeurs particulières à grande distance ou à la distance minimale d'approche.
Voir l'exercice précédent
L'exercice consacré à ce raisonnement donne la solution. Avec les notations ici proposées :
L'application numérique donne :
La relation d'incertitude présentée ici se traduit par
L'égalité entre l'énergie cinétique à grande distance et l'énergie potentielle à distance minimale donne une autre relation entre ces 2 variables.
En notant simplement la distance minimale d'approche, et la quantité de mouvement incidente, l'équation énergétique dit :
La relation d'incertitude présentée ici se traduit par On en déduite la valeur de , en éliminant :
Et donc on aboutit à la nouvelle position (ou incertitude de position, d'après la présentation de l'énoncé) :
L'application numérique donne :
Cette distance est plus grande que 1 fm. Les protons peuvent donc se "tromper", et se croire en train de fusionner alors qu'ils sont 14 fois trop éloignés.
La température de fusion décroît de ce même facteur 14, soit de l'ordre de .
Estimer les conséquences de ces protons rapides en termes énergétiques, puis de température.
Un proton 3 fois plus rapide est 9 fois plus énergétique que la moyenne. On gagne donc ainsi un facteur 9 sur la température, soit la possibilité de fusion dès .
Ceci reste trop élevé, car la modélisation de l'effet tunnel est trop simpliste, mais montre comment l'estimation purement classique de la température de fusion est déjà surdimensionnée d'un facteur 120.
pages_vie/masse-etoile-sexercer.html
Identifier dans l'expression de ce qui peut ressemble au champ gravitationnel d'une étoile.
Comment se traduit le fait que l'on considère des étoiles de même type spectral ?
Le champ gravitationnel d'une étoile varie en , comme , dont l'expression comporte juste une dépendance supplémentaire en fonction de la température. Comme le type spectral est supposé fixé, cette dépendance est donc transparente, et porte la même information que le champ gravitationnel, et réciproquement. On en déduit qu'une étoile de champ gravitationnel plus intense présente un spectre avec une fréquence plus élevée, et réciproquement.
La réponse est quasiment à la question précédente.
La mesure de , identifiée à partir du spectre d'oscillation, permet une estimation précise du champ gravitationnel à la surface de l'étoile.
Exprimer la masse volumique moyenne en fonction des masse et rayon stellaire.
Quel lien entre et la masse volumique moyenne ?
L'examen de la définition de montre que cette fréquence varie comme la racine carrée de la masse volumique de l'étoile. Une étoile peu dense présentera donc une plus petite valeur de qu'une étoile plus dense.
Faites chauffer le calcotron.
La géante, 10 fois plus grande que le Soleil, présente un volume 1000 fois plus important, donc une densité 31 fois moindre, et donc . Pour , l'application numérique donne .
Désolé, pas d'autre solution que retrousser ses manches et inverser les équations de départ !
L'inversion donne :
Ce n'est pas tous les jours qu'une technique observationnelle donne accès à la masse et au rayon de l'étoile relativement précisément, et indépendamment de toute mesure de distance !
pages_vie/masse-etoile-sevaluer.html
Si l'on découvrait de nouvelles classes, correspondraient-elles à des étoiles très ou très peu lumineuses ?
pages_vie/masse-luminosite-sexercer.html
Comment varie la luminosité sur la séquence principale ?
Avec, sur la séquence principale, , on trouve : . L'amplitude des oscillations augmente vers les types spectraux plus massifs.
La luminosité du corps noir donne directement :
pages_vie/definition-etoile-evaluer.html
Aller raffraichir ses souvenirs de mécanique du point.
Dans le cours FSU c'est là .
Les valeurs des masses et rayons solaires sont données par le calcotron !
Attention aux unités !
Se servir de ce qui précède.
Voir du côté des plus faibles gravités.
Quelle masse typique pour une géante typique ?
pages_mort/naine-blanche-sevaluer.html
Voir le cours sur les lois de Newton.
Voir le cours.
pages_evolutionstellaire/evolution-stellaire-hr-sevaluer.html
Pour la température effective, voir le cours correspondant sur les types spectraux. Pour log g, voir le cours correspondant sur les classes de luminosité.
Déterminer la valeur de log g pour le Soleil peut être utile.
Pour le Soleil, dans les unités choisies, .
2 pistes à étudier : 1) les performances de tout collecteur, nécessairement limité vers les faibles luminosités 2) la durée de vie des étoiles.
pages_optiquegeo/champ-ouverture-sexercer.html
Application de la définition de l'ouverture d'un télescope.
Par définition, la focale d'un télescope muni d'un miroir primaire de diamètre ouvert à vaut :
et donc
Faire un schéma de l'image au foyer d'un faisceau incliné d'un angle .
Un pixel voit un champ vérifiant :
L'application numérique donne :
Le champ total, 2000 px, couvre une largeur de 120", soit 2'.
pages_optiquegeo/champ-ouverture-sexercer.html
Application directe de la définition de l'ouverture.
L'ouverture est f/15, car .
Si l'on parle d'oculaire, c'est pour observer à l'oeil, ceci conditionne le montage optique.
Le montage doit être afocal.
Le montage étant afocal, le grossissement est simplement :
avec le focale de l'oculaire.
L'application numérique donne 200 et 300 respectivement, pour les oculaires de focale 45 et 30 mm.
Revoir l'expression du grossissement.
Dans le montage afocal, avec un angle du champ image , l'angle du champ objet vérifie :
Les applications numériques donnent :
et
Ceci représente respectivement un peu plus ou un peu moins de la moitié du diamètre lunaire.
pages_diffraction/diffraction-image-sexercer.html
Établir l'échelle en se repérant par rapport au système double.
Le seul repère donné est la séparation des 2 composantes. Une mesure seule est entachée d'erreur. Plusieurs mesures, avec l'outil ligne donnent en pixels : 60.4 ; 59.5 ; 59.8 ; 58.2 ; 59.5 ... soit de l'ordre de .
On en déduit l'échelle 0.24"/pix, ou 4.13 pix/".
Travailler avec l'outil cercle
Les mesures, avec l'outil cercle, donnent en pixels, pour l'anneau entourant la composante faible pour les anneaux entourant la composante brillante , soit respectivement 2.6, 4.1 et 7.3".
Calculer la tache de diffraction.
La tache de diffraction vaut .
Elle est bien inférieure aux anneaux mesurés. Ils ne peuvent pas être dus à la diffraction par le miroir primaire. Ils ne semblent pas être liés à la diffraction par le miroir secondaire (de diamètre caractéristique 10 cm dans ce cas, pour coïncider au premier anneau), car leurs rayons ne progressent pas de la bonne manière. De toutes façons, la diffraction ne peut pas expliquer le fort contraste du grand anneau entourant la composante brillante ; par conséquent, des réflexions parasites sont suspectées.
pages_diffraction/diffraction-resolution-sexercer.html
Estimer la taille angulaire du cratère, et la comparer à la résolution limitée par la seule diffraction :
La taille angulaire du cratère représente 20/380 000 rad, soit , soit environ 11".
Cette valeur est à comparer à ; soit le diamètre :
Le cheminement pour arriver au résultat est analogue à la question précédente. Il faut un collecteur de diamètre 60 cm.
pages_diffraction/resolution-spatiale-sexercer.html
Revoir la relation entre ouverture, focale et diamètre.
Si est la focale, alors
Une ouverture de pour un collecteur de 3.6 m représente une focale de .
Déterminer la taille angulaire d'un pixel.
Bien échantillonner la résolution nécessite un pixel couvrant 0.3" (la moitié de la résolution de 0.6").
Le champ de , ou , devient, traduit en pixel, .
Avec la focale résultante , la résolution de 0.3", cad , correspond à une dimension physique de .
D'où la caméra choisie : 1k 2k, avec des pixels de .
pages_interference/resolution-spectrale-sexercer.html
Appliquer la définition.
L'application numérique donne :
soit 0.02 nm.
Pour calculer , c'est simple. Pour , il faut revenir à la définition.
Avec , calculer la différentielle .
La définition de donne :
Mais écrire
est faux (faire l'application numérique pour s'en convaincre !). En revanche, la différentiation logarithmique s'écrit :
Et alors l'application de la définition donne :
On en déduit :
pages_interference/resolution-spectrale-sexercer.html
Réfléchir aux causes d'élargissement de la raie.
La raie large est élargie par d'autres phénomènes que la résolution spectrale de l'instrument. La résolution instrumentale doit être mesurée sur une raie fine.
Estimer la largeur d'une raie à mi-hauteur
La solution est graphique.
La largeur à mi-hauteur est de l'ordre de 0.020 nm, la résolution est donc de l'ordre de :
pages_rayon/etendue-faisceau-sexercer.html
Se servir la conservation de l'étendue de faisceau
Si l'optique est bien conçue (sans diaphragme gênant), l'étendue de faisceau se conserve. La traduction de donne un angle solide objet
. Plus la surface du collecteur est grande, plus le champ objet est réduit.
Comment varie le nombre de photons collectés avec la surface collectrice ?
Le nombre de photons collectés varie linéairement avec la surface collectrice. Le temps de pose varie donc en raison inverse :
. Plus la surface du collecteur est grande, plus le temps de pose est réduit.
Se servir des 2 questions précédentes.
Comparer la dépendance vis à vis de la surface collectrice de la taille du champ élémentaire et du temps de pose élémentaire.
La taille angulaire du champ élémentaire accessible varie comme , la surface collectrice. Le temps de pose élémentaire varie comme . Pour couvrir un champ donné, la durée totale ne dépend donc pas de la taille du télescope : le champ couvert en 1 pose de durée avec un petit collecteur sera observée par poses de durées avec un grand.
Notons que le télescope CFH, ouvert en 1980 avec un diamètre du collecteur de 3.6 m, s'est converti à partir des années 2000 vers l'imagerie grand champ.
pages_rayon/etendue-faisceau-sexercer.html
Revoir la page sur le montage afocal.
Le schéma équivalent correspond à un montage afocal suivi de l'optique de chambre
Remarque : pourquoi l'emploi des deux adjectifs, afocal et confocal, pour un même concept ? En fait, tout dépend du point de vue : si l'on s'intéresse aux dioptres, ils partagent un même foyer, d'où la dénomination confocale. Mais si l'on s'intéresse au faisceau, il passe de l'infini à l'infini, d'où la dénomination afocale.
Revoir (encore !) la page sur le montage afocal.
Par application directe des propriétés du montage afocal, le diamètre de la 2ème parabole comme celui des lentilles vaut le tiers de celui du primaire, soit 10 cm. Ce montage permet de réduire la taille des 6 lentilles de l'optique de chambre (intéressant en terme de poids et de coût). Mais, par conservation de l'étendue de faisceau, ces optiques travaillent sur des rayons d'inclinaison triplée.
Le schéma équivalent demande . L'étendue du faisceau s'écrit dont de 2 façons différentes, selon que l'on considère le montage réel ou le montage équivalent :
L'application numérique donne :
Simple application de la conservation de l'étendue de faisceau.
Par conservation de l'étendue de faisceau, la diminution du diamètre du faisceau par un facteur 3 s'accompagne par un accroissement dans un même facteur de l'ouverture.
Ainsi, le gain en taille doit être compensée par une meilleure qualité optique de ces lentilles travaillant avec rayons plus inclinés sur l'axe optique.
pages_rayon/etendue-faisceau-sexercer.html
Pourquoi le premier anneau de la tache de diffraction est-il noir? Que cela signifie-t-il ?
Le premier anneau sombre de diffraction est dû à une anticoïncidence de l'information collectée. Le faisceau est donc juste cohérent sur le pic central de diffraction.
Revenir à la définition : exprimer et .
La tache de diffraction, de taille angulaire , couvre un angle solide de l'ordre de :
(dans l'approximation, éminemment valide, des petits angles). Elle résulte de la collecte via un collecteur de surface :
L'étendue de faisceau s'écrit alors :
Ce qui est bien du même ordre de grandeur que .
pages_rayon/diaphragmes-sexercer.html
Faire un schéma.
Revoir la notion de nombre d'ouverture.
En confondant un angle et sa tangente, la lentille L1 est vue sous un nombre d'ouverture , la lentille L2 sous .
La question précédente suffit pour apporter la réponse.
La lentille L2 est vue sous un angle plus fermé. C'est elle qui limite l'ouverture du faisceau.
pages_rayon/diaphragmes-sevaluer.html
Examiner le tracé de rayons.
Identitifier la nature des rayons incidents, émergents. Que se passe-t-il entre les miroirs M1 et M2?
Le diaphragme est un diaphragme d'ouverture.
Se rappeler la définition de la pupille d'entrée, et le lien avec le diaphragme .
Quel lien encore entre diaphragme d'ouverture et diaphragme de champ ?
pages_rayon/coherence-interferometrie-sexercer.html
Rechercher le premier minimum de la fonction de visibilité.
Les diamètres stellaires sont respectivement :
Phe : 1/147 = 6.8 mas
Boo : 1/61 = 16.4 mas
Quelle hypothèse sous-tend le résultat ?
Un profil de type d'Airy suppose que le disque stellaire présente une brillance uniforme. Ici, ce n'est visiblement pas le cas.
donne directement la distance en parsec si la parallaxe est mesurée en seconde d'arc.
Les distances de ces étoiles, sont alors, en parsec puis en unité métrique :
Phe : 99 pc, .
Boo : 11 pc, 3.5 ...
Her : 118 pc, 36 ...
On en déduit ensuite les diamètres, en unité , puis en diamètre solaire et unité astronomique :
Phe : 10.4, soit 74 fois le diamètre solaire, ou 0.70 UA.
Boo : 2.9, ... 20.5 ... 0.19
Her : 42, ... 300 ... 2.8
Il s'agit là d'étoiles géantes ou supergéantes, et non de naines.
Est-ce normal d'avoir 2 courbes de visibilité différentes à 2 longueurs d'onde différentes ?
Que signifie la détermination de 2 diamètres stellaires différents pour 2 longueurs d'onde différentes ?
La visibilité dépend a priori de la longueur d'onde d'observation. Mais, dans la cas représenté, l'abscisse du graphe étant la fréquence spatiale, plus aucun paramètre ne dépend de la longueur d'onde. On en déduit que le diamètre stellaire sondé varie avec la longueur d'onde.
Pour cette étoile, la photosphère, de diamètre de l'ordre de 14 mas, est entourée d'une couche de diamètre 18.6 mas transparente à mais opaque à .
pages_collecter/elt-sexercer.html
Réfléchir au rôle de la diffraction par une sous-pupille, à celui des interférences entres sous-pupilles.
Mener l'analogie avec un réseau.
L'analogie avec un réseau de diffraction est immédiate. Une sous-pupille se comportant comme une fente individuelle d'un réseau de diffraction. Chaque sous-pupille diffracte le faisceau pour une tache image individuelle ; les interférences entre les sous-faisceaux conduisent à une taille angulaire .
Pour une comparaison aisée, imaginer que L2 et L5 ont les mêmes diamètre et focale que L1.
La recombinaison des faisceaux par L5 conduit à un système qui aurait des caractéristiques identiques à L1, mais en remplaçant par , c'est-à-dire, de façon équivalente, en remplaçant par . Tout se passe comme si on avait un gruyère avec moins de trous.
En exagérant la taille des lentilles L2 et L5, jusqu'à celle de L1, on peut comparer directement les situations de
Mener un raisonnement géométrique s'appuyant sur la figure.
S'intéresser à la localisation de l'énergie dans les pics d'interférence.
Lorsque , tout se passe comme si l'on avait réuni des collecteurs de diamètre plus important et qu'il n'y avait plus de trous dans le miroir équivalent. La pupille a été densifiée.
S'intéresser à la tache de diffraction.
S'intéresser au champ accessible, dimensionné par une tache de diffraction élémentaire
Que devient la tache de diffraction d'une sous-pupille ?
Le gain en termes de formation d'image est clair : on a reconstitué un plus grand miroir, et donc les images sont plus piquées (la fonction d'étalement du point est moins... étalée). Mais, comme la tache de diffraction d'une sous-pupille a été divisée par . Il en est de même du champ : le champ accessible par l'instrument a été réduit. Il y a toujours des compromis à faire.
pages_former/astrometrie-sevaluer.html
Réfléchir (!) à la formation d'image. Considérer une lentille équivalente pour se simplifier la vie.
L'échantillonnage en position se fait ici par pas de largeur .
Déterminer d'abord .
Déterminer en fonction de .
pages_former/spectrometrie-hr-sexercer.html
Rappel du montage afocal
Le grossissement du télescope doit transformer un faisceau parallèle de diamètre en un autre faisceau parallèle de diamètre . Le grossissement doit donc vérifier :
Relier la déviation de à celle de
Vu le grossissement, une déviation dans le champ objet se traduit par une variation dans le champ image. Le spectromètre, attaqué par une onde incidente déviée, renvoie la lumière dans une direction déviée d'autant. On retrouve donc pour cette déviation .
Le réseau envoie la lumière préférentiellement dans la direction obéissant à :
Différencier l'expression précédente.
Le réseau envoie la lumière préférentiellement dans la direction obéissant à :
A incidence fixée, la différentiation de la relation précédente donne :
D'où la relation de dispersion :
Faire le lien entre , et le grossissement .
La dispersion du réseau énonce :
La résolution souhaitée entraîne la nécessité de distinguer des éléments spectraux de largeur :
Par ailleurs, des variations de l'angle d'injection se traduisent par des variations de à hauteur de . On en déduit que les variations de l'angle doivent être contraintes par :
Et donc doit satisfaire :
L'application numérique donne (avec ) :
On en déduit que le champ objet doit être extrêmement réduit. La fibre du spectromètre HARPS sélectionne ainsi uniquement 1" sur le ciel.
Estimer la divergence en fonction de la longueur proposée et de l'angle .
Une déviation angulaire avec un bras de levier de longueur se traduit par une déviation linéaire .
L'application numérique donne . Ces 0.5 mm sont totalement négligeables devant la hauteur du faisceau de 20 cm.
pages_former/spectro-imagerie-sexercer.html
Pour fixer les ordres de grandeur, on peut traduire large intervalle spectral comme .
Les définitions de et sont :
En supposant , on vérifie bien que
Réfléchir à la signification du mot pixel. Combien d'informations spatiales élémentaires un CCD de 2k 2k peut-il traiter?
En supposant un rendement optimal, le nombre de pixels fournit le nombre d'éléments spectraux et spatiaux. Au mieux, pour un détecteur 2k 2k :
Mais comme on va souhaiter échantillonner une information spatiale ou spectrale sur au moins 2 pixels, et qu'il est prudent de laisser des pixels non éclairés entre chaque spectre, il faut plutôt compter :
Montrer que, vu les hypothèses :
Avec 20 pixels par information élémentaire, on a :
L'application numérique donne un nombre d'informations spatiales indépendantes limité à :
Le nombre de pixels étant limité, on ne peut pas simultanément gagner en résolutions spatiale et spectrale.
pages_former/interferometrie-spatiale-sexercer.html
Revoir le cours sur la diffraction
Une fréquence de 230 GHz correspond à une longueur d'onde de 1.3 mm.
Avec la correspondance 230 GHz / 1.3 mm, on calcule l'extension angulaire de la diffraction :
Avec une base :
Un objet étendu de diamètre 21" est dans le premier cas visualisé sur 1 élément de résolution, et sur dans le second.
pages_detecter/detection-physique-sexercer.html
On rappelle :
Avec le déphasage inconnu à un instant de référence choisi comme origine, le produit des signaux est proportionnel à :
Les 2 pulsations étant voisines, la deuxième composante a une fréquence bien plus basse que la première.
Que reste-t-il du signal précédent après élimination des hautes fréquences ?
La partie à basse fréquence, qui porte l'information du signal scientifique, à une translation en fréquence près, devient analysable à l'aide de l'électronique ad hoc, et peut être détectée en amplitude.
pages_detecter/reponse-temporelle-sexercer.html
Rappel : magnitude et luminosité varient dans le rapport :
Par application de la définition de la magnitude, le flux d'une étoile de magnitude vaut par rapport à celui d'une étoile de magnitude nulle.
Le temps de pose étant limité par le flux optimal sur un pixel, une pose de durée pour une magnitude nulle sera multipliée par pour une magnitude .
Soit 10 s pour une magnitude 2.5, 100 s pour une magnitude 5.
En application de ce qui précède, une pose de 20 s correspond à la magnitude vérifiant , càd .
Le temps de pose pour une étoile plus brillante que la magnitude 3.25 est plus court que 20 s : le temps est majoritairement dépensé à lire le détecteur.
La pose sur l'objet est nécessairement limitée à 160 s.
En application de ce qui précède (avec des pixels bien remplis), une pose de 160 s correspond à la magnitude vérifiant , càd .
Le temps de pose pour une étoile moins brillante que la magnitude 5.5 dépasse 160 s. En acceptant de remplir les pixels de façon très incomplète, le gain d'un facteur 10 en nombre de photoélectrons, donc de photons, correspond à un surcroît de 2.5 magnitudes. La limite en magnitude est donc de l'ordre de 8.
pages_detecter/reponse-geometrie-sexercer.html
Déterminer le nombre total de pixels pour 36 CCD.
1 CCD comporte 9 Mpx. Soit un côté équivalent de 3 kpx, s'il était de forme carrée. Donc, 6 CCD par côté représente 18 kpx.
Comme 0.94 deg vaut 3384", chaque pixel voit un champ de 0.188" de côté.
1 pixel codé sur 16 bits nécessite 2 octets pour le stockage.
Le nombre total de pixels vaut , soit 360 Mpx, d'où un taille de 720 Mo par image.
D'après la question précédente, 3 images pour 3 poses dans différents filtres. donnent 2.16 Go.
Le volume de données représentera finalement , soit 10.8 téraoctets.
pages_detecter/reponse-bruits-sexercer.html
L'échantillonnage du signal requiert de coder le niveau de signal à la moitié de la plus petite variation.
Déterminer l'amplitude relative du signal entre le niveau de codage et la valeur maximale
Ne pas introduire de bruit nécessite de coder comme niveau de signal minimal la moitié de la plus petite variation, soit 0.05.
Le rapport entre cette valeur et l'amplitude maximale vaut .
Le nombre de bits nécessaire vérifie :
(avec E codant le symbole partie-entière). Il faudrait donc coder le signal sur 25 bits, ce qui est beaucoup.
Même démarche que précédemment.
Le niveau de quantification requis est identique, mais l'amplitude maximale est cette fois-ci de 1000, et le rapport de 20000.
Un codage sur 15 bits suffit à rendre compte du signal filtré du continu.
pages_detecter/detection-rendement-sevaluer.html
Faire un schéma montrant les couches d'atmosphère traversées avant la détection.
Dans l'appliquette :
- sélectionner la 1ère case de la colonne 1-T (D1) et réaliser : =100-C1
- sélectionner la 1ère case de la colonne (lambda^-4) (E1) et réaliser : =(1000/A1)^4
pages_analyser/rapport-signal-bruit-sexercer.html
Au numérateur, on a tout simplement le signal, au dénominateur les bruits.
Il reste à identifier le terme et à interpréter la somme du dénominateur.
Les 3 termes du dénominateur sont :
- le bruit de photons ,
- le bruit de fond, , avec le nombre de photoélectrons par unité d'angle solide dus au fond,
- le bruit de lecture.
Déterminer l'importance relative des différents bruits.
Pour un objet très brillant, le bruit de photons de la source va dominer devant les autres bruits :
Dans le cas d'un objet peu lumineux, le bruit de photons de la source est négligeable. En l'absence d'autres données, il n'est pas possible de discriminer parmi les 2 autres sources de bruit.
Dans un cas, , dans l'autre .
Comment le nombre de photoélectrons collectés varie-t-il avec le diamètre du collecteur ou le temps de pose ?
Si l'on note le diamètre du collecteur et le temps de pose, il est immédiat que varie comme la surface collectrice et comme .
On en déduit les dépendances respectives :
diamètre collecteur | temps de pose | |
source lumineuse | ||
source faible |
Dépendance envers ou du rapport signal à bruit.
pages_analyser/bruit-photons-sexercer.html
Avec photons, le rapport signal à bruit du bruit de photons vaut .
Le rapport signal à bruit et la performance requise sont tous deux exprimés dans le même système d'unité relative. Le nombre de photons doit donc vérifier :
COROT doit collecter au-moins photons pour atteindre la sensibilité requise.
Avec photons, on obtient seulement photoélectrons.
Avec photons, on obtient seulement photoélectrons. L'égalité précédente doit donc être vérifiée par et non par . Il faut donc collecter photons.
1 jour = 86400 s = 1440 min
Le nombre de photons en 1 min, par rapport à celui détecté en 5 jours, vaut :
Avec un nombre de photo-électrons en accord, tenant compte du rendement de 25% (soit photo-électrons), la performance devient .
pages_analyser/bruit-photons-sevaluer.html
Repérer un intervalle de temps où le signal n'évolue pas à basse fréquence, et mesurer l'amplitude crête à crête.
Revoir les propriétés du bruit poissonnien.
pages_analyser/shannon-sexercer.html
L'ouverture du faisceau est déterminée, ainsi que la résolution angulaire. Ceci permet de déterminer la résolution spatiale dans le plan focal.
L'ouverture du faisceau étant déterminée, la focale du télescope est connue (8 m) ainsi que la résolution angulaire, limité par le seeing , la taille linéaire dans le plan focal est fixée :
La taille des pixels doit être au moins moitié moindre que la tache de seeing, il faut donc des pixels de .
Déterminer la tache de diffraction à 2 micromètres.
Identifier les paramètres fixes, de ceux qui le sont moins...
La tache de diffraction vaut . Le gain en résolution linéaire dans le plan focal est donc d'un facteur 5.
Comme le diamètre du télescope est fixée, de même que la taille minimale des pixels, la seule variable d'ajustement est l'ouverture du faisceau. Elle doit être diminuée d'un facteur au-moins 5, passant de f/4 à f/20.
pages_traiter/analyse-tf-sexercer.html
Avec les notations du cours. Poser la dimension de la variable , celle de la fonction . Et en déduire les dimensions de et
Avec les notations du cours, et en notant entre crochets les dimensions. , donc la définition de la TF donne : .
On en déduit l'homogénéité :
Passer à la limite des grandes valeurs de .
Avec un signal purement sinusoïdal d'amplitude et de fréquence , la définition donne :
Pour grand devant , si est différent de , l'intégrale tend vers 0, alors que pour , on retrouve :
Au facteur 1/2 près, dû au fait que la TF en est également non nul, la normalisation en par rapport à la définition de la TF usuelle permet de retrouver dans le spectre l'amplitude du signal sinusoïdal.
Ecrire la relation de Parseval-Plancherel et faire le changement de variable de à .
Avec les notations analogues au cours , et en tenant compte des propriétés de la TF, on a :
en se servant de la relation de Perseval, et du fait que l'énergie est rapportée sur fréquences réelles entre les fréquences nulle et . Avec le changement de notation : , et en tenant compte de :
On en déduit :
Le bruit dans le spectre de Fourier diminue comme la racine carrée du nombre de points de mesure.
pages_traiter/analyse-tf-signal-sexercer.html
Courage, ce n'est qu'un peu de calculs sur les sinus.
Estimer à une date de l'échantillonnage
Supposer
On suppose, sans restreindre la généralité, que le signal est de forme sinusoïdale, et l'on choisit l'origine des temps de façon à avoir la p-ième date de l'échantillon vérifiant .
On en déduit :
Au signe près, auquel n'est pas sensible le spectre de puissance (TF), cette égalité est assurée à toute date de l'échantillonnage.
Jusqu'à quelle fréquence n'y aura-t-il pas de confusion?
La 1ère confusion va apparaître pour les pulsations telles que , càd bien-sûr juste au voisinage supérieur de la fréquence de coupure.
pages_traiter/analyse-tf-bruit-sexercer.html
L'incertitude en vitesse correspond à un niveau de bruit.
Le niveau de bruit et le rapport signal à bruit sont simplement ... inversement proportionnels
Le niveau de signal est inversement proportionnel au rapport signal à bruit. La performance avec un rapport signal à bruit de 200 vérifie donc :
D'où le niveau de bruit : 110 cm/s.
Le rapport signal à bruit évole comme la racine carrée du nombre de pose élémentaire,
Le rapport signal à bruit évoluant comme la racine carrée du nombre de pose élémentaire, ce dernier doit vérifier :
Soit 484 poses élémentaires de 3 minutes, soit environ 24 h de données. Elles ne pourront être atteintes qu'en 3 nuits environ.
7 h font combien de minutes ?
La nuit d'observation de 7 h comprend 420 poses élémentaires de 1 min. Le rapport signal à bruit évoluant comme la racine carrée du nombre de pose élémentaire, la performance en 1 min vaut :
pages_ccd/ccd-signal-bruit-sexercer.html
Identifier le signal maximal, le bruit minimal.
Le rapport maximal est fixé par le signal maximal, 80000, et le bruit minimal. Les 13 électrons de lecture sont négligeables devant le bruit de photoélectrons. Il vaut donc environ .
Déterminer l'entier maximal qui peut être codé sur 14 bits.
Un signal numérisé sur 14 bits est limité à . Le gain vaut 80000 / 16384 = 4.9 électrons/ADU.
Il s'agit simplement d'une application numérique !
Le bruit de quantification vaut électrons. Il est effectivement négligeable.
Le bruit en entrée de l'amplificateur vaut le bruit en sortie divisé par le gain de l'amplificateur.
Le bruit en sortie vaut, par application de la définition intégrale et avec les hypothèses simplificatrices :
Le bruit en entrée vaut donc :
Traduit en électron, cela donne, avec un facteur de conversion , 2 électrons.
Ce bruit est négligeable devant le bruit de lecture.
pages_oa/seeing-sexercer.html
Le Soleil est une étoile moyenne. Quant à Jupiter : et .
Traduire le diamètre solaire en UA peut-être utile.
Le diamètre du Soleil, traduit en UA, vaut . A 1.3 pc, le diamètre angulaire vaut donc ".
Pour Jupiter, le diamètre angulaire vaut .
Le seeing dans le visible est de l'ordre de 1"
Les diamètres angulaires stellaire et planétaire valent typiquement respectivement 10" et 40". Ces valeurs sont à comparer au seeing de l'ordre de 1".
Il apparaît que le seeing reste bien inférieur au diamètre angulaire planétaire : l'image planétaire ne va pas être sensiblement perturbée. Autrement dit : comme , pas de scintillation dans le cas planétaire.
pages_oa/optique-adaptative-sexercer.html
Diamètre angulaire de la tache de diffraction :
Diamètre de cohérence :
La table ci-dessous résume les résultats. Le gain comptabilise l'accroissement en résolution, qui varie comme .
longueur d'onde | diam cohérence | sans OA | avec OA | gain |
---|---|---|---|---|
(cm) | ||||
2.2 | 60 | 0.90" | 0.067" | 183 |
5.0 | 150 | 0.77" | 0.152" | 25 |
Réfléchir d'une part aux caractéristiques de la turbulence, d'autre part aux propriétés de la tache de diffraction.
A plus courte longueur d'onde, d'une part la résolution ultime par la diffraction du primaire devient très fine, d'autre part le diamètre de cohérence de l'atmosphère décroît. Actuellement, les systèmes d'OA ne comportent pas assez d'actuateurs pour corriger efficacement dans le visible et le très proche IR.
pages_oa/optique-adaptative-resultats-sexercer.html
Que dit le théorème d'échantillonnage de Shannon ?
Le théorème d'échantillonnage de Shannon énonce qu'il faut 2 informations par élément de diamètre 10 cm. Pour une pupille de diamètre 800 cm, le nombre d'actuateurs est donc de l'ordre de .
évolue comme
Avec une dépendance chromatique pour évoluant comme , le diamètre de cohérence passe à 70 cm. Le nombre d'actuateurs nécessaires est alors de l'ordre de 130, ce qui est à l'heure actuelle faisable (2003).
S'intéresser au temps de cohérence.
Le temps de cohérence évolue comme . Par conséquent, il est bien plus long dans l'infrarouge par rapport au visible, et donc la fréquence de fonctionnement de l'OA peut être moindre.
pages_infra-rouge/observation-infrarouge-sexercer.html
Interpréter la figure en s'appuyant sur le codage de couleur de la température.
Sur ce cliché, les anneaux tournent dans le sens horaire. Le codage de couleur indique une température de l'ordre de 83 K. Après leur passage dans l'ombre de la planète, ils émergent à une température inférieure, d'ordre de 80 K.
Estimer la mesure du secteur angulaire sur lequel la température des anneaux retrouvent la valeur chaude d'équilibre.
Très grossièrement, le secteur angulaire sur lequel la température des anneaux retrouve la valeur d'équilibre représente de l'ordre de 45 degrés, soit 1/8 de période. La constante de temps du réchauffement est donc de l'ordre de grandeur de l'heure.
pages_fourier/fts-interferogramme-sexercer.html
Les 2 ondes peuvent-elles être cohérentes ?
On rappelle :
Les 2 ondes monochromatiques sont incohérentes entre elles. Le signal d'interférence s'écrit donc, pour les raies supposées monochromatiques, comme somme des intensités :
On en déduit :
On y reconnaît un terme d'interférence, de fréquence spatiale , modulé par une enveloppe de fréquence .
Les nombres d'ondes respectifs valent 16961 et 16978 , soit une demi-différence de .
La fréquence spatiale des battements, d'après ce qui précède, vaut , la période spatiale est donc :
D'où l'allure de l'interférogramme :
pages_planetologie-histoire/questions-histoire.html
La lunette de Galilée, qui a permis, en particulier, de voir le sol de la Lune, la forme ronde de Jupiter et le mouvement de ses satellites.
pages_planetologie-histoire/questions-histoire.html
Il y en avait 16 en 1655 et 6 en 1780.
Elles ne sont pas visibles à l'oeil nu.
Sa présence a été prévue théoriquement avant d'etre observée, à cause des perturbations qu'elle crée sur l'orbite d'Uranus.
pages_planetologie-histoire/questions-definitions.html
Les satellites, par exemple.
Les astéroïdes
Ceres, entouré des astéroides, ou Pluton, entouré des objets du disque de Kuiper.
Les planètes naines.
Non, une planète peut s'être formée autour d'une étoile et avoir été éjectée dans la milieu interstellaire Elle devient alors invible.
pages_planetologie-histoire/exercices-exoplanetes.html
à la sensibilité des techniques et des instruments
Passer l'axe des x en échelle log
La distribution montre deux pics. La population mélange des planètes découvertes avec des techniques différentes, les deux pics peuvent donc être un biais observationnel. Il faut regarder comment ces populations se distribuent en fonction d'autres paramètres, pour en savoir plus.
pages_planetologie-formation/exo-mmsn.html
On peut considérer que la masse de chaque planète était initialement uniformément répartie entre la moitié de la distance jusqu'à la planète précédante (plus proche du Soleil) et la moitié de la distance jusqu'à la planète suivante (plus éloignée du Soleil). Dans ce cas, on peut facilement estimer la densité surfacique moyenne de matière dans l'anneau défini par ces 2 limites. Attention: On prendra en compte la ceinture d'astéroides, en considérant que la masse totale de celle-ci (environ 1022kg) se situe à une distance moyenne de 3UA du soleil.
On a ici besoin de seulement 2 informations essentielles: la position et la masse de chaque planète du système solaire. Ces informations peuvent être très facilement trouvées sur Internet. Une fois qu'on a cela, la procédure est simple: on part de la planète la plus proche du soleil, donc Mercure, et on repartit la masse Mmer de cette planète entre 0.5amer et 0.5*(amer + avenus).
Dans ce cas on obtient donc pour Mercure
Ensuite pour Venus, on obtient
Ensuite pour la Terre, on obtient
Ensuite pour Mars (en considérant que la masse de Mars s'étendait jusqu'à mi-chemin de la distance jusqu'à la ceinture d'astéroïdes):
Pour les astéroïdes
Pour Jupiter (en considérant que la masse de matière solide de Jupiter est d'environ 30MTerre)
Pour Saturne (en considérant que la masse de matière solide de Saturne est d'environ 25MTerre):
Pour Uranus (en considérant que la masse de matière solide d'Uranus est d'environ 11MTerre):
Pour Neptune (en considérant que la masse de matière solide de Neptune est d'environ 14MTerre, et en considérant que la matière de Neptune étant étendue jusqu'à 35UA):
...Et on peut constater qu'on est assez loin d'obtenir une belle courbe régulière....
pages_planetologie-formation/exo-estimation-veplanetesimal.html
Pour un corps sphérique, la vitesse de libération à la surface s'exprime sous la forme:
A.N.: La densité de la Terre est de 5.54g/cm3, celle de Jupiter de 1.34 g/cm3, ce qui donne donc, avec leur rayon respectifs de 6400km et de 71000km, vlib(Terre)=11.2km/s et vlib(Jup)=59.5km/s. Pour un corps de 1km, si on suppose une densité typique d'un astéroïde (3g/cm3), on obtient vlib = 1.28m/s. On remarque que, pour un corps de densité astéroïdale, on peut appliquer la relation simplifiée (et très pratique!):
pages_planetologie-formation/exo-croissance-planetesimaux.html
On peut commencer par estimer, pour un planétésimal de taille r, quel est le nombre d’autres planétésimaux (de même taille r) qu’il va rencontrer par unité de temps. Pour cela, on peut supposer que ce planétésimal avance en ligne droite à la vitesse dans un disque d’épaisseur (où a est la distance au soleil eti est l'inclinaison des orbites de tous les planétésimaux)
Pendant un temps dt, un planétésimal balaye le volume . Il faut maintenant estimer le nombre de planétésimaux contenus en moyenne dans ce volume. Ce nombre est donné par (m étant la masse d'un planétésimal). Le terme en (r + r)2 vient du fait que même des corps dont le centre n'est pas dans le volume balayé par le planétésimal considéré peuvent être impactés par lui en raison de leur taille non-nulle r. En remplaçant vcol par e.vKep, e/i par 2 et m par 4/3ρπr3 on obtient un taux de collision de , où Ωk est la vitesse angulaire orbitale. Comme on suppose que tous les planétésimaux ont toujours la même taille, on a donc, qu'à chaque collision, le planétésimal accrète 1 fois sa propre masse. Donc , ce qui donne, en remplaçant dN/dt par la formule précédente et (1/m)*(dm/dt) par (3/r)*(dr/dt), la formule . On remarque que cette formule très simple ne dépend ni de e, ni de i, ni de la taille des planétésimaux. Et, à 1UA, cela donne un taux de croissance , soit environ 2.5 millions d'années pour former un corps de 1000km.
pages_planetologie-formation/exo-datation-meteoride.html
Pour retomber sur l'équation du cours, on calculera d'abord, pour au moins 2 points du graphe, les valeurs de et . Si tout se passe bien, on obtiendra alors une valeur pour le rapport . Il n'y a hélas pas de solution analytique à cette équation. Pour trouver la valeur de t, on pourra s'aider d'un solveur numérique, comme par exemple celui-ci. Conseil: pour faciliter l'utilisation du solveur, on peut choisir d'exprimer t en milliards d'années.
pages_planetologie-formation/exo-vidage-embryons.html
Ceci revient, en pratique, à comparer, pour une masse donnée, la masse totale disponible dans la zone d’alimentation à la masse de l’embryon lui même.
pages_planetologie-petitscorps/exo-eris-masse-densite.html
m = (1.66 ± 0.02) × 1022 kg
L'erreur est calculée en sommant linéairement les erreurs dues aux deux paramètres, masse et rayon.
ρ = 2.53 ± 0.07 g.cm-3, Eris est vraisemblablement constitué d'un mélange de glace (env. 1 g.cm-3) et de minéraux (env. 3-5 g.cm-3)
pages_planetologie-petitscorps/exo-flux-micrometeorites.html
pages_planetologie-petitscorps/exo-coma.html
L(H2O) = 3 × 104 km L(OH) = 105 km L(H) = 12 × 106 km
pages_planetologie-petitscorps/exo-datation.html
Dans le graphique représentant 87Sr/86Sr en fonction de 87Rb/86Sr, les points forment une droite de pente 0.0659 ± 0.0001. On en déduit un âge de 4.49 ± 0.01 milliards d'années.
pages_planetologie-petitscorps/ptscorps-exo1.html
La porosité =
pages_planetologie-petitscorps/ptscorps-exo2.html
Les paramètres orbitaux sont décrits ici
Représentez de façon approchée, dans le plan Soleil-Comète-Terre, les positions de ces trois astres le 6 novembre.
pages_planetologie-surface/applicratere.html
10 km pour Mercure, 3.2 km pour la Terre, 17.5 km pour la Lune et 8 km pour Mars. Voir aussi l'exercice Catégorie de cratères.
La présence d’une atmosphère freine l’impacteur ce qui a pour effet de réduire sa vitesse d’arrivée à la surface et donc les effets de l’impact (notamment la taille du cratère et l’amplitude du séisme qu’il génère).
La réponse est -0.22. Voir la page Processus de cratérisation.
La densité de la Terre est .
L'impacteur qui a donné naissance à Meteor Crater faisait environ 50 m de diamètre. La profondeur du cratère est de l’ordre de 180 m.
La densité de la Lune est .
L'impacteur qui a donné naissance au cratère Tycho faisait probablement entre 8 et 10 km de diamètre. Cet impact a eu lieu il y a seulement 109 millions d'années. Tycho a une profondeur d’environ 4.8 km.
pages_planetologie-surface/applimigration.html
où est la dimension d'une distance et celle d'un temps.
Le taux de sublimation est si rapide que ni le bombardement micro-météoritique, ni le « ion sputtering » ne peuvent rivaliser aux basses latitudes de Callisto, Ganymède et, peut être, d’Europa. Aux hautes latitudes d’Europa, en revanche, ce phénomène est a priori négligeable.
pages_planetologie-surface/applierosion.html
Lorsque les grains sont suffisamment grands, la vitesse seuil nécessaire à leur mise en mouvement augmente en sqrt(d). Dans ce cas, le vent s’oppose simplement à la gravité (c’est-à-dire au poids des grains). Lorsque les grains sont petits, les forces de cohésion (entre particules ou avec le sol) ne sont pas négligeables et prennent même le dessus sur la gravité ; la vitesse seuil nécessaire à la mise en mouvement des petites particules varie alors en 1/d (approximation). A la transition entre ces deux régimes, il existe une taille limite de grain pour laquelle la vitesse seuil de mise en mouvement est minimum.
Dans l'ordre: Vénus, Titan, Terre, Mars. Les vitesses seuil de mise en mouvement des grains sur Vénus et Titan sont nettement plus faibles que sur Mars et la Terre. Ceci est lié au fait que les densités atmosphériques de Vénus et Titan sont significativement plus grandes. Sur Vénus, de plus, la viscosité de l’atmosphère est élevée et sur Titan la pesanteur est faible (7 fois plus faible que sur Terre).
Vénus. Sur Vénus, la taille des grains les plus facilement transportables (c’est-à-dire requérant la vitesse d’écoulement la plus faible pour être mis en mouvement) est d’environ 94 μm (le minimum de la courbe) contre 160 μm sur Titan, 220 μm sur la Terre et 1100 μm sur Mars.
Titan - Atmosphère Vénus – Glace d’eau.
Cette taille correspond à la taille des grains les plus facilement transportable par le vent sur Terre (le minimum de la courbe est atteint pour un diamètre de grain de 220 μm).
En raison de la plus grande densité de l’eau par rapport à l’air, l’activité fluviale sur Terre déplace plus facilement (seuil d’entrainement plus petit) des grains en moyenne plus gros (le minimum de la courbe est atteint pour un diamètre de grain de 560 μm) que l’activité éolienne.
L’activité fluviale sur Titan déplace plus facilement (seuil d’entrainement plus petit) des grains en moyenne plus gros, que ceux-ci soient composés de glace d’eau ou de matière organique (le minimum de la courbe est atteint pour un diamètre de grain de 400-500 μm) que l’activité éolienne.
Selon ce modèle, le transport fluvial est plus facile à initier sur Titan.
La faible pesanteur de Mars rend le mouvement des particules les plus grandes plus facile. Pour les petits grains, en revanche, les forces de cohésion qui s’opposent au transport fluvial sont les mêmes sur la Terre et sur Mars.
Les seuils de vitesse d’écoulement requis pour la mise en mouvement des grains sédimentaires sur Mars sont particulièrement élevés. On rappelle que la vitesse de l’écoulement (lorsqu’il est turbulent) à 1 m du sol est liée à la vitesse de cisaillement par la relation (approximative) : Il faut donc, à 1 m du sol, un vent minimum de 37 m/s soit de plus de 130 km/h pour déplacer des particules sur Mars! Sur la planète rouge, les sédiments sont donc transportés essentiellement pendant des épisodes de tempête.
pages_planetologie-surface/exo1.html
Ce graphe montre la relation inverse entre la gravité et la taille de cratère marquant la transition entre cratère simple et cratère complexe sur Terre, la Lune, Mars et Mercure. Sur Terre, la transition entre cratère simple et cratère complexe de fait pour un diamètre transitoire d'environ 3 km.
pages_planetologie-surface/exo2.html
Attention aux unités !
avec ( en , en , en et en ) AN:
Le choc libère une énergie équivalente à un séisme de magnitude sur l’échelle de Richter. Si la météorite était composée de fer :
sont nécessaires à la vaporisation totale du projectile soit 25% de l’énergie cinétique.
La formule est dans le cours !
Le diamètre du cratère transitoire est de 19.4 km.
Il s’agit d’un cratère complexe dont le diamètre final sera d’environ 23 km et la profondeur de 2-3 km.
Exprimer le volume d’un bol de diamètre et de profondeur .
Le volume d’un bol de diamètre et de profondeur est égal à avec . Le volume de matière déplacé est environ soit .
Le rayon de la Lune est 1737 km.
Si une couche d’éjectas de 5 m d’épaisseur recouvre toute la Lune, le volume total de dépôts est : . Le nombre d’impacts nécessaires pour créer cette couche est / .
pages_planetologie-surface/exo3.html
La formule est dans le cours. On rappelle que la densité de la surface de la Lune est . Son accélération de pesanteur est 1.62 .
Le cratère transitoire aura une taille d’environ 5.7 km. Il sera donc de type simple et le diamètre final du cratère sera d’environ 7 km.
La trajectoire d'un éjecta est balistique. On peut aisément montrer que la portée de cette excavation est où est la vitesse initiale de l'éjecta et l’angle d'éjection. En prennant °, on trouve que les roches excavées sont éjectées à environ 150 km du cratère principal.
L'accélération de pesanteur sur Mercure est 3.7 .
Sur Mercure, le cratère principal aura un diamètre final de près de 6 km et la portée de l'excavation sera d'environ 70 km (pour un angle d'ejection de 45°). Plus la gravité est forte, plus les cratères secondaires sont proches du cratère principal.
pages_planetologie-surface/exo4.html
L’épaisseur du régolite lunaire augmente avec son âge. De plus, le taux de croissance de ce régolite était beaucoup plus important dans la jeunesse du Système solaire, avant 3.5 milliard d’années, quand le flux météoritique était plus élevé. Ces résultats ont été obtenus à partir d’observations radar de la Lune acquises à la longueur d’onde de 70 cm depuis l’Observatoire d’Arecibo (Porto Rico).
pages_planetologie-surface/exo5.html
La formule est dans le cours.
En utilisant la formule (page sur l'érosion éolienne) , la taille optimale des grains susceptibles d'être déplacés est de 4 mm.
Pour déplacer un grain de 4 mm de diamètre sur Triton, il faut une vitesse de cisaillement minimum de 12.7 m/s (obtenue via la formule ) et donc une vitesse de vent à 1 mètre de la surface d’environ 330 m/s (obtenue via la formule ) avec égal à 1/30 dela taille des grains).
Pour former des dunes il faut que le vent à 1 m du sol soit significativement plus fort que la vitesse du son. De tels vents existent sans doute mais à plusieurs dizaines de mètres au-dessus de la surface. Il est donc peu probable de trouver des dunes sur Triton sauf si ce satellite avait une atmosphère plus dense dans le passé.
Elle est produite par impact ou cryo-volcanisme.
pages_planetologie-surface/exo32.html
On rappelle: viscosité de l’eau : 1540 10-6 Pas, densité de l’eau : 1000 kg/m3, densité du quartz : 2650 kg/m3.
Environ 5 jours.
On rappelle: densité de l’argile: 1 700
Plus de 1000 jours !
Toute agitation remettant en suspension les particules très fines, comme les argiles, ces dernières ne devraient jamais sédimenter. En fait elles floculent, forment des agrégats plus gros qui finissent par décanter rapidement.
pages_planetologie-surface/exo6.html
Le rayon de Io est 1822km.
Les 9 volcans produisent 9 * 50 km3/an, ce qui correspond à une couche de km/an, soit un renouvellement de surface d'environ 1 cm/an.
Avec un taux de renouvellement d’environ 10-2 m/an il faut environ 105 soit 100 000 ans pour renouveler la surface sur 1 km.
pages_planetologie-surface/sevaluer-ex1.html
On négligera l’atmosphère de Mars
On rappelle que l’accélération de pesanteur sur Mars est .
pages_planetologie-thermique/short-ex.html
Se souvenir de la signfication physique de la loi hydrostatique : quelle est l'origine physique de la pression atmosphérique ?
Utiliser la définition de la masse volumique dans un milieu homogène.
Considérer la forme intensive de l'équation d'état du gaz parfait, à savoir .
Constater l'égalité obtenue précédemment entre et l'échelle de hauteur telle que définie dans le cours.
pages_planetologie-thermique/short-ex.html
Utiliser la formule donnant en fonction de la température effective de l'étoile, et faire le rapport avec son application au cas de la Terre autour du Soleil.
Utiliser la même méthode qu'à la question précédente, mais en ne simplifiant pas l'albédo terrestre.
Raisonner en températures d'équilibre ou en flux stellaire est strictement équivalent ici.
Utiliser la loi de Wien rappelée dans le cours.
pages_planetologie-thermique/temps-radiatif.html
Question de cours
Ne pas oublier que le flux est émis dans les deux demi-espaces (vers le haut et vers le bas) !
Penser à effectuer un développement limité.
Exprimer d'abord la masse de cette colonne d'air au moyen de la loi hydrostatique (voir exercice sur l'échelle de hauteur).
Effectuer un bilan d'énergie sur la colonne d'atmosphère considérée.
Appliquer des arguments d'analyse dimensionnelle à l'équation différentielle obtenue précédemment.
Quelle serait la nouvelle température d'équilibre si la nuit devait durer pour toujours ? Comment évoluerait alors la température de l'atmosphère ?
pages_planetologie-thermique/calculs.html
Ce sont des applications directes des définitions.
Chercher parmi les espèces présentes celles qui absorbent les UV, et comparer leurs abondances à celle des espèces qui rayonnent bien dans l'IR thermique.
Les bons absorbants en UV sont l'ozone et le dioxyde de soufre, tandis que le dioxyde de carbone, la vapeur d'eau, le méthane et le monoxyde de carbone sont de bons gaz à effet de serre. L'existence d'une stratosphère est donc possible, même si probablement moins marquée que sur Terre du fait du plus grand effet de serre.
Applications directes des formules du cours.
-6,8 K/km. Le gradient adiabatique humide sera inférieur en valeur absolue.
Températures importantes : au sommet de la troposphère, au sommet de l'atmosphère (voir le modèle à deux couches).
pages_planetologie-dynamique/coord-sphere.html
Projeter les vecteurs sur les axes X,Y et Z.
Calculer en gardant en tête que est un vecteur local qui dépend de la position, donc varie avec les coordonnées .
Exprimer , et en fonction des angles et .
Utiliser les résultats des deux questions précédentes qui donnent les expressions de , , , , et .
pages_planetologie-dynamique/equations-dynamique.html
C'est le même exercice que celui sur la force de Coriolis, mais sans négliger la composante .
pages_planetologie-dynamique/equations-dynamique.html
Aussi dans ce cas, c'est un exercice similaire à celui de la force de Coriolis.
pages_planetologie-dynamique/equilibres-dynamiques.html
pages_planetologie-dynamique/fluide-dynamique-tester-tut1.html
Distinguer deux cas, selon que ou .
Calculer le nombre de Rossby et conclure.
La latitude du lieu étant inconnue, donner un encadrement de .
Utiliser l'équation de Navier-Stokes simplifée pour le cas cyclostrophique.
L'approximation cyclostrophique équilibre le gradient de pression avec la force d'inertie (centrifuge ici).
Penser à intégrer d'abord de à , puis de à . Utiliser les expressions de pour chaque domaine avant de simplifier.
Il peut être utile de faire apparaître la vitesse du son (dans l'approximation isotherme) dans les expressions obtenues.
pages_planetologie-dynamique/fluide-dynamique-tester-tut2.html
Utiliser la loi des gaz parfaits.
La durée du jour sidéral martien est de .
Comme on raisonne en ordre de grandeur, on peut estimer ce gradient comme la différence de pression divisée par la distance radiale caractéristique.
Appliquer la relation du cours définissant l'approximation géostrophique, à savoir l'équilibre entre le gradient de pression et la force de Coriolis.
Pour le sens de rotation, le raisonnement est identique au cas terrestre.
Calculer le nombre de Rossby pour répondre à la question demandée.
Attention : le vent vertical se déduit de la conservation de la masse au sein de la dépression !
pages_planetologie-dynamique/fluide-dynamique-tester-tut3.html
Il pourra être utile de connaître la distance sous-tendue par un degré d'angle dans la direction d'un méridien.
Pour des différences de hauteur , on peut linéariser l'équation hydrostatique décrivant la diminution de pression avec l'altitude : .
Exprimer la petite différence en utilisant le fait que .
Utiliser la définition de l'échelle de hauteur pour faire apparaître .
Utiliser la loi des gaz parfaits sous la forme pour éliminer de l'équation géostrophique.
Appliquer la formule précédemment obtenue.
Intégrer verticalement l'équation précedente.
pages_planetologie-dynamique/setester-bases.html
L'énergie reçue en haut de l'atmosphère reste la même, avec ou sans atmopshère. Il n'y a pas d'atmosphère pour transporter un excès d'énergie, la conservation de l'énergie s'applique donc au niveau local : les deux courbes se superposent.
La réponse est résumée dans le schéma suivant.
Remarquons tout de même l'influence des continents et des océans sur cette circulation. Même en en tenant compte, la réalité s'avère beaucoup plus complexe que cette explication simple quoique juste, car il faut tenir des variations saisonnières et interannuelles, de la circulation océanique, de modes propres de l'atmosphère, etc ...
Voir cours.
Si la vitesse est nulle, la dérivée lagrangienne est égale à la dérivée eulérienne. En effet, s'il n'y a pas de mouvement du fluide, suivre la particule ou rester en point fixé revient au même.
Un vortex de lavabo est-il un système géostrophique, cyclostrophique ou aucun des deux ?
Le nombre de Rossby associé à l'écoulement dans un lavabo avec les ordres de grandeurs habituels est très grand devant 1. L'écoulement y est donc cyclostrophique, sans influence mesurable de la force de Coriolis et donc sans dépendance avec l'hémisphère où le lavabo se trouve.
Il n'en reste pas moins votre ami. Aimez-le malgré tout.
pages_planetologie-dynamique/exo-coriolis.html
La force de Coriolis s'exercera sur la gauche du vecteur vitesse puisque le vecteur rotation est dirigé vers le sol. Il faudra donc envoyer la balle vers la droite du réceptionneur. La trajectoire de la balle sera courbe telle que vue par une personne dans la manège.
Une autre manière de le concevoir est de voir la situation dans un référentiel fixe galiléen : la trajectoir de la balle sera rectiligne et le réceptionneur se déplacera vers elle en restant sur la manège.
Votre vitesse s'ajoute à la vitesse de la balle au moment où vous la lancez : il faut donc lancer à la gauche du réceptionneur cette fois-ci.
La gêne ressentie serait due à une force de Coriolis trop grande lorsqu'ils se déplacent sur la surface interne de l'anneau ...
Soit le rayon de l'anneau et sa vitesse de rotation. On impose un gravité artificielle, c'est-à-dire une force centrifuge égale à 9.81. On a donc la relation 9.81 .
Supposons que la vitesse maximale des astronautes dans l'anneau soit atteinte lorsqu'ils courent le long de l'anneau. Cette vitesse est perpendiculaire à l'axe de rotaion, et dirigée vers le bas ou vers le haut relativement à l'astronaute, c'est à dire qu'elle s'ajoute ou se soustrait à son poids. Un champion olympique peut atteindre 10 , on supposera ici que la vitesse maximale que peut atteindre un astronaute dans l'anneau est moitié moindre soit 5 . On impose également que son poids ne doit pas varier de plus de 20 % lorsqu'il se déplace (imaginez courir et un cinquième de votre poids se rajoute à vous : c'est désagréable mais encore supportable).
On obtient donc une magnitude de la force de Coriolis maximale de . Avec un critère de 10 % de variation du poids, on obtient la relation
En utilisant , on obtient , soit un rayon minimal de 254 m.
pages_planetologie-habitabilite/emballement.html
Il y a 1,4 . 1021kg d'eau à la surface de la Terre.
La relation entre la pression atmosphérique et la masse de l'atmosphère peut se déduire de la loi fondamentale de la statique des fluides : .
On peut faire l'hypothèse (simpliste) que la capacité thermique massique de la vapeur d'eau est constante et vaut .
La chaleur latente de vaporisation de l'eau à Celsius est d'environ .
Question 1: On fera l'hypothèse que le Runaway Greenhouse est initié à partir de 0.95 Unités Astronomiques.
Question 2: On pourra estimer le temps nécessaire pour que la planète ait accumulé un surplus de flux solaire (par rapport au flux critique du Runaway Greenhouse) suffisant pour passer d'un état d'équilibre (entrée du Runaway) à un autre (sortie du Runaway). On pourra de ce fait utiliser la différence d'énergie (entre les deux états d'équilibre) calculée dans la question précédente.
On pourra faire l'hypothèse que la densité moyenne des couches chauffables (, soit essentiellement la croûte et la lithosphère) est de l'ordre de , et que leur capacité calorifique moyenne est de l'ordre de .
pages_planetologie-habitabilite/moist.html
On pourra utiliser le taux d'échappement exprimé en moles/seconde.
On rappelle qu'il y a 1,4 . 1021kg d'eau à la surface de la Terre.
On pourra utiliser le rapport de mélange de vapeur d'eau dans la stratosphère issu du profil vertical de vapeur d'eau (figure -- 0.99 AU).
Le profil de vapeur d'eau à 0.95 UA (modèle 3D) correspond au dernier état d'équilibre de la Terre avant de passer en Runaway Greenhouse.
La stratosphère de la Terre à 0.95 UA (modèle 3D) est située au delà de 80 km comme l'indique le profil de vapeur d'eau.
pages_planetologie-habitabilite/lowmass.html
Estimez la durée de vie de telles étoiles. On pourra utiliser cette courbe.
pages_planetologie-habitabilite/exofinal.html
On rappelle que la luminosité L d'une étoile de la Séquence Principale est proportionnelle à sa masse au cube.