Overblog Suivre ce blog
Editer la page Administration Créer mon blog
/ / /

Avec l'aimable autorisation de l'auteur de ces publications Mr Olivier ESSLINGER auquel j'adresse mes  sincères remerciements

NEBULEUSES PLANETAIRES ET NAINES BLANCHES


Les nébuleuses planétaires


Commençons notre étude de la mort stellaire par le cas des étoiles peu massives. Les phénomènes qui se déroulent après la combustion de l'hélium rappellent ceux que nous avons décrits précédemment. Au centre de l'étoile, les réactions nucléaires transforment peu à peu l'hélium et le remplacent par de l'oxygène, du carbone et quelques autres éléments.

Mais arrive un moment où la quantité d'hélium n'est plus suffisante pour entretenir les réactions nucléaires. Celles-ci s'éteignent et privent ainsi l'étoile de sa source d'énergie. Le noyau va par conséquent se contracter afin d'utiliser son énergie gravitationnelle comme nouvelle source. Ceci provoque la compression de la partie interne de l'enveloppe, riche en hélium, qui va atteindre les conditions nécessaires au déclenchement de la fusion. Une nouvelle coquille en combustion apparaît, cette fois formée d'hélium.

NGC 6543
La nébuleuse planétaire NGC 6543, observée en 2004 par le télescope spatial,
qui présente au moins 11 coquilles concentriques de matière éjectée.


L'étoile voit sa structure devenir plus complexe. Au centre, on trouve un noyau de carbone et d'oxygène éteint, entouré d'une coquille d'hélium en fusion, elle-même à l'intérieur d'une couche d'hydrogène en combustion. Le tout est enfoui dans une énorme enveloppe d'hydrogène qui n'est pas affectée par les réactions nucléaires car trop froide. Cette enveloppe va continuer à se dilater sous l'effet du flux d'énergie en provenance de la coquille d'hélium.

Cette phase de la vie de l'étoile va se révéler très agitée. Des instabilités apparaissent dans la coquille d'hélium et provoquent des pulsations de l'étoile. A chacune de ces oscillations, une partie de l'enveloppe se détache et est éjectée au loin. L'étoile va ainsi perdre peu à peu une quantité de matière impressionnante, dans certains cas une très grande fraction de sa masse totale.

IC 418
La nébuleuse planétaire IC 418. L'étoile au centre s'est transformée
en nébuleuseplanétaire il y a quelques milliers d'années.
Le diamètre de la nébuleuse atteint maintenant 0,2 années-lumière.


Les éjections successives laissent le noyau pratiquement nu. Puisque ce dernier est très chaud, il émet des photons ultraviolets très énergétiques, qui vont ioniser le gaz de l'enveloppe détachée. Celui-ci réémet l'énergie reçue sous forme de photons de longueurs d'onde plus longues, en particulier dans le domaine visible. L'ensemble de l'étoile se met ainsi à briller et apparaît comme un noyau brillant entouré d'une énorme enveloppe lumineuse. Cette phase va durer environ 50 000 ans, jusqu'à ce que le gaz se disperse et devienne finalement trop ténu pour être visible.

L'éjection se faisant de manière symétrique autour de l'étoile, l'astre apparaît sphérique et peut être confondu avec une planète dans un petit instrument d'observation. C'est la raison pour laquelle les astronomes d'autrefois ont donné à cette phase le nom de nébuleuse planétaire. Depuis ces premières observations, plus d'un millier de ces objets ont été observés, mais leur nombre total dans notre Galaxie est estimé à plusieurs dizaines de milliers.

 


Le principe d'incertitude


Avant d'étudier le sort du noyau de l'étoile, il nous faut faire un petit détour vers la théorie, en l'occurrence la mécanique quantique. Faisons donc connaissance avec l'une des caractéristiques fondamentales de celle-ci : le principe d'incertitude.


Position et vitesse d'une particule


Imaginons que nous avons à donner une description complète d'un électron, c'est-à-dire à déterminer des grandeurs comme sa position ou sa vitesse. A première vue, cela ne pose pas de problème et nous devons pouvoir mesurer ces quantités avec une précision illimitée. C'est ce que la physique classique prévoit, mais l'avis de la mécanique quantique est différent. Selon elle, toute description d'un phénomène physique doit prendre en compte l'acte d'observation. Ainsi, nous ne pouvons pas nous contenter de dire qu'il n'y a aucune difficulté dans la mesure, mais, au contraire, il nous faut étudier avec soin la façon dont nous allons effectuer celle-ci.

Essayons donc de mesurer simultanément la position et la vitesse de l'électron. Le moyen le plus simple est d'utiliser un rayon lumineux. Nous ne sommes pas limités à la lumière visible, nous pouvons avoir recours à toute la gamme des ondes électromagnétiques, depuis le domaine radio jusqu'aux rayons gamma. Commençons avec un faisceau radio, de longueur d'onde un mètre par exemple. Le problème qui se pose est que nous ne pouvons déterminer la position de l'électron qu'avec une précision de l'ordre de la longueur d'onde. Ainsi, avec notre rayonnement radio, nous ne pouvons déterminer la position qu'à un mètre près.

Pour augmenter la précision, la solution est simple. Passons de l'autre côté du spectre électromagnétique et utilisons des rayons gamma. Les longueurs d'onde sont maintenant très petites et la position de l'électron peut être mesurée avec une grande précision, par exemple un millionième de milliardième de mètre. Mais un nouveau problème se pose. Les photons qui composent le rayonnement gamma sont très énergétiques. Leur rencontre avec l'électron est violente et le choc perturbe le mouvement de la particule, donc sa vitesse. En conséquence, une grande incertitude affecte maintenant notre détermination de cette dernière. Pour ne pas perturber la particule et pouvoir mesurer avec précision sa vitesse, il faut avoir recours à un rayonnement peu énergétique, donc aux ondes radio. Et nous nous retrouvons finalement dans le cas précédent, avec une grande incertitude sur la position.

Heisenberg
Werner Heisenberg : Würzburg, 1901 - Munich, 1976.
Auteur du principe d'incertitude (ou d'indétermination).


Le principe d'incertitude


La situation est inextricable et c'est l'un des enseignements de la mécanique quantique, connu sous le nom de principe d'incertitude : il est impossible de connaître, avec précision, à la fois la position et la vitesse d'une particule. La présentation ci-dessus, qui illustre l'importance de l'acte d'observation, pourrait laisser penser qu'il s'agit d'un problème expérimental et que des techniques plus raffinées pourraient surmonter la difficulté. Il n'en est rien. Le principe d'incertitude est une propriété fondamentale de la matière, pas un problème expérimental. La mécanique quantique, dont les prédictions ont été maintes fois vérifiées, indique clairement qu'un électron ne possède pas à la fois une position et une vitesse précises. Les observations ne font que mettre en évidence cette propriété, elles n'en sont pas à l'origine.

Mais, me direz-vous, les objets de la vie quotidienne semblent se conduire de façon plus raisonnable. Il est possible de déterminer avec une grande précision la vitesse et la position d'une voiture. Pourquoi ces objets ne sont-ils pas soumis au principe d'incertitude ? En fait, ils le sont également, mais cela n'a pas de réelle conséquence. La raison en est que ces objets ont des masses sans commune mesure avec celle d'une particule élémentaire. Si un photon peut influencer le mouvement d'un électron, dont la masse est extrêmement faible, il lui est impossible de perturber un objet de plusieurs kilogrammes. L'acte d'observation n'a donc pas d'influence. En conséquence, le principe d'incertitude n'a pas d'effet direct sur notre vie de tous les jours. Il est bel et bien possible d'attribuer à tout corps macroscopique une position et une vitesse bien déterminées. Et dans ce cas, ce sont effectivement les possibilités technologiques qui limitent la précision des mesures.

 


Les naines blanches


Après ce petit détour théorique, voyons comment le principe d'incertitude intervient dans l'évolution stellaire. Revenons donc à notre étoile en fin de vie. Son noyau vient de s'éteindre et est essentiellement formé de carbone et d'oxygène. Du fait qu'il ne se produit plus de réaction nucléaire, la pression interne qui stabilisait jusque là l'étoile perd en puissance et n'est plus en mesure d'accomplir sa tache. L'étoile commence à s'effondrer sous son propre poids, sa taille diminue et sa densité se met à augmenter fortement.

Arrive un moment où la densité est tellement forte que le principe d'incertitude entre en jeu. Du fait de la compression de la matière, chaque électron est confiné dans un espace minuscule et sa position est en conséquence très bien définie. Mais, d'après la mécanique quantique, le prix à payer est une grande incertitude sur la vitesse de la particule, ce qui n'est possible que si cette vitesse est elle-même grande. Les électrons sont donc animés de mouvements très rapides et leur agitation donne naissance à un nouveau type de force de pression, d'origine purement quantique, appelée la pression de dégénérescence. Celle-ci s'oppose à l'effondrement de l'étoile et rétablit l'équilibre avec la force de gravité. L'étoile est devenue une naine blanche.

Du fait de la forte compression de la matière, les naines blanches sont bien plus petites et denses que les étoiles normales. Leur diamètre moyen est de l'ordre de 10 000 kilomètres, soit une taille similaire à celle de la Terre, mais avec la masse du Soleil. La densité atteint des valeurs phénoménales d'environ une tonne par centimètre cube de matière. Une cuillerée à soupe de la matière d'une naine blanche pèse ainsi plusieurs tonnes. La petite taille est également responsable d'une luminosité très faible. C'est la raison pour laquelle les naines blanches forment un groupe à part dans le diagramme de Hertzsprung-Russel, sous la séquence principale.

Sirius A et B
Le couple stellaire Sirius A et B à 8,6 années-lumière de la Terre, observé dans les rayons X par le satellite Chandra. Sur cette image, c'est Sirius B qui est l'objet le plus brillant car sa surface, chauffée à une température de 25 000 degrés, émet énormément de rayons X. L'autre point est Sirius A, l'étoile la plus brillante du ciel en lumière visible, mais pratiquement inexistante dans cette longueur d'onde (elle n'apparaît ici qu'à cause de son rayonnement ultraviolet qui n'est pas complètement filtré par Chandra). La structure en forme d'étoile est un effet d'optique dû au télescope.


Les naines blanches étant peu lumineuses, elles sont très difficiles à détecter, sauf lorsqu'elles se trouvent dans le voisinage du Soleil. En 1844, l'astronome allemand Friedrich Bessel se rendit compte que l'étoile la plus brillante du ciel nocturne, Sirius, n'était pas parfaitement fixe dans le ciel, mais oscillait légèrement. Il attribua cet effet à la présence d'une autre étoile, peu lumineuse, dont l'attraction gravitationnelle influençait le mouvement de Sirius. Mais il fallut attendre 1862 pour que l'Américain Alvan Clark, avec de meilleurs moyens d'observation, puisse prendre une image de ce compagnon, Sirius B, la première naine blanche à être observée. Depuis, environ 500 astres de ce type ont été détectés. Ce qui n'est rien comparé au nombre total dans la Galaxie, estimé à une dizaine de milliards.


Fin d'une naine blanche


Une fois notre étoile devenue une naine blanche, sa vie ne sera plus marquée que par quelques changements mineurs. Puisque l'astre n'a plus de source d'énergie, sa température et sa luminosité baissent. Sa couleur passe du blanc au rouge, puis, après quelques milliards d'années, elle n'émet plus que très faiblement dans le domaine visible. Elle devient alors une naine noire. La structure interne change également avec le temps. Après l'effondrement, les particules sont très énergétiques, les ions de carbone et d'oxygène peuvent se mouvoir librement. Mais avec la baisse de la température, ces ions perdent leur liberté et s'arrangent pour former un réseau cristallin. Les électrons, quant à eux, continuent de se déplacer librement à des vitesses proches de celle de la lumière. Enfin, la taille de l'étoile, elle, ne change plus car la pression de dégénérescence est indépendante de la température et peut donc soutenir l'astre pour toujours.

Toutes les naines blanches n'ont pas les mêmes dimensions. Plus elles sont massives, plus la pression et la densité requises pour résister à la gravité sont grandes, donc plus leur taille est réduite. Mais la pression de dégénérescence des électrons ne peut pas supporter une masse arbitrairement grande. L'astrophysicien indien Subrahmanyan Chandrasekhar, en étudiant ces étoiles sur le plan théorique dans les années 1930, mit en évidence qu'elles n'étaient capables de résister à l'effondrement que si leur masse était inférieure à 1,4 fois celle du Soleil. En tenant compte des pertes de matière par vent stellaire, cela signifie qu'une étoile de la séquence principale ne peut atteindre le stade de naine blanche que si sa masse est inférieure à environ huit fois celle du Soleil. Nous verrons plus loin ce qui se produit au-dessus de cette limite.

 


Les novae


Les naines blanches peuvent donner lieu à un phénomène très spectaculaire appelé nova, lorsqu'elles sont membres d'un système binaire. L'action se produit lorsque la deuxième étoile du couple atteint le stade de géante rouge et voit son enveloppe se dilater. Si le couple est très serré, les couches externes de la géante rouge sont suffisamment proches de la naine blanche pour être attirées par celle-ci. Un transfert de masse se met en place et une partie de l'hydrogène de la géante rouge vient former un disque de matière autour de la naine blanche, ce que l'on appelle un disque d'accrétion. Ensuite, sous l'effet des forces de friction internes, le gaz du disque va peu à peu tomber sur la naine et former une couche d'hydrogène qui devient de plus en plus dense et chaude.

Nova
Vue d'artiste d'une nova en préparation. Le gaz de la géante rouge à gauche s'échappe peu à peu vers le disque entourant la naine blanche à droite et finit par tomber sur celle-ci. Quand suffisament de gaz s'est accumulé et que la température atteint la dizaine de millions de degrés, la fusion de l'hydrogène se déclenche et une formidable explosion se produit à la surface de l'étoile.

Finalement, quand la température atteint la dizaine de millions de kelvins, les réactions de fusion de l'hydrogène se déclenchent. Une formidable explosion se produit à la surface de l'étoile. Les couches d'hydrogène sont expulsées avec une violence inouïe. La luminosité de l'étoile binaire est multipliée en quelques jours par un facteur compris entre 10 000 et un million, fonction de la quantité d'hydrogène accumulée. Il faut ensuite plusieurs mois pour que la situation redevienne normale. Malgré la violence de l'explosion, la naine blanche n'est pas trop affectée et l'accumulation d'hydrogène peut reprendre jusqu'à une nouvelle explosion, après une période comprise entre un siècle et plusieurs dizaines de milliers d'années.

 

SUPERNOVAE ET ETOILES A NEUTRONS


La fin des étoiles massives

Les étoiles de quelques masses solaires achèvent leur vie lorsque la combustion de l'hélium s'arrête, faute de carburant. Par contre, les étoiles plus massives connaissent une fin plus complexe car elles sont en mesure de déclencher d'autres réactions nucléaires. En effet, plus la masse d'une étoile est élevée, plus le poids de ses couches externes est grand et plus le noyau est comprimé. Ainsi la température de celui-ci peut atteindre des valeurs plus grandes, ce qui permet à de nouvelles réactions de se mettre en place. Par exemple, une étoile de plus de quatre masses solaires va chauffer son noyau jusqu'à 600 millions de degrés, seuil auquel la fusion du carbone commence.

Mais cette nouvelle phase de combustion dure encore moins longtemps que la précédente et l'étoile va très rapidement devoir trouver une nouvelle source d'énergie. C'est ainsi que va se dérouler une série de différentes réactions nucléaires mettant en jeu des éléments de plus en plus lourds. A chaque étape, la nouvelle source d'énergie sera épuisée plus vite que la précédente et la combustion s'arrêtera momentanément. Ceci provoquera la contraction du noyau et l'apparition d'une nouvelle coquille en fusion. Finalement une nouvelle réaction pourra se mettre en place et le cycle recommencera.

Le nombre de réactions différentes est déterminé par la masse de l'étoile. Plus celle-ci est grande, plus la température au centre de l'étoile peut être élevée et plus lourds sont les noyaux susceptibles de fusionner. On peut citer les étoiles de 10 masses solaires, capables d'atteindre le milliard de degrés et de déclencher la fusion de l'oxygène ou celles de plus de 20 masses solaires, qui atteignent plusieurs milliards de degrés et permettent au silicium d'entrer en jeu. Avec chaque nouveau type de réaction, les dimensions de l'étoile continueront à augmenter et celle-ci se transformera peu à peu en une supergéante rouge.

Structure en pelures d'oignon
Structure en pelures d'oignon d'une étoile très massive (échelle non respectée).



La chaîne ne va cependant pas continuer éternellement. Elle s'arrête lorsque le centre se retrouve essentiellement formé de noyaux de fer-56. En effet, l'une des caractéristiques de tout noyau est son énergie de liaison par constituant. Celle-ci représente la force avec laquelle un élément du noyau, proton ou neutron, est lié à l'ensemble. Plus cette énergie de liaison est forte, plus le noyau est stable. Or il se trouve que de tous les éléments, le fer-56 est celui qui présente la plus grande énergie de liaison par constituant. C'est le noyau le plus stable qui puisse exister. Il est incapable de fusionner en produisant de l'énergie. Pour cette raison, le fer va obstinément refuser de jouer le jeu et de participer aux réactions nucléaires. C'est alors la fin du cycle.

A ce stade, l'étoile a une structure très complexe. Au centre se trouve le noyau de fer éteint. Ensuite, se succèdent une série de couches en fusion, chacune contenant l'un des éléments qui a participé à l'histoire nucléaire du noyau. On trouve ainsi, en partant de l'intérieur, des couches principalement constituées de silicium, de magnésium, de néon, d'oxygène, de carbone, d'hélium et d'hydrogène. Les astrophysiciens parlent alors de structure en pelures d'oignon.

 


Les supernovae


Si le noyau de fer est incapable de produire de l'énergie par réactions nucléaires, il doit en créer par contraction, en transformant son énergie gravitationnelle. C'est donc un nouvel effondrement de l'ensemble de l'étoile qui commence. Cependant, comme nous allons le voir plus loin, l'étoile va subir un ensemble de réactions qui vont transformer toute la matière de son noyau en neutrons. Ces particules donnent naissance à une nouvelle pression de dégénérescence qui stoppe finalement la contraction du noyau et rend celui-ci très rigide. Mais les autres couches de l'étoile sont toujours en train de s'effondrer. Elles atteignent la surface du noyau incompressible, s'y écrasent très violemment et rebondissent. Apparaît alors une formidable onde de choc qui va s'éloigner du noyau et tout balayer sur son passage. L'enveloppe de l'étoile est complètement soufflée. Sa matière est éjectée vers le milieu interstellaire à des vitesses de plusieurs milliers de kilomètres par seconde. Du fait de l'incroyable quantité d'énergie libérée, l'étoile se met à briller comme 200 millions de soleils, parfois autant qu'une galaxie tout entière. Une supernova vient de naître.

Messier 1
La nébuleuse du crabe (Messier 1) à 6000 années-lumière. Il s'agit des résidus d'une explosion de supernova observée depuis la Terre . Au centre se trouve une étoile à neutrons qui tourne sur elle-même 30 fois par seconde.


Une étoile qui se met à briller autant qu'une galaxie, cela ne passe évidemment pas inaperçu. Une supernova qui exploserait dans le voisinage du Soleil aurait une luminosité apparente si grande qu'elle serait visible en plein jour. C'est l'événement céleste le plus susceptible de marquer les esprits - après le passage d'une comète. Ainsi l'histoire de l'astronomie garde la trace d'une dizaine de supernovae historiques enregistrées, la première mention remontant à l'an 185 de notre ère dans les annales chinoises. En particulier, les Chinois observèrent en 1054 une supernova dans la constellation du Taureau, qui resta visible en plein jour pendant trois semaines. A l'endroit précis qu'ils indiquent, se trouve aujourd'hui la nébuleuse du Crabe, un nuage de gaz et de poussières situé à 6000 années-lumière du Soleil et formé des restes de l'enveloppe déchirée par la supernova de 1054.

Supernova de Tycho Brahe
Le résidu de la supernova observée par Tycho Brahe en 1572. Cette image
 a été prise en 2000 par le satellite XMM-Newton dans les rayons X.

C'est dans les contrées asiatiques que l'on trouve les traces les plus anciennes. Les Européens, qui observèrent probablement ces mêmes phénomènes, préférèrent fermer les yeux sur des apparitions qui remettait en cause l'immuabilité des cieux prônée par Aristote. Les deux premières supernovae à être officiellement observées en Occident furent celles de Tycho en 1572 et de Kepler en 1604. Elles jouèrent un rôle important dans le développement de l'astronomie car elles apparurent à une époque où les esprits étaient plus ouverts. Elles montrèrent aux astronomes de l'époque que les cieux n'étaient pas immuables et que la distinction entre le monde sublunaire et les corps célestes n'était que pure fantaisie. Depuis cette époque, près d'un millier de supernovae ont été observées.


Deux types de supernovae


Remarquons que toutes les supernovae ne s'expliquent pas par l'effondrement d'une étoile massive. Certaines se produisent pour des raisons un peu différentes, au sein d'étoiles binaires. C'est par exemple le cas dans un couple stellaire composé d'une naine blanche et d'une étoile géante. Quand les deux étoiles sont suffisamment proches, la géante perd ses couches externes, qui sont transférées vers la naine et créent un disque d'accrétion autour d'elle. Ce disque va peu à peu alimenter la naine en masse jusqu'à lui faire dépasser la limite de Chandrasekhar.

A un moment donné, la naine ne peut plus résister à la gravité et elle commence à s'effondrer. Ceci provoque l'ignition de l'étoile, puis, du fait de la nature particulière des naines blanches, conduit à l'explosion et la désintégration de l'astre. Le résultat est finalement une formidable explosion et une très forte augmentation de la luminosité. Observé de loin, le phénomène est très similaire à celui qui accompagne l'effondrement d'une étoile massive. Pour faire la distinction, on parle alors de supernova de type I, par opposition à celles de type II qui sont le fruit d'un effondrement classique.

 

La nucléosynthèse

Les étoiles massives jouent un rôle essentiel dans l'évolution chimique du cosmos. En effet, comme nous le verrons plus tard, l'univers n'est à l'origine constitué que de deux éléments chimiques, l'hydrogène et l'hélium. S'il en restait à ce stade, il serait bien morne, aucune chimie ne se développerait, aucune planète ne pourrait se former et la vie ne pourrait pas naître. Les étoiles peu massives essayent de remédier à ce problème en produisant quelques éléments plus lourds comme le carbone ou l'oxygène et en les éjectant vers l'espace par l'intermédiaire des vents stellaires et des nébuleuses planétaires. Leur influence est cependant limitée, du fait du petit nombre d'éléments créés et de la masse relativement faible mise en jeu.

N 70
La nébuleuse N 70 dans le Grand Nuage de Magellan. Il s'agit d'une énorme bulle de gaz
interstellaire, de 300 années-lumière de diamètre, engendrée par le vent stellaire d'étoiles
massives et par des explosions de supernova.


Le rôle majeur dans la création des éléments chimiques revient aux étoiles massives. Nous avons vu qu'au cours de leur vie, celles-ci sont le siège d'une succession de réactions nucléaires de plus en plus complexes qui aboutissent à tous les éléments plus légers que fer-56, par exemple le silicium, le soufre ou le cuivre. Mais ces étoiles ne se contentent pas de produire des éléments lourds, elles se chargent aussi de les distribuer. Elles le font lors de l'explosion finale, lorsque l'enveloppe, riche en éléments nouveaux, est déchirée et expulsée vers les espaces interstellaires. Ainsi, génération après génération, les étoiles massives enrichissent peu à peu l'univers en éléments lourds, lui permettent de développer une chimie complexe et lui donnent l'opportunité de créer la vie.


Les éléments les plus lourds


Les étoiles massives ne se limitent pas à produire des éléments chimiques plus légers que le fer-56. Elles vont en fait être à l'origine de tous les éléments que nous connaissons. Nous l'avons déjà remarqué, les réactions nucléaires produisent non seulement de l'énergie, mais aussi diverses particules, en particulier des neutrons. Ceux-ci ne portent pas de charge électrique et ne sont pas soumis à la répulsion électrique des autres noyaux. Les neutrons peuvent donc facilement se coller à d'autres noyaux et augmenter leur masse. Ensuite, si l'ensemble ainsi créé n'est pas stable, il va se transmuter et donner finalement naissance à un nouvel élément chimique. C'est grâce à ce processus, appelé la capture lente de neutrons, que sont produits certains éléments plus lourds que le fer, comme par exemple l'or ou le plomb.

Pour aller encore plus loin et créer les éléments les plus lourds, il faut avoir recours à la capture rapide de neutrons. Celle-ci se produit au moment même de l'explosion de la supernova. Lorsque les couches internes de l'enveloppe s'écrasent sur le noyau, elles sont soumises à de très fortes températures et pressions. Ces conditions donnent lieu à de nombreuses réactions nucléaires et à la production de neutrons en grandes quantités. Les noyaux lourds sont alors confrontés à un fort flux de ces particules. Ils sont obligés d'en absorber beaucoup avant d'être capables de se transmuter, d'où l'apparition d'éléments encore plus lourds que les précédents, par exemple l'uranium et le plutonium.

 

Les étoiles à neutrons

Le résidu central d'une explosion de supernova a toutes les chances d'avoir une masse supérieure à la limite de Chandrasekhar et de ne pas pouvoir donner naissance à une naine blanche. C'est donc un nouveau type d'objet qui fait son apparition : une étoile à neutrons.

En effet, pour une étoile suffisamment massive, le scénario final est différent de celui qui conduit aux naines blanches. Le seuil de masse initiale de l'étoile, c'est-à-dire avant les pertes de matière par vents stellaires, est estimé à huit masses solaires. Dans ce cas, lors de l'effondrement, l'énergie des électrons est suffisante pour que de nouvelles réactions se produisent, dans lesquelles électrons et protons se combinent pour produire des neutrons. Très rapidement, la matière de l'étoile est donc entièrement transformée en neutrons. En même temps, le nombre d'électrons chute rapidement, ce qui entraîne une diminution de la pression de dégénérescence. La gravité se retrouve alors sans obstacle et l'astre s'effondre sur lui-même.

Nébuleuse du Crabe
Une image dans les rayons X des jets de matière et d'antimatière qui s'éloignent de l'étoile à neutron au centre de la nébuleuse du Crabe. Cette image a été prise en 2002 par le satellite Chandra. L'anneau central a un diamètre d'environ une année-lumière.

Le processus s'arrête lorsque la matière atteint des densités similaires à celles des noyaux atomiques. Apparaît alors une nouvelle force, la pression de dégénérescence des neutrons, qui est en mesure de stabiliser l'étoile. Cette pression est de nature similaire à celle que produisent les électrons. Elle entre en jeu lorsque les neutrons sont comprimés les uns contre les autres et commencent à être fortement agités du fait du principe d'incertitude. Elle est beaucoup plus puissante que sa cousine électronique, ce qui explique qu'elle peut résister à la gravité d'une étoile massive.

On obtient alors un nouveau type de corps, beaucoup plus petit et dense qu'une naine blanche : une étoile à neutrons. Alors que le diamètre typique d'une naine blanche est de 10 000 kilomètres, une étoile à neutrons a une taille de l'ordre de quelques dizaines de kilomètres. Un diamètre 1000 fois plus petit signifie, à masse égale, une concentration de matière un milliard de fois plus forte. La densité moyenne d'une étoile à neutrons est ainsi d'un million de milliards de fois celle de l'eau. Un centimètre cube de sa matière a une masse de 1000 millions de tonnes.

A ces densités extraordinaires, la matière n'a plus grand rapport avec celle que nous pouvons observer sur Terre. Il est néanmoins possible de recourir à la physique théorique pour étudier les étoiles à neutrons. Il a ainsi été possible de déterminer la structure interne d'un tel corps. En plongeant vers l'intérieur, l'on rencontre d'abord une croûte cristalline formée de noyaux atomiques, en particulier de noyaux de fer-56. Ensuite viennent les neutrons et les protons à l'état libre, d'abord sous forme liquide puis, plus profondément, à l'état solide. Enfin apparaît le noyau, dans lequel protons et neutrons n'existent plus, mais sont dissociés en leurs constituants intimes, les quarks. Tout cela est évidemment très spéculatif et le restera probablement pour longtemps.

 

Les pulsars


Envisagées sur le plan théorique dès 1933 par l'Allemand Walter Baade et le Suisse Fritz Zwicky, les étoiles à neutrons ne furent réellement prises au sérieux qu'une trentaine d'années plus tard, après la découverte des pulsars. L'existence de ces derniers fut révélée en 1967 par les astrophysiciens anglais Jocelyn Bell et Anthony Hewish. Ces deux chercheurs étudiaient l'effet du milieu interplanétaire sur la propagation des ondes radio et découvrirent par hasard une source, PSR 1919+21, qui émettait de façon très régulière des impulsions radio. Très rapidement d'autres radioastronomes mirent en évidence l'existence de très nombreuses sources similaires. Elles se caractérisaient toutes par des pulsations très rapides, des périodes comprises entre quelques secondes et quelques millisecondes et surtout une régularité extrême, ces périodes étant stables avec une précision relative du millième de milliardième. On recense aujourd'hui plusieurs centaines de ces sources.


La nature des pulsars


Dès la découverte des pulsars, la question se posa de savoir quelle était leur nature. Imaginer un corps ou un phénomène capable de donner lieu à des signaux périodiques avec une rapidité et une précision pareilles relevait du casse-tête. Après avoir éliminé la possibilité d'une émission par une civilisation extraterrestre ou celle de simples parasites, la solution la plus plausible était de considérer un corps en rotation très rapide. Si celui-ci émettait un rayonnement dans un faisceau étroit, la situation pouvait être comparée à celle d'un phare : les pulsations s'expliquaient comme le passage périodique du faisceau dans la direction de la Terre.

La rapidité de la rotation ne pouvait s'accommoder que d'objets très petits. En effet, une étoile normale qui tournerait à cette vitesse se disloquerait rapidement sous l'effet de la force centrifuge. Les étoiles à neutrons, proposées longtemps auparavant d'un point de vue purement théorique, apparurent alors comme les meilleures candidates. Ceci fut rapidement confirmé, en 1968, par la découverte d'un pulsar au sein de la nébuleuse du Crabe, ce qui mettait clairement en évidence le lien entre résidus de supernova et pulsars. De nos jours, l'identité entre les deux objets ne fait plus guère de doute, la compréhension des mécanismes d'émissions ayant beaucoup progressé.

C'est la taille minuscule des étoiles à neutrons qui est à l'origine du phénomène pulsar. Elle explique à la fois la vitesse de rotation élevée et la présence d'intenses champs magnétique et électrique, tous les facteurs mis en jeu dans l'émission radio rapide et stable caractéristique des pulsars.

La première conséquence de la petite taille est la formidable vitesse de rotation de l'étoile. Il existe une grandeur appelée le moment angulaire, qui caractérise la rotation d'un corps. Elle se calcule à partir de la masse, de la taille et de la vitesse de rotation de l'objet en question. La propriété fondamentale du moment angulaire est sa conservation pour un corps isolé. C'est précisément le cas d'un astre qui s'effondre et devient une étoile à neutrons. Il faut donc s'assurer que le moment angulaire se conserve dans le processus. Or, la masse reste constante et la taille diminue fortement, passant de plusieurs millions à quelques dizaines de kilomètres. Nécessairement, pour compenser, la vitesse de rotation doit être démultipliée. C'est le même principe qui veut qu'une patineuse en train de tourner sur elle-même augmente fortement sa vitesse de rotation lorsqu'elle ramène les bras le long du corps. La petite taille des étoiles à neutrons est donc à l'origine de la vitesse de rotation très élevée, pouvant atteindre des valeurs de plusieurs tours par seconde.

La dimension réduite est également responsable de la présence de champs magnétique et électrique très puissants. En effet, lors de l'effondrement, le flux magnétique de l'étoile, c'est-à-dire le produit de l'intensité du champ par la surface de l'astre, doit se conserver. Par conséquent, puisque la surface de l'étoile diminue, le champ magnétique doit fortement augmenter. Ceci explique que des valeurs fantastiques sont atteintes, de l'ordre de mille milliards de fois l'intensité du champ terrestre. Enfin, l'effet conjugué de la rotation rapide et d'un champ magnétique puissant donne naissance, comme dans une dynamo, à un champ électrique tout aussi intense.


Le rayonnement synchrotron


C'est la combinaison de tous ces facteurs qui donne naissance à un pulsar. Sous l'effet du puissant champ électrique, les électrons proches des pôles magnétiques sont fortement accélérés. Ils se déplacent alors très rapidement le long de lignes spirales qui s'enroulent autour du champ magnétique et émettent un rayonnement synchrotron, un type d'ondes radio bien connu que l'on retrouve dans certains accélérateurs de particules.

Pulsar
Un pulsar : deux faisceaux très étroits d'ondes radio sont émis par les pôles magnétiques de l'étoile à neutrons. Sous l'effet de la rotation de celle-ci, les faisceaux balayent deux minces zones du ciel. Si la Terre se trouve par hasard dans la région balayée, elle reçoit à chaque tour une bouffée d'ondes radio.


Le faisceau du rayonnement synchrotron est très étroit et sa direction se confond avec celle de l'axe des pôles magnétiques. Or, ce dernier n'est pas aligné avec l'axe de rotation, tout comme le pôle nord magnétique terrestre n'est pas identique au pôle nord géographique. Ceci explique que lorsque la planète tourne sur elle-même, le faisceau n'est pas immobile, mais balaye une partie du ciel en forme de cône. Si la Terre se trouve par hasard dans la zone balayée, elle reçoit une très brève impulsion d'ondes radio à chaque fois qu'elle passe dans le faisceau. C'est là l'origine du phénomène pulsar.

L'une des conséquences de la nature du processus est que nous ne pouvons observer qu'une faible partie du nombre total de pulsars. En effet, la direction du faisceau est plus ou moins aléatoire et la Terre a très peu de chances de se trouver dans la zone balayée par un pulsar donné. De plus, les ondes radio sont atténuées et nous ne pouvons observer que les objets les plus proches. Ainsi, pour plusieurs centaines de pulsars observés, il y en a probablement plusieurs centaines de millions dans toute la Galaxie.

Notons encore que même si le rayonnement d'un pulsar est très stable, il varie légèrement au cours du temps. En effet, pour émettre un rayonnement, il faut une source d'énergie. Pour un pulsar, c'est la rotation de l'étoile à neutrons qui sert de source. Mais puisqu'il y a perte d'énergie par rayonnement, nécessairement la vitesse de rotation doit lentement diminuer. C'est bien ce que l'on observe. La vitesse de rotation des pulsars baisse, avec en moyenne une variation relative de l'ordre d'un millionième par an. Dans le cas des pulsars jeunes, comme celui du Crabe, la variation est plus forte, de l'ordre d'un millionième par jour.

De temps en temps, cette lente évolution est perturbée par des changements brusques de la période. Ceux-ci s'interprètent comme le résultat de bouleversements de la structure de l'étoile à neutrons et de réarrangements de ses couches internes. En effet, par conservation du moment angulaire, un léger changement dans la taille ou dans la répartition de la matière doit s'accompagner d'une perturbation de la rotation.

 

Les sources X


Un aspect intéressant de la vie des étoiles à neutrons fut découvert lorsque les premières observations du ciel dans le domaine des rayons X eurent lieu. L'atmosphère terrestre étant opaque à ces rayons, il fallait la dépasser. Ce furent d'abord, dans les années 1960, des télescopes placés dans des ballons ou des fusées et qui pouvaient étudier le ciel pendant de courtes périodes. Puis, en 1970, ce fut Uhuru, le premier satellite dans le domaine X, qui mit en évidence plus d'une centaine de sources très puissantes. Depuis, de nombreux autres satellites d'étude du domaine X nous ont donné une vue plus approfondie. On peut en particulier citer les observatoires Einstein en 1978, ROSAT en 1990, ainsi que Chandra et XMM-Newton tous deux lancés en 1999.

La plupart des sources de rayons X sont des étoiles binaires dans lesquels se produisent les processus que nous avons déjà étudiés, transfert de masse et création d'un disque d'accrétion. Cependant, dans ce cas, au lieu d'une naine blanche, c'est autour d'une étoile à neutrons que tout se produit. Soumise à une gravité formidable, la matière qui s'accumule est alors très dense et sa température extrêmement élevée. D'après la loi de Wien, il doit donc y avoir émission d'un rayonnement thermique à très courtes longueurs d'onde, dans les rayons X, ce qui explique les observations précédentes.

NGC 6266
Une vue de l'amas globulaire NGC 6266 prise par le satellite Chandra dans les rayons X. La plupart des points visibles sont des systèmes binaires contenant soit une naine blanche soit une étoile à neutrons qui dévore la matière de sa compagne.


La plupart du temps, cette émission est continue, sans brusque variation. Mais certaines sources X sont variables, avec une période de quelques secondes. Dans ce cas, le gaz qui tombe sur l'étoile à neutrons est soumis à l'influence du champ magnétique et se dirige vers les deux pôles. L'impact du gaz en ces points est extrêmement violent et donne naissance à un rayonnement très puissant. Comme pour l'émission radio des pulsars, ce rayonnement est localisé dans un faisceau assez étroit qui balaye périodiquement le ciel. Si la Terre se trouve par hasard sur la trajectoire de ce faisceau, elle voit donc périodiquement une petite flambée de rayonnement, d'où le nom de pulsar à rayons X.

Un phénomène semblable à la nova peut également se produire. C'est le cas lorsque la matière du disque d'accrétion n'est pas affectée par le champ magnétique et se répartit sur toute la surface de l'étoile. Étant donné les conditions extrêmes qui y règnent, les réactions nucléaires de fusion de l'hydrogène en hélium se produisent en permanence. Il y a ainsi création, sans événement violent, d'une couche d'hélium à la surface de l'étoile. Finalement, lorsque la température et la densité sont suffisantes, la combustion de l'hélium se déclenche et une explosion phénoménale se produit. Celle-ci donne lieu à une énorme quantité de rayonnement, qualifiée de sursaut de rayons X. Le phénomène est beaucoup plus rapide que pour les novae. Il ne dure en tout que quelques secondes, explosion et retour à la normale compris.

 

Les sursauts gamma

Les sursauts gamma (gamma ray bursts ou GRB en anglais) sont l'une des dernières grandes énigmes de l'astrophysique contemporaine. Bien que l'existence de ces émissions soit connue depuis les années 1960, leur nature exacte reste à déterminer, principalement en raison d'un manque de données observationnelles. Pour donner un exemple, il y a une dizaine d'années à peine, les astrophysiciens ne savaient toujours pas si la source des sursauts se trouvait dans le système solaire, dans la Voie Lactée ou dans des galaxies lointaines.

Ces sursauts sont tout simplement de brèves émissions de rayons gamma, avec une durée comprise entre quelques millisecondes et plusieurs minutes. Rappelons que les rayons gamma sont en fait des photons très énergétiques, produits par exemple sur Terre lors de réactions nucléaires. S'il était possible de surveiller en permanence l'ensemble du ciel, on observerait en moyenne un sursaut gamma par jour, provenant d'une direction aléatoire de la voûte céleste.

La caractéristique la plus intéressante est l'énergie mise en jeu. Si les sursauts trouvent leur origine dans des galaxies lointaines, ce qui a été prouvé pour certains d'entre eux, l'énergie émise par leur source doit être prodigieuse, des centaines de fois plus grande que celle générée par une supernova. Cette puissance extraordinaire explique l'intérêt que la communauté astronomique porte aux sursauts gamma, puisqu'ils pourraient révéler de nouveaux processus mettant en jeu les étoiles à neutrons, les trous noirs ou les hypernovae, voire des phénomènes astrophysiques inconnus à ce jour.

GRB 021125
Le sursaut GRB 021125 observé dans les rayons gamma par le satellite Integral de l'ESA.
La source de ce sursaut se trouve à cinq milliards d'années-lumière de nous.


Un peu d'histoire


Les sursauts gamma furent découverts par hasard, en 1967, par des satellites américains mis on orbite pour surveiller l'application du traité d'interdiction des essais nucléaires par l'union soviétique. En l'occurrence, ces satellites ne révélèrent aucune violation du traité, mais détectèrent des émissions sporadiques de rayons gamma, de courte durée et d'origine inconnue. Il devint rapidement clair que ces sursauts provenaient de l'espace plutôt que de la Terre, mais les détecteurs de l'époque étaient incapables de mesurer précisément leur direction d'origine. Le manque de contraintes observationnelles conduisit à des théories très diverses, mettant par exemple en jeu les étoiles à neutrons de la Voie Lactée, le nuage d'Oort entourant le système solaire, ou bien des sources dans les galaxies lointaines.

La première avancée expérimentale provint d'observation dans les rayons X au début des années 1990, par le satellite américain Compton (CGRO). Ce dernier emportait avec lui un instrument baptisé BATSE capable de surveiller simultanément une grande partie du ciel et de fournir une direction précise en cas de détection. L'observatoire Compton fut ainsi en mesure de déterminer la position de plusieurs centaines de sursauts et de démontrer que leurs sources se répartissaient de manière aléatoire sur toute la voûte céleste. Or, si les sursauts provenaient principalement de notre galaxie, ils ne seraient pas distribués uniformément dans le ciel, mais concentrés dans la même bande étroite que la Voie Lactée. L'explication préférée de l'époque, par des phénomènes à la surface des étoiles à neutrons de la Galaxie, n'était donc plus plausible.

La fin des années 1990 vit un autre progrès décisif, lorsqu'il apparut que les sursauts pouvaient être suivis par une émission de lumière dans d'autres longueurs d'onde, un phénomène appelé rémanence. Cette découverte fut faite en 1997 par le satellite italien BeppoSAX lors de l'observation du sursaut GRB 970228 dans les rayons X. Il s'agissait d'une avancée fondamentale car elle ouvrait la voie à l'observation par de nouveaux outils, en particulier la spectroscopie. Celle-ci fut rapidement mise à contribution pour mesurer le décalage vers le rouge de la lumière rémanente, qui révéla que la source devait se trouver dans une galaxie située à des milliards d'années-lumière.

En observant le même sursaut avec le télescope William Herschel, une autre équipe révéla l'existence d'une rémanence dans le domaine visible. Cette nouvelle caractéristique permettait dorénavant aux grands télescopes terrestres et au télescope spatial de se joindre à l'étude des sursauts, en particulier dans l'identification des galaxies contenant leur source.

BATSE
Distribution dans le ciel des sursauts gamma détectés par l'instrument BATSE du satellite Compton. On voit clairement que les sursauts proviennent de toutes les directions du ciel, ce qui élimine les théories expliquant ce phénomène par des corps appartenant à la Voie Lactée (notre galaxie).


L'origine des sursauts gamma


Les observations de GRB 970228 et d'autres qui suivirent ont permis d'éliminer les théories qui faisaient appel au nuage d'Oort ou à des astres de la Galaxie. La nature cosmologique des sursauts les plus longs ne fait plus de doute grâce à l'observation de leur décalage vers le rouge (le doute subsiste pour les plus courts, dont le décalage n'a jamais pu être mesuré). Les astrophysiciens se trouvent donc confrontés à la tâche d'expliquer le phénomène le plus puissant de l'Univers, capable d'émettre des centaines de fois plus d'énergie qu'une explosion de supernova.

A l'heure actuelle, deux théories prédominent. Dans la première, la source des sursauts serait un couple d'étoiles à neutrons en orbite l'une autour de l'autre. La théorie de la relativité montre que dans une telle situation, les deux étoiles perdent rapidement de l'énergie sous forme d'ondes gravitationnelles. Avec le temps, la baisse d'énergie du couple conduit à une diminution inexorable de la distance qui les sépare. Le ballet se conclut finalement lorsque les deux corps entrent en collision pour fusionner ou donner naissance à un trou noir. Ce phénomène produit une énergie phénoménale qui pourrait expliquer les sursauts gamma.

L'autre explication fait appel au concept d'hypernova, une version extrême de supernova, qui pourrait se produire lors de la disparition des étoiles les plus massives, au moins quarante fois la masse du Soleil. Rappelons que les étoiles massives finissent leur existence par un effondrement gravitationnel qui conduit à la formation d'une étoile à neutron ou d'un trou noir. L'apparition de ce résidu central donne naissance à des ondes de chocs qui font exploser le reste de l'étoile et éjectent violemment ses couches externes.

Pour expliquer les sursauts gammas, les astrophysiciens ont donc émis l'hypothèse qu'au sein des étoiles les plus massives, la force gravitationnelle est si intense que les couches externes de gaz ne sont par repoussées vers l'extérieur, mais capturées par le résidu central. Ce processus augmenterait considérablement l'énergie gravitationnelle transformée en rayonnement et en chaleur lors de l'effondrement final. Il pourrait donc expliquer comment cet événement est capable de libérer une énergie beaucoup plus importante qu'une supernova classique. Notons néanmoins que l'existence des hypernovae est encore très hypothétique, contrairement aux supernovae qui sont connues depuis longtemps.

GRB 990123
Rémanence en lumière visible du sursaut GRB 990123 observée par le télescope spatial en 1999, deux semaines après l'émission de rayons gamma. On aperçoit la galaxie lointaine d'où provient le sursaut et sa forme étrange suggère la possibilité d'une collision passée avec une autre galaxie.


La mission Swift


Nos connaissances sur les sursauts gamma et leurs sources devraient bientôt faire un bond en avant grâce au satellite américain Swift lancé en novembre 2004. Ce satellite emporte avec lui trois instruments : BAT, un capteur de rayons gamma capable de surveiller simultanément un sixième du ciel, XRT, un détecteur de rayons X, et UVOT, un télescope d'observation dans l'ultraviolet et le domaine visible.

La particularité de ce satellite est d'être capable de se réorienter très rapidement (swiftly en anglais, d'où le nom). Aussitôt après la détection d'un sursaut gamma par BAT, le satellite pourra se tourner vers la source en question de façon précise en quelques dizaines de secondes à peine. Ceci permettra aux deux autres instruments, dont le champ de vision est beaucoup plus restreint, de contribuer à l'étude du sursaut et de sa rémanence. En même temps, toutes les données recueillies par Swift seront retransmises rapidement vers le sol, où un suivi rapide par les télescopes terrestres pourra être organisé.

Grâce à un détecteur de rayons gamma cinq fois plus sensible que celui de Compton, Swift devrait pouvoir étudier un millier de sursauts pendant les trois années de sa mission. La combinaison de trois instruments travaillant dans des longueurs d'ondes différentes produira des informations précises sur la localisation des sursauts, leurs caractéristiques spectrales et l'évolution dans le temps de l'émission initiale et de la rémanence. Ces données devraient nous aider à mieux comprendre la source des sursauts, leur évolution et leur interaction avec le milieu environnant.

 

LA RELATIVITE


La quête de l'espace absolu


Avant de poursuivre notre étude des différentes morts stellaires en abordant celle qui conduit aux trous noirs, faisons d'abord connaissance avec la théorie qui permet de décrire ces astres étranges : la relativité.

Jusqu'au début de ce siècle, la perception que les physiciens avaient de l'espace et du temps était plus ou moins celle d'Isaac Newton. Il devait exister un espace absolu, rigide et immuable emplissant l'univers, un cadre de référence par rapport auquel on pouvait définir de façon absolue le mouvement ou le repos. Il devait également exister un temps absolu et universel, s'écoulant de façon uniforme et indépendamment de toute influence extérieure. Avec ces concepts d'espace et de temps absolus, identiques pour tous les observateurs, Newton put établir les lois que nous avons passées en revue au premier chapitre et donner naissance à la science moderne.

Plus tard, avec les progrès dans la compréhension de l'électromagnétisme, un autre concept lié aux précédents fit son apparition. Il s'agissait de l'éther, une sorte de milieu immatériel qui était supposé servir de support à la propagation des ondes lumineuses et qui devait être au repos dans l'espace absolu. La question qui intéressait alors les physiciens était de savoir si la Terre était au repos ou en mouvement par rapport à l'éther et à l'espace absolu.


L'aberration


Une première réponse fut apportée par l'observation d'un phénomène appelé l'aberration. En effet, observée depuis la Terre, chaque étoile semble parcourir chaque année une petite ellipse dans le ciel, ceci indépendamment de la parallaxe. Cette variation fut interprétée par l'astronome anglais James Bradley en 1729 comme le résultat du mouvement de la Terre sur son orbite, combiné au fait que la vitesse de la lumière est finie. Un phénomène analogue se produit lorsque vous vous déplacez sous la pluie. En supposant qu'il n'y a pas de vent, la pluie tombe verticalement. C'est bien ce que vous observez si vous restez immobile. Mais ce n'est plus le cas si vous vous mettez à courir. Bien que la pluie continue à tomber verticalement, la vitesse vous donne l'impression que la pluie tombe en biais, un effet d'autant plus marqué que vous vous déplacez vite.

Le phénomène est le même pour la Terre. Du fait de la vitesse de déplacement de notre planète autour de Soleil, la direction apparente des rayons lumineux est légèrement perturbée. Comme le mouvement de révolution de la Terre est périodique, ces variations le sont également. Ainsi la position apparente d'une étoile, qui dépend de la direction de propagation de la lumière, parcourt une petite ellipse en une année. Cette interprétation repose clairement sur l'hypothèse que la Terre se déplace. Pour les physiciens de la fin du siècle dernier, le fait que l'aberration ait été effectivement observée prouvait donc que la Terre devait être en mouvement par rapport à l'éther, le présumé support des ondes lumineuses.

>


L'expérience de Michelson


Une fois ce point démontré, l'étape suivante consistait à mesurer la vitesse de la Terre par rapport à l'éther. La contribution majeure fut le fait du physicien américain Albert Michelson, qui développa un instrument pour effectuer cette mesure. Ce système, appelé un interféromètre, était constitué d'une source de lumière et d'un jeu de miroirs. Il fonctionnait de la manière suivante : un rayon lumineux à fréquence bien déterminée entrait dans l'instrument et était divisé en deux. Les faisceaux lumineux ainsi créés se propageaient dans des directions perpendiculaires, avant d'être réfléchis et finalement recombinés en un rayon unique. L'analyse de ce dernier montrait comment les deux faisceaux s'étaient comportés lorsqu'ils étaient séparés. L'interféromètre pouvait ainsi mettre en évidence une possible différence entre la propagation de la lumière suivant les deux directions perpendiculaires. Or, si la Terre était en mouvement par rapport à l'éther, la direction de propagation parallèle à ce déplacement était privilégiée. Les deux faisceaux lumineux devaient donc se comporter différemment et l'instrument de Michelson était en mesure de le montrer.

L'expérience eut lieu en 1887 et montra que l'effet attendu ne se produisait pas. Si l'éther existait, la Terre devait y être au repos. Exactement l'inverse de ce que l'aberration avait montré. Le concept d'éther aboutissait donc à une impasse. La Terre ne pouvait pas être à la fois en mouvement et au repos par rapport à lui. La seule conclusion possible était que l'éther, et l'espace absolu, n'existaient pas. Ce qui signifiait également qu'il fallait revoir la physique newtonienne, puisqu'elle reposait sur l'hypothèse d'un tel espace.

Plusieurs tentatives de révision furent faites après l'expérience de Michelson. Mais elles n'allaient pas assez loin dans le renouvellement des concepts de base. Il fallut attendre qu'un jeune physicien allemand, Albert Einstein, apporte une vision totalement nouvelle des choses. Ceci se fit en deux temps. D'abord, en 1905, Einstein présenta un premier travail, la théorie de la relativité restreinte, qui révolutionnait notre vision de l'espace et du temps, mettait en évidence l'interdépendance des deux notions et éliminait l'idée d'absolu dans ces concepts. Ensuite, en 1915, il publia la théorie de la relativité générale, qui complétait la précédente en traitant des effets de l'accélération et de la gravité, et allait encore plus loin dans la remise en cause de la physique de Newton.

 

La relativité restreinte

Albert Einstein développa la relativité restreinte à partir de deux principes de base. D'abord, les lois de la physique devaient être les mêmes dans tous les systèmes de référence, pourvu qu'ils ne soient pas soumis à une accélération. Aucun système n'était privilégié et il n'existait rien de tel qu'un espace absolu. Ensuite, la vitesse de la lumière devait être une constante fixe. Elle ne dépendait pas du mouvement de la source d'émission. Tous les observateurs, quel que soit leur mouvement, devaient mesurer la même valeur.


La vitesse de la lumière


Ce deuxième principe peut paraître étonnant. En effet, dans la vie de tous les jours, nous sommes habitués à ce que les vitesses s'additionnent ou se soustraient, selon le cas. Imaginons que je me trouve dans un train qui roule à 90 kilomètres à l'heure. Je décide d'aller vers l'avant et me mets à marcher à 10 kilomètres à l'heure par rapport au train. Pour un observateur extérieur, qui m'observe assis dans un pré, les vitesses s'additionnent et j'avance en fait à 100 kilomètres à l'heure par rapport au sol. La vitesse est donc une grandeur relative qui dépend du cadre de référence dans lequel elle est mesurée.

Mais ce qui est vrai dans la vie quotidienne ne l'est plus lorsque l'on considère la lumière. Imaginons maintenant qu'un photon, qui se déplace à la vitesse de la lumière dans un laboratoire, en émette un autre par quelque processus physique. Si les deux photons se dirigent dans le même sens, on s'attendrait à ce que le deuxième se déplace au double de la vitesse de la lumière par rapport au laboratoire. En fait, il n'en est rien, le deuxième photon se déplace exactement à la vitesse de la lumière par rapport au laboratoire. Ceci peut paraître étonnant, mais découle directement de l'expérience de Michelson. Celle-ci montre en effet que la lumière se propage de la même façon dans les directions parallèle et perpendiculaire au mouvement de la Terre. Sa vitesse est donc identique dans les deux directions et insensible à la distinction introduite par le déplacement de la Terre sur son orbite. De nombreuses autres expériences ont d'ailleurs confirmé cet état de fait.

Einstein
Albert Einstein : Ulm, 1879 - Princeton, 1955


La simultanéité en relativité restreinte


L'alliance des deux principes précédents allait révolutionner la physique et notre conception de l'espace et du temps. Pour illustrer les principales conséquences de la relativité restreinte, nous allons imaginer qu'avec un de vos amis, vous formiez une équipe d'astronautes chargés de vérifier les prédictions de la théorie. Votre ami se trouvera dans une navette spatiale pourvue de propulseurs très puissants lui permettant d'atteindre une vitesse proche de celle de la lumière. Vous-mêmes serez à bord d'une station spatiale éloignée de tout champ gravitationnel. Votre ami effectuera plusieurs passages à grande vitesse devant la station spatiale, en prenant bien soin à chaque fois de couper ses moteurs et donc de se déplacer à vitesse constante. Dans ces conditions, vous serez tous les deux dans des cadres de référence non accélérés et les deux principes d'Albert Einstein pourront vous être appliqués.

Commençons par la simultanéité. Dans la vie de tous les jours, deux événements simultanés le sont pour tout le monde. Si vous apercevez deux lampes s'allumer en même temps, n'importe quel autre observateur les verra également se mettre à briller au même moment. Pourtant, ce n'est plus le cas en relativité restreinte comme nous allons le voir. Lors de son premier passage, au moment précis où il passe juste devant vous, votre ami fait l'expérience suivante. Il se positionne exactement au centre de sa navette, allume une lampe et observe la propagation de la lumière vers l'avant et l'arrière du vaisseau. Puisqu'il se trouve exactement au centre de celui-ci, il vérifie bien que la lumière de la lampe atteint les deux extrémités de la navette au même moment, de façon simultanée.

Depuis la station spatiale, vous observez cette expérience et essayez également de déterminer le moment auquel la lumière atteint les parois de la navette. Mais les choses ne sont plus aussi simples car, pour vous, le vaisseau est en mouvement. L'arrière de la navette avance et se précipite vers les rayons lumineux provenant de la lampe, alors que l'avant au contraire s'éloigne et tend à retarder le moment de la rencontre. Pour vous, les rayons de la lampe atteignent donc l'arrière de la navette avant de toucher l'avant. Les deux événements, qui étaient simultanés pour votre ami, ne le sont pas pour vous.

Ainsi, avec la relativité restreinte, la simultanéité n'est plus un concept absolu. Si un observateur voit deux événements se produire simultanément en deux endroits distincts, un autre, en mouvement par rapport au premier, verra l'un des deux événements se produire en premier. Et un troisième observateur, se déplaçant en sens opposé, verra le deuxième événement arriver d'abord. Un phénomène plutôt étonnant, mais dont les conséquences ont maintes fois été vérifiées lors d'expériences, comme nous le verrons plus tard.

Cette perte de la simultanéité universelle a pour conséquence l'abandon de la notion de temps absolu. En effet, comment pourrait-on encore parler d'un temps absolu, indépendant de toute influence extérieure, si différents observateurs sont incapables de se mettre d'accord sur la chronologie de deux événements ?

 

La dilatation du temps


Passons à une autre expérience. Vous placez maintenant, dans votre station et dans la navette, deux horloges lumineuses. Il s'agit d'un système formé de deux miroirs qui se font face et sont placés parallèlement à la direction du mouvement de la navette. Un petit dispositif permet de créer un faisceau lumineux qui va aller et venir entre les deux miroirs, alternativement réfléchi par l'un et l'autre. La durée de passage de la lumière d'une paroi à l'autre est constante. Ce système constitue donc une horloge qui permet de mesurer le temps. Il suffit de compter le nombre de va-et-vient de la lumière et de convertir le résultat en une durée.

Dilatation du temps

La dilatation du temps. La figure représente votre horloge lumineuse et celle de votre ami, à quatre instants successifs. Les flèches représentent le déplacement de la lumière entre deux instants. Leur longueur, qui correspond à la vitesse de la lumière, doit être partout la même d'après Einstein. Votre horloge est au repos et la lumière s'y propage perpendiculairement aux miroirs. Par contre, l'horloge de votre ami se déplace très vite et les rayons lumineux semblent s'y propager en biais. La distance parcourue par la lumière dans un aller-retour est donc plus longue. Puisque la vitesse de la lumière est la même pour tout le monde, cela signifie qu'un va-et-vient dure plus longtemps sur l'horloge de votre ami que sur la vôtre. Le temps paraît s'écouler plus lentement à bord de la navette. Dans le cas de cette figure, le facteur de dilatation est de 1,5.

Muni de ce système, votre ami accomplit un nouveau passage, moteurs éteints, devant la station spatiale. Sur votre horloge, rien de spécial ne se produit. Celle-ci continue à battre tranquillement le temps, le système est immobile et la lumière se propage perpendiculairement aux miroirs. Sur l'horloge de votre ami, par contre, la situation est différente. Puisque la navette spatiale se déplace entre deux réflexions, vous voyez la lumière se déplacer de façon oblique par rapport aux miroirs, et non pas perpendiculairement. Les rayons lumineux doivent donc parcourir une distance plus grande pour effectuer un aller-retour. Mais, la vitesse de la lumière étant la même pour tout le monde d'après Einstein, une distance plus grande correspond à un temps plus long. En conséquence, la durée d'un va-et-vient de la lumière à bord de la navette est plus longue que dans votre horloge. Cela signifie que le temps à bord du vaisseau ne s'écoule pas de la même façon pour tous les observateurs. Par exemple, si la navette se déplace à 75 pour cent de la vitesse de la lumière, vous voyez la durée d'un aller-retour de la lumière à bord multipliée par 1,5.

L'une des objections au raisonnement précédent consiste à dire que l'effet observé est dû à la nature de ces horloges, non pas à une propriété du temps lui-même. Ceci est faux. Il suffit de placer une horloge normale, mécanique ou électrique, à côté du système lumineux. Les deux horloges, placées l'une à coté de l'autre, seront toujours d'accord entre elles, quel que soit l'observateur. Et si vous observez que le temps indiqué par la première ralentit, nécessairement celui de la deuxième subit le même phénomène.

Cet effet de dilatation du temps semble extraordinaire, mais il a bel et bien été vérifié expérimentalement. Remarquons tout de même qu'il n'a pas de conséquence visible sur notre vie de tous les jours. Comme le montre l'expérience précédente, la dilatation du temps n'est vraiment importante que lorsque la vitesse en jeu est proche de celle de la lumière. En effet, le facteur de dilatation est fonction de la vitesse. Il est par exemple de 1,5 à 75 pour cent de la vitesse de la lumière et de cinq à 98 pour cent. Mais, pour les vitesses dont nous avons l'habitude, il est très proche de un, et n'a par conséquent aucune influence. Ainsi, les particules dans nos accélérateurs sont affectées par le phénomène, mais pas une voiture ou un avion, du moins pas dans une proportion mesurable.


Les jumeaux et la dilatation du temps


L'un des aspects curieux de la dilatation du temps est sa parfaite symétrie. En effet, tout mouvement est relatif. Ainsi, du point de vue de votre ami, c'est sa navette qui est immobile et votre station spatiale qui se déplace presque à la vitesse de la lumière. Il observera donc que c'est la durée d'un aller-retour sur votre horloge lumineuse qui est plus longue. En conséquence, c'est toujours un ralentissement du temps que l'on observe chez les autres, jamais une accélération.

Le changement total dans notre perception du temps est bien illustré par l'exemple suivant. Imaginez que vous avez un frère jumeau astronaute qui décide d'effectuer un aller-retour vers une étoile proche, à 98 pour cent de la vitesse de la lumière. Pour vous, la durée du voyage est de 50 ans. Mais lorsque vous observez votre frère à l'aide d'un télescope, vous voyez son temps s'écouler cinq fois plus lentement. Ainsi, lorsqu'il revient, il n'a vieilli que de 10 ans au lieu de 50. Et vous vous retrouvez finalement âgé de 40 ans de plus que votre frère jumeau. Difficile à croire, mais les vérifications expérimentales de la relativité ne laissent planer aucun doute. Le jour où les avancées technologiques permettront une telle expérience, c'est exactement ce qui se passera.

La situation précédente pose néanmoins un léger problème, auquel on a donné le nom de paradoxe des jumeaux. En effet, au premier abord, la situation paraît symétrique. Lorsque votre jumeau se déplace à une vitesse proche de celle de la lumière, vous observez son temps s'écouler plus lentement. Mais, pour lui, c'est vous qui vous éloignez très vite et êtes affecté par le ralentissement du temps. Donc, à son retour, votre frère devrait être à la fois plus vieux et plus jeune que vous. Ce qui semble un peu difficile. En fait, il n'en est rien parce que la situation n'est pas réellement symétrique. Pour atteindre sa vitesse extraordinaire et rebrousser chemin au bon moment, votre frère doit fortement accélérer puis décélérer. Il ressentira clairement ces effets, alors que vous-même resterez en permanence au repos. Il y a donc une nette distinction entre son cadre de référence et le vôtre. La situation n'est pas symétrique et le paradoxe n'en est pas vraiment un.

 

Espace, masse, espace-temps


Si le temps est affecté par le mouvement, l'espace l'est également. Einstein a montré que la dilatation du temps s'accompagnait d'une contraction de l'espace. Tout observateur qui regarde un objet en mouvement voit l'une des dimensions de celui-ci diminuer. La dimension en question est celle que l'on mesure dans la direction parallèle au déplacement, les autres n'étant pas affectées. Imaginez que la navette de votre ami a une longueur de 60 mètres et une largeur de 10 mètres au repos. Lorsqu'elle passe devant vous à 75 pour cent de la vitesse de la lumière, vous la verrez toujours large de 10 mètres, mais longue de 40 au lieu de 60.

Une autre conséquence de la relativité restreinte concerne la masse. Tout comme le temps et l'espace, la masse d'un objet dépend de la vitesse de l'observateur qui la mesure. Un objet d'un kilogramme qui se déplace à 98 pour cent de la vitesse de la lumière se comporte comme s'il en avait en fait cinq. Cette augmentation de la masse est la raison pour laquelle la vitesse d'un objet est toujours inférieure à celle de la lumière. En effet, plus un corps va vite, plus il est massif et plus l'énergie nécessaire pour l'accélérer est grande. Lorsque sa vitesse est proche de celle de la lumière, sa masse s'accroît fortement et même une énergie énorme ne provoque qu'une faible accélération. Pour atteindre la vitesse de la lumière elle-même, l'énergie requise est infinie, ce qu'il est bien sûr impossible de fournir. Ainsi, un corps massif ne peut jamais strictement atteindre la vitesse limite. Ce raisonnement ne s'applique cependant pas aux photons car ils ont une masse nulle. Ils peuvent donc bien se déplacer à la vitesse de la lumière.

Minkowski
Hermann Minkowski : Alexotas, 1864 - Göttingen, 1909.
Auteur de l'interprétation de la relativité restreinte en termes de géométrie de l'espace-temps


Notons pour finir que l'indissociabilité de l'espace et du temps ont amené les physiciens à les associer pour former un concept plus général. D'après Newton, l'espace et le temps étaient deux notions totalement indépendantes, qui pouvaient exister l'une sans l'autre. Il était par exemple naturel de parler de la position d'un corps sans faire référence au moment où celle-ci était mesurée. Mais en relativité, comme nous l'avons vu, les deux notions vont de pair, elles sont indissociables. Pour cette raison, cette théorie ne peut considérer que des événements, des actions qui se produisent en un lieu et à un moment donnés. Parler de l'espace ou du temps indépendamment l'un de l'autre n'a plus de sens. En conséquence, les physiciens unifient les deux concepts dans une structure plus générale à quatre dimensions - trois pour l'espace et une pour le temps -, appelée l'espace-temps.

 

Gravité et accélération


Albert Einstein n'était pas totalement satisfait de la relativité restreinte car elle ne traitait pas des cadres de référence accélérés et ne pouvait pas s'accommoder de la loi de la gravitation universelle telle qu'Isaac Newton l'avait posée. Il se mit donc au travail et aboutit, après 10 ans d'efforts, à une théorie plus générale s'appliquant à tous les cadres de références et donnant une nouvelle interprétation de la gravité : la théorie de la relativité générale.


Le principe d'équivalence


Le point de départ est illustré par l'expérience suivante. Imaginez deux personnes qui se trouvent enfermées dans deux cabines identiques, l'une à la surface de la Terre, l'autre dans l'espace, accrochée à une fusée en pleine accélération. Ces deux observateurs se livrent alors à une petite expérience : ils lâchent une pomme. Le premier voit simplement sa pomme tomber, donc accélérer, sous l'effet de la gravité. Mais que se passe-t-il dans la deuxième cabine ? Celle-ci est accélérée vers le haut par la fusée. Cependant, la pomme, qui vient d'être lâchée, ne suit pas le mouvement. Relativement à la cabine, elle semble donc accélérer vers le bas et tomber. Si la puissance de la fusée est choisie convenablement, la pomme va tomber exactement comme elle le ferait sur Terre. Par conséquent, les deux observateurs sont dans l'incapacité de dire dans quelle cabine ils se trouvent, celle qui est posée sur Terre ou celle qui accélère dans l'espace.

Les deux expériences précédentes se déroulent de manière totalement identique. Les lois de la mécanique sont donc les mêmes dans un système soumis à la gravité et dans un système accéléré. Einstein généralisa cette idée à toutes les lois de la physique et lui donna le nom de principe d'équivalence. Ceci fut le point de départ de sa nouvelle théorie qui allait révolutionner la physique et tout particulièrement l'astrophysique.


La matière et le temps


Deux conséquences de la relativité générale découlent immédiatement du principe d'équivalence. D'abord, le fait que la matière ralentisse le temps. Imaginez l'expérience suivante. Vous vous trouvez au sommet d'une fusée en pleine accélération. Au bas de la fusée se trouve une horloge qui émet un signal lumineux toutes les secondes. Vous observez cette horloge et essayez de mesurer l'intervalle séparant deux signaux. Entre l'émission de la lumière et son arrivée à votre oeil, la vitesse de la fusée augmente puisque celle-ci accélère. Le sommet a donc tendance à fuir devant les rayons lumineux et à retarder le moment du contact. Cet effet est d'autant plus marqué que le temps passe et que la vitesse de la fusée augmente. La durée du trajet de la lumière est donc de plus en plus longue. En conséquence, les rayons lumineux n'arrivent pas à votre oeil toutes les secondes, mais à un rythme légèrement plus faible. Vous observez ainsi que le temps indiqué par cette horloge s'écoule plus lentement que celui de la montre à votre poignet.

Mais, d'après le principe d'équivalence, le même phénomène se produit si l'on considère un bâtiment à la surface de la Terre au lieu d'une fusée en accélération. En conséquence, le temps doit s'écouler plus lentement à la base d'un immeuble qu'à son sommet. Les habitants du rez-de-chaussée vieillissent donc un peu moins vite que ceux du dernier étage. Un effet étonnant, mais vérifié par l'expérience. N'allez pas pour autant déménager de suite. La gravité de la Terre est très faible, ce qui rend cet effet complètement négligeable. La différence ne sera que d'une minuscule fraction de seconde sur toute une vie.

Remarquons que contrairement à la dilatation du temps en relativité restreinte, le ralentissement du temps par la gravité n'est pas réciproque. En effet, si vous êtes au pied de la fusée et observez une horloge au sommet, l'accélération vous précipite vers les rayons lumineux. La durée de leur trajet est de plus en plus courte et le temps paraît s'écouler plus vite en haut. En revenant au cas de l'immeuble à la surface de la Terre, c'est donc toujours encore à la base que le temps s'écoule plus lentement.


La matière et la lumière


La deuxième conséquence immédiate de la relativité générale est l'influence de la gravité sur la propagation de la lumière. Imaginez-vous à nouveau dans la fusée en accélération. Cette fois-ci, vous allumez une torche lumineuse et vous la braquez perpendiculairement à la direction du mouvement. Les photons, une fois émis, ne sont plus liés ni à la lampe, ni à la fusée. L'accélération de cette dernière induit donc un léger décalage entre la hauteur de la torche et celle du point d'impact des rayons lumineux sur la paroi de la fusée. Ainsi, la lumière ne se déplace pas en ligne droite mais est légèrement dévié vers le bas par rapport à la fusée.

Or, d'après le principe d'équivalence, la situation est la même au repos dans un champ de gravité. En présence d'une masse, un rayon lumineux est donc dévié. Cela signifie que si vous allumez une lampe sur Terre, la lumière ne se propagera pas exactement en ligne droite, mais suivra une trajectoire légèrement courbe du fait de la gravité de notre planète. L'effet sera évidemment très faible et passera inaperçu. Mais nous verrons que pour des champs gravitationnels plus forts, il sera tout à fait appréciable.

 

La relativité générale

En développant ces idées, Einstein aboutit à une nouvelle vision de la gravitation qui devait remplacer celle d'Isaac Newton : la relativité générale. L'aspect le plus important de cette théorie est la disparition du concept de force de gravitation. Pour Einstein, le mouvement d'un corps n'est pas déterminé par des forces, mais par la configuration de l'espace-temps. Par exemple, d'après Newton, la Terre tourne autour du Soleil car celui-ci exerce une force gravitationnelle sur notre planète, alors que pour Einstein, c'est une perturbation de l'espace-temps introduite par la masse du Soleil qui est à l'origine du mouvement de la Terre.

Pour mieux comprendre cette idée, faisons appel à une analogie à deux dimensions. L'espace, en relativité générale, peut être comparé à une sorte de tissu élastique. La présence d'une étoile peut être simulée en y posant une bille. Celle-ci s'enfonce dans le tissu, le déforme et y crée une dépression. Que se passe-t-il lorsqu'un petit corps passe à proximité de l'étoile ? Pour répondre à cette question, faisons rouler une bille plus petite sur le tissu. La trajectoire est d'abord une simple ligne droite, mais, lorsque la deuxième bille passe à proximité de la première, elle pénètre légèrement dans la dépression. Elle est alors déviée de la ligne droite initiale et sa trajectoire se courbe. Le point important est que sur ce tissu élastique, le mouvement des billes n'est pas dicté par des forces, mais simplement par la forme de l'espace ou, plus précisément, par la courbure de celui-ci.

L'espace comme tissu élastique
L'espace comme tissu élastique. La première bille crée une dépression dans le tissu.
La deuxième bille pénètre légèrement dans la dépression et sa trajectoire se courbe.


De même, la relativité générale abandonne la notion de force et la remplace par le concept de courbure de l'espace-temps. Les corps célestes essayent d'adopter des trajectoires aussi droites que possibles, mais ils doivent se soumettre à la configuration de l'espace-temps. Loin de toute distribution de matière, la courbure de ce dernier est nulle et toutes les trajectoires sont des lignes droites. Par contre, près d'un corps massif, l'espace-temps est déformé et les corps se déplacent sur des lignes courbes, par exemple des paraboles ou des ellipses.

Pour être complète, la théorie de la relativité générale doit également donner un moyen de calculer la courbure de l'espace-temps créée par une distribution de masse. Elle le fait par l'intermédiaire d'un système très complexe de formules mathématiques, les équations d'Einstein, qui relient courbure de l'espace-temps et distribution de masse. Ce système est si complexe qu'il n'a été résolu que dans quelques cas de figure très simples, par exemple autour d'une étoile isolée.

Nous le constatons, la vision du monde d'Albert Einstein est très différente de celle proposée par Isaac Newton. Néanmoins, la plupart du temps, les deux théories donnent des résultats pratiquement identiques. Les divergences n'apparaissent que dans des conditions extrêmes, soit pour des objets se déplaçant à une vitesse proche de celle de la lumière, soit pour des corps qui engendrent de très puissants champs de gravité. Ce qui n'est pas le cas sur Terre, dans la vie de tous les jours. C'est pourquoi les automobilistes et les piétons vieillissent au même rythme, ainsi que les habitants du rez-de-chaussée et du dernier étage d'un immeuble.

 

Les vérifications de la relativité


Étant donné le bouleversement total de la physique qu'impliquait la relativité générale, il fallait bien évidemment prouver que la théorie était correcte, qu'il ne s'agissait pas uniquement d'une magnifique construction intellectuelle, mais bien d'une description du monde réel. Les premières confirmations observationnelles arrivèrent très rapidement après la publication de la théorie et, jusqu'à nos jours, aucun test expérimental n'a réussi à prendre celle-ci en défaut.


La précession du périhélie de Mercure


La première confirmation fut apportée par Einstein lui-même, lorsqu'il appliqua la relativité générale au mouvement des corps du système solaire. Nous avons vu que l'orbite de la Terre était une ellipse. Si notre planète était la seule à tourner autour du Soleil, cette ellipse serait fixe. Mais ce n'est pas le cas. Les autres planètes ont également une influence gravitationnelle et perturbent en conséquence le mouvement de la Terre. Le résultat est que l'ellipse n'est pas fixe, mais tourne très lentement sur elle-même. Cet effet, appelé la précession du périhélie, concerne toutes les planètes et s'explique très bien en utilisant les lois de Newton.

Les observations astronomiques ont montré que l'ellipse de chaque planète du système solaire tourne bien à la vitesse prédite par la mécanique classique. Sauf pour Mercure. L'ellipse de la planète la plus proche du Soleil tourne légèrement plus vite qu'elle ne devrait. L'avance est très faible, environ 43 secondes d'arc par siècle, mais néanmoins mesurable à long terme. C'est à ce problème qu'Einstein appliqua sa nouvelle théorie. En effet, la déformation de l'espace-temps autour du Soleil étant maximale au niveau de Mercure, un désaccord avec la physique de Newton y est fort possible. Einstein montra en 1915 qu'en appliquant la relativité générale au mouvement de cette planète, il arrivait à une précession du périhélie égale à celle que l'on mesurait effectivement et qui avait laissé perplexe des générations d'astronomes. C'était une première confirmation éclatante du bien fondé de sa théorie.

Plus récemment, un phénomène similaire a été observé, cette fois dans une étoile binaire dont l'un des membres est un pulsar. Cette situation est idéale car l'observation radio du pulsar permet de déterminer les mouvements au sein du couple. La précession du périhélie est beaucoup plus forte dans ce cas, de l'ordre de quatre degrés par an, ce qui n'a pas empêché les prédictions de la relativité générale d'être parfaitement vérifiées.


La trajectoire des rayons lumineux


La deuxième confirmation de la relativité générale arriva en 1919, lorsque des observations mirent en évidence que la trajectoire des rayons lumineux est effectivement courbée en présence de masse. Comme nous l'avons vu, le Soleil déforme l'espace-temps autour de lui, ce qui entraîne une légère déviation des rayons lumineux qui passent à proximité. Cela signifie qui si vous observez des étoiles à un moment où elles apparaissent proches du disque solaire, leur position apparente doit être légèrement modifiée. Par exemple, l'image des étoiles les plus proches du disque solaire doit se déplacer de 1,75 secondes d'arc.

Pour vérifier cette prédiction, il fallait organiser une observation en deux temps. La première opération consistait à prendre une photographie des étoiles proches du disque solaire lors d'une éclipse de Soleil, lorsque la lumière de notre étoile était masquée par la Lune. Ensuite il fallait prendre un deuxième cliché de la même région du ciel, lorsque le Soleil s'était suffisamment éloigné et que les rayons lumineux n'étaient plus perturbés. La comparaison des deux images devait montrer directement si la position des étoiles avait changé. L'Anglais Arthur Eddington et d'autres astronomes firent cette expérience en 1919. Ils constatèrent que la position des étoiles avait effectivement changé entre les deux clichés et que le déplacement était celui que la relativité générale prédisait. Ce deuxième succès confirma pour de bon la portée de la relativité générale et fit rapidement d'Einstein une célébrité mondiale.


Le ralentissement du temps


Le troisième type de prédiction concerne le ralentissement du temps au voisinage d'un corps massif. Une fois encore la théorie fut vérifiée par l'expérience. Une horloge atomique fut placée à bord d'un avion volant à 10 kilomètres d'altitude. Au retour, elle avait quelques milliardièmes de seconde d'avance sur une horloge identique qui était restée au sol (attention à ne pas confondre avec l'effet de dilatation du temps qui est dû à un mouvement relatif, pas à la gravité). Le temps s'était bel et bien écoulé un peu plus lentement à la surface de la Terre qu'à une altitude de 10 kilomètres.


L'effet Einstein


D'autres expériences mirent en évidence un phénomène associé au précédent : l'effet Einstein. Imaginons qu'un rayonnement de longueur d'onde donnée est émis à la surface d'un corps massif. Pour un observateur au loin, qui voit le temps s'écouler plus lentement à la surface de l'astre, la période de la lumière et sa longueur d'onde apparaissent légèrement plus longues. Ainsi, par exemple, de la lumière jaune serait légèrement décalée vers le rouge. Ceci a été vérifié pour le rayonnement provenant de plusieurs naines blanches, le décalage relatif étant dans ce cas de l'ordre de quelques cent-millièmes. L'effet Einstein a également été mesuré sur Terre. Le décalage de longueur d'onde entre la base et le sommet d'un immeuble de 20 mètres n'est que d'un millionième de milliardième, mais il a été possible de le mettre en évidence et de vérifier l'accord avec la relativité générale.

 

Les ondes gravitationnelles


L'une des prédictions de la théorie d'Einstein va probablement jouer un rôle clef dans l'astronomie du siècle prochain. Il s'agit de l'existence d'ondes gravitationnelles. Lorsqu'une particule chargée est accélérée, elle produit des perturbations des champs électrique et magnétique qui se propagent à la vitesse de la lumière. Ce sont des ondes électromagnétiques. De la même façon, lorsqu'un corps massif est accéléré, l'espace-temps autour de lui doit en permanence se réajuster, ce qui se traduit par de légères perturbations qui se propagent à la vitesse de la lumière. On les appelle des ondes gravitationnelles.

VIRGO
L'interféromètre franco-italien VIRGO près de Pise est composé de deux bras orthogonaux de trois kilomètres. Cet instrument utilise le principe de l'interféromètre de Michelson pour mesurer d'infimes variations relatives de la longueur des bras causées par le passage d'ondes gravitationnelles.


Emission d'ondes gravitationnelles


Une preuve - indirecte - de l'existence de ces ondes fut apportée en 1974 par les astrophysiciens américains Joseph Taylor et Russell Hulse. A cette époque, ils étudiaient le pulsar PSR1913+16, qui avait la particularité d'être membre d'un système binaire constitué de deux étoiles à neutrons. En étudiant les émissions radio du pulsar, les deux astronomes furent en mesure de déterminer la période orbitale du couple. Ils se rendirent alors compte que celle-ci décroissait légèrement, d'un millième de seconde par an.

C'est ce phénomène qui fut interprété comme la conséquence de l'émission d'ondes gravitationnelles. En effet, les deux étoiles à neutrons étant très rapides et massives, leurs mouvements donnent lieu à une très forte émission d'ondes gravitationnelles. Celles-ci emportent avec elles beaucoup d'énergie. Par conséquent, le système binaire doit perdre un peu de la sienne. Cela se traduit par une diminution de la distance entre les deux étoiles et par une baisse de la période orbitale, exactement l'effet observé par Taylor et Hulse. La décroissance de la période mesurée en 1974 était exactement celle que la relativité générale prévoyait pour une étoile binaire émettant des ondes gravitationnelles. Ce fut donc une nouvelle vérification de la théorie, mais surtout une preuve indirecte de l'existence de ces ondes.

L'interaction gravitationnelle, même si elle domine à grande échelle, est extrêmement faible à une échelle microscopique. En conséquence, les ondes gravitationnelles interagissent très peu avec la matière. Elles traversent sans problème les concentrations de masse les plus fortes, par exemple une étoile à neutrons. L'univers est en quelque sorte transparent aux ondes gravitationnelles.

Cette propriété en fait un outil de choix pour l'astronomie. En effet, de nombreux processus astrophysiques nous sont totalement inaccessibles. Par exemple, nous ne pouvons observer que la surface des étoiles car le rayonnement des régions internes ne peut pas s'échapper. L'étude des ondes gravitationnelles émises par ces processus nous permettrait de les étudier directement, ce qui constituerait une avancée majeure. Cette possibilité ouvrirait la voie à l'étude de certains des phénomènes les plus intéressants de l'astronomie : effondrement gravitationnel des étoiles massives, fusion de deux étoiles à neutrons dans un système binaire, processus en jeu au centre des galaxies ou bien tous les phénomènes associés aux trous noirs.


Détection des ondes gravitationnelles


Mais cet avantage des ondes gravitationnelles devient un inconvénient lorsqu'il s'agit de les détecter. Lorsqu'une telle onde traverse un objet, le passage se manifeste par des oscillations de celui-ci. Un cercle est par exemple momentanément transformé en une ellipse. Il devrait ainsi être facile de détecter le passage. Le problème réside dans le fait que les perturbations sont extrêmement faibles et très difficiles à observer. Pour se fixer les idées, imaginons qu'une supernova explose dans notre Galaxie. Il s'agit là d'un cas très favorable, qui devrait conduire à une forte dose d'ondes gravitationnelles au niveau de la Terre. La variation relative de taille ne serait cependant que d'un milliardième de milliardième, l'équivalent d'un changement d'une fraction de micromètre dans la distance du Soleil à la Terre. Une telle précision est clairement hors de portée à l'heure actuelle.

Mais les astrophysiciens ont une fois de plus relevé le défi. Plusieurs grands instruments, en particulier VIRGO et LIGO, sont en cours de construction. Ce sont tous des interféromètres fonctionnant selon le même principe que le système d'Albert Michelson. Le rayonnement provenant d'un laser est divisé en deux faisceaux. Ceux-ci sont envoyés dans des directions perpendiculaires, puis réfléchis par des miroirs et finalement recombinés. L'analyse de la lumière après combinaison permet de dire si la durée de propagation de la lumière dans l'une des directions a été perturbée. Si tel est le cas, cela signifie que la distance parcourue par l'un des faisceaux a légèrement varié sous l'effet du passage d'une onde gravitationnelle.

Étant donné la faiblesse des effets à mesurer, ces interféromètres doivent être très sensibles. En particulier, la distance parcourue par la lumière doit être aussi grande que possible. Pour cette raison, ces détecteurs sont gigantesques, leurs bras font plusieurs kilomètres de long. Il est également crucial de réduire toutes les sources de bruits parasites, tout spécialement ceux d'origine sismique ou thermique. Malgré toutes ces difficultés, l'optimisme est de rigueur et les prochaines années devraient voir la naissance d'une nouvelle branche de l'astronomie, l'étude de l'univers au moyen des ondes gravitationnelles.

Finissons par un projet encore plus ambitieux. En effet, un détecteur à la surface de la Terre sera toujours très limité. Pour améliorer encore la sensibilité, l'espace est la seule solution. Ainsi, un projet spatial appelé LISA est à l'étude. Il s'agirait d'un ensemble de quatre satellites travaillant de façon coordonnée. Au lieu de quelques kilomètres, la taille équivalente du détecteur serait alors de plusieurs millions de kilomètres. Un tel système rendrait possible l'étude d'une plus grande variété de phénomènes, mais également la détection d'événements beaucoup plus lointains.

 


Partager cette page

Repost 0
Published by