Overblog Suivre ce blog
Editer la page Administration Créer mon blog
/ / /

Avec l'aimable autorisation de l'auteur de ces publications Mr Olivier ESSLINGER auquel j'adresse mes  sincères remerciements



LES PLANETES EXTRASOLAIRES




Les disques protoplanétaires


Des disques de poussières


Le premier satellite d'observation dans l'infrarouge, IRAS, fut à l'origine de l'une des découvertes fondamentales dans le domaine de la formation de systèmes planétaires. Ses observations révélèrent que certaines étoiles présentent ce que l'on appelle un excès infrarouge, c'est à dire un niveau d'émission dans ce domaine beaucoup plus grand que ce que l'étoile elle-même laisse prévoir. On connaît maintenant une centaine d'étoiles de ce type, parmi lesquelles Véga, mais l'exemple le plus connu se nomme Béta Pictoris.

La source de l'excès infrarouge peut se comprendre en considérant notre propre système solaire. En effet, ce dernier contient en plus des planètes une myriade de petits corps dont la taille varie de plusieurs kilomètres pour les astéroïdes à quelques milliardièmes de mètres pour les grains de poussière. Ces petits corps, illuminés par le Soleil dans le domaine visible et l'ultraviolet, diffusent une partie de la lumière - c'est la lumière zodiacale - mais absorbent le reste. L'énergie ainsi accumulée est ensuite réémise par ces corps dans le domaine infrarouge. C'est un phénomène similaire à une plus grande échelle qui explique les observations d'IRAS : l'excès infrarouge n'est pas dû aux étoiles elles-même mais à des disques de poussières qui les entourent.

Cette hypothèse fut confirmée en 1984 lorsque des images de Béta Pictoris révélèrent un disque de matière autour de l'étoile, d'un diamètre supérieur à 1000 unités astronomiques, soit 1000 fois la distance Soleil-Terre. Depuis, d'autres disques de poussière ont été directement confirmés, mais Béta Pictoris reste le plus bel exemple, son disque étant très brillant et sa taille apparente relativement grande - plus de 60 secondes d'arc.

Béta Pictoris
Une image du disque circumstellaire autour de l'étoile Béta Pictoris prise dans l'infrarouge
 en 1997 avec le système d'optique adaptative Adonis de l'ESO et un coronographe.


 

D'autres observations dans les années 1990 ont mis en lumière une autre caractéristique importante du disque de Béta Pictoris. La zone centrale, jusqu'à environ 25 unités astronomiques de l'étoile, soit une taille similaire à celle du système solaire, est quasiment dépourvue de poussières. L'hypothèse retenue pour expliquer ce phénomène est la présence d'une ou de plusieurs planètes. En effet, la théorie montre qu'une planète doit, sous l'effet de sa gravité, nettoyer la zone dans laquelle elle se déplace, soit en déviant les petites particules vers les régions externes, soit en provoquant leur chute vers l'étoile. Cette observation d'une zone à faible densité est donc un argument de poids en faveur de l'existence de planètes autour de Béta Pictoris.

 

 

La nébuleuse d'Orion

 

Une fois l'existence de disques établie, la question se posa de leur abondance. La réponse fut apportée lors d'observations de la nébuleuse d'Orion par le télescope spatial Hubble. En se tournant vers cette nébuleuse, le télescope découvrit des disques de poussière autour de plus de la moitié des étoiles de la région. Les images à haute résolution montrèrent des objets de forme clairement aplatie et non pas arrondie, ce qui prouvait qu'il s'agissait bien de disques.

La nébuleuse d'Orion, l'une des merveilles du ciel, est bien connue pour être une pouponnière d'étoiles très jeunes, âgées d'environ un million d'années. Les astres les plus massifs y ont déjà atteint leur phase stable et ce sont eux qui illuminent la nébuleuse. Mais la majorité des étoiles n'ont pas encore atteint cette phase et sont donc encore en contraction. Les disques de poussière n'ont quant à eux pas encore commencé à former de planètes. La situation est donc différente de celle de Béta Pictoris pour laquelle la formation de planètes a déjà eu lieu.

 

 


Les méthodes de détection d'exoplanètes

 

Détecter des planètes en dehors du système solaire est une entreprise extrêmement difficile avec des méthodes d'observation traditionnelles. D'abord parce que les planètes n'émettent guère de lumière par elles-mêmes et ne sont donc visibles que par réflexion de l'éclat de leur étoile. Ensuite, parce que ces planètes se trouvent à proximité d'une étoile qui, elle, émet énormément de lumière et va complètement noyer le faible éclat de la planète. Enfin, parce que le problème de la turbulence atmosphérique va comme d'habitude rendre les mesures beaucoup plus difficiles pour les télescopes terrestres. Pour toutes ces raisons, la recherche de planètes extrasolaires n'a vraiment put commencer qu'à la fin du XXe siècle avec des méthodes nouvelles et des instruments d'une précision sans précédent.

 

 

La méthode de la vitesse radiale

 

 

La méthode qui a rencontré le plus de succès dans la recherche d'exoplanètes est celle de la vitesse radiale, qui s'appuie sur les perturbations qu'une planète provoque sur le mouvement de son étoile. En effet, tout comme l'étoile exerce une force d'attraction gravitationnelle sur la planète, cette dernière produit une force égale et opposée sur l'étoile. Et qui dit force dit mouvement. Bien évidemment, l'étoile est beaucoup plus massive que la planète et l'effet de cette force réciproque est donc extrêmement faible. Mais il peut néanmoins être détecté dans certaines conditions.

Les variations de position de l'étoile sous l'effet de cette perturbation planétaire sont très faibles et trop difficiles à détecter à l'heure actuelle. La méthode de la vitesse radiale cherche donc à mesurer les petits changements de vitesse plutôt que de position de l'étoile. Un moyen très efficace pour cela est d'utiliser l'effet Doppler.

En effet, les variations de vitesse de l'étoile le long de notre ligne de visée se traduisent, grâce à l'effet Doppler, par de légers déplacements en longueur d'onde du spectre apparent de l'étoile. Il suffit donc en théorie d'identifier certaines raies de ce spectre et d'observer les faibles changements de leur longueur d'onde avec le temps pour en déduire la présence d'une perturbation gravitationnelle par autre corps.

Evidemment ces fluctuations sont toujours très faibles et ne sont généralement détectables que lorsque la planète produit d'importantes perturbations gravitationnelles. Ceci limite généralement la méthode de la vitesse radiale aux planètes les plus massives, de type géante gazeuse comme Jupiter, et plus proches de leur étoile que Mercure de notre Soleil. Lorsque ces conditions sont réunies, des observations spectroscopiques très précises peuvent révéler la planète et fournir approximativement sa masse et des informations sur son orbite.

 

 

La méthode du transit

 

 

La deuxième méthode principale de recherche d'exoplanètes est l'observation d'un possible transit, c'est à dire le passage d'une planète exactement entre l'étoile et nous lors de son orbite. Evidemment le transit de la planète n'est pas observable directement étant donné les distances en jeu. Mais lorsqu'il se produit, la luminosité apparente de l'étoile baisse légèrement car une petite fraction de sa surface est cachée temporairement, et des mesures précises peuvent donc détecter cette situation.

Cette méthode fournit des informations plus précises que la précédente sur la masse et l'orbite de la planète. Elle permet également de calculer la taille de la planète puisque plus cette dernière est grande plus la baisse temporaire de luminosité est marquée.

Courbe de lumière
La courbe de lumière d'un transit d'exoplanète observé par le satellite Corot en mai 2007.

 

La méthode du transit est malheureusement moins fructueuse que la précédente en terme de nombre de détections car elle ne peut révéler que les planètes qui passent exactement entre leur étoile et la Terre, ce qui est rare. Elle est également limitée aux planètes géantes gazeuses car une petite planète tellurique ne provoquerait pas une baisse de luminosité suffisamment marquée pour être détectable à l'heure actuelle.

 

 

L'effet de microlentille gravitationnelle

 

 

Un effet de lentille gravitationnelle classique se produit par exemple lorsque une étoile proche passe exactement entre la Terre et une étoile plus éloignée. D'après la relativité générale, les rayons lumineux qui nous proviennent de l'étoile lointaine sont légèrement déviés au passage de la plus proche. Ceci peut produire des effets d'optique comme des images multiples de l'étoile lointaine ou une augmentation de sa luminosité apparente.

Une microlentille gravitationnelle est la situation beaucoup plus rare où l'étoile proche est accompagnée d'une planète qui contribue à la déviation des rayons lumineux. Dans ce cas, l'analyse de l'image finale peut révéler les distorsions que la planète introduit et fournit donc une méthode indirecte de détection de cette dernière.

L'effet de microlentille gravitationnelle permet de calculer la masse de la planète et sa distance approximative à l'étoile. Cette méthode nécessite un alignement parfait entre deux étoiles et est donc relativement limitée. Elle présente cependant l'énorme avantage de pouvoir détecter des planètes plus petites et plus éloignées de leur étoile puisqu'elle ne dépend ni de perturbations gravitationnelles, ni de mesures de luminosité.

 

 

Les autres méthodes

 

 

La méthode la plus classique de l'astronomie, l'observation directe, est très limitée dans la recherche d'exoplanètes à cause des limitations présentées ci-dessus. Elle peut néanmoins produire des résultats dans des circonstances idéales, lorsque l'étoile est très peu lumineuse, comme par exemple dans le cas d'une naine brune.

Une variation sur la méthode du transit classique est le cas où la planète passe derrière plutôt que devant l'étoile. On peut alors comparer la lumière globale du système avant le transit et pendant celui-ci, la différence provenant uniquement de la planète. Cette méthode relativement nouvelle est très intéressante car elle peut fournir plus de données sur la planète, par exemple sa température.

La méthode astrométrique consiste à mesurer des changements de position apparente de l'étoile dans le ciel produits par l'influence gravitationnelle de la planète. Elle est très difficile à mettre en oeuvre car les fluctuations sont infimes et inférieures en particulier aux perturbations introduites par la turbulence atmosphérique.

Finalement, dans le cas particulier des planètes en orbite d'un pulsar, de faibles fluctuations de l'émission radio du pulsar peuvent indiquer la présence de planètes.

 

 

Les observations d'exoplanètes


Les premières détections prouvées

 

 

La première détection prouvée d'une planète extrasolaire ne fut pas en orbite autour d'une étoile classique mais autour d'un pulsar, PSR 1257+12, en 1992. L'étude de ce pulsar mit en évidence de faibles variations de période de son rayonnement radio. Celles-ci ne pouvaient s'expliquer que par des perturbations gravitationnelles provoquées par trois petits corps en orbite, l'un de la masse de la Lune, les deux autres avec deux tiers de la masse de la Terre. Notons que ces planètes se sont probablement formées après l'explosion en supernova car il est difficile d'imaginer que des planètes classiques puissent survivre à un tel cataclysme.

La première détection prouvée d'une planète en orbite autour d'une étoile normale fut faite par Michel Mayor et Didier Queloz de l'observatoire de Genève vers la fin 1995. En observant avec une très grande résolution spectrale l'étoile 51 Pegasi, située à 50 années-lumière de nous, ils purent mettre en évidence de très faibles oscillations de la position des raies spectrales. Ils déterminèrent que la vitesse de l'étoile variait avec une période de 4,2 jours et une amplitude de 70 mètres par seconde. Ce résultat fut interprété comme la conséquence de l'influence gravitationnelle d'une grosse planète en orbite autour de 51 Pegasi.

A partir de la période et de l'amplitude des variations, Michel Mayor et Didier Queloz purent estimer la masse de la planète, environ la moitié de celle de Jupiter, et sa distance à l'étoile, environ 7,5 millions de kilomètres, soit seulement 0,05 unités astronomiques. A partir de cette distance, il fut possible de calculer la température moyenne de la planète, environ 1300 degrés Celsius, ce qui suggère que cette dernière est dépourvue d'atmosphère et partiellement ou complètement liquide.

Naine brune 2M1207 La première planète extrasolaire à être observée directement (à gauche), en orbite autour de la naine brune 2M1207 (au centre). Cette image a été prise en septembre 2004 par le télescope Yepun du VLT, muni d'optique d'adaptative. Des observations ultérieures ont prouvé que les deux corps font partie d'un même système à 230 années-lumière de nous. La planète doit avoir environ 5 fois la masse de Jupiter et se trouve à une distance de 55 unités astronomiques de son étoile, soit environ deux fois la distance entre Neptune et le Soleil.


Une profusion d'exoplanètes

 

 

Depuis la découverte de 51 Pegasi en 1995, plus de 200 planètes ont été identifiées. Début mai 2007, on comptait ainsi 232 planètes. La méthode de la vitesse radiale avait identifié 220 planètes, ceci dans 189 systèmes planétaires différents dont 22 possédaient plus d'une planète. La méthode du transit avait révélé 19 planètes, et les méthodes de microlentille gravitationnelle et d'observation directe avaient chacune détecté 4 planètes. Finalement, 4 planètes avaient été détectées autour de deux pulsars.

Les planètes découvertes jusqu'ici ne sont sans doute pas très représentatives de la population réelle car les observations sont très affectées par un effet de sélection. La grande majorité des planètes extrasolaires connues sont en effet des géantes proches de leur étoile car ce type de planète est beaucoup plus facile à détecter. En réalité, il existe probablement une population de planètes beaucoup plus variée, comprenant en particulier des planètes plus petites comme la Terre ou Mars. Les connaissances actuelles permettent néanmoins déjà d'aboutir à des conclusions très intéressantes.

En terme de masse, la plupart des exoplanètes détectées sont des géantes gazeuses dont la masse se trouve entre 0,1 et 14 fois celle de Jupiter. La masse minimale détectée est d'environ 5 fois la masse de la Terre et seules trois planètes aussi petites ont été découvertes à ce jour. Il s'agit bien sur d'un effet de sélection puisque la principale méthode d'observation, la vitesse radiale, ne peut détecter que les grosses planètes. D'un point de vue statistique, en prenant en compte cet effet de sélection, il est probable que les planètes de faible masse sont beaucoup plus communes dans la population réelle.

En terme d'orbite, la plupart des planètes sont plutôt proches de leur étoile, un effet de sélection, mais les valeurs varient malgré tout entre 0.02 et 7 unités astronomiques. Ceci équivaut à une période orbitale comprise entre un jour terrestre et une dizaine d'années terrestres, avec à noter une concentration surprenante autour d'une valeur de trois jours.

Une découverte intéressante est le fait que la majorité des planètes ont une orbite excentrique, c'est-à-dire plus elliptique que circulaire. Il s'agit là d'une différence majeure avec le système solaire où les orbites planétaires sont toutes plus ou moins circulaires. Notons que ceci n'est pas le fruit d'un effet de sélection, mais un fait réel qui pose un vrai défi aux théories actuelles de formation des systèmes planétaires.

La majorité des exoplanètes ont été observées autour d'étoiles de masse relativement faible de types F, G et K. Là encore un effet de sélection puisque les recherches se concentrent sur ce type d'étoiles. Il semblerait cependant que la formation de planètes soit difficile autour d'étoiles plus massives à cause de phénomènes comme la photo-évaporation. Les observations montrent aussi que les étoiles contenant plus d'éléments lourds ont plus de chances d'être entourées de planètes.

 

 

Quelques exemples d'exoplanètes

 

Après un survol des propriétés générales des exoplanètes connues, passons en revue quelques cas particuliers plus intéressants.

 

 

La meilleure candidate pour l'eau liquide : Gliese 581 c

 

 

La planète la plus susceptible de porter de l'eau sous forme liquide fut révélée en Avril 2007 à partir de mesures de vitesse radiale au télescope de 3,6 mètres de l'ESO à La Silla au Chili. Elle se trouve en orbite autour de la naine rouge Gliese 581, à 20,5 années-lumière de la Terre, dans la constellation de la Balance. La planète a une masse d'environ 5 fois celle de la Terre et un diamètre 1,5 fois plus grand, ce qui en fait très probablement une planète rocheuse.

La planète parcourt son orbite en 13 jours terrestres à une distance 14 plus petite que celle de la Terre au Soleil. Gliese 581 c est donc beaucoup plus proche de son étoile que la Terre. Mais comme l'étoile est une naine rouge avec une surface 50 fois moins chaude que celle du Soleil, les calculs montrent que la température moyenne à la surface de la planète doit se trouver entre 0 et 40 degrés Celsius. C'est donc la zone idéale pour que l'eau existe sous forme liquide et que la vie puisse se développer. A noter que Gliese 851 c possède au moins deux compagnes, l'une de 15 masses terrestres plus près de l'étoile, l'autre de 8 masses terrestres plus loin de l'étoile.

Vitesse radiale
Graphe de la vitesse radiale de l'étoile Gliese 581 en fonction de la position de la planète Gliese 581 c, en ne prenant en compte que les perturbations provoquées par cette dernière. C'est grâce à la méthode de la vitesse radiale que la plupart des exoplanètes ont été découvertes.


La planète la mieux étudiée : HD 209458 b

 

 

Cette planète se trouve en orbite autour de l'étoile HD 209458 à 150 années-lumière de la Terre dans la constellation de Pégase. Elle a la particularité d'avoir été observée par différentes techniques qui nous ont apporté une moisson de connaissances sans précédent.

HD 209458 b fut découverte par la méthode de la vitesse radiale en 1999. Elle fut la première exoplanète à être observée en transit devant son étoile, la même année, en provoquant une baisse de luminosité apparente de 1,7 pour cent. Le télescope spatial se mit ensuite de la partie. Il fut capable, en étudiant la lumière de l'étoile après son passage dans l'atmosphère de la planète, de détecter la présence de sodium en 2001. Deux ans plus tard, il mit en évidence une énorme enveloppe ovale autour de la planète, contenant de l'hydrogène, du carbone et de l'oxygène. En 2005, le télescope infrarouge Spitzer profita d'un transit de HD 209458 b derrière son étoile pour mesurer la luminosité de la planète dans l'infrarouge. Finalement, en 2007, plusieurs équipes purent observer le spectre de la planète directement.

Toutes ces observations nous donnent une bonne idée de la situation de cette planète. D'après les premières observations de vitesse radiale, HD 209458 b possède 69 pour cent de la masse de Jupiter, soit 220 fois celle de la Terre, ce qui en fait une planète gazeuse. A 7 millions de kilomètres, soit 0.045 unité astronomique ou un huitième de la distance de Mercure au Soleil, elle est très proche de son étoile. En conséquence, sa période de révolution n'est que de 3,5 jours terrestres et sa température de surface doit atteindre les 1000 degrés.

L'observation de transits a montré que la planète est plus grande que Jupiter, avec un diamètre supérieur d'un tiers, ce qui s'explique par l'expansion de ses couches externes sous l'effet de la température. Ces couches sont chauffées à une température de 10 000 degrés et la planète perd des centaines de milliers de tonnes de gaz à chaque seconde. Il s'agit principalement d'hydrogène, mais aussi de carbone et d'oxygène qui se laissent entraîner par celui-ci.

 

 

La planète la plus distante : OGLE-2005-BLG-390L b

 

 

Cette planète au nom charmant se trouve à 21 500 années-lumière de nous. La taille de son orbite n'est pas connue très précisément, mais se situe entre deux et quatre unités astronomiques, soit une orbite plus grande que celle de Mars mais plus petite que celle de Jupiter. Sa période de révolution doit donc être d'une dizaine d'années terrestres. La planète a une masse d'environ 5,5 fois celle de la Terre et pourrait donc être rocheuse, quoique la possibilité d'une planète gazeuse comme Neptune ne soit pas exclue. A partir de la taille de l'orbite et de la luminosité de l'étoile, probablement une naine rouge, on peut calculer que la température à la surface de la planète est d'environ -220 degrés Celsius.

Outre le fait qu'il s'agit probablement d'une planète rocheuse, OGLE-2005-BLG-390L b est très intéressante par la méthode de sa découverte. La planète est en effet l'un des rares corps à avoir été identifié par un effet de microlentille gravitationnelle. La possible présence d'un effet de microlentille gravitationnelle dû à OGLE-2005-BLG-390L fut d'abord détectée par le projet OGLE en 2005. Des investigations plus poussées grâce au projet PLANET/RoboNet confirmèrent rapidement de façon claire la présence d'une planète autour de l'étoile.

Comme le montre cet exemple, la méthode de microlentille gravitationnelle possède le grand avantage d'être moins soumise aux effets de sélection observationnels que les autres méthodes. Elle est ainsi en mesure d'identifier des exoplanètes plus petites, plus éloignées de leur étoile et plus froides.

 

 

Les missions spatiales sur les exoplanètes


Les missions Corot et Kepler

 

 

 

La seule mission spatiale de recherche d'exoplanètes déjà en opération est la mission Corot, dont le satellite a été lancé le 26 décembre 2006. A l'origine, cette mission fut proposée par le Centre nationale d'études spatiales (CNES) en 1996, mais elle est devenue entre temps une collaboration avec l'agence spatiale européenne (ESA) et d'autres partenaires internationaux. La mission Corot est prévue pour durer 2 ans et demi, pendant lesquels le satellite observera différentes zones du ciel, en passant 150 jours sur chacune d'elles. Le satellite est muni d'un télescope de 27 centimètres de diamètre et se trouve sur une orbite polaire circulaire.

La méthode utilisée par Corot est celle du transit planétaire, l'observation du passage d'une planète devant son étoile, détectable grâce à la baisse temporaire de luminosité apparente. Cette méthode a déjà produit d'excellents résultats depuis des télescopes terrestres, mais souffre néanmoins de limitations causées par la turbulence atmosphérique. Cette dernière provoque en effet des fluctuations de luminosité apparente qui sont généralement plus grandes que la baisse provoquée par un possible transit.

Depuis la Terre, la méthode du transit ne fonctionne donc que lorsque la baisse de luminosité est suffisamment marquée, c'est-à-dire uniquement pour les planètes géantes comme Jupiter. L'intérêt d'une mission spatiale réside dans le fait qu'un satellite n'est pas soumis à la turbulence atmosphérique et peut donc détecter des variations de luminosité plus faibles créées par le transit de planètes plus petites comme la Terre.

Le premier résultat de Corot a été annoncé en mai 2007 avec la détection d'une planète ayant 1,3 fois la masse de Jupiter, 1,8 fois sa taille et dont la période de révolution est de 1,5 jour terrestre. D'après l'analyse des premières observations, il semblerait également que les instruments fonctionnent mieux qu'espéré et devraient être en mesure de détecter des planètes aussi petites que la Terre.

Notons que le projet initial de Corot était la sismologie stellaire et ce domaine constitue la deuxième partie de la mission. Le satellite est en effet capable de mesurer les ondes acoustiques à la surface d'autres étoiles que le Soleil. Ces observations permettent d'étudier les phénomènes qui se produisent à l'intérieur de ces étoiles, en particulier la convection et la rotation, d'où le nom du satellite.

La mission Kepler est un projet de la Nasa qui s'appuiera comme Corot sur la méthode du transit. Le lancement du satellite est prévu pour novembre 2008. Celui-ci ne se trouvera pas en orbite autour de la Terre mais autour du Soleil. Il suivra en fait, avec un léger retard, la même orbite que notre planète autour du Soleil. Kepler pourra observer

100 000 étoiles sur une période de 4 ans, mais dans une région fixe du ciel dans la direction de la constellation du cygne.

 

 

La mission Darwin

 

 

Darwin est un projet très ambitieux de l'ESA qui devrait être lancé vers 2020. Il a pour objectif de capturer directement l'image d'exoplanètes aussi petites que la Terre et devrait même être en mesure de détecter la présence de vie. La mission consistera en un ensemble de 5 satellites postés près du second point de Lagrange du couple Soleil-Terre, soit à 1,5 millions de kilomètres de notre planète dans la direction opposée au Soleil.

Mission Darwin Une vue d'artiste de la mission Darwin avec 6 (au lieu de 3) satellites périphériques munis de télescopes, un satellite central pour la recombinaison des images et un dernier satellite pour les communications.


 

Les satellites évolueront en formation. Les trois satellites périphériques seront munis chacun d'un télescope de 3 ou 4 mètres de diamètre. La lumière qu'ils collecteront sera redirigée vers le satellite central où une image finale sera formée. Darwin sera ainsi en mesure de travailler en mode interférométrie aussi bien qu'en mode imagerie classique.

Le défi à relever dans ce genre d'observation est évidemment l'énorme contraste de luminosité entre l'étoile et les possibles exoplanètes en orbite. Dans le domaine visible une étoile ordinaire est en effet un milliard de fois plus lumineuse qu'une planète, d'où la difficulté historique de détecter les planètes extrasolaires. La première stratégie utilisée par Darwin pour relever ce défi est d'observer dans l'infrarouge plutôt qu'en lumière visible. Les étoiles ont en effet leur maximum d'émission dans le domaine visible, alors que les planètes, du fait de leur température plus faible, ont leur maximum d'émission dans d'infrarouge. En observant dans ce domaine, le rapport de luminosité entre les deux corps s'améliore d'un facteur mille. On passe donc en gros d'un rapport de luminosité d'un milliard à un million.

La deuxième stratégie est d'utiliser une technique appelée l'interférométrie de frange noire. Cette technique consiste à combiner la lumière reçue des différents satellites périphériques après avoir introduit une certaine différence de phase entre eux. En choisissant précisément cette dernière, il est possible d'atténuer fortement la lumière de l'objet central de l'image finale, c'est-à-dire l'étoile. Mais les planètes en orbite, légèrement décalées du centre, ne sont pas affectées. Des expériences récentes montrent qu'en principe on devrait pouvoir réduire la luminosité apparente de l'étoile centrale par un facteur un million, ce qui en lumière infrarouge signifie qu'étoile et exoplanètes finissent avec une luminosité apparente de même niveau.

La mission Darwin sera également dotée de capacités spectroscopiques et pourra observer le spectre des planètes extrasolaires dans l'infrarouge. Il pourrait donc mettre en évidence la présence d'oxygène et de vapeur d'eau dans l'atmosphère de certaines d'entre elles. Cette combinaison est à l'heure actuelle considérée comme une indication de la présence de vie. Si Darwin l'identifiait, nous aurions pour la première fois la preuve de l'existence de vie sur une autre planète que la Terre.

Notons que la NASA travaillait encore récemment sur un concept similaire, la mission Terrestrial Planet Finder (TPF), mais le congrès américain a plus ou moins enterré ce programme début 2007. Il est donc tout à fait possible que Darwin finisse par devenir une collaboration entre l'ESA et la NASA.

 

L'APPARITION DE LA VIE SUR TERRE


La chimie de la vie

 

Avant de passer en revue les évènements qui ont conduit d'une Terre stérile juste après sa formation à un monde foisonnant de vie, rappelons rapidement quelques notions fondamentales sur la vie telle que nous la connaissons.

L'élément de base de tout être vivant est une entité microscopique appelée la cellule. Un être humain en contient à peu près 10 000 milliards. Chacune de ces cellules est une sorte d'usine vivante assurant plusieurs fonction : absorber des éléments nutritifs, grandir, se débarrasser de ses déchets et se reproduire.

 

L'ADN

 

Chaque cellule possède un centre de contrôle constitué par un ou plusieurs chromosomes. Les bactéries par exemple n'en possèdent qu'un alors que les humains en possèdent 46. Ces chromosomes sont les acteurs clefs de la reproduction. Ils permettent à une cellule de se diviser pour donner naissance à deux cellules génétiquement identiques à la première. En 1953, Francis Crick et James Watson, révélèrent la structure intime du chromosome. Ils montrèrent que chacun est en fait une gigantesque molécule formée de deux brins complémentaires enlacés l'un autour de l'autre pour former la célèbre structure en double hélice. La découverte de cette molécule, l'acide désoxyribonucléique ou ADN, allait révolutionner la biochimie et la médecine.

L'unité de base d'un brin d'ADN est appelée un nucléotide. Il s'agit de l'association d'une base azotée, d'une molécule de sucre et d'une molécule de phosphate. Chaque nucléotide d'un brin est lié à un nucléotide de l'autre brin et c'est l'enchaînement de ces paires qui crée l'enlacement caractéristique de la double hélice. Il existe quatre types de bases azotées : l'adénine (A), la guanine (G), la cytosine (C) et la thymine (T) mais seules deux associations en paires sont possibles : A-T ou G-C. Ainsi, par cette complémentarité très simple, la séquence des nucléotides sur l'un des brins de la molécule d'ADN permet de déterminer directement la succession des nucléotides sur l'autre brin.

Cette complémentarité est à la base de la propriété d'autoréplication de l'ADN. Lors de la division cellulaire, chaque chromosome se dédouble pour donner naissance à deux chromosomes identiques au premier. Ce processus de dédoublement de l'information génétique se déroule de la façon suivante au niveau de l'ADN. Les deux brins peuvent se séparer assez facilement car leur lien repose sur une liaison relativement faible. A ce stade, apparaissent alors deux bases de données distinctes, mais portant la même information de façon complémentaire. Il reste néanmoins à recréer deux véritables molécules d'ADN. C'est là que la reconstruction par complémentarité se produit : chaque brin puise des nucléotides dans le milieu environnant et les positionne dans le bon ordre pour recréer son complémentaire. On se retrouve ainsi avec deux molécules d'ADN identiques qui deviendront les chromosomes de deux nouvelles cellules.

 

Les protéines et l'ARN

 

Outre l'ADN, deux autres acteurs de la vie d'une cellule sont d'une importance primordiale : les protéines et l'ARN. Les protéines sont à la fois les briques et les ouvrières des cellules. Elles s'organisent pour créer la structure des cellules, régulent leur fonctionnement et assurent la mise en oeuvre de leur rôle dans l'organisme. Une protéine est une large molécule composée d'un certain nombre de sous-unités appelées les acides aminés. L'ordre dans lequel les acides aminés sont arrangés dans une protéine est directement déterminé par l'ADN présent dans le chromosome de la cellule. En effet, en regroupant les nucléotides par triplets et en considérant la valeur de leur base azotée (A, G, C ou T), il est possible de créer une sorte d'alphabet qui relie directement l'ordre des nucléotides sur un brin d'ADN à l'ordre des acides aminés dans une protéine.

Le processus qui permet de passer de l'ADN aux acides aminés et aux protéines met en jeu un nouvel acteur : l'acide ribonucléique ou ARN. Il s'agit d'une molécule similaire à l'ADN mais qui ne comporte qu'un seul brin. Lors de la synthèse des protéines, l'étape fondamentale qui transforme l'information contenue dans l'ADN en son expression tangible, c'est l'ARN qui assure les fonctions clefs. Dans un premier temps, l'ARN est créé par transcription d'un brin d'ADN dans un processus similaire à la reconstruction de la double hélice après division cellulaire. De part cette naissance, la molécule d'ARN possède alors toute l'information requise pour créer une protéine. Son travail consiste ensuite à collecter des acides aminés libres, à les transporter et à les assembler dans l'ordre correct.

 

L'apparition de la vie

 

Le scientifique qui cherche à déterminer comment la vie a pu apparaître sur Terre et comment la chimie décrite précédemment a pu se mettre en place se trouve vite confronté à une impasse. En effet, lors de la synthèse des protéines, l'ARN ne peut pas accomplir sa tâche tout seul mais doit faire appel à des types de protéines appelées les enzymes. Ces dernières ont pour particularité d'avoir une forme dans l'espace bien déterminée qui leur permet d'assister l'ARN dans sa tâche de copie et de transfert.

La situation à l'intérieur d'une cellule s'avère donc très complexe. Pour répliquer un acide nucléique (une chaîne de nucléotides), il faut des enzymes, c'est à dire des protéines, mais pour créer une protéine, il faut un plan, donc un acide nucléique. La situation devient donc rapidement un casse-tête quand il s'agit de trouver lequel des deux composants est apparu en premier.

 

Le monde de l'ARN

 

L'hypothèse dominante dans la recherche des origines de la vie a d'abord été l'apparition des protéines à partir de la matière inerte. En effet, la synthèse de protéines à partir d'éléments non organiques semble relativement facile et des essais ont été accomplis avec succès. Cependant cette hypothèse souffre d'un grave défaut : les protéines ne se répliquent pas et l'information n'a pas de moyen de se transmettre d'une génération à la suivante. Ce défaut a conduit à abandonner l'idée d'une origine protéinique de la vie.

Ce sont donc les acides nucléiques qui ont gagné la faveur générale. Non pas l'ADN, malgré son rôle central aujourd'hui, mais son cousin l'ARN. Lors de l'apparition de la vie sur Terre, la chimie très complexe actuelle n'existait pas et, si la vie a commencé avec des acides nucléiques, ceux-ci devaient être en mesure de se répliquer sans l'aide de protéines. Ce problème semblait insurmontable jusqu'à ce que l'on découvre que dans certaines circonstances une section d'un brin d'ARN pouvait se détacher et se comporter comme une enzyme, donc servir d'aide à la réplication de la molécule principale. La vie trouverait donc peut être son origine dans un monde où la molécule d'ARN jouait à la fois son rôle actuel mais aussi celui d'enzyme : le monde de l'ARN.

 

L'apparition de l'ARN

 

Si la vie fut d'abord basée sur l'ARN avant de l'être sur l'ADN, encore faut-il expliquer comment l'ARN fit son apparition. Or ce dernier est déjà un système très complexe et doit donc descendre de molécules plus simples également capables d'autoréplication. Il est raisonnable de considérer que ces molécules étaient elles-mêmes déjà formées de nucléotides, et la question se pose donc de la formation de chaînes de nucléotides à partir des ingrédients initialement présents sur Terre.

La première étape consiste à produire les composants complexes d'un nucléotide, soit le ribose (un sucre) et les bases azotées. Ceci apparaît difficile mais réalisable : certaines bases azotées, mais pas toutes, sont faciles à générer et le ribose est également aisé à produire, mais en quantité limitée car les réactions chimiques en jeu produisent surtout d'autres sucres. Une difficulté supplémentaire vient du fait que les conditions nécessaires à la formation des deux types de molécules semblent s'exclure mutuellement. Cette difficulté peut néanmoins être surmontée si les sucres sont produits dans l'atmosphère ou à la surface des océans et si les bases azotées le sont dans les profondeurs des océans ou lors d'impacts de comètes riches en précurseurs des bases azotées.

La deuxième étape est l'association de ces molécules de base pour former des nucléotides. Il s'agit là du point le moins bien compris dans toute la description. En effet, les essais en laboratoires produisent bien des nucléotides, mais en quantité trop faible et insuffisante pour permettre au processus de continuer.

La troisième étape est le regroupement de nucléotides isolés pour former des chaînes d'acides nucléiques. Celui-ci ne pose pas de problème majeur puisque des expériences en laboratoire simulant des conditions réelles ont permis de créer des chaînes contenant jusqu'à quinze nucléotides. Mais quelques objections persistent néanmoins. Par exemple, la concentration en nucléotides était-elle suffisante pour permettre au processus de se dérouler, pourquoi des réactions concurrentes n'ont-elles pas pris le dessus, qu'est ce qui a empêché la croissance des acides nucléiques d'être stoppée par des molécules fatales au processus ?

La quatrième étape est l'autoréplication des acides nucléiques. Les expériences en laboratoire ont depuis longtemps montré qu'on pouvait facilement répliquer des chaînes d'acides nucléiques à l'aide de simples nucléotides. Le problème est à nouveau d'expliquer pourquoi la croissance n'a pas été interrompue par des molécules parasites, ce qui peut par exemple s'expliquer si la création d'une chaîne est en fait le résultat d'un processus plus complexe avec rejet de molécules non appropriées.

 

 

Les améliorations

 

 

Finalement, une fois créée, la molécule d'ARN va peu à peu s'améliorer. En effet, lors de la réplication, toutes sortes d'erreurs de copies peuvent se produire. Celles-ci sont généralement néfastes, mais elles peuvent de temps en temps se révéler positives et améliorer le message génétique si elles apportent à la molécule des atouts dans la lutte quotidienne pour survivre. Les molécules d'ARN deviennent donc petit à petit plus complexes et plus performantes. A un moment, certaines deviennent capables de lier les acides aminés présents dans l'environnement pour former des protéines, et ces dernières prennent le dessus dans la fonction d'aide à la réplication.

Après l'apparition de l'ARN, l'étape suivante, probablement accidentelle, est l'évolution de l'ARN en ADN. Cette nouvelle molécule est une banque de données bien plus sûre car formée de deux brins complémentaires qui contiennent chacun la même information de manière redondante. C'est donc l'ADN qui finit par assurer la fonction de conservation du patrimoine génétique, alors que l'ARN se spécialise dans d'autres tâches telles que la synthèse des protéines.

Le dernier stade est la constitution autour ces composants d'une enveloppe externe. Celle-ci, constituée de molécules appelées les phospholipides, va isoler la chimie décrite précédemment et donc la protéger du monde extérieur. La cellule est née et le règne des bactéries peut commencer. Tous ces évènements sont évidemment très difficiles à dater, ils se produisent probablement il y a plus de quatre milliards d'années. En tout cas, les premières traces de vie identifiables de nos jours remontent à environ 3,8 milliards d'années.

 

 

La vie devient plus complexe

Les besoins énergétiques

 

 

 

Les réactions chimiques qui sont à la base de la vie ont besoin d'énergie pour se produire. L'environnement dans lequel la vie est née n'est pas connu avec certitude mais il est probable qu'il était volcanique et que les premières réactions exploitaient des fluctuations dans la concentration des différents composés chimiques présents. Cette méthode fournissant très peu d'énergie, les premiers organismes commencèrent à s'appuyer sur la fermentation comme source d'énergie, d'abord en utilisant des composés organiques préexistants, puis en recyclant les restes d'organismes morts.

Il y a environ 2,5 milliards d'années apparut une innovation qui allait révolutionner la vie. Certaines cellules développèrent la faculté de transformer l'énergie du rayonnement solaire en énergie chimique : la photosynthèse était née, une méthode beaucoup plus efficace que la fermentation. Les cellules capables de photosynthèse s'appuyèrent d'abord sur le sulfure d'hydrogène provenant des volcans mais finir par être capable d'opérer simplement à partir d'eau et de gaz carbonique, composés très abondants à l'époque. Ceci leur permit de quitter leur lieu d'origine et de se répandre sur la Terre tout entière.

Avec la naissance de la photosynthèse apparut un des ses sous-produits : l'oxygène. Celui-ci commença à contribuer à l'atmosphère terrestre et vit sa concentration augmenter peu à peu. Après quelques centaines de millions d'années, certaines bactéries apprirent à utiliser ce gaz. C'est ainsi que naquit le métabolisme qualifié d'aérobique, c'est à dire utilisant de l'oxygène, une méthode beaucoup plus efficace d'un point de vue énergétique.

 

 

La vie devient plus complexe

 

 

Les bactéries à cette époque ne possédaient pas de structure interne, on les appelle des procaryotes. L'étape suivante dans la complexification de la vie, il y a environ 1,5 milliards d'années, fut l'apparition des eucaryotes, des cellules possédant un noyau et d'autres structures internes. L'hypothèse la plus probable est que certains procaryotes furent amenées à s'associer et à travailler ensemble. Chaque élément de l'organisme ainsi crée pouvait aider les autres mais aussi tirer avantage d'eux, un phénomène que l'on appelle la symbiose. Par exemple, les bactéries possédant la faculté de photosynthèse devinrent les chloroplastes, les petits compartiments chargés de cette tâche dans les plantes actuelles. C'est aussi à ce moment qu'apparut la notion de sexe qui devint un atout majeur pour la vie car la reproduction sexuée ouvrait la voie à une façon beaucoup plus créative de réarranger le patrimoine génétique.

Les premiers eucaryotes étaient constitués d'une seule cellule, il s'agissait de protozoaires. Il y a environ 700 millions d'années des cellules isolées s'associèrent pour former des organismes complexes : les métazoaires. Chaque cellule dans ce nouvel organisme pouvait alors se spécialiser dans une fonction donnée au service de l'ensemble, d'où l'apparition d'organisme beaucoup plus complexes et sophistiqués qu'auparavant, comme les vers et les méduses.

 

 

La vie hors de l'eau

 

Il y a environ 600 millions d'années se produit une étape fondamentale dans l'évolution de la vie : l'explosion du Cambrien. Apparaissent alors les premiers organismes possédant des parties solides, principalement comme moyen de défense contre des agresseurs potentiels. C'est une nouvelle complexification de la vie avec par exemple les arthropodes (insectes, araignées) et les mollusques, mais aussi certaines créatures qui n'ont pas de descendants dans le monde actuel. Notons que grâce à leurs parties solides, ces organismes laisseront dorénavant des fossiles, ce qui facilitera grandement leur étude.

500 millions d'années avant notre ère apparaissent des êtres encore plus évolués avec des muscles plus performants, des systèmes nerveux plus complexes et de nouveaux organes comme le coeur, le cerveau ou les yeux : c'est l'arrivée des premiers poissons. Il y a 450 millions d'années, arthropodes, mollusques et plantes entreprennent la colonisation des eaux douces et des terres. Après 50 millions années, certains poissons décident également de s'aventurer sur la terre ferme et c'est ainsi que naissent les amphibiens.

Avec le temps, ces animaux développent des membres plus agiles et voient leur squelette et leurs dents se renforcer, pour donner finalement naissance aux reptiles il y a 300 millions d'années. Le règne des dinosaures va commencer avec son cortège de monstres comme le fameux tyrannosaure.

 

 

Les mammifères

 

 

Il y a 65 millions d'années se produit une catastrophe climatique, probablement due à l'impact d'une comète ou d'une météorite sur la Terre. Cette catastrophe conduit à l'extinction d'un grand nombre d'espèces, en particulier les dinosaures. Les mammifères, d'abord apparus il y a 200 millions d'années, ont alors le champ libre pour se répandre et atteindre la diversité que nous leur connaissons actuellement.

30 millions d'années avant notre ère apparaissent les grands singes. Ceux-ci évolueront pour conduire à l'orang-outan, au gorille, au chimpanzé et à l'homme. Il y a 3,5 millions d'années avant notre ère, apparaissent les australopithèques, dont la fameuse Lucy, des sortes de pré-humains qui marchent sur deux jambes de manière régulière et peuvent utiliser leurs mains ainsi libérées pour se servir d'outils rudimentaires.

Il y a deux millions d'années, c'est le premier homme, homo habilis, qui possède un cerveau plus grand que ses ancêtres, fabrique des outils et commence à manger de la viande. Il y a 1,6 millions d'années apparaît homo erectus, avec un cerveau toujours plus développé, qui travaille avec des outils en pierre, construit des abris rudimentaires et s'habille de peaux d'animaux. Il apprend également à contrôler et à utiliser le feu et quitte son Afrique natale pour l'Asie et l'Europe.

Finalement, c'est l'arrivée de l'homo sapiens. D'abord, il y a environ 300 000 ans, d'homo sapiens neanderthalensis, qui enterre ses morts et s'interroge peut-être déjà sur sa propre existence, puis, il y a 100 000 ans, de l'homme moderne, homo sapiens sapiens, qui crée l'art, le langage et l'écriture.

 

LA POSSIBILITE DE VIE EXTRATERRESTRE



Les conditions favorables à la vie

 

Même si les conditions qui ont donné naissance à la vie sur Terre sont encore loin d'être identifiées de façon précise, il est néanmoins clair que l'apparition de la vie peut s'expliquer par des phénomènes naturels. Si cet évènement a pu se produire à la surface de notre planète, il est tout à fait possible, voire probable, qu'il se soit également produit ailleurs, à la surface d'autres planètes où les conditions environnementales le permettaient.

Il serait donc intéressant d'essayer d'évaluer les conditions minimales nécessaires à l'apparition de la vie sur une autre planète. Nous nous intéresserons plus spécifiquement aux conditions qui permettent l'apparition d'une vie intelligente. Ce deuxième critère sera plus contraignant, car le passage d'une forme de vie primitive à une forme intelligente implique des conditions environnementales plus stables sur des périodes de temps plus longues.

 

 

Caractéristiques des étoiles favorables à la vie

 

 

La première question qui se pose concerne l'étoile autour de laquelle la vie pourrait apparaître. Quelles sont les conditions qu'une telle étoile doit remplir pour être favorable à l'émergence de la vie ?

Remarquons d'abord qu'un système à étoile unique comme le nôtre semble a priori plus favorable car les planètes se retrouveront naturellement sur des orbites quasi-circulaires et stables. Dans un système double ou multiple, les perturbations gravitationnelles des différentes étoiles rendront plus difficile la formation de planètes et l'existence d'orbites stables. Néanmoins, si les membres du système sont suffisamment séparés, une planète stable pourrait se former autour de l'une des étoiles sans être trop perturbée par les autres.

La masse de l'étoile devrait probablement se situer entre la moitié et le double de celle du Soleil. Une masse plus faible signifierait une luminosité réduite, c'est-à-dire un apport d'énergie insuffisant à l'apparition d'une vie intelligente. Une étoile beaucoup plus massive que le Soleil serait également défavorable, mais dans ce cas à cause d'une durée de vie trop courte. Il a en effet fallu environ un milliard d'années à la vie pour apparaître sur Terre et cinq milliards d'années pour conduire à l'intelligence. Or une étoile de dix masses solaires ne reste en phase stable que pendant quelques millions d'années et une étoile de trois masses solaires pendant 200 millions d'années.

Il y a également une contrainte de composition chimique sur l'étoile. Par exemple, la première génération d'étoiles n'était constituée que d'éléments chimiques créés dans le Big Bang, essentiellement l'hydrogène et l'hélium. Les éléments plus lourds n'apparurent qu'ensuite, au cours de l'évolution de cette première génération. Or, la vie a besoin d'éléments lourds, en particulier de carbone, d'oxygène et d'azote. 

 

 

Caractéristiques orbitales des planètes

 

 

Quelles sont les conditions qu'une planète doit remplir pour être susceptible d'accueillir la vie, en particulier une forme intelligente ?

Le premier élément important est la taille de son orbite. La distance de l'étoile à la planète doit être bien ajustée pour que celle-ci puisse recevoir une quantité d'énergie optimale. Trop près, c'est le cas de Vénus, la planète serait soumise à un flux d'énergie trop important et deviendrait trop chaude. Trop loin, comme dans le cas de Mars, elle ne recevrait pas suffisamment d'énergie et finirait trop froide. Dans le système solaire, la Terre est la seule planète à se trouver dans ce que l'on appelle la zone d'habitabilité.

Pour des raisons de stabilité de la température moyenne, il semble également nécessaire que l'orbite soit pratiquement circulaire, comme celle de la Terre. Une orbite trop elliptique entraîne des variations de distance et de flux d'énergie trop importantes et crée une situation d'extrême instabilité peu favorable à l'émergence de la vie et à son développement.

Une condition plus controversée est l'existence autour de la planète d'un gros satellite comme la Lune. La présence d'un tel corps, par son influence gravitationnelle, assurait une plus grande stabilité de l'axe de rotation de la planète et donc une plus grande stabilité de paramètres tels que la température moyenne. Il n'est néanmoins pas prouvé que la stabilité de l'axe de rotation soit un paramètre si important. 

 

 

Caractéristiques physiques des planètes

 

 

La masse de la planète est un paramètre essentiel. Elle doit d'abord être suffisante pour que la gravité soit en mesure de retenir des éléments légers comme le carbone ou l'oxygène. La planète doit aussi contenir suffisamment de matière radioactive pour pouvoir libérer de l'énergie pendant des milliards d'années. Cette énergie est cruciale pour soutenir un volcanisme et une tectonique des plaques, qui sont probablement des facteurs essentiels. C'est ainsi à cause de sa masse trop faible que Mars est maintenant un monde sans activité géologique notable.

La masse de la planète ne doit pas non plus être trop grande. Dans le cas de Jupiter, la gravité est si forte qu'aucun élément chimique n'a pu s'échapper. La planète est ainsi constituée essentiellement d'hydrogène, un environnement qualifié de réducteur par les chimistes, qui empêche la formation des molécules de la vie.

Au coeur de la planète, la présence d'un noyau métallique semble essentielle. Ce noyau produira par sa rotation un champ magnétique qui protégera la surface de la planète des rayons cosmiques néfastes au développement de la vie.

La planète doit posséder une atmosphère. D'abord, parce que la synthèse

de molécules organiques en quantités non négligeables ne peut pas se faire dans le vide. Ensuite, parce que cette atmosphère constituera elle aussi un écran protecteur qui empêchera les premières molécules complexes d'être détruites par le rayonnement solaire, en particulier dans l'ultraviolet et les rayons X.

En plus d'une atmosphère, la planète doit disposer d'une hydrosphère, soit une large quantité d'eau liquide. C'est dans cette hydrosphère, qui offre par ailleurs une protection accrue contre les rayonnements nuisibles, que les molécules se retrouveront en concentration suffisante pour permettre des réactions chimiques en grande quantité. L'eau est de plus l'un des éléments nécessaires à de nombreuses interactions chimiques nécessaires à la vie (du moins dans une forme similaire à la nôtre).

Un autre élément probablement essentiel est une lithosphère, c'est-à-dire une surface solide. L'agrégation de petites molécules en ensembles plus complexes semble en effet nécessiter une surface solide plutôt qu'un milieu liquide en mouvement permanent. De plus, la meilleure façon d'obtenir des concentrations élevées d'un composé chimique est de déposer ce composé dans une flaque et de laisser l'évaporation faire son travail.

 

Détecter des civilisations extraterrestres

La présence de nombreuses planètes autour d'autres étoiles a été démontrée et il est plus que probable que de nombreux systèmes ayant les caractéristiques précédentes existent (notre Galaxie contient plus de 200 milliards d'étoiles). Dans ces conditions, des processus naturels semblables à ceux qui se sont produits sur Terre auront probablement donné naissance à la vie sur d'autres planètes.

Avec une bonne dose de chance et en donnant à la nature beaucoup de temps, il semble naturel d'imaginer que sur certaines de ces planètes la vie aura évolué vers l'intelligence et qu'il existe donc un certain nombre de civilisations avancées autour d'autres étoiles. Si de telles civilisations extraterrestres existent, quel est le meilleur moyen de les découvrir ou de communiquer avec elles ?

Envoyer un vaisseau spatial ou une sonde nécessiterait un temps colossal du fait des distances astronomiques en jeu. Ainsi, l'étoile la plus proche du système solaire, Proxima du Centaure, se trouve à 4,2 années-lumière, soit à peu près 40 000 milliards de kilomètres. A sa vitesse actuelle, 17 kilomètres par seconde, la sonde Voyager 1 mettrait environ 75 000 ans pour s'y rendre (si elle de déplaçait dans la bonne direction) et ceci uniquement pour l'aller. On peut évidemment rêver de technologies plus avancées, mais même pour une civilisation plus développée que la nôtre, la durée et le coût énergétique d'un voyage plus rapide seraient énormes. 

 

 

La radioastronomie

 

 

La meilleure solution, dans l'état actuel de nos connaissances, consiste à recourir aux ondes électromagnétiques, tout particulièrement dans le domaine radio. Il s'agit alors soit de capter un message qui nous serait intentionnellement envoyé par d'autres êtres intelligents, soit d'intercepter des fuites dans leurs transmissions internes, tout comme d'autres civilisations proches pourraient intercepter nos programmes de radio ou de télévision par exemple.

Les ondes radio présentent de nombreux avantages. D'abord, elles se déplacent à la vitesse de la lumière. Elles ne mettent donc que 4,2 années pour atteindre Proxima du Centaure par exemple. Ensuite, elles sont faciles à créer ou à recevoir, et cela à un faible coût. Enfin, elles ne sont pas perturbées par le champ magnétique galactique et, pour un certain nombre de fréquences, le risque d'absorption ou de diffusion par la matière interstellaire est très faible.

L'inconvénient des ondes radio est que certains domaines de fréquences sont très pollués. Par des objets créés par l'homme comme les satellites, mais aussi par la plupart des corps ou phénomènes célestes : étoiles, pulsars, nuages de gaz, quasars ou même le rayonnement fossile lui-même.

Cette pollution généralisée amène les radioastronomes à ne considérer qu'un petit domaine de fréquence compris entre 1 et 100 Gigahertz dans le domaine micro-onde. Dans cette région règne un calme relatif, si ce n'est un murmure dû au rayonnement fossile, et il est possible d'émettre ou de recevoir des signaux à un faible coût énergétique et financier. La grande majorité des efforts de détection de vie extraterrestre se sont donc portés sur ce domaine de fréquence.

Le radiotélescope d'Arecibo Le radiotélescope d'Arecibo à Porto Rico où plusieurs projets de détection de signaux extraterrestres sont en cours. L'antenne de 300 mètres de diamètre fut construite en 1963 dans une cavité naturelle.

Des écoutes décevantes

 

 

L'un des principaux programmes d'écoute de possibles signaux extraterrestres fut le projet Phoenix. Initié par la NASA en 1992, mais arrêté par des coupes budgétaires l'année suivante, le programme fut repris par un organisme privé, le SETI Institute, et les observations purent commencer en 1995.

Le projet consistait en une recherche ciblée entre 1 et 3 Gigahertz avec une très haute résolution en fréquence. La cible était une sélection d'environ 800 d'étoiles situées à moins de 240 années-lumière de nous, la plupart du même type que le Soleil, puisque celui-ci semble fournir les meilleures conditions pour le développement de la vie. La sensibilité des observations aurait pu nous permettre de détecter des émetteurs ayant le niveau d'un radar d'aéroport à son maximum de puissance (qu'un tel radar atteint rarement).

Le projet Phoenix commença ses recherches en 1995 avec une série d'observations au radiotélescope de Parkes en Australie. Elles furent suivies d'autres études avec l'antenne de Green Bank aux Etats-Unis entre 1996 et 1998. Ce fut ensuite le radiotélescope d'Arecibo à Porto Rico qui prit le relais. Les observations cessèrent finalement en 2004. 

 

 

Sans avoir détecté le moindre signal suspect.

 

 

Un autre programme important est le projet SERENDIP qui a existé sous différentes formes depuis 1979. C'est sa phase actuelle, SERENDIP IV, en collaboration avec l'expérience SETI@home, qui a attiré le plus d'intérêt. Pour ce programme, un détecteur secondaire a été installé sur le télescope d'Arecibo en 1999. Ce détecteur secondaire observe le ciel en permanence entre 1,37 et 1,47 Gigahertz, quelle que soit la nature de la recherche principale en cours sur le télescope.

Grâce à cette configuration, le détecteur n'a pas besoin de temps d'observation spécifique, ce qui réduit grandement le coût du projet. Un autre avantage est qu'à long terme le détecteur finit par observer la plupart des directions du ciel, ce qui le rend complémentaire d'autres programmes plus ciblés comme Phoenix. Là non plus, aucun signal intelligent d'origine non terrestre n'a encore été identifié.

Un projet plus récent entrepris par le SETI Institute et l'université de Californie à Berkeley est l'Allen Telescope Array. Il s'agit d'un réseau de télescopes de 6 mètres de diamètre chacun, situé dans le nord de la Californie. Il devrait comprendre environ 350 éléments d'ici quelques années et fournira alors la même capacité d'observation qu'un seul radiotélescope de 100 mètres de diamètre, à un prix bien moindre. Le réseau est le premier observatoire construit spécifiquement pour la recherche d'intelligence extraterrestre, mais il servira aussi à des observations astronomiques plus classiques. La première phase d'observation a commencé en octobre 2007 avec un ensemble initial de 42 télescopes.

 

Le paradoxe de Fermi

 

Le manque de succès de la recherche de signaux extraterrestres intelligents nous amène à un paradoxe, déjà posé par le physicien Enrico Fermi en 1950, lorsqu'il s'interrogeait sur l'absence de visiteurs extraterrestres sur notre planète.

Il est évidemment difficile d'imaginer à quoi ressemblerait une civilisation extraterrestre. Un fait qui semble néanmoins s'imposer est qu'une telle civilisation finirait inévitablement par chercher à se répandre au-delà de sa planète d'origine. On peut citer trois raisons pour lesquelles cet objectif semble naturel : l'exploration, la colonisation et la survie.

L'exploration serait un premier pas, une mission vers d'autres étoiles, motivée soit par la curiosité intellectuelle, soit par des raisons de prestige. La colonisation suivrait, pour des raisons économiques, politiques ou religieuses. La troisième raison, la plus implacable, est la survie, car la vie d'une étoile est limitée dans le temps.

Par exemple, dans 5 milliards d'années, le Soleil cessera d'être l'étoile stable que nous connaissons aujourd'hui. Il se transformera en une géante rouge qui engloutira la Terre. Dans ces conditions, tôt ou tard, le voyage interplanétaire puis interstellaire s'avérera indispensable pour la survie de l'humanité. Toute civilisation extraterrestre sera un jour ou l'autre confrontée au même problème.

Les simulations d'une expansion par voyage interstellaire montrent qu'il est tout à fait possible d'envisager la colonisation de la Galaxie toute entière par une seule civilisation en un temps de l'ordre de 10 millions d'années. Cette durée, aussi astronomique qu'elle soit, est néanmoins très courte par rapport à l'âge de la Galaxie (une dizaine de milliards d'années).

Le paradoxe est donc est le suivant : puisqu'une seule civilisation extraterrestre pourrait se répandre en un temps relativement court dans toute la Galaxie, pourquoi n'avons nous jamais vu d'extraterrestres sur Terre et pourquoi nos radiotélescopes n'ont-ils jamais capté de signaux extraterrestres intelligents dans le voisinage du Soleil ? 

 

 

Quelques réponses au paradoxe

 

 

La solution la plus simple au paradoxe de Fermi consiste à dire que nous n'avons rien vu parce qu'il n'y a rien à voir. Nous sommes seuls dans la Galaxie ou, du moins, nous sommes les premiers à atteindre le seuil de la technologie. Cette hypothèse peut sembler raisonnable à première vue, la probabilité d'apparition de vie intelligente pourrait être si faible que la Terre est un cas unique dans la Galaxie. L'explication est néanmoins peu satisfaisante, car elle redonne un rôle spécial à la Terre, alors que l'astronomie a montré, tout au long de son histoire, que notre planète n'a rien de spécial.

Une autre hypothèse consiste à remettre en cause les simulations de l'expansion d'une civilisation. Ainsi, les voyages interstellaires pourraient être très rapides, mais le processus de colonisation beaucoup plus lent. La vitesse à laquelle la limite de la zone colonisée se propage serait sans rapport avec la vitesse d'un seul voyage interstellaire. Le temps nécessaire à la colonisation pourrait être de l'ordre de l'âge de la Galaxie, ce qui expliquerait pourquoi le système solaire n'a pas encore été touché.

Certaines réponses reposent sur l'impossibilité ou la difficulté du voyage interstellaire. Celui-ci est peut-être beaucoup plus difficile que ce que l'on suppose généralement. Des facteurs tels que les rayons cosmiques ou les poussières interstellaires pourraient le rendre effectivement irréalisable.

D'autres explications mettent en avant un choix plus volontaire. Ainsi une civilisation technologique avancée pourrait être très réticente à coloniser d'autres planètes, car les nouvelles colonies finiraient probablement par se retourner contre leur planète mère.

Certains auteurs ont également suggéré la possibilité d'un code éthique qui interdirait à une civilisation avancée de tenter la moindre interaction avec une autre forme de vie. Une hypothèse pour laquelle l'histoire de l'humanité ne donne pas vraiment d'exemple.

 

 

 

Partager cette page

Repost 0
Published by