Overblog Suivre ce blog
Editer la page Administration Créer mon blog
/ / /

Avec l'aimable autorisation de l'auteur de ces publications Mr Olivier ESSLINGER auquel j'adresse mes  sincères remerciements

وَالسَّمَاء بَنَيْنَاهَا بِأَيْدٍ وَإِنَّا لَمُوسِعُونَ





VIDEO SUR L'UNIVERS


Un Univers en expansion



La récession des galaxies



En 1912, l'astronome américain Vesto Slipher commença à l'observatoire Lowell une étude du spectre des galaxies les plus brillantes. Ceci n'était pas une mince affaire car même les galaxies les plus lumineuses ont une luminosité totale très faible et le fait de décomposer la lumière en ses différentes longueurs d'onde n'arrangeait rien. Il fallait ainsi plusieurs nuits d'observation à l'époque pour obtenir le spectre d'une seule galaxie.

En analysant ses résultats, Vesto Slipher constata que les quelques raies présentes dans les spectres se trouvaient déplacées par rapport à leur position théorique, ce qu'il interpréta comme un effet de la vitesse des galaxies. En effet les raies spectrales d'un objet changent légèrement de longueur d'onde lorsque le corps est en mouvement. D'après le décalage, Slipher pouvait donc déterminer la vitesse relative de ces galaxies par rapport à la nôtre. Il trouva ainsi par exemple que la galaxie d'Andromède se rapprochait de nous à une vitesse de l'ordre de 300 kilomètres par seconde.

Mais son résultat final était plus étonnant : il obtenait 11 décalages vers le rouge et quatre vers le bleu, soit beaucoup plus de galaxies s'éloignant de nous que de galaxies se rapprochant de nous. Ce résultat était très étrange. En effet, si les mouvements des galaxies se faisaient de façon aléatoire et sans direction privilégiée, il y aurait dû y avoir autant de décalages vers le bleu que vers le rouge. Les observations de Slipher avaient donc une signification profonde et devaient nous apprendre quelque chose de fondamental sur la dynamique de l'Univers. La révélation n'eut cependant pas lieu à ce moment car l'échantillon de galaxies n'était pas suffisamment grand pour être vraiment significatif.


La loi de Hubble


En 1917 s'acheva la construction du télescope de 2,50 mètres du mont Wilson. Ceci permit à un autre américain, Milton Humason, de se mettre au travail sur le même sujet avec plus d'efficacité et une vitesse accrue. En effet, le pouvoir collecteur, c'est-à-dire la quantité de lumière collectée par un instrument, augmente avec la surface de l'ouverture du télescope, si bien que l'on obtient beaucoup plus rapidement un bon spectre avec un grand télescope qu'avec un petit.

A la même époque, Edwin Hubble, dans le même observatoire, continuait ses travaux sur les distances aux galaxies proches en utilisant la relation entre période et luminosité des céphéides. C'est en comparant ses résultats sur les distances et ceux de Milton Humason sur les vitesses, qu'il fit la découverte qui allait révolutionner l'astronomie.

Il constata qu'en ne tenant pas compte des galaxies les plus proches, qui se déplaçaient de manière plus ou moins aléatoire, il apparaissait que toutes les galaxies s'éloignaient de nous. De plus, ceci se faisait en suivant une règle très précise : la vitesse de récession d'une galaxie était proportionnelle à sa distance à la Voie Lactée. Ainsi, une galaxie deux fois plus éloignée qu'une autre, s'éloignait deux fois plus vite, une propriété maintenant connue sous le nom de loi de Hubble.

 

Edwin Hubble
Edwin Powell Hubble : Marshfield, 1889 - San Marino, 1953


L'expansion de l'Univers


La découverte de Hubble fut l'un des grands moments de l'histoire de l'astronomie. La loi de proportionnalité entre distance et vitesse prouvait que la récession des galaxies ne correspondait pas à un mouvement par rapport à un espace statique, mais au contraire à une expansion de l'Univers lui-même. Le décalage vers le rouge était lié à la dilatation de l'espace, pas à un déplacement véritable des galaxies.

Pour mieux le visualiser, nous pouvons faire appel à une analogie à une dimension : un simple élastique. Pour représenter les galaxies, marquons quatre points équidistants A, B, C et D. L'expansion de l'Univers se simule alors simplement en étirant l'élastique. Les points s'éloignent les uns des autres sans pour autant se déplacer par rapport à l'élastique. De la même façon, les galaxies ne se déplacent pas par rapport à l'espace, mais sont entraînées par le mouvement d'expansion de l'Univers.

Pour visualiser la loi de Hubble, plaçons nous maintenant au point A et observons le mouvement apparent des autres points. Ceux-ci ne s'éloignent pas tous à la même vitesse : C a l'air de fuir deux fois plus vite que B et D trois fois plus vite que B. La vitesse de récession est donc proportionnelle à la distance et nous retrouvons bien la loi de Hubble.

Une conclusion erronée que l'on risque de tirer sur l'expansion est l'existence d'un centre. En effet, il semble à première vue que toutes les galaxies s'éloignent de nous, ce qui peut laisser supposer que la Voie Lactée est un lieu privilégié, une sorte de centre de l'Univers. Cette conclusion est totalement fausse. Revenons à notre élastique et tirons de nouveau dessus. Plaçons-nous cette fois-ci au point B : A et C semblent s'éloigner dans des directions opposées, à la même vitesse, alors que D s'éloigne au double de cette vitesse. Ainsi, B a l'impression d'être au centre de l'expansion. Plaçons-nous alors au point C : les points B et D fuient dans des directions opposées à la même vitesse, et A au double de celle-ci.

La situation est donc exactement la même, quelle que soit notre position. L'explication est simple : en fait, il n'y a pas de centre. Le fait que l'un des points voie tous les autres s'éloigner ne signifie pas qu'il se trouve au centre de l'expansion. De même, l'expansion de l'Univers ne possède pas de centre. La Voie Lactée n'est pas un lieu privilégié et toutes les galaxies occupent des positions équivalentes.

 

Un Univers non éternel


Un Univers non éternel


Comme Edwin Hubble l'a découvert au début du siècle dernier, les galaxies s'éloignent les unes des autres et l'Univers est en expansion. Imaginons qu'il soit possible d'inverser le cours des choses et de remonter dans le temps. Au lieu de s'éloigner, les galaxies se rapprocheraient les unes des autres et l'Univers semblerait être en contraction. La distance moyenne entre les galaxies diminuerait fortement et, si nous pouvions remonter loin dans le temps, il arriverait un moment où toutes les galaxies se confondraient.

Cette description est évidemment un peu naïve car elle suppose que les galaxies et leur environnement ne sont pas affectés par la contraction, mais elle met en évidence le fait qu'il n'est pas possible de remonter de façon arbitraire dans le passé sans heurter une limite. L'Univers dans lequel nous vivons n'a pas toujours existé. Cet instant où toutes les galaxies se confondent correspond à la naissance de l'Univers, communément qualifiée de Big Bang. Contrairement à ce que les plus grands physiciens, de Newton à Einstein, pensaient, l'Univers n'est pas invariable dans le temps et n'a pas toujours existé. Au contraire, il possède une histoire que l'on pourrait qualifier de relativement courte, puisqu'elle ne dure que depuis environ 13,7 milliards d'années.


Le paradoxe d'Olbers expliqué


Le fait que l'Univers ait un âge fini apporte un éclairage nouveau sur un problème relativement ancien d'abord posée par Kepler et repris en termes plus précis par Heinrich Olbers en 1826. Ce problème est connu sous le nom de paradoxe d'Olbers et s'énonce ainsi : pourquoi le ciel est-il noir la nuit ? A première vue, la réponse à cette question est évidente, mais c'est en analysant le problème plus en détail qu'apparaît le paradoxe.

Imaginez que vous vous trouviez au centre d'une forêt, entouré d'une multitude d'arbres. Entre les troncs relativement proches, vous pouvez apercevoir des arbres plus éloignés. Entre les interstices laissés par ces derniers, vous pouvez distinguer quelques arbres encore plus lointains, et ainsi de suite. Mais vous ne pouvez guère continuer très longtemps. Quelle que soit sa direction, votre regard finit toujours par rencontrer un arbre et vous ne pourrez donc observer ni les limites de la forêt, ni ce qu'il y a au-delà.

Jusqu'au début du XXe siècle, les astronomes considéraient que la situation était équivalente si l'on considérait les étoiles dans l'Univers. A cette époque, l'Univers était considéré comme statique, éternel, homogène et infini. Avec ces propriétés, les étoiles de l'Univers devaient se comporter comme les arbres de la forêt. Notre regard, peu importe sa direction, finissait toujours par aboutir à une étoile. Tous les points de la voûte céleste devaient donc briller et, par conséquent, le ciel nocturne aurait dû présenter une forte luminosité plus ou moins uniforme. Ceci n'était évidemment pas le cas, d'où le paradoxe.

Olbers proposa l'explication suivante au paradoxe en 1826 : le ciel nocturne était noir parce que la matière interstellaire absorbait le rayonnement des étoiles et affaiblissait donc la lumière des corps les plus lointains. Malheureusement, comme le stipule la thermodynamique, l'énergie doit toujours se conserver. Ainsi, le rayonnement absorbé par le milieu interstellaire devait être réémis sous une forme ou une autre et l'explication d'Olbers ne tenait pas. Une autre explication consista à dire que les étoiles n'étaient pas réparties uniformément puisqu'elles se regroupaient dans des galaxies. Mais cette solution n'était pas non plus satisfaisante car le raisonnement menant au paradoxe pouvait très bien s'appliquer aux galaxies elles-mêmes.

C'est en fait dans l'âge fini de l'Univers qu'il faut chercher la solution au paradoxe d'Olbers. En effet, comme l'Univers n'est âgé que d'environ 13,7 milliards d'années, la lumière n'a pu parcourir depuis sa naissance qu'une distance finie, à peu près 13,7 milliards d'années-lumière, et il nous est impossible d'observer des objets plus éloignés que cette valeur maximale. L'explication du paradoxe devient alors très simple : les galaxies qui sont au-delà de 13,7 milliards d'années-lumière nous sont inaccessibles et ne contribuent à la brillance du ciel. Il reste donc des directions de la voûte étoilée dans lesquelles notre regard ne rencontre absolument rien. Le raisonnement d'Olbers ne tient plus et le paradoxe est levé : le ciel est noir pendant la nuit car il reste un grand nombre d'intervalles sombres dans la distribution des galaxies.

Remarquons encore qu'une deuxième explication vient se greffer à la précédente. Du fait de l'expansion de l'Univers, le rayonnement provenant des galaxies lointaines est affaibli par le décalage vers le rouge. Cela signifie que plus une galaxie est éloignée, plus sa contribution à l'éclat du ciel est faible. Ainsi, même en très grand nombre, les galaxies lointaines sont incapables d'augmenter de façon significative la luminosité du ciel nocturne. 

 

L'AGE DE L'UNIVERS

Les distances dans la Galaxie

L'un de problèmes auquel les astronomes ont de tout temps été confrontés est celui de l'échelle des distances dans l'Univers : la mesure de la distance des planètes, étoiles, galaxies et objets célestes que nous pouvons observer. Il n'existe hélas pas de méthode unique permettant de mesurer la distance à un corps céleste. Les astronomes sont alors obligés de travailler par étape, en utilisant plusieurs types de méthodes, chacune s'appliquant à un domaine donné, par exemple les étoiles proches ou les galaxies lointaines. Ils doivent construire petit à petit une échelle des distances de l'Univers, en commençant par établir celle des objets les plus proches, du système solaire aux étoiles de la Voie Lactée, puis en s'éloignant peu à peu pour finir par déterminer l'éloignement des galaxies les plus lointaines.

Dans cette échelle des distances, chaque échelon s'appuie sur les précédents. Par exemple, pour déterminer la distance aux étoiles lointaines, il faut d'abord bien connaître celle des étoiles proches. Le problème de ce type de démarche réside dans le fait que si l'une des méthodes est peu précise, toutes les suivantes en pâtissent. En conséquence, la précision des mesures décroît avec la distance : les dimensions du système solaire sont connues avec une très grande précision, mais les distances aux galaxies lointaines souffrent de grandes incertitudes.


Le système solaire


L'échelle des distances commence avec le système solaire, le domaine dans lequel les résultats sont les plus précis. Certains astronomes grecs avaient déjà une idée des distances mises en jeu il y a plus de 2000 ans, mais c'est surtout après le XVIIe siècle que les mesures s'affinèrent. De nos jours, des méthodes très sophistiquées peuvent être utilisées, comme l'étude du mouvements des sondes spatiales qui sillonnent le système solaire, l'utilisation de signaux radars, ou même, dans le cas de la Lune, des mesures à l'aide d'un rayon laser.


Les méthodes géométriques


La deuxième étape consiste à appliquer des méthodes géométriques aux étoiles ou aux amas proches. Nous avons déjà étudié les deux principales méthodes : la parallaxe trigonométrique, qui repose sur l'oscillation apparente des étoiles proches dans le ciel du fait de la révolution de la Terre autour du Soleil, et la méthode du point de convergence, qui exploite le fait que les étoiles d'un amas semblent converger vers un point du ciel. Ces méthodes sont efficaces jusqu'à une distance d'environ 300 années-lumière et ont joué un rôle essentiel. En effet, en ayant pu mesurer à la fois la distance et la luminosité apparente de plusieurs étoiles, les astronomes ont réussit à calculer leur luminosité intrinsèque. En analysant également le type spectral, ils ont été en mesure d'établir le diagramme de Hertzsprung-Russel qui a joué un rôle fondamental dans notre compréhension des étoiles.


La parallaxe spectroscopique


Le diagramme de Hertzsprung-Russel peut également servir à mesurer la distance à des étoiles lointaines. En effet, en observant le spectre d'une étoile, on peut déterminer son type spectral. Avec cette information, il est possible d'estimer, grâce au diagramme, sa luminosité intrinsèque. Enfin, en comparant cette dernière à la luminosité apparente de l'étoile, on calcule facilement sa distance. Cette méthode est appelée parallaxe spectroscopique et permet d'atteindre des distances de 300 000 années-lumière. Elle est très souvent la seule méthode applicable à une étoile lointaine, mais elle présente le défaut d'être peu précise.

La méthode précédente peut être améliorée lorsque l'on a affaire à un amas stellaire. Comme toutes les étoiles se trouvent alors à la même distance de la Terre, leurs luminosités sont toutes affectées de la même façon. Si l'on trace le diagramme de Hertzsprung-Russel de l'amas en utilisant les luminosités apparentes, l'effet de la distance est de décaler globalement toute la séquence principale par rapport au diagramme normal. La mesure du décalage donne alors directement la distance en jeu. Cette méthode est bien plus précise que la précédente car le fait d'utiliser un grand nombre d'étoiles permet de largement réduire les incertitudes.

 

 

Les distances au-delà de la Galaxie


Indicateurs primaires


Avec la méthode de la parallaxe spectroscopique appliquée aux amas, il est possible de mesurer la distance des étoiles des Nuages de Magellan, mais pas au-delà. Pour continuer la construction de l'échelle des distances, il faut recourir aux étoiles variables, RR Lyrae ou céphéides. C'est cette méthode, qualifiée de parallaxe photométrique, que Harlow Shapley et Edwin Hubble utilisèrent pour déterminer la taille de la Galaxie et la distance à Andromède.

Ces étoiles variables ont la particularité d'avoir une luminosité intrinsèque facile à estimer. En mesurant leur luminosité apparente, il est alors possible, de calculer leur distance. Avec ce type d'étoiles, qualifiées d'indicateurs primaires, on peut atteindre avec des télescopes terrestres des distances de l'ordre de 10 millions d'années-lumière, ce qui englobe la galaxie d'Andromède et tout le Groupe Local. Le télescope spatial, grâce à sa capacité à voir des détails très fins, a pu de façon plus récente utiliser cette méthode sur des distances 10 fois supérieures.


Indicateurs secondaires


Pour mesurer la distance des galaxies plus lointaines, celles où les céphéides ne sont plus visibles, il faut faire appel à ce que l'on appelle des indicateurs secondaires. Il s'agit de différents types d'objets beaucoup plus brillants que les céphéides et dont nous sommes en mesure d'estimer la luminosité intrinsèque de façon théorique. La procédure est alors la même. A partir de la mesure de la luminosité apparente, il est facile de remonter à la distance.

Parmi les indicateurs secondaires, on peut citer les supernovae de type I, qui présentent toujours la même luminosité intrinsèque lorsqu'elles atteignent leur éclat maximum. On compte aussi les amas globulaires, les étoiles supergéantes bleues et les novae, chacun de ces groupes d'objets possédant une luminosité moyenne bien définie. On peut également ajouter les régions HII, car leur taille maximale dans une galaxie est toujours la même, ce qui permet en mesurant les dimensions apparentes de remonter à la distance. En utilisant ces indicateurs secondaires, il est possible de déterminer des distances jusqu'à une centaine de millions d'années-lumière.


Indicateurs tertiaires


Lorsque même ces objets brillants ne sont plus visibles, on cherche à utiliser les propriétés globales des galaxies, qualifiées d'indicateurs tertiaires. Il existe par exemple une relation, appelée la loi de Tully-Fisher, entre la luminosité intrinsèque d'une galaxie spirale et sa vitesse angulaire de rotation. Or, il est possible de déterminer cette dernière par des observations de l'effet Doppler qui affecte la raie de 21 cm de l'hydrogène atomique. Il est donc possible de déterminer la luminosité intrinsèque totale de la galaxie considérée et d'en déduire, connaissant sa luminosité apparente, la distance.

Une autre relation, la loi de Faber-Jackson, existe pour les galaxies elliptiques et relie leur luminosité totale à l'agitation des étoiles en leur sein. Cette dernière est également mesurable grâce à l'effet Doppler et permet finalement de remonter à la distance. Les divers indicateurs tertiaires permettent en gros d'atteindre des distances de l'ordre de 500 années-lumière.

Il est possible d'aller encore plus loin en faisant l'hypothèse grossière que toutes les galaxies d'un type donné ont la même luminosité totale. On peut alors atteindre plus d'un milliard d'années-lumière, au prix d'une moindre précision.


La loi de Hubble


A des distances aussi énormes, la vitesse des galaxies est entièrement due à l'expansion de l'Univers. La vitesse particulière de chacune est complètement négligeable, ce qui n'était pas le cas pour les plus galaxies proches. Dans ces conditions, les galaxies suivent exactement la loi de Hubble sur la proportionnalité entre vitesse et distance.

Ceci a deux conséquences. D'abord nous pouvons utiliser les observations de ces galaxies lointaines pour estimer la constante de Hubble. Il suffit de prendre un large échantillon de galaxies lointaines, de déterminer leur vitesse à l'aide de l'analyse spectrale, et d'estimer leur distance grâce aux indicateurs tertiaires. On peut alors calculer le rapport vitesse sur distance et estimer la constance de Hubble. Bien sur, la précision ne sera pas très grande puisque le calcul repose sur toute une chaîne de méthodes différentes et est donc affecté par l'accumulation d'incertitudes.

La deuxième conséquence se base sur le principe inverse. Une fois la constante de Hubble déterminée, nous possédons le moyen ultime d'estimer la distance aux galaxies les plus lointaines et aux quasars. Puisque ces objets obéissent à la loi, il suffit d'analyser leur spectre pour calculer leur décalage vers le rouge et leur vitesse. Ce résultat divisé par la constante de Hubble donne alors tout simplement la distance. Cette méthode fonctionne bien pour les objets les plus éloignés, à condition bien sur qu'il soit possible de capturer suffisamment de leur lumière pour être en mesure d'effectuer une analyse spectrale.

 

La constante de Hubble et l'âge de l'Univers


Premières mesures


La construction d'une échelle des distances de l'Univers à donc permis aux astronomes de s'attaquer à la mesure de la constante de Hubble H0. Les premières estimations vinrent avec la découverte de l'expansion elle-même. Hubble calcula alors une valeur de 500 kilomètres par seconde et par mégaparsec. Cette valeur était très élevée car Hubble ignorait qu'il existait deux types de céphéides de luminosités différentes. En mélangeant les deux types, il commettait une erreur qui surestimait H0. Ceci fut réparé dans les années 1950 par l'Allemand Walter Baade qui divisa la constante par deux.

Un peu plus tard, l'Américaine Allan Sandage, un ancien étudiant de Hubble, mit à jour un autre problème. Certains des objets brillants que Hubble avait pris pour des étoiles lumineuses dans des galaxies lointaines se révélèrent en fait être des amas ou des régions HII. La constante fut a nouveau modifiée pour atteindre une valeur de 75. Après quelques derniers réarrangements, elle se fixa finalement à une valeur légèrement supérieure à 50 kilomètres par seconde et par mégaparsec, dix fois plus petite que l'estimation de Hubble.

Cette faible valeur fut acceptée jusqu'en 1976, lorsqu'un autre astronome américain, Gérard de Vaucouleurs, s'attaqua au problème en utilisant une plus grande variété d'indicateurs de distance. Il arriva à une valeur proche de 100 kilomètres par seconde et par mégaparsec, pratiquement deux fois supérieure à celle de Sandage. Après cette date, deux écoles s'affrontèrent, accumulant observation sur observation sans pour autant que les deux estimations ne se rapprochent.


Les mesures récentes


Grâce à sa capacité à voir des détails très fins, le télescope spatial est en mesure d'observer des céphéides dans des galaxies lointaines où ses confrères terrestres ne peuvent plus distinguer les étoiles. Il est en particulier capable de détecter des céphéides dans les amas de la Vierge et de Fornax, deux amas de galaxies très riches situés à une soixantaine de millions d'années lumière. Jusqu'alors, la distance aux galaxies de ces amas ne pouvait être mesurée qu'indirectement en s'appuyant sur des indicateurs secondaires. Grâce au télescope spatial, il fut possible de se servir d'indicateurs primaires, les céphéides, donc d'obtenir une plus grande précision.

L'un de projets les plus importants du télescope spatial fut donc de déterminer H0. Une équipe internationale fut assemblée qui observa 18 galaxies sur une période de huit ans et découvrit près de 800 céphéides. Cette équipe publia ses résultats en 1999 et annonça sa mesure de la constante : 70 kilomètres par seconde et par mégaparsec, à 10 pour cent près. Deux ans plus tard, la valeur fut encore légèrement affinée pour atteindre 72 kilomètres par seconde et par mégaparsec.

wmap.jpg
Le rayonnement fossile mesuré par le satellite WMAP en 2003.
Les zones de différentes couleurs sont des fluctuations infimes
de la température du rayonnement dans différentes directions du ciel.

Ces fluctuations sont le résultat de variations dans la densité de l'Univers primordial. Une analyse poussée de ces fluctuations a permis de déterminer avec une grande précision la valeur de la constante de Hubble et l'âge de l'Univers. 

La détermination la plus récente et la plus précise de la constante de Hubble repose sur une méthode complètement différente. Le satellite WMAP fut lancé en 2001 pour prendre des mesures très précises du rayonnement fossile, un rayonnement qui emplit l'Univers et date de quelques centaines de milliers d'années après le Big Bang. Ce rayonnement n'est pas complètement uniforme mais varie très légèrement lorsque l'on observe des directions différentes du ciel. Les théoriciens ont montré que ces fluctuations dépendent de plusieurs paramètres, en particulier de la vitesse d'expansion de l'Univers. Les mesures extrêmement précises de WMAP ont donc permis de calculer une nouvelle valeur plus affinée de H0 : 71 kilomètres par seconde et par mégaparsec, à 5 pour cent près.


L'âge de l'Univers


Maintenant que nous connaissons à peu près la valeur de la constante de Hubble, nous pouvons essayer de l'utiliser pour estimer l'âge de l'Univers. Imaginez que vous observiez au loin une voiture qui s'éloigne et que vous soyez capable par un moyen ou un autre de mesurer sa vitesse, disons 60 kilomètres à l'heure, et sa distance, un kilomètre. En supposant que la voiture a roulé à vitesse constante, vous pouvez immédiatement calculer qu'elle roule depuis 1 minute.

Le problème est plus ou moins le même pour une galaxie lointaine. Si nous sommes capables de mesurer à la fois sa distance et sa vitesse, nous pouvons déterminer depuis combien de temps elle s'éloigne de nous, donc l'âge de l'Univers. Il suffit en fait de diviser la distance de la galaxie par sa vitesse de récession. D'après la loi de Hubble, il se trouve que le résultat sera tout simplement égal à l'inverse de H0. Ainsi, par exemple, plus la constante de Hubble est grande, plus l'Univers est jeune.

Notons que le calcul précédent n'est correct que si la vitesse d'expansion est constante. En reprenant l'exemple précédent, si la voiture qui s'éloigne a constamment décéléré, sa vitesse moyenne sur le parcours est plus grande que celle que vous mesurez maintenant. Donc la durée réelle du trajet est plus courte que ce que la vitesse actuelle de la voiture semble indiquer. De même, si l'Univers a accéléré ou décéléré lors de son expansion, les estimations doivent prendre en compte un paramètre de correction.

Finissons donc avec les résultats les plus récents. L'équipe en charge de mesurer la constante de Hubble en utilisant le télescope spatial a estimé l'âge de l'Univers à une valeur comprise entre 13 et 14 milliards d'années. Les observations du satellite WMAP estiment quant à elles la valeur à 13,7 milliards d'années avec une marge d'erreur époustouflante d'un pour cent.

 

L'âge de l'Univers par ses constituants

Les estimations de l'âge de l'Univers basées sur la constante de Hubble reposent sur des considérations purement cosmologiques et sur l'hypothèse que notre description de l'évolution de l'Univers est correcte. Il convient donc d'essayer de vérifier ces estimations de façon indépendante. La nature fait bien les choses puisque l'expansion n'est pas le seul moyen que nous ayons à notre disposition. En effet, nous pouvons également calculer l'âge de certains constituants de l'Univers, ce qui nous offre une valeur minimale de l'âge de ce dernier.


Plusieurs méthodes différentes


Nous pouvons par exemple considérer les amas d'étoiles. Les astrophysiciens ont à leur disposition un moyen de déterminer l'âge d'un amas avec une précision de l'ordre de 10 pour cent en étudiant la forme de sa séquence principale. Il suffit d'utiliser cette méthode pour essayer de trouver l'âge des plus vieux amas d'étoiles de l'Univers. En faisant l'hypothèse que ces amas se sont formés rapidement après la naissance de l'Univers, ceci nous fournit une nouvelle évaluation de l'âge de ce dernier, indépendante de considérations cosmologiques. Une méthode similaire consiste à observer des étoiles individuellement s'il est possible de déterminer leur âge sans utiliser la technique précédente.

Plutôt que les étoiles, nous pouvons aussi considérer des constituants plus fondamentaux : les noyaux atomiques. Les protons et neutrons qui constituent les noyaux ont une tendance, très faible mais réelle, à se transformer les uns en les autres. Lorsqu'une telle transformation se produit, une restructuration du noyau a lieu et l'identité du noyau change. Le temps caractéristique de ce type de transformation est appelé la période et on le définit comme l'intervalle de temps nécessaire pour que la moitié des noyaux d'un échantillon se soient transformés. Par exemple, pour l'uranium-235, cette période est d'environ un milliard d'années. Ainsi, si vous isolez un échantillon de 1000 noyaux d'uranium-235 à un temps donné, il ne restera que 500 noyaux de ce type après un milliard d'années, 250 après deux milliards, 125 après trois milliards et ainsi de suite.

Le mécanisme précédent peut nous permettre de déterminer l'âge des noyaux les plus anciens. Considérons par exemple l'uranium. Il existe dans la nature deux types principaux de noyaux d'uranium qui se distinguent par un nombre de neutrons légèrement différents. Ainsi, un noyau d'uranium-235 contient 143 neutrons alors qu'un noyau d'uranium-238 en possède 146. Du fait de leur structure légèrement différente, ces deux noyaux ont des périodes différentes : un milliard d'années pour l'uranium-235 et plus de six milliards pour l'uranium-238.

Isolons donc à un temps donné un échantillon contenant des quantités identiques des deux types de noyaux et attendons un milliard d'années. Après cet intervalle, nous nous retrouvons avec deux fois moins de noyaux d'uranium-235, mais avec un nombre de noyaux d'uranium-238 qui n'a guère varié car la période de cet élément est beaucoup plus longue. L'abondance relative des deux noyaux change donc avec le temps, de façon connue, et c'est ainsi que nous pouvons déterminer l'âge des noyaux. En mesurant l'abondance relative actuelle, et en faisant une hypothèse sur l'abondance relative au moment du Big Bang, nous pouvons directement évaluer l'époque à laquelle les noyaux se sont formés. D'où une deuxième estimation indépendante de l'âge de l'Univers.


Les résultats


L'analyse des d'amas globulaires par la technique de la séquence principale a fournit une gamme assez large d'âges possibles, généralement entre 12 et 16 milliards d'années. L'incertitude assez large provient de la méthode employée ainsi que du manque de précision sur la distance exacte des amas observés.

En ce qui concerne l'observation d'étoiles individuelles, les meilleurs résultats proviennent du télescope spatial. En 2002, celui-ci se tourna vers l'amas globulaire M4, le plus proche de la Terre à une distance 5600 années-lumière. Il analysa la lumière de naines blanches extrêmement âgées et permit la détermination de leur âge : entre 12 et 13 milliards d'années.

Les estimations d'âge basées sur les noyaux atomiques sont très imprécises. Les mesures d'abondances de divers noyaux comme l'uranium, le thorium, l'osmium ou le rhénium indiquent un âge compris entre 10 et 17 milliards d'années.

De ces mesures, nous pouvons tirer une conclusion très importante. Toutes les estimations de l'âge de l'Univers, que ce soit d'après les modèles cosmologiques, les amas d'étoiles, les naines blanches ou les noyaux, sont en gros cohérentes entre elles. Aucune méthode ne donne un âge beaucoup plus grand ou petit que les autres, ce qui aurait pu se produire après tout. En tenant compte des incertitudes, aucun des constituants de l'Univers n'a un âge clairement supérieur à celui de l'Univers. Cet accord ne peut que renforcer notre confiance dans la vision actuelle de l'Univers que l'astrophysique nous propose.

 

Les lentilles gravitationnelles


Une technique relativement récente et qui ne dépend pas de l'échelle des distances nous offre une voie nouvelle et indépendante pour estimer la constante de Hubble et l'âge de l'Univers. Cette méthode s'appuie sur l'une des conséquences de la relativité générale, l'existence des lentilles gravitationnelles.


Les lentilles gravitationnelles


D'après la relativité générale, une distribution de masse, par exemple le Soleil, dévie les rayons lumineux qui passent à proximité. Dans le cas de notre étoile, les effets restent très limités car la masse mise en jeu est relativement faible. Mais les effets peuvent devenir très importants si l'objet qui perturbe la lumière est extrêmement massif, par exemple s'il s'agit d'une galaxie ou d'un amas de galaxies.

Imaginons que, par hasard, une galaxie proche et un quasar lointain se trouvent alignés sur une même ligne de visée, c'est-à-dire exactement dans la même direction du ciel. La lumière qui nous provient du quasar est alors fortement déviée lors de son passage près de la galaxie. Ainsi par exemple, les rayons lumineux qui passent légèrement au-dessus de la galaxie sont déviés vers le bas et donnent lieu à une image du quasar décalée vers le haut. Par contre, les rayons lumineux qui passent sous la galaxie sont déviés vers le haut et donnent naissance à une image du quasar décalée vers le bas. De cette façon, la galaxie proche, en perturbant la propagation de la lumière du quasar, donne naissance à plusieurs images de celui-ci. Le nombre total d'images est déterminé par la forme de la galaxie et la précision de l'alignement.

Notons encore qu'en plus de multiplier les images du quasar, la galaxie va également concentrer la lumière de celui-ci et donc produire des images bien plus brillantes. Un effet qui est loin d'être négligeable lorsque l'on observe des corps très peu lumineux.

lens.jpg
Un anneau d'Einstein dans le système B1938+666. L'image du haut a été prise dans l'infrarouge par le télescope spatial. Le point lumineux au centre est la galaxie relativement proche qui provoque l'effet de lentille gravitationnelle. L'anneau tout autour est une image déformée d'une galaxie plus lointaine. L'anneau n'est pas complet car les deux galaxies ne sont pas parfaitement alignées. L'image du bas est le même objet observé dans le domaine radio par le réseau de 6 radiotélescopes MERLIN en Grande-Bretagne. Sur cette image, on aperçoit très bien l'anneau, mais la galaxie proche n'est pas visible car elle n'émet pas dans le domaine radio.


L'effet de lentille gravitationnelle fut prévu par Einstein lui-même, mais il fallut attendre 1979 pour que le premier exemple réel soit observé. Cette année-là, les astronomes découvrirent deux quasars très proches dans le ciel. Après analyse, les spectres des deux objets se révélèrent pratiquement identiques depuis les ondes radio jusqu'aux rayons X. Il ne pouvait s'agir que de deux images d'un seul et même quasar, plus tard baptisé Q0956+561. Des observations ultérieures le confirmèrent et montrèrent que la lentille gravitationnelle était dans ce cas constituée par une galaxie elliptique géante quatre fois plus proche de nous que le quasar. Depuis cette époque, des dizaines d'images multiples de quasars ont été découvertes, avec deux, trois ou quatre composantes.

Notons que lorsque l'objet le plus éloigné est ponctuel, c'est une simple multiplication des images qui se produit, comme dans le cas précédent. Mais si l'objet est étendu, par exemple une galaxie lointaine, les images sont en plus déformées et ressemblent à des arcs lumineux. De nombreux cas de ce genre ont été observés, contenant parfois quelques arcs, parfois plusieurs dizaines. En 1995, par exemple, le télescope spatial révéla l'exemple très impressionnant de l'amas de galaxies Abel 2218 qui produit des images multiples de toute une population de galaxies lointaines et donne naissance à plus de 120 arcs lumineux. Parfois, lorsque l'alignement entre les deux objets est parfait, l'image de l'objet lointain peut être modifiée au point de prendre la forme d'un anneau lumineux entourant l'image de l'objet proche. Une dizaine de cas de ce type ont été observés.


La constante de Hubble


L'étude théorique des lentilles gravitationnelles a montré que celles-ci pouvaient se révéler très utiles dans la détermination de la constante de Hubble. En effet, les rayons lumineux qui contournent la lentille par différents côtés suivent des trajectoires qui ne sont pas identiques et n'ont généralement pas la même longueur. Ainsi, le temps mis par la lumière pour nous atteindre diffère selon l'image que nous observons. Pour cette raison, si le quasar subit une brusque variation de luminosité, ses différentes images ne répercutent pas le changement de façon simultanée, mais à des moments bien distincts dans le temps.

C'est la mesure de ce type de décalage qui peut nous conduire à la constante de Hubble. L'analyse du phénomène montre en effet que le délai entre le changement de luminosité des différentes images est inversement proportionnel à H0 et dépend très peu des autres paramètres cosmologiques. S'il était possible de mesurer un tel délai, nous pourrions donc remonter à H0 et obtenir une évaluation indépendante de cette constante.

En pratique, les choses ne sont une fois de plus pas si simples. La première difficulté consiste à mesurer le délai entre les variations de luminosité de chaque image. Ceci est loin d'être aisé car les quasars ne subissent pas toujours de fortes variations de luminosité. De plus, certaines fluctuations d'intensité des images ne sont pas dues au quasar lui-même.

La mesure du délai n'est pas la seule difficulté. En effet, pour remonter à H0, il faut connaître la répartition de la matière dans la galaxie qui fait office de lentille. Dans certains cas, ceci est très compliqué car la galaxie principale est parfois située dans un amas qui contribue au phénomène, et parfois d'autres amas plus éloignés interviennent également.

De nombreuses équipes se sont lancées dans l'utilisation de cette technique. L'une d'entre elles a mesuré la valeur de H0 à partir de l'observation du quasar B0218+357 et a annoncé en 2003 une valeur de 78 kilomètres par seconde et par mégaparsec à 5 pour cent près. Une autre équipe utilisant le quasar B1608+656 a annoncé la même année une valeur de 75 kilomètres par seconde et par mégaparsec à 10 pour cent près.

 

LA COSMOLOGIE

Relativité générale et cosmologie


La relativité générale et l'Univers


C'est par l'observation du ciel, plutôt que par la théorie, qu'Edwin Hubble découvrit en 1929 que l'Univers était en expansion. Cette découverte ne prit cependant pas complètement la communauté astronomique par surprise. En effet, plusieurs théoriciens avaient montré par leurs équations que l'Univers pouvait très bien être en expansion plutôt que statique.

Très peu de temps après la publication de la relativité générale par Einstein, certains astronomes commencèrent à s'appuyer sur l'outil mathématique qu'elle leur fournissait pour élaborer des modèles théoriques de l'Univers. Einstein lui-même s'attaqua au problème en 1917 et aboutit au premier modèle de l'Univers s'appuyant sur la relativité générale. Ce modèle décrivait un Univers statique et invariable dans le temps, mais uniquement car Einstein avait en fait forcé ses équations à donner un tel résultat.

La même année, l'astronome hollandais Willem de Sitter s'attaqua également au problème. Il mit alors au point un modèle dans lequel, à sa grande surprise, la distance entre deux points de l'espace devait augmentait avec le temps : il venait d'obtenir la premier modèle théorique d'un Univers en expansion. Ce modèle avait néanmoins le défaut d'être trop simpliste car il décrivait un Univers vide dépourvu de matière, et l'impact de cette découverte fut limité.

C'est finalement en 1922 que le mathématicien russe Alexandre Friedmann réussit à développer des modèles réalistes de l'Univers, dans lesquels celui-ci était en expansion. Ce qui n'était à l'époque que théorie allait bientôt être confirmé par les observations d'Edwin Hubble. Notons que les modèles de Friedmann servent encore de référence de nos jours, même si des observations de la fin des années 1990 ont montré qu'ils étaient trop simples pour parfaitement décrire l'Univers.


Trois paramètres pour décrire l'Univers


En développant ses modèles, Alexandre Friedmann montra que l'Univers, considéré d'un point de vue global, pouvait être décrit par trois paramètres. Bien que les équations étaient très complexes, seuls trois paramètres étaient nécessaires pour donner une description complète de l'Univers et déterminer aussi bien sa géométrie que son évolution dans le temps. Depuis lors, l'un des buts majeurs de la cosmologie a été de déterminer ces trois paramètres cruciaux.

Le premier de ces paramètres est la constante de Hubble, notée H0, et qui apparaît dans la loi qui relie la vitesse de récession d'une galaxie à sa distance. Cette constante détermine le rythme de l'expansion. Elle nous permet donc également de calculer le temps qui nous sépare du Big Bang, soit l'âge de l'Univers.

Le deuxième paramètre mesure la décélération de l'expansion sous l'effet de l'attraction gravitationnelle. En effet, les galaxies et amas qui peuplent l'Univers s'attirent les uns les autres sous l'effet de la gravité. L'effet global est une sorte de force interne qui freine l'expansion et tendrait plutôt à provoquer une contraction. Ce deuxième paramètre mesure cet effet et est par conséquent appelé paramètre de décélération et noté q0.

Enfin, le troisième paramètre est la densité moyenne dans l'Univers, notée ρ. Ce paramètre mesure la quantité de matière présente dans un volume donné d'espace. C'est lui qui détermine en grande partie le futur de l'Univers. En effet, même si ce dernier est aujourd'hui en expansion, rien ne nous garantit qu'il le sera éternellement puisque l'interaction gravitationnelle tendrait plutôt à provoquer une contraction. Le problème qui se pose est donc de savoir qui, de l'expansion ou de la gravité, va l'emporter. La réponse dans le modèle de Friedman est fournie directement par ce troisième paramètre.

 

La courbure de l'Univers


Trois types d'espaces


Dans ses modèles de l'Univers, Alexandre Friedmann s'intéressa en particulier au concept de courbure. Il montra qu'il pouvait exister en théorie trois différents types d'Univers qui se distinguent par leur courbure et par leur évolution dans le temps. Déterminer le type de notre Univers a depuis lors été l'un des buts de la cosmologie

La courbure en question est celle de l'espace. Le concept fut introduit par Einstein dans sa théorie de la relativité. Comme il est très difficile de visualiser la courbure dans un espace à trois dimensions, considérons le cas plus simple d'un espace à deux dimensions, c'est à dire d'une surface.

courbure.jpg
Illustration des différents types de courbure pour une surface à deux dimensions :
de haut en bas, courbure positive d'une sphère, courbure négative d'une selle de cheval, courbure nulle d'un plan. 

 


La surface la plus simple que l'on puisse concevoir est un plan. Les objets s'y comportent comme nous l'avons appris à l'école. En particulier, les lignes parallèles ne peuvent pas se croiser et ont une séparation constante. De plus, la somme des angles d'un triangle est toujours égale à un angle plat. Cette géométrie dont nous avons l'habitude est qualifiée d'euclidienne, du nom du mathématicien grec qui la développa il y a plus de 2000 ans. De façon générale, tout espace dans lequel les objets se comportent de cette manière est qualifié de plat ou d'euclidien et l'on dit que sa courbure est nulle.

Plus intéressant est le cas de la surface d'une sphère. Prenons par exemple le cas de la surface de notre planète. Sur Terre, les méridiens sont définis comme des lignes qui font le tour de la planète en passant par les deux pôles. Tous les méridiens croisent l'équateur à angle droit. Ils sont donc parallèles entre eux à ce niveau. Malgré cela, par définition, tous les méridiens passent par les pôles et s'y croisent. Ainsi, sur une sphère, les lignes parallèles peuvent se croiser.

Les triangles présentent également des propriétés inhabituelles. Traçons une triangle à la surface de la Terre. Plaçons un sommet au pôle nord et les deux autres sur l'équateur, l'un en Amérique du sud, l'autre en Afrique. Chacun des angles de ce triangle sera pratiquement droit. Leur somme sera donc bien plus grande que l'angle plat du cas euclidien.

Ces deux exemples montrent que la géométrie sur la surface d'une sphère est très différente de la géométrie sur un plan. La différence vient du fait que la surface d'une sphère est affectée d'une courbure non nulle et, pour être plus précis, positive. Tout espace dans lequel les objets se comportent comme précédemment sera qualifié d'espace sphérique.

Considérons enfin une troisième possibilité, celle d'une surface infinie en forme de selle de cheval. Si vous tracez deux lignes parallèles sur une telle surface, vous constaterez qu'elles ne vont ni se croiser, ni conserver une séparation constante. Au contraire, elles vont diverger et s'éloigner indéfiniment l'une de l'autre. De même, si vous mesurez les trois angles d'un triangle, vous vous apercevrez que leur somme est plus petite qu'un angle plat. Ces propriétés sont également liées à la courbure de la surface, mais, dans ce cas, on parlera d'une surface de courbure négative et d'un espace hyperbolique.


La courbure de l'Univers


Dans ses travaux sur la géométrie de l'Univers, Alexandre Friedmann montra qu'il existait trois géométries possibles pour l'Univers qui correspondaient aux trois exemples précédents. Ainsi, il se peut que l'Univers se comporte comme une sphère. Il aurait alors une étendue finie et on le qualifierait d'Univers fermé. Il est également possible que l'Univers soit semblable à une selle de cheval. Il serait alors infini et on le qualifierait d'ouvert. Enfin, la géométrie de l'Univers pourrait être similaire à celle d'un plan. Il serait également infini, mais on parlerait plutôt d'un Univers plat.

La courbure de l'espace en un point donné est directement liée à la quantité de matière qui s'y trouve. D'un point de vue global, il existe en conséquence un lien mathématique entre la courbure de l'Univers et le paramètre de densité ρ. Les travaux d'Alexandre Friedmann ont mis en évidence une valeur particulière de la densité de l'Univers qui définit la limite entre les trois types possibles. Elle est appelée densité critique et notée ρc.

Dans les modèles de Friedmann, si la densité réelle de l'Univers est strictement supérieure à ρc, c'est la gravitation qui l'emportera finalement. L'expansion de l'Univers sera un jour remplacée par une contraction qui finira dans un effondrement apocalyptique appelé le Big Crunch. Du point de vue de la géométrie, ce cas correspond à un Univers fermé. Si la densité réelle est strictement inférieure à ρc, c'est l'expansion qui triomphera et l'Univers continuera à se dilater rapidement pour l'éternité. L'Univers serait dans ce cas ouvert. Enfin, si la densité réelle est exactement égale à la valeur critique, l'expansion continuera indéfiniment, mais elle sera de plus en plus lente avec le temps. L'Univers serait alors plat et sa géométrie euclidienne.

Les modèles de Friedmann ont dominé la pensée cosmologique du XXe siècle et la mesure de la densité réelle de l'Univers a été et reste l'un des grands enjeux de l'observation astronomique. Des observations de la fin des années 1990, en particulier des mesures précises du rayonnement fossile, ont néanmoins montré que ces modèles étaient trop simplistes. Nous y reviendrons, mais notons déjà qu'à l'heure actuelle la densité réelle est estimée à 30 pour cent de la densité critique. Un autre facteur encore mal déterminé, la constante cosmologique ou une énergie sombre, fournit néanmoins les 70 pour cent nécessaires pour rendre l'Univers plat ou légèrement ouvert.

 

L'accélération de l'expansion et l'énergie sombre


L'expansion accélère


L'année 1998 fut l'une des plus importantes dates dans l'histoire de la cosmologie moderne. Deux équipes annoncèrent que l'expansion de l'Univers ne ralentissait pas comme on le pensait jusqu'alors, mais était en fait en pleine accélération. Les deux équipes étaient arrivées à cette conclusion de manière indépendante, en s'appuyant sur l'observation de supernovae de type Ia.

Ce type de supernova est depuis longtemps utilisées pour mesurer les distances dans l'Univers. Les deux équipes observèrent les plus éloignées à l'époque, une cinquantaine au total, principalement grâce à des télescopes terrestres. Ces supernovae se révélèrent légèrement moins lumineuses et plus éloignées que ce que l'on pouvait déduire de leur décalage vers le rouge en s'appuyant sur la théorie standard d'une expansion en train de ralentir. Une analyse plus poussée des résultats montra que la seule explication possible était que l'expansion accélérait.

Les résultats de 1998 furent confirmés par une observation du télescope spatial en 2001. Celui-ci observa la supernova la plus lointaine connue, à une distance de plus de 10 milliards d'années-lumière et à un décalage vers le rouge de 1,7. Là encore, la supernova se révéla légèrement moins brillante que prévu, ce qui ne pouvait s'expliquer que par une expansion accélérée. L'analyse de ce résultat montra que l'expansion de l'Univers était freinée par la gravité pendant les premiers milliards d'années, mais commença à accélérer à une époque située il y a entre 4 et 8 milliards d'années.

Supernova en 2001
La supernova qui confirma en 2001, grâce au télescope spatial, que l'expansion de l'Univers accélère. L'image du haut montre la région du ciel où la supernova fut détectée (cette image est connue sous le nom de Northern Hubble Deep Field). L'image en bas à gauche est un agrandissement où l'on aperçoit la galaxie elliptique qui contient la supernova. L'image en bas à droite est le résultat d'un traitement numérique. Il s'agit de la différence entre une image prise après l'explosion et une image prise avant l'explosion. Les éléments qui n'ont pas changé entre les deux époques disparaissent ainsi, mais l'augmentation de luminosité due à la supernova est clairement visible.


Plus récemment, en 2003, une nouvelle observation du télescope spatial, cette fois-ci sur un échantillon de 11 supernovae de type Ia, a confirmé les observations précédentes.


L'énergie sombre


L'accélération de l'expansion a été interprétée comme la présence d'une force répulsive à grande échelle, capable de surmonter la force gravitationnelle entre les différents constituants de l'Univers. La nature de cette force reste pour l'instant très mystérieuse et on lui a donné le nom d'énergie sombre.

Notons que l'année 2003 a également apporté des informations sur la composition de l'Univers. Les dernières observations du télescope spatial montrent que l'Univers est composé de 25 pour cent de matière et de 75 pour cent d'énergie sombre. Les observations du rayonnement fossile faites par le satellite WMAP ont donné une réponse encore plus précise : 4 pour cent de matière ordinaire, 23 pour cent de matière exotique et 73 pour cent d'énergie sombre. Les observations de ce satellite ont également montré que l'Univers était plat, du moins dans la limite des incertitudes de mesure.


La constante cosmologique


L'une des explications possibles de la force répulsive qui accélère l'expansion fait appel au concept assez ancien de constante cosmologique. Au début de ce siècle, après avoir mis au point sa théorie de la relativité générale, Albert Einstein l'appliqua à l'étude de l'Univers dans son ensemble. A sa grande surprise, il réalisa que dans leur forme originale les équations de la nouvelle théorie ne permettaient pas à l'Univers d'être statique et invariable dans le temps. Elles ne pouvaient s'accommoder que d'un Univers en expansion ou en contraction.

Or, à cette époque, la vision d'un Univers statique était partagée par toute la communauté astronomique. En conséquence, Einstein, plutôt que d'accepter le nouveau résultat, décida de modifier légèrement les équations de la relativité générale en y introduisant un terme supplémentaire appelé la constante cosmologique et noté Λ. Physiquement, ce terme s'interprétait comme une nouvelle force qui tendait à faire se repousser les corps de l'Univers les uns les autres. Einstein régla la constante de façon à ce que cette force de répulsion contrebalance exactement la gravitation. De cette manière, il obtenait bien un Univers statique, invariable dans le temps.

Bien sûr, une dizaine d'années plus tard, les observations d'Edwin Hubble montrèrent que l'Univers n'était pas statique, mais en expansion, et la constante cosmologique perdit sa raison d'être. Les théoriciens continuèrent néanmoins à étudier la façon dont une possible constante cosmologique non nulle pourrait influencer l'évolution de l'Univers. Ils s'aperçurent alors que ce paramètre supplémentaire pouvait engendrer des comportements très divers.

L'un des cas les plus intéressant était celui d'une constante cosmologique légèrement supérieure à la valeur utilisée par Einstein. Dans ce cas, l'Univers serait né dans un Big Bang suivi d'une expansion ralentie par la gravité. Mais du fai

t de la constante cosmologique, l'effet de la gravité aurait finalement été surmonté par une force de répulsion à grande échelle, et l'Univers serait entré dans une phase éternelle d'expansion accélérée.

Ce cas de figure correspond assez bien aux observations actuelles et le concept de constante cosmologique est donc revenu sur le devant de la scène, même s'il n'apporte guère de réponse quant à la nature physique de l'énergie sombre. Notons en particulier que les observations de WMAP ont montré que l'énergie sombre s'apparentait plus à une constante cosmologique qu'à certaines autres hypothèses avancées pour expliquer l'énergie sombre.

Remarquons, pour finir, que dans un tel scénario, l'âge réel de notre Univers est plus grand que la valeur déduite de H0. Ceci pourrait lever une contradiction possible entre âge apparent de l'Univers et âge de certains de ses constituants, si ce dernier s'avérait plus grand.

 

 

LA MASSE CACHEE

La masse cachée des galaxies


La matière lumineuse


La méthode la plus simple pour déterminer la densité moyenne de l'Univers consisterait à mesurer directement la quantité de matière contenue dans un volume donné de l'Univers. Il suffirait de considérer une région représentative de l'Univers dans son ensemble et d'y compter le nombre de galaxies. En évaluant également le nombre moyen d'étoiles par galaxie et la masse moyenne d'une étoile, nous pourrions obtenir une estimation de la quantité moyenne de matière dans un volume donné. Bien sûr, il faudrait également tenir compte de la masse contenue hors des étoiles, dans le gaz et le milieu interstellaire.

Ce genre d'étude a été mené à bien et a montré qu'en moyenne l'Univers semble avoir une densité de matière équivalente à quelques protons par mètre cube. Cette valeur est très faible par rapport à la densité critique nécessaire pour avoir un Univers plat, à peine 0.4 pour cent de celle-ci. L'Univers semble donc à première vue être très ouvert.

Mais l'Univers nous a une fois de plus réservé une surprise. Les estimations précédentes de la densité ont été faites à partir de la matière visible ou du moins détectable par nos télescopes - on la qualifie parfois de matière lumineuse. Mais dès les années 1930, certaines observations astronomiques ont montré que la matière lumineuse faite d'étoiles, de gaz et de poussières, ne représente en fait qu'une petite fraction de la masse effectivement présente dans l'Univers.


La masse cachée dans les galaxies spirales


La manifestation la plus apparente de la présence d'une masse cachée se produit lorsque l'on étudie la répartition de la matière au sein d'une galaxie spirale. Il existe en effet un moyen relativement simple de connaître la distribution de masse dans une telle galaxie. Il consiste à étudier soigneusement le mouvement des étoiles et du gaz en son sein.

Rappelons que dans le système solaire, les planètes se déplacent en obéissant aux lois de Kepler. Celles-ci énoncent en particulier que la vitesse d'une planète sur son orbite est inversement proportionnelle à sa distance au centre. Il s'agit là d'un résultat classique qui est vrai dans tout système dominé par un corps central massif comme le Soleil. Ce principe peut se généraliser à n'importe quel ensemble, en particulier à une galaxie spirale. La façon dont la vitesse des étoiles et du gaz de la galaxie varie avec la distance au centre - ce que l'on appelle la courbe de rotation - peut nous permettre de déterminer la répartition de la masse à l'intérieur de cette galaxie.

Lorsqu'ils commencèrent à s'intéresser à cette méthode, les astronomes pensaient savoir à quoi s'attendre. La vitesse des étoiles et du gaz devait être faible au centre des galaxies et augmenter avec la distance. En dehors de la galaxie par contre, la courbe de rotation devait s'inverser et la vitesse baisser. En effet, les quelques traces de gaz à l'extérieur peuvent être considérées comme en orbite autour d'un corps central et devraient donc suivre une loi similaire à celle qui régit la vitesse des planètes du système solaire. Les astronomes s'attendaient donc à une chute de la vitesse du gaz avec la distance au centre.

La difficulté majeure résidait dans le fait que la quantité de matière présente en dehors des limites visibles d'une galaxie est très faible. Il s'agit surtout de gaz hydrogène qui s'étend deux ou trois fois plus loin que les limites visibles de la galaxie. Pour pouvoir étudier ce gaz, il fallut avoir recours, comme dans le cas de l'hydrogène interstellaire, à des observations dans les ondes radio à une longueur d'onde de 21 centimètres. Des observations à l'aide de puissants radiotélescopes commencèrent et les premiers résultats furent publiés à la fin des années 1970.

Les résultats prirent les astronomes par surprise. En effet, les courbes de rotation ne chutaient pas à l'extérieur des galaxies mais restaient obstinément plates. La vitesse du gaz restait constante au lieu de diminuer. Ceci impliquait que la matière s'étendait bien plus loin que les limites visibles. Chaque galaxie devait être entourée d'un halo de matière invisible, dont la masse devait être plusieurs fois supérieure à celle de la partie visible.

Ces résultats mettaient en évidence que la majeure partie de la masse des galaxies, donc de la matière remplissant l'Univers, nous était totalement invisible et inconnue. De plus, toute tentative de mesurer la densité de l'Univers à partir de son contenu visible s'avérait vaine.

Notons qu'une conclusion similaire avait déjà été tirée pour la Voie Lactée elle-même. D'autres astronomes avaient en effet observé le mouvement des objets externes les plus proches de notre Galaxie, en particulier les Nuages de Magellan et quelques galaxies naines. A partir de mesures de vitesses et de l'analyse de la force de marée appliquée par notre Galaxie sur ses voisines, il leur fut possible de conclure que la Voie Lactée devait être entourée d'un halo énorme et massif constitué de matière non visible.


Le cas des galaxies elliptiques


Remarquons enfin que les galaxies spirales ne sont pas les seules à être immergées dans un halo invisible. Comme les galaxies elliptiques ne présentent pas de rotation globale, la méthode ci-dessus ne s'applique pas. Il est cependant possible de s'appuyer sur l'agitation des étoiles en leur sein. En effet, dans une galaxie elliptique, les étoiles vont et viennent frénétiquement, ce qui les empêche de succomber à la force gravitationnelle qui les attire vers le centre.

Ce phénomène nous fournit un moyen de déterminer la répartition de masse dans l'ensemble. Par exemple, plus une galaxie elliptique est massive, plus la force de gravité est puissante, donc plus les étoiles doivent bouger vite pour survivre. De façon plus générale, l'étude de l'agitation stellaire en fonction de la distance au centre nous permet de calculer la répartition de matière. Cette méthode a été appliquée à plusieurs galaxies et a montré que la matière était agitée même au-delà de leurs limites visibles, ce qui confirme l'existence d'un halo massif.

 

 

 

La masse cachée intergalactique


Couples et groupes de galaxies


Les mesures de masse cachée par la courbe de rotation ou l'agitation des étoiles concernent le voisinage immédiat des galaxies. La masse et la taille des halos que l'on en déduit ne constituent que des estimations minimales. Pour déterminer ces paramètres plus précisément, il faut encore s'éloigner des galaxies et étudier leur influence au-delà du voisinage immédiat.

Pour cela, on peut par exemple observer un couple de galaxies en orbite l'une autour de l'autre. Ce genre d'étude est très difficile car les mouvements relatifs ne sont pas mesurables, à moins d'observer les galaxies sur des milliards d'années. Il faut pour cette raison avoir recours à des arguments statistiques, ce qui rend les résultats moins fiables. Des observations ont néanmoins été tentées, qui ont montré que la taille d'un halo typique était environ 10 fois celle de la galaxie, et que la masse était également 10 fois supérieure. D'après ce résultat, la densité de matière de l'Univers passe donc à 4 pour cent de la densité critique, mais l'Univers reste encore largement ouvert.

Plutôt que des couples, on peut également considérer des groupes de galaxies. Dans ce cas, on mesure la vitesse, donc l'agitation, des galaxies à l'intérieur du groupe. Ceci permet d'estimer l'intensité de la force de gravité du groupe, donc sa masse. Ces calculs donnent des résultats similaires à ceux obtenus à partir des couples. Ils confirment qu'un halo typique possède un diamètre de l'ordre de 600 000 années-lumière, à comparer avec la taille d'une galaxie comme la nôtre, environ 80 000 années-lumière. Ils confirment également que les halos ont une masse à peu près 10 fois plus grande que la partie visible.


Amas de galaxies


Après les groupes, nous pouvons passer à des ensembles encore plus gigantesques, les amas de galaxies . C'est d'ailleurs en étudiant des amas que l'astronome Fritz Zwicky fut le premier, en 1937, à entrevoir le fait que la masse de l'Univers puisse être dominée par une composante invisible. Comme dans le cas des groupes, on mesure la vitesse donc l'agitation des galaxies à l'intérieur de l'amas, et on en déduit l'intensité de la force de gravité qui retient l'ensemble et donc la masse totale.

Ces observations ont montré que la masse totale d'un amas est bien plus grande que la masse de son contenu visible, mais également plus grande que la masse calculée en tenant compte des halos massifs invisibles. Les nombreux travaux menés sur le sujet montrent qu'en moyenne la masse totale d'un amas est environ trois fois plus grande que la somme des masses de ses constituants, galaxies et halos invisibles inclus, donc à peu près 30 fois plus grande que la masse de ses constituants visibles.

On peut en déduire que la masse cachée est constituée d'au moins deux composantes, l'une qui constitue les énormes halos entourant les galaxies, l'autre qui se trouve disséminée dans l'espace intergalactique à l'intérieur des amas. La matière ordinaire ne représente plus que quelques pour cent du total. Le paramètre de densité est quant à lui revu à la hausse et atteint maintenant une valeur autour de 10 pour cent de la densité critique.

Remarquons encore que ces résultats ont été confirmés par une autre méthode, s'appuyant sur l'effet de lentille gravitationnelle provoqué par certains amas. En effet, la déviation des rayons lumineux par cet effet dépend de la masse de l'amas considéré, mais pas de la nature de cette masse. L'analyse des images nous permet donc de mesurer la masse réelle de l'amas et même sa distribution dans l'ensemble. Cette méthode est relativement nouvelle, mais les résultats confirment le facteur trois entre la masse totale d'un amas et la somme des masses de ses constituants, galaxies et halos inclus.


Résultats récents


Tout récemment, en 2003, l'existence de la masse cachée a été confirmée par le satellite WMAP. Ce dernier avait pour mission de mesures les faibles fluctuations du rayonnement fossile, une relique du Big Bang. L'analyse des résultats a montré que la densité de l'Univers est en fait égale à la densité critique et que l'Univers est donc plat - du moins dans la limite d'incertitude des mesures. La matière ordinaire dont nous avons l'habitude ne contribue que 4 pour cent de cette valeur. Une matière que l'on qualifie d'exotique représente 23 pour cent de la densité et le reste, 73 pour cent, n'est pas composé de matière mais de ce que l'on a baptisé de l'énergie sombre.

 

La matière sombre baryonique

Confrontés au défi majeur que leur pose la matière sombre, les astrophysiciens ont entrepris de découvrir sa nature physique. Deux possibilités se sont alors présentées : celles qui font appel à des astres constitués de matière ordinaire, par exemple les étoiles peu lumineuses, et celles qui reposent sur l'introduction de particules exotiques. Analysons ici les candidats formés de matière ordinaire, ou baryonique, c'est-à-dire de neutrons et de protons.


Les naines rouges


L'une des solutions les plus simples est de recourir aux étoiles les moins brillantes, les naines rouges. Ces étoiles font partie de la séquence principale mais se distinguent par leur faible masse, entre 8 et 80 pour cent de la masse du Soleil. Pour cette raison, leur surface est relativement froide, seulement quelques milliers de degrés, et leur luminosité est donc très faible, entre un dix millième et quelques dixièmes de celle du Soleil. Ces étoiles passent ainsi pratiquement inaperçues, si ce n'est dans notre voisinage immédiat.

C'est en étudiant les naines rouges les plus proches que les astronomes se rendirent compte que ces étoiles peu brillantes sont très nombreuses. Ainsi, dans le voisinage du Soleil, une étoile sur deux est une naine rouge, même si très peu d'entre elles figurent parmi les milliers d'étoiles visibles à l'oeil nu. Les astronomes sont donc tout naturellement amenés à penser que les galaxies pouvaient être dominées en nombre par ces étoiles quasi-invisibles. Leur présence augmenterait la masse totale d'une galaxie sans véritablement affecter sa luminosité globale.


Les naines brunes


Une autre solution consiste à faire appel à des astres encore moins massifs : les naines brunes. On désigne par ce terme les étoiles dont la masse est inférieure à 8 pour cent de celle du Soleil. A cause de cette masse très faible, le noyau de ces étoiles n'est pas suffisamment comprimé et chaud pour que les réactions nucléaires de fusion soient en mesure de se mettre en place. Les naines brunes sont donc en quelque sorte des étoiles ratées, qui n'émettent pas de lumière et sont pratiquement impossibles à observer, même dans le voisinage immédiat du Soleil. Ces propriétés en font clairement des candidates à la masse cachée.

Remarquons que la masse minimale des naines brunes est probablement de plusieurs fois la masse de Jupiter. Ce qui différencie ces étoiles des planètes géantes est leur mode de formation. Comme toutes les étoiles, les naines brunes se forment lors de l'effondrement d'un nuage de gaz, alors que les planètes se forment par accumulation de grains de poussière.


Les planètes


Une autre explication de la masse cachée est la présence possible dans les galaxies d'une quantité insoupçonnée de planètes, en particulier de planètes massives comme Jupiter. Cependant, des corps de cette nature ne peuvent pas fournir une très grande proportion de la masse cachée. Ils sont en effet formés d'éléments plus lourds que l'hydrogène ou l'hélium. Or ces éléments sont rares dans l'Univers, ils ne représentent qu'un noyau atomique pour 100 noyaux d'hydrogène, comme toutes les observations le confirment.


Les résidus d'étoiles


Enfin, on peut faire appel aux trois types de résidus stellaires : naine blanche, étoile à neutrons ou trou noir. La contribution des deux derniers types est cependant limitée. Étoiles à neutrons et trous noirs apparaissent lors de l'explosion d'une supernova qui donne naissance à une grande quantité d'éléments lourds. Comme ces derniers sont rares, le nombre d'explosions ayant eut lieu doit être relativement faible, donc également le nombre de résidus stellaires de ce type.

 

Détecter la matière sombre baryonique


Depuis les années 1990, les astronomes tentent d'observer directement la masse cachée baryonique et d'estimer la contribution des différents candidats.


Les naines rouges


Jusqu'à récemment, du fait de la turbulence atmosphérique, les télescopes terrestres étaient incapables de confirmer l'importance des naines rouges. Leurs images étaient peu lumineuses et floues et ressemblaient à des galaxies, ce qui ne facilitait pas les choses. Avec l'avènement du télescope spatial Hubble, il devint possible d'observer des naines rouges 100 fois plus faibles qu'auparavant et de les différentier des galaxies. Des observations furent alors menées dans des zones du ciel choisies de manière aléatoire et montrèrent que les naines rouges n'étaient pas aussi abondantes qu'on l'imaginait auparavant. Leur masse totale ne représentait qu'environ 10 pour cent de celle de la Galaxie.


D'autres observations concentrées sur un amas globulaire montrèrent que le nombre de naines rouges de masse supérieure à un cinquième de celle du Soleil était très grand, avec à peu près une centaine de naines rouges pour une étoile de type solaire. Mais ces observations montrèrent également qu'il n'y avait pas de naine rouge de masse inférieure. La masse limite de formation des étoiles n'est donc probablement pas de 8 pour cent de celle du Soleil comme le prévoyaient les modèles théoriques, mais plutôt d'environ 20 pour cent. En tout cas, il ressortait de ces observations que les naines rouges ne formaient qu'une très faible fraction de la masse cachée dans les halos de galaxies, de l'ordre de 6 pour cent.


Les naines brunes


Les naines brunes n'émettent guère de lumière et sont donc pratiquement impossibles à détecter, même dans le voisinage du Soleil. Néanmoins, juste après leur formation, ces étoiles sont soumises à une phase de contraction qui durent quelques centaines de milliers d'années. Pendant cette période, elles libèrent une grande quantité d'énergie gravitationnelle et peuvent donc émettre un rayonnement.

Gliese 229B
La première naine brune découverte en 1994 à l'observatoire du mont Palomar (le petit point lumineux un peu à droite du centre de chaque image). La naine brune, baptisée Gliese 229B, est en orbite autour d'une naine rouge (à gauche) et se trouve à environ 19 années-lumière de la Terre. L'image de gauche provient de l'observatoire du mont Palomar, celle de droite fut prise en 1995 par le télescope spatial.

Il va sans dire que les effets de la turbulence atmosphérique empêchent toute observation avec un télescope terrestre classique. C'est ainsi un système d'optique adaptative qui détecta la première naine brune en 1994, une découverte rapidement confirmée par le télescope spatial. Cette naine brune, baptisée Gliese 229B, forme avec une naine rouge un système binaire situé à 19 années-lumière. La masse de la naine brune est entre 20 et 50 fois plus grande que celle de Jupiter et sa luminosité est 100 000 fois plus faible que celle du Soleil. Son atmosphère est quant à elle semblable à celle de Jupiter, avec en particulier une grande abondance de méthane. Cette découverte était très importante car elle montrait que les naines brunes existent réellement. Depuis lors, d'autres naines brunes ont été identifiées mais il est encore trop tôt pour avoir une idée précise de leur nombre total, donc de leur contribution à la masse cachée.


Utiliser les lentilles gravitationnelles


Plutôt que d'étudier directement un type donné de candidat, il est également intéressant d'affiner notre connaissance de la masse cachée par d'éventuels effets indirects. Les années 1990 ont ainsi vu le développement d'une technique destinée à détecter indirectement la matière sombre présente dans le halo de notre Galaxie, ceci quelle que soit sa nature.

Cette méthode repose sur le phénomène de lentille gravitationnelle. Celui-ci se produit lorsque deux étoiles sont alignées sur la même ligne de visée. Comme la relativité générale le montre, l'étoile la plus proche peut alors dévier et concentrer les rayons lumineux de la plus lointaine. Le résultat pour un observateur terrestre est une soudaine et forte augmentation de la luminosité apparente de l'étoile lointaine.

Ce phénomène peut être utilisé pour détecter des objets sombres dans le halo de notre Galaxie. En effet, ces objets ne sont pas fixes mais se déplacent lentement. Si, par pur hasard, l'un d'entre eux passe exactement entre nous et une étoile plus éloignée, l'intensité apparente de cette dernière augmentera fortement pendant la durée du passage. Ainsi, par exemple, si la lumière d'une étoile située dans l'un des Nuages de Magellan voit son éclat apparent augmenter pendant un intervalle de temps, il est possible que cela soit dû au passage d'un objet sombre sur la ligne de visée.

Évidemment, une telle variation de luminosité peut aussi être causée par un phénomène cataclysmique du type nova. Il est cependant possible de différentier les deux cas de figure en observant l'amplification dans deux longueurs d'onde différentes. En effet, les variations de luminosité dues à une lentille gravitationnelle sont indépendantes de la longueur d'onde considérée, alors que les variations dues à un changement au niveau de l'étoile en dépendent.

L'observation d'un effet de lentille gravitationnelle ne fait pas que prouver l'existence d'objets sombres dans le halo. La durée et l'amplitude du phénomène peuvent nous apporter de nombreuses données comme la vitesse, la distance et la masse de l'objet. La principale difficulté réside dans le fait que la probabilité du phénomène est extrêmement faible, de l'ordre d'un événement pour un million d'étoiles observées. Pour avoir une chance raisonnable d'en détecter un, il faut donc observer simultanément un très grand nombre d'étoiles situées hors du halo. Ceci est heureusement possible dans la direction des Nuages de Magellan, très riche en étoiles. Il est également intéressant d'observer la région du bulbe galactique, ce qui permet de détecter des objets sombres dans le disque galactique plutôt que dans le halo.


Les résultats


Les années 1990 virent la mise en route de plusieurs programmes de détection de lentilles gravitationnelles dans la Galaxie. On peut citer en particulier les programmes EROS, qui se concentra sur les étoiles du Grand Nuage de Magellan, OGLE, qui scruta celles du bulbe galactique, et MACHO qui observa les deux régions simultanément. Ces trois programmes détectèrent des centaines d'événements dans la direction du bulbe et une vingtaine dans la direction des Nuages de Magellan.

Les résultats semblent pour l'instant indiquer que les objets peu massifs de moins de 10 pour cent de la masse solaire, naines brunes ou planètes par exemple, ont une contribution relativement faible, entre 10 et 20 pour cent de la masse du halo galactique. Les corps de l'ordre de la moitié de la masse du Soleil, par exemple les naines blanches, pourrait quant à eux compter pour environ 20 à 30 pour cent de la masse cachée dans le halo.

 

 

La matière sombre exotique


Les neutrinos


Les candidats formés de matière ordinaire, ou baryonique, ne peuvent pas à eux seuls expliquer toute la masse cachée. Les résultats du satellite WMAP ont confirmé en 2003 ce que l'on soupçonnait déjà auparavant, qu'il existe une matière non baryonique, qualifiée d'exotique, dont la masse est au moins 5 fois plus importante que celle de la matière ordinaire. Les astrophysiciens doivent donc également faire appel à des particules plus exotiques.

Une première possibilité est le neutrino, une particule qui interagit très faiblement avec la matière ordinaire mais que des observatoires sous-terrains ont néanmoins réussi à détecter. Le neutrino fut longtemps considéré comme une particule de masse nulle comme le photon. Cependant, plusieurs expériences semblent montrer qu'il n'en est pas ainsi et qu'une très faible masse n'est pas exclue.

Si tel était le cas, les neutrinos pourraient expliquer en partie la masse cachée exotique. En effet, avec une densité moyenne de 100 particules par centimètre cube, les neutrinos sont très abondants dans l'Univers, bien plus que les protons ou les neutrons. Même si la masse d'une seule particule est très faible, leur grande abondance pourrait bien permettre aux neutrinos d'apporter une contribution majeure à la densité de l'Univers.


Les particules massives à faible interaction


Le neutrino n'est pas le seul candidat exotique. Dans leur quête d'une description définitive des constituants de la matière et de leurs interactions, les physiciens des particules ont développé toute une panoplie de particules hypothétiques, aux noms plus étranges les uns que les autres, photinos, gluinos, sélectrons, sneutrinos et autres. Ces particules sont désignées collectivement sous le nom de particules massives à faible interaction (WIMP en anglais).

Comme le neutrino, ces particules interagissent très faiblement avec la matière ordinaire. Elles sont néanmoins soumises à la force gravitationnelle puisque c'est grâce à cela que l'on a suspecté leur existence. Ces particules sont donc attirées par les galaxies et doivent former de gigantesques halos autour d'elles. Notons néanmoins qu'aucune particule de ce type n'a jamais été détectée et qu'il faut donc rester très prudent avant de tirer des conclusions définitives.


Détecter les neutrinos


Si les objets sombres de nature baryonique sont difficiles à observer, la tache est encore plus ardue lorsqu'il s'agit de détecter le deuxième type possible de matière sombre, formé de particules exotiques.

Le neutrino est une particule dépourvue de charge électrique et de masse très faible. La probabilité de réaction entre un neutrino et une particule ordinaire est extrêmement petite. Le seul moyen d'en capturer un est donc d'augmenter les chances de rencontre en construisant un détecteur contenant une énorme quantité de particules ordinaires.

Ceci fut tenté pour la première fois en 1967 dans une mine d'or, à Homestake dans le Dakota du Sud. Le détecteur consistait en une cuve contenant 400 000 litres d'une substance chlorée. Même si l'immense majorité des neutrinos passait sans problème à travers la cuve, il arrivait que l'un d'eux interagisse avec un noyau de chlore. Celui-ci se transformait alors en un noyau d'argon qui à son tour se désintégrait rapidement. C'est le résultat de cette désintégration qui pouvait être facilement détecté et révéler la capture d'un neutrino.

Sudbury
Le détecteur de l'observatoire de neutrinos de Sudbury au Canada pendant sa construction. Cet observatoire est opérationnel depuis 1999 et a pour but de contribuer à notre compréhension des propriétés fondamentales des neutrinos.


Depuis cette époque, d'autres détecteurs basés sur le même principe ont été construits. Ces détecteurs sont tous placés dans des zones souterraines pour réduire au maximum l'interférence des rayonnements cosmiques qui risquerait de fausser les résultats. On peut citer en particulier l'expérience Gallex, réalisée dans le tunnel de Gran Sasso en Italie avec 30 tonnes de gallium en solution, le détecteur Super Kamiokande à Kamioka au Japon avec 50 000 tonnes d'eau, et l'observatoire de Sudbury au Canada avec 1000 tonnes d'eau lourde.

Les données de ces détecteurs ne révèlent hélas pas directement la masse des neutrinos et le problème de leur contribution à la densité de l'Univers n'est donc toujours pas résolu. Les expériences semblent quand même indiquer que la masse est trop faible pour que les neutrinos aient un impact significatif sur cette densité.


Détecter les particules massives à faible interaction


Notons pour commencer que les particules massives à faible interaction (WIMP en anglais) sont hypothétiques et n'ont jamais été observées de façon certaine à ce jour. Capturer ces particules n'est pas une mince affaire mais plusieurs projets ont néanmoins vu le jour. On peut citer en particulier le projet CDMS dans une mine de fer du Minnesota et l'expérience DAMA dans le tunnel de Gran Sasso.

Ces projets s'appuient sur le fait que même si l'interaction de ces particules avec la matière ordinaire est très faible, elle existe et il doit être possible de la mettre en évidence. En guise d'exemple, le détecteur de l'expérience CDMS est constitué d'un gros cristal de germanium refroidi à quelques millièmes de kelvin pour faire disparaître toute agitation thermique. A tout instant, du fait du mouvement de la Terre par rapport au halo de matière non baryonique, une multitude de particules massives à faible interaction traversent le détecteur. Il arrive, très rarement, que l'une d'entre elles interagisse avec un noyau de germanium. Elle introduit alors une quantité infime d'énergie dans le détecteur et y crée une très faible ionisation.

En mesurant en permanence la température et la charge électrique du cristal, il est théoriquement possible d'observer le phénomène, donc de détecter les particules exotiques. Le nombre de détections est évidemment très limité, en théorie de l'ordre d'une tous les 10 jours pour un détecteur d'un kilogramme. Notons que les signaux parasites dus à d'autres particules peuvent être détectés en analysant soigneusement la quantité d'énergie déposée et la charge électrique créée.

 

 

 

Partager cette page

Repost 0
Published by