Overblog Suivre ce blog
Editer la page Administration Créer mon blog
/ / /

Avec l'aimable autorisation de l'auteur de ces publications Mr Olivier ESSLINGER auquel j'adresse mes  sincères rem
erciements






INTRODUCTION DE HUBERT REEVES SUR L'UNIVERS





ثُمَّ اسْتَوَى إِلَى السَّمَاءِ وَهِيَ دُخَانٌ


Les particules et leurs interactions


La matière


Plusieurs méthodes indépendantes ont montré que l'Univers n'a pas toujours existé, mais qu'il est en fait apparu il y a une quinzaine de milliards d'années. A cette époque reculée, les propriétés de l'Univers étaient très différentes de ses propriétés actuelles. En effet, comme l'Univers est en expansion, sa densité de matière, c'est-à-dire la quantité de matière contenue dans un volume donné, baisse constamment. De façon similaire, la densité d'énergie moyenne de l'Univers baisse, ce qui se traduit par une diminution de la température. Ainsi, plus on remonte loin dans le temps, plus la densité de l'Univers est grande et plus sa température moyenne est élevée.

En conséquence, les premiers temps sont caractérisés par des densités, des températures et des énergies extraordinaires, des conditions que nous sommes dans l'impossibilité de recréer sur Terre. Notre seul espoir consiste alors à recourir à la physique théorique et à essayer d'extrapoler les lois de la physique ordinaire à ces conditions extrêmes. Pour comprendre les phases primordiales de l'Univers, il nous faut donc commencer par un petit détour rapide du côté de la physique des particules.


Les constituants de la matière


Commençons par la matière. Jusqu'au milieu du siècle dernier, la physique des particules était relativement simple. Les seules particules élémentaires connues étaient l'électron, le proton, le neutron et le neutrino. Mais l'amélioration des moyens de détection permis de mettre en évidence l'existence d'un nombre invraisemblable de particules différentes.

Les progrès théoriques dans les années 1960 amenèrent les physiciens à la conclusion que protons et neutrons étaient en fait des systèmes complexes possédant une structure interne et constitués de particules encore plus élémentaires, qu'ils baptisèrent quarks. Ces travaux montrèrent également qu'il devait exister six types de quarks qui furent appelés down, up, strange, charm, bottom et top.

Dans des conditions ordinaires, les quarks n'existent pas à l'état isolé. On ne les trouve qu'associés en petits groupes. Ils forment alors une particule non élémentaire. Ainsi, trois quarks peuvent se regrouper pour former ce que l'on appelle un baryon. Citons les deux baryons que l'on trouve dans la matière ordinaire : le proton, formé de deux quarks up et d'un down, et le neutron, constitué de deux quarks down et d'un up. L'autre type de combinaison possible est le méson, formé d'un quark et d'un antiquark. De façon générale, tous les ensembles formés de quarks, aussi bien les baryons que les mésons, sont collectivement désignés sous le nom de hadrons.

En plus des quarks, on trouve une deuxième catégorie de particules élémentaires : les leptons. Les deux exemples les plus connus sont l'électron et le neutrino. Les progrès expérimentaux et théoriques ont permis de mettre en évidence quatre autres leptons : deux versions plus massives de l'électron appelées le muon et le tau, ainsi que deux autres types de neutrinos. Ces quatre leptons n'apparaissent que dans des processus très énergétiques, par exemple dans nos accélérateurs de particules. La matière ordinaire ne fait appel qu'à l'électron et au neutrino usuels.

 


Les forces

Après cette brève description des constituants de la matière, passons à ce qui crée les interactions entre ces constituants : les forces. Tous les phénomènes physiques observables dans la nature peuvent s'expliquer en faisant appel à quatre forces fondamentales, la force de gravitation, la force électromagnétique, la force nucléaire forte et la force nucléaire faible. Mais qu'est-ce qu'une force ?

Une réponse satisfaisante à cette question n'a été apportée que relativement récemment, dans les années 1940. A cette époque apparut une théorie, appelée l'électrodynamique quantique, qui réussit à clarifier le concept de force électromagnétique en s'appuyant sur les acquis de la mécanique quantique. Dans cette théorie, l'interaction électromagnétique n'était plus décrite comme le résultat d'une mystérieuse force, mais s'expliquait simplement comme le résultat d'un échange de photons entre particules. Avec cette nouvelle vision des choses, l'électrodynamique quantique réussit à expliquer des phénomènes jusqu'alors incompréhensibles et se montra supérieure à toute autre explication de l'origine de cette force.

Ce succès ouvrit la voie à la compréhension des autres forces. A la fin des années 1960, il apparut que, tout comme l'interaction électromagnétique, la force nucléaire faible pouvait s'interpréter comme un échange de particules. Mais il ne s'agissait pas dans ce cas d'un photon, mais de trois différents porteurs appelés les bosons vecteurs intermédiaires. Ces trois types de particules, d'abord nés dans l'imagination des chercheurs, furent détectés au début des années 1980 dans les accélérateurs du CERN, ce qui prouvait de façon éclatante la justesse de la nouvelle vision des choses.


La force électrofaible


Mais la réinterprétation du concept de force allait encore plus loin. Elle affirmait que les forces électromagnétique et faible pouvaient être unifiées en une interaction unique, appelée la force électrofaible. Bien qu'apparemment très différentes, les deux interactions doivent posséder une nature profonde identique. Cette dernière ne se révèle que dans des conditions extrêmes. En effet, la théorie montre que si les particules en jeu ont une énergie énorme, correspondant à une température de 10^15 kelvins, les deux interactions sont indiscernables et les trois bosons vecteurs intermédiaires se comportent exactement comme des photons. Par contre, dans des conditions normales, les deux interactions se différencient et les quatre types de porteurs retrouvent des propriétés bien distinctes, comme par exemple leur masse.


La force nucléaire forte


Parallèlement au développement de la théorie électrofaible, d'énormes progrès furent accomplis dans la compréhension de l'interaction forte. Vu le succès de l'électrodynamique quantique, les physiciens utilisèrent les mêmes principes de base pour décrire la force nucléaire forte. Dans la nouvelle théorie, la chromodynamique quantique, l'interaction forte entre quarks s'explique également comme un échange de particules. Dans ce cas, il s'agit des gluons, dont il existe huit différents types. La force ainsi créée a une portée très faible, mais elle est très puissante, ce qui explique que les quarks ne se trouvent jamais à l'état isolé, mais préfèrent se regrouper pour former un hadron.

 

La grande unification

La théorie électrofaible et la chromodynamique quantique traitent de la matière dans des conditions observables sur Terre. Mais les premiers instants de l'Univers sont marqués par des températures et des densités bien au-delà de ce que nous sommes capables de reproduire. Seules des études purement théoriques peuvent donc nous aider à comprendre comment particules et forces se comportaient à l'époque.

Nous avons vu que lorsque l'énergie des particules en jeu atteint un certain seuil, les interactions électromagnétique et faible se confondent pour n'être plus qu'une : l'interaction électrofaible. De la même façon, si l'on augmente encore l'énergie moyenne des particules, arrive un moment où la force nucléaire forte vient s'unir à l'interaction électrofaible. Ceci se produit lorsque l'énergie atteint un niveau équivalent à une température de l'ordre de 10^28 kelvins.

D'énormes progrès ont été accomplis dans ce domaine depuis les années 1970. Plusieurs théories, dites de grande unification, sont nées et ont essayé de donner une description unifiée de la force électromagnétique et des forces nucléaires faible et forte. Cependant, aucune n'a vraiment pris le dessus sur ses rivales. Ces théories sont en effet très difficiles à départager car il n'existe pas d'accélérateur suffisamment puissant pour tester leurs prédictions. Les meilleurs accélérateurs actuels fournissent une énergie équivalente à 10^15 kelvins, mais, d'après les théories de grande unification, les interactions électrofaible et forte ne se confondent que lorsque la température atteint 10^28 kelvins. On est donc très loin du compte et il ne semble guère possible pour l'instant de déterminer la meilleure théorie.


Un exemple de grande unification


En guise d'exemple, nous pouvons considérer la théorie de grande unification connue sous le nom de SU(5). D'après celle-ci, l'interaction unifiée se fait à travers 24 particules différentes, parmi lesquelles on trouve le photon, les trois bosons vecteurs intermédiaires et les huit gluons. Il doit donc exister, en plus des particules connues, huit nouvelles particules que les théoriciens ont baptisées bosons-X. Ces huit nouveaux porteurs se distinguent des autres par leur capacité à lier quarks et leptons. D'après la théorie, en effet, l'échange d'un boson-X est capable de transformer un quark en un lepton et vice-versa, ce qui n'est possible avec aucune autre interaction.

Comme nous le verrons plus tard, c'est ce potentiel des bosons-X qui est probablement à l'origine de l'asymétrie entre matière et antimatière, et qui a permis à la première de prendre le dessus sur la seconde. La possibilité de transformation des quarks en leptons est également la raison pour laquelle les physiciens pensent que le proton n'est pas éternel. Un proton n'est en effet qu'un amas de trois quarks. Il suffit que l'un de ces quarks se transforme en lepton pour que l'amas se désintègre. La probabilité d'un tel événement est cependant très faible, ce qui explique que la durée de vie du proton est énorme, d'au moins 10^31 ans.

 

La théorie du Tout

Notre quête d'une vision unifiée des forces fondamentales ne s'arrête pas là. Il reste encore une étape à franchir, celle de l'unification de la gravité avec les trois autres interactions : la théorie du Tout. Cette dernière étape est la plus difficile car elle bute sur un obstacle majeur, l'incompatibilité de la relativité générale et de la mécanique quantique.

Comme nous l'avons vu, la relativité générale traite de la gravitation et de ses effets à grande échelle, alors que la mécanique quantique décrit le comportement des particules à une échelle microscopique. Les deux théories ont donc des domaines d'application très différents, ce qui explique que toute tentative pour les unifier est particulièrement pénible. Dans les années 1970 et 1980 apparurent des théories qui tentaient avec plus ou moins de succès de surmonter ces difficultés. Comme dans le cas de la grande unification, ces théories sont extrêmement difficiles à départager à l'heure actuelle.


La théorie des supercordes


Intéressons-nous alors simplement à celle qui est le plus en vogue de nos jours : la théorie des supercordes. Celle-ci se distingue par sa remise en cause du concept de particule. En effet, dans toutes les théories précédentes, les particules élémentaires étaient considérées comme des points dont la taille était strictement égale à zéro. Dans la nouvelle théorie, les particules élémentaires ne sont plus des entités ponctuelles, mais de minuscules cordes en forme de boucles fermées. La taille de ces cordes est infinitésimale, de l'ordre de 10^-35 mètres. Nos meilleurs moyens d'observation sont bien évidemment incapables de mettre en évidence si cette idée est correcte ou non, mais sur le plan théorique, l'hypothèse des cordes permet de réconcilier les principes de la relativité générale et de la mécanique quantique.

L'une des prédictions de la théorie des supercordes est l'existence de nombreuses particules jamais détectées à ce jour. Comme nous venons de le voir, les particules élémentaires peuvent être classées en deux catégories : les fermions (quarks et leptons) qui constituent la matière, et les bosons (photons, gluons et autres), qui sont responsables des différentes forces. D'après la nouvelle théorie, chaque particule de l'un de ces groupes doit avoir un partenaire dans l'autre, un principe que l'on dénomme supersymétrie. Ainsi, par exemple, le photon et le gluon sont associés à des fermions respectivement appelés le photino et le gluino. De même, les quarks et les électrons ont pour partenaires des bosons appelés les squarks et les sélectrons.

La théorie des supercordes prévoit que toutes ces nouvelles particules sont extrêmement massives, mais elle ne permet pas de déterminer exactement à quel point. Ainsi, il est possible que la prochaine génération d'accélérateurs puisse mettre en évidence certains partenaires supersymétriques, mais il se peut aussi que ces particules soient trop massives pour être un jour détectées dans une expérience sur Terre. Ces mystérieuses particules sont en tout cas d'excellentes candidates pour expliquer en partie la masse sombre de l'Univers.


Les dimensions de l'Univers


Un autre aspect de la théorie des supercordes est la remise en cause du nombre de dimensions de l'Univers. Nous sommes habitués à vivre dans un monde à quatre dimensions : trois pour l'espace et une pour le temps. Par contre, la théorie des supercordes ne donne des résultats satisfaisants que si l'Univers possède en fait dix dimensions, une pour le temps et neuf pour l'espace. Le monde qui nous entoure ne nous révèle donc que quatre de ces dimensions, les six autres étant cachées et indétectables.

Pour comprendre comment l'Univers peut être doté de six dimensions de plus que ce que nous observons, considérons une analogie avec un tuyau d'arrosage. Vu de très loin, un tuyau ressemble simplement à une ligne. Pour définir la position d'un point sur cette ligne, il suffit d'un seul nombre, par exemple la distance à l'une des extrémités. De loin, le tuyau ne possède donc qu'une seule dimension. Par contre, lorsque l'on se rapproche, les détails se font plus précis et la section circulaire apparaît clairement. Pour définir la position d'un point sur la surface, il faut maintenant deux nombres, par exemple une distance et un angle. Vu de près, le tuyau possède clairement deux dimensions.

Le phénomène vient du fait que l'une des dimensions du tuyau est beaucoup plus petite que l'autre. De la même façon, la présence de 10 dimensions dans notre Univers est tout à fait possible, à condition que six soit repliées sur elles-mêmes et n'aient ainsi qu'une étendue microscopique. La taille de ces dimensions peut être aussi minuscule que 10^-36 mètres, ce qui est bien au-delà de la portée ultime de nos expériences les plus précises et explique pourquoi ces dimensions passent inaperçues.

 

Les particules virtuelles

Pour comprendre les phénomènes qui se sont produits durant le Big Bang, il nous faut encore faire connaissance avec un autre aspect étrange de la mécanique quantique. Nous avons déjà vu que la position et la vitesse d'une particule sont affectées par le principe d'incertitude, qui énonce que ces deux grandeurs ne peuvent être déterminées simultanément avec une précision arbitraire. En fait, le même principe s'applique à l'énergie et au temps. Il n'est pas possible de connaître exactement l'énergie mise en jeu dans un processus quantique et la durée de celui-ci. Là encore, il ne s'agit pas d'un problème technologique, mais d'une propriété intime de la matière.

Ce principe a de grandes conséquences sur toute la physique microscopique. Si l'énergie est soumise à une incertitude, cela signifie qu'elle n'est pas fixée de manière rigoureuse, contrairement à ce que la physique classique énonce. Ainsi, de l'énergie peut apparaître ou disparaître, à condition toutefois que cela se fasse dans un temps bien limité, déterminé par le principe d'incertitude.

Or, d'après la relativité, l'énergie est équivalente à la masse. La mécanique quantique nous apprend donc que de la masse peut apparaître à partir de rien, exister pendant une durée très brève, puis disparaître. On peut par exemple calculer qu'un électron peut surgir du néant, vivre pendant environ 10^-22 seconde, avant d'y retourner.

Notons toutefois que si l'énergie peut souffrir d'incertitude, ce n'est pas le cas de la charge électrique. Ainsi, lorsqu'un électron apparaît à partir du vide, il doit nécessairement être accompagné d'un antiélectron pour que la charge totale de l'ensemble reste constante et nulle.


Un nouveau vide


Les particules qui apparaissent et disparaissent ainsi ont une durée de vie très brève. Elles ne sont donc pas observables et on les qualifie de virtuelles. Leur présence peut néanmoins être détectée par les effets indirects qu'elles induisent sur les particules ordinaires. Ainsi par exemple la possibilité d'avoir un électron isolé dans l'espace n'existe pas. Tout électron est en réalité entouré d'un nuage de particules et d'antiparticules virtuelles qui vont légèrement affecter certaines de ses propriétés. Ce phénomène a été vérifié puisque quelques caractéristiques de l'électron ne se comprennent que si l'on fait appel à l'influence de ce nuage.

Cette possibilité de création et de disparition de matière change profondément notre vision du monde microscopique. La notion de vide en est tout particulièrement affectée. En effet, le principe d'incertitude implique que même le vide le plus absolu est en fait peuplé d'une myriade de particules et d'antiparticules virtuelles. Le vide, au sens où on l'entend d'habitude, c'est-à-dire l'absence de toute matière, n'existe donc pas. Même lors de la naissance de l'univers, lorsque la matière n'existait pas encore, l'univers était agité d'une succession frénétique de créations et de disparitions de particules de tous les types. C'est d'ailleurs grâce à cela que la matière ordinaire pourra faire son apparition.

 

La naissance de l'Univers


L'ère de Planck


Notre description de la naissance de l'Univers ne va hélas pas commencer exactement au temps zéro. Plus l'Univers est proche de sa naissance, plus sa température et sa densité sont élevées. Ainsi, lorsque nous nous approchons du temps zéro, les conditions deviennent de plus en plus extrêmes et les lois de la physique doivent être extrapolées dans des domaines jamais explorés sur Terre.

Les physiciens ont développé au cours du siècle dernier des théories d'unification des forces qui permettent de tenter des extrapolations. Cependant, comme nous l'avons vu, il n'y a pas encore de théorie bien établie d'unification de la gravitation avec les autres forces, seulement quelques bribes de réponses, par exemple la théorie des supercordes. Ainsi, il n'est pas envisageable à l'heure actuelle de décrire les tout premiers instants de l'Univers, lorsque la densité et la température étaient telles que la gravitation et les autres forces ne formaient qu'une interaction unique. L'extrapolation de la physique connue montre que ces conditions extrêmes ont régné lorsque l'Univers était âgé de moins de 10^-43 seconde. Toute la période qui précède, baptisée l'ère de Planck, nous est donc inaccessible.

planck.jpg
Max Planck : Kiel, 1858 - Göttingen , 1947.
Découvreur de l'une des constantes fondamentales de la nature, la constante de Planck,
l'un des paramètres qui déterminent la durée de l'ère du même nom.


L'espace-temps


Cela ne nous empêche pas d'avoir quelques idées d'ordre général sur la physique de l'Univers à cette époque. Il est ainsi clair que pendant l'ère de Planck notre conception habituelle de l'espace-temps est complètement dépassée. Puisque la gravité doit maintenant se comporter comme les trois autres forces, elle est elle aussi associée à une particule porteuse de l'interaction, appelée le graviton. L'ère de Planck est ainsi animée d'un incessant va-et-vient de gravitons échangés par les diverses particules virtuelles qui peuplent alors l'Univers.

Cependant, le graviton n'est pas une particule comme les autres. Il est en quelque sorte un concentré de courbure de l'espace-temps. Les successions frénétiques de créations et de disparitions de gravitons se traduisent donc en chaque point par d'importantes fluctuations de la courbure de l'espace-temps. En conséquence, il nous faut rejeter l'image habituelle de l'espace comme tissu élastique bien lisse. Pendant l'ère de Planck, l'espace-temps est plutôt une surface très tourmentée et constamment en changement, une sorte de mousse quantique très agitée, dans laquelle des liens se font et se défont sans arrêt entre des régions très éloignées.

Ajoutons à ce tableau déjà un peu difficile à visualiser le fait qu'à cette époque les six dimensions d'espace supplémentaires requises par la théorie des supercordes ne sont pas cachées. Toutes les dimensions sont développées de la même manière et les particules évoluent dans un espace à neuf dimensions.


L'instant zéro


Qu'en est-il de l'instant zéro lui-même ? Là aussi, plusieurs possibilités existent et la situation est loin d'être claire. Dans la vision habituelle des choses, lorsque l'on se rapproche du temps zéro, l'Univers devient de plus en plus dense et chaud, jusqu'à finalement atteindre un état de singularité où la densité et la température atteignent des valeurs infinies.

Mais d'après une autre théorie, développée par l'Anglais Stephen Hawking et l'Américain James Hartle, une telle singularité n'est pas nécessaire. D'après ces deux théoriciens, lorsque l'on remonte vers l'époque initiale, le temps perd peu à peu le caractère que nous lui connaissons et se transforme en une dimension d'espace. Ainsi, lorsque nous nous rapprochons du temps zéro, la notion de temps elle-même disparaît, ce qui élimine la nécessité d'une singularité initiale - mais n'est guère facile à imaginer.

 

 

L'inflation


Au temps 10^-43 seconde, la gravitation, qui était jusque là unifiée aux trois autres interactions, se dissocie. L'Univers est dans un état de vide quantique. La matière ordinaire n'existe pas, mais il y a une formidable agitation due à la succession de créations et de disparitions de particules et d'antiparticules virtuelles. Si ce n'est cette fantastique agitation, rien de particulier ne se passe jusqu'au temps 10^-35 seconde, lorsque sonne l'heure de la dissociation des interactions forte et électrofaible. C'est à ce moment que va commencer une phase cruciale, l'ère inflationnaire, pendant laquelle la taille de l'Univers va être multipliée par un facteur gigantesque.

Le concept de période inflationnaire est relativement récent. Il fut d'abord imaginé au début des années 1980 par l'Américain Alan Guth, puis développé par d'autres astrophysiciens, en particulier le Russe Andrei Linde. L'inflation reste la partie la plus spéculative de notre description du Big Bang et beaucoup d'efforts restent à faire pour qu'elle soit acceptée unanimement. Cela étant dit, cette nouvelle théorie répond de façon satisfaisante à plusieurs problèmes cosmologiques qui n'avaient pas trouvé de solution jusque là et dont nous parlerons plus loin.


Transition de phase


Pour comprendre ce qui se passe, commençons par une analogie. Le comportement de l'Univers lors de l'inflation rappelle celui de l'eau qui se solidifie et se transforme en glace. Les deux formes, l'eau liquide et la glace, ont des propriétés très différentes. Par exemple, sous forme liquide, l'eau n'a pas de structure et prend la forme du récipient qui la contient. Par contre, sous sa forme solide, elle devient un cristal, un arrangement très régulier de molécules dont la forme globale est fixée. Une autre différence apparaît au niveau des symétries : l'eau liquide à des propriétés identiques dans toutes les directions, alors que la glace privilégie les axes selon lesquels la cristallisation s'est produite.

Dans le langage du physicien, l'eau liquide et la glace sont deux phases différentes et la transformation de l'une en l'autre s'appelle une transition de phase. Dans des conditions de refroidissement normales, la cristallisation se produit dès que la température atteint zéro degré Celsius. Elle se produit alors en douceur avec un lent dégagement d'une certaine quantité d'énergie appelée la chaleur latente. Il existe cependant un cas particulier appelé la surfusion, dans lequel les choses se passent différemment. Ainsi, dans un environnement extrêmement stable, une eau très pure peut être refroidie et atteindre une température négative sans pour autant se solidifier. Cette situation est néanmoins très instable et il suffit d'agiter légèrement l'eau pour que la cristallisation s'opère instantanément, avec cette fois-ci une libération très rapide de la chaleur latente.


L'ère inflationnaire


Le phénomène qui se produit lorsque l'Univers est âgé de 10^-35 seconde est similaire. C'est à cette époque que les forces forte et électrofaible, jusque là unifiées, se dissocient. On passe d'une situation symétrique, où les deux forces étaient équivalentes, à une situation asymétrique, où elles sont distinctes. L'Univers subit donc, comme l'eau qui se solidifie, une transition de phase. Celle-ci devrait en principe s'opérer immédiatement, mais ce n'est pas ce qui se passe. L'Univers va d'abord passer par un stade de surfusion. Il va rester pendant une brève période dans une phase symétrique instable, appelée le faux vide, plutôt que d'adopter tout de suite la phase asymétrique stable, le véritable vide.

Le faux vide, un état équivalent à l'eau surfondue, se caractérise essentiellement par une très grande densité d'énergie. Même si l'Univers est complètement vide, il possède alors en tout point une très grande quantité d'énergie, ce qui va avoir un effet crucial sur son évolution. En effet, d'après la relativité générale, cette énergie omniprésente va se traduire par une force de répulsion extrêmement puissante entre tous les points de l'Univers. En conséquence, celui-ci subit une expansion fantastiquement rapide et brutale, à laquelle on a donné le nom d'inflation.

L'inflation dure jusqu'à ce que l'Univers subisse finalement sa transition de phase. Il atteint alors un état stable, tout en libérant une formidable quantité d'énergie. Cela se produit à une époque qui n'est pas encore bien définie, disons vers 10^-30 seconde. Pendant l'ère inflationnaire, la taille de l'Univers a été multipliée par un facteur 10^50, ce qui est énorme comparé au rythme actuel de l'expansion. Ainsi, depuis l'apparition des atomes, vers l'âge de 300 000 ans, la taille de l'Univers n'a été multipliée que par un facteur 1000, et cela en 15 milliards d'années.

Remarquons encore que même si l'inflation se produit à un rythme prodigieux, elle ne transgresse pas la relativité, qui énonce que rien ne se déplace plus vite que la lumière. En effet, c'est l'espace lui-même qui subit l'inflation. La distance entre deux particules augmente à un rythme effréné, mais du fait de l'expansion de l'espace. Si des particules se déplaçaient réellement dans l'espace, leur vitesse devrait être inférieure à celle de la lumière.

 

 

L'homogénéité et la platitude de l'Univers


L'homogénéité de l'Univers


L'un des grands problèmes de la cosmologie qui a longtemps laissé les astrophysiciens perplexes, et que le scénario de l'inflation a permis de résoudre, est celui de l'homogénéité de l'Univers. Comme nous le verrons plus tard, l'un des arguments en faveur de la théorie du Big Bang est l'existence d'un rayonnement électromagnétique qualifié de fossile qui remplit l'Univers et reste détectable dans toutes les directions du ciel. Ce rayonnement correspond avec une très grande précision à celui d'un corps noir ayant une température de trois kelvins et son intensité est maximale dans les micro-ondes.

En 1989 fut lancé le satellite COBE qui avait pour mission d'étudier le rayonnement fossile et en particulier les variations de son intensité avec la direction dans le ciel. COBE confirma un résultat que d'autres observations depuis la Terre avaient déjà mis en évidence. La température de ce rayonnement était la même dans tout le ciel, avec une variation relative inférieure au cent-millième.

Or les rayonnements provenant de deux régions différentes ne peuvent être identiques que si ces dernières ont été causalement liées à une certaine époque. Si ces régions avaient toujours été indépendantes, leurs températures n'auraient aucune raison d'être similaires. Il y a donc nécessairement eu à un moment donné un échange d'information qui s'est fait au mieux à la vitesse de la lumière.

C'est ce constat qui pose un problème. Les photons provenant de deux régions opposées du ciel ont à peine réussi à atteindre notre petit coin d'Univers. Ils n'ont fait que la moitié du chemin nécessaire à un transfert d'information. Il est donc difficile de trouver deux régions aussi causalement indépendantes. Comment expliquer alors qu'elles ont des propriétés identiques ? De manière plus générale, comment le rayonnement fossile peut-il être aussi isotropique, c'est-à-dire identique dans toutes les directions ?


L'explication par l'inflation


Cette question laissa perplexe la communauté astronomique jusqu'à ce que le scénario de l'inflation vint apporter une explication très simple. En effet, avant l'ère inflationnaire, la taille de l'Univers était à peu près 10^50 fois plus petite que maintenant. La portion de l'Univers que nous pouvons observer de nos jours n'occupait alors qu'une région minuscule, infiniment plus petite qu'un noyau atomique. Cette région, la lumière n'avait aucun problème à la traverser, même si elle n'avait que 10^-30 seconde à sa disposition.

En conséquence, toutes les parties de l'Univers observable aujourd'hui étaient causalement liées avant l'inflation. C'est ainsi que l'information sur la température put être échangée. Par la suite, la taille de l'Univers fut démultipliée par l'inflation, avec comme résultat final un rayonnement homogène dans des régions qui nous semblent aujourd'hui indépendantes.


La platitude de l'Univers


Le deuxième problème résolu par l'inflation est celui de la platitude de l'Univers. La densité de l'Univers est au sens large relativement proche de la valeur critique et sa courbure est pratiquement nulle. L'Univers est donc quasiment plat. La question est de savoir pourquoi. Il n'y a en effet pas de raison pour que l'Univers ne soit pas largement ouvert ou fermé. Sa densité de matière aurait pu être beaucoup plus faible ou plus forte que la valeur critique.

Lorsque l'on entre dans les détails de ce problème, les choses deviennent encore plus déroutantes. En effet, la densité actuelle de l'Univers est liée à sa densité primordiale de façon très sensible. L'expression très sensible n'est d'ailleurs pas assez forte : pour que la densité actuelle soit proche de la valeur critique à 10 pour cent près, il fallait qu'à l'âge d'une seconde, l'Univers soit proche de la densité critique avec une précision relative de 10^-15. Et lorsque l'on remonte plus loin dans le temps, les nombres deviennent incroyables. Ainsi, la précision requise pour le réglage de la densité à la fin de l'ère de Planck était de 10^-60. Si elle n'avait été que de 10^-59, l'Univers serait très différent de celui que nous connaissons.


L'inflation en jeu


L'explication de cette extraordinaire coïncidence resta un mystère jusqu'à l'apparition de la théorie inflationnaire, qui apporta une solution très simple. Imaginez que vous preniez un ballon et que vous puissiez le gonfler jusqu'à lui donner la taille de la Terre. Au départ, le ballon apparaît sphérique et sa courbure est très nette. Mais lorsque la taille de notre ballon devient gigantesque, sa courbure diminue et tend vers zéro, tout comme la Terre nous paraît plate depuis sa surface.

C'est exactement ce qui s'est passé pendant l'inflation. Alors que la taille de l'Univers était multipliée par 10^50, sa courbure était réduite par un facteur du même ordre. Peu importe sa courbure initiale, la valeur actuelle était nécessairement très proche de zéro, et, en conséquence, la densité de l'Univers très proche de la valeur critique.

Remarquons que l'inflation fait ici une prédiction. Si l'Univers est effectivement passé par une telle phase, il doit être quasiment plat et très proche de la densité critique. Or, comme nous l'avons vu, la densité de matière effectivement observée est très loin de cette valeur. L'inflation constitue donc un argument de poids en faveur de l'existence d'une très importante proportion de matière sombre dans l'Univers.

Le concept d'inflation s'avère donc très fructueux. Il présente néanmoins quelques défauts, dont je ne vais présenter que le principal. Nous avons déjà parlé de la constante cosmologique Lambda, qu'Albert Einstein avait introduit dans ses équations pour forcer son modèle d'Univers à être statique. Une étude détaillée montre que la répulsion qui dilate l'Univers lors de l'inflation peut être considérée comme le résultat de la présence d'une constante cosmologique non nulle, 10^125 fois plus grande que celle dont Einstein avait besoin. Or, nous avons également vu que la valeur actuelle de la constante cosmologique est relativement proche de zéro. La question qui se pose est donc la suivante : pourquoi et comment la constante cosmologique a-t-elle subi un changement de valeur aussi prodigieux ? Il n'y a pour l'instant guère de réponse satisfaisante à ce problème.

 

La naissance de la matière


La fin de l'ère inflationnaire va être marquée par l'apparition de la matière. Jusque là, l'Univers était vide, au sens quantique du terme, c'est-à-dire qu'il était en fait le siège d'un incessant va-et-vient de particules et d'antiparticules virtuelles qui surgissaient du néant pour y retourner aussitôt. Ce qui manquait à ces particules pour devenir réelles, c'était une source d'énergie.

C'est là que l'inflation intervient. Comme nous l'avons vu, la transition de phase qui clôt cette ère s'accompagne d'une très forte injection d'énergie dans l'Univers. Il s'agit là d'une énergie réelle, que les particules virtuelles vont s'approprier pour entrer dans le monde réel. La fin de l'inflation marque ainsi, à partir du vide, la naissance de la matière que nous connaissons.


L'asymétrie matière-antimatière


Un autre phénomène important qui se produit est l'apparition d'une asymétrie entre matière et antimatière. Comme nous l'avons vu, la période de grande unification est caractérisée par la présence des bosons-X, capables de transformer les leptons en quarks et vice-versa. A la fin de cette période, les interactions forte et électrofaible se dissocient et ces bosons disparaissent peu à peu. La particularité de ce phénomène est qu'il ne respecte pas la symétrie entre matière et antimatière.

En effet, lorsqu'un boson-X se désintègre pour donner naissance à un quark, il ne le fait pas exactement de la même façon qu'un antiboson-X. Ainsi, l'égalité entre le nombre de quarks et d'antiquarks qui existait jusque là est rompue. Après la disparition des bosons-X, on compte dans l'Univers, un milliard et un quarks pour seulement un milliard d'antiquarks. Cette différence se retrouvera ensuite au niveau des protons et des neutrons et permettra à l'Univers tel que nous le connaissons de se développer.

Après l'inflation, l'Univers s'installe dans un rythme d'expansion beaucoup plus lent, similaire à celui que nous observons de nos jours. Rien de spécial ne se produit jusqu'à 10^-12 seconde. A cette époque, la température est de l'ordre de 10^15 kelvins, le seuil en dessous duquel les interactions électromagnétique et faible ne sont plus unifiées. Les deux forces se dissocient et l'Univers connaît une dernière transition de phase. Contrairement à la précédente, celle-ci se passe en douceur, sans effet majeur. A partir de ce moment, l'Univers est régi par les quatre forces que nous observons encore de nos jours.

 

L'évolution de la matière


L'ère hadronique


Après la dernière transition de phase, l'expansion continue lentement, accompagnée d'une chute de la température. Lorsque celle-ci atteint 10^13 kelvins, vers un millionième de seconde, une nouvelle étape se produit : le confinement des quarks. Jusqu'alors, ces derniers étaient trop agités pour se soumettre à la force nucléaire forte. Ils pouvaient ainsi vivre leur vie de manière autonome, sans se soucier de leurs congénères. Mais, à 10^13 kelvins, l'agitation thermique des particules est suffisamment faible pour que la force nucléaire forte prenne le contrôle.

Ainsi, lorsque l'Univers est âgé d'un millionième de seconde, l'interaction forte oblige les quarks à s'associer entre eux et à former des ensembles complexes. Apparaissent alors les deux types de hadrons dont nous avons parlés : les mésons, formés d'un quark et d'un antiquark, mais surtout les baryons, association de trois quarks. On note en particulier la naissance des deux baryons les plus connus, le proton et le neutron. A partir de ce moment, la force nucléaire forte est toute puissante. Les quarks perdent leur liberté et se retrouvent emprisonnés dans des hadrons.


L'ère hadronique


La période qui commence alors et qui va durer jusqu'à un âge d'un dix millième de seconde est appelée l'ère hadronique. Celle-ci est dominée par des réactions qui transforment hadrons en photons et inversement. A une température de 10^13 kelvins, l'équivalence entre masse et énergie est en jeu de manière permanente. Par exemple, lorsqu'un proton et un antiproton se rencontrent, les deux particules se détruisent mutuellement et disparaissent. Leur masse est convertie en énergie sous la forme de deux photons dont l'énergie totale correspond à la masse du couple proton-antiproton. La réaction inverse se produit également. Deux photons qui se rencontrent peuvent ainsi disparaître en donnant naissance à une paire baryon-antibaryon.

L'ère hadronique est ainsi dominée par l'incessante production de paires neutron-antineutron ou proton-antiproton et par l'annihilation de celles-ci. Ces réactions de production et d'annihilation ne vont cependant pas durer. En effet, l'énergie moyenne des photons à une époque donnée est déterminée par la température de l'Univers. A 10^13 kelvins, l'énergie d'un photon est à peu près équivalente à la masse d'un proton ou d'un neutron. De cette façon, les photons sont suffisamment énergétiques pour être en mesure de donner naissance à ces particules et les réactions précédentes sont possibles dans les deux sens. Mais, du fait de l'expansion, la température du rayonnement va baisser. En conséquence, l'énergie moyenne des photons décroît et finit par passer sous le seuil nécessaire à la création d'un couple de baryons.

La réaction inverse, par contre, n'est pas affectée puisqu'elle ne nécessite pas d'énergie. Ainsi, la production de paires se fait de plus en plus rare, alors que les annihilations continuent toujours à un rythme effréné. Puisque les réactions qui détruisent les baryons se poursuivent, alors que celles qui en créent stoppent, le nombre de particules chute fortement. La baisse de la température conduit ainsi à une quasi-disparition des protons et des neutrons.

La fin de l'ère hadronique ne marque cependant pas la disparition complète des baryons. En effet, nous avons vu que lorsque les quarks naissent après l'inflation, les processus physiques mis en jeu ne sont pas totalement symétriques du point de vue de la matière et de l'antimatière. Cette asymétrie se retrouve au niveau des baryons. Ainsi, après le confinement des quarks, il y a pour un milliard d'antineutrons un milliard et un neutrons. La particule en trop ne trouve pas de partenaire pour s'annihiler et survit donc au brasier. Lorsque l'ère hadronique s'achève, à un dix millième de seconde, les antiprotons et antineutrons ont complètement disparu, mais un milliardième des protons et neutrons originaux ont survécu. L'antimatière a perdu sa première bataille contre la matière.

 

L'ère leptonique


A un dix millième de seconde commence l'ère leptonique. L'Univers est alors dominé par les réactions de production et d'annihilation de paires de leptons. En effet, l'électron a par exemple une masse 2000 fois plus faible qu'un proton et les photons ont donc besoin de 2000 fois moins d'énergie pour créer un électron qu'un proton.


Le découplement des neutrinos


Le premier événement important de l'ère leptonique est le découplement des neutrinos, qui se produit lorsque la température atteint les 10 milliards de kelvins, à quelques dixièmes de seconde. Auparavant, les neutrinos étaient constamment en interaction avec le reste des particules par le biais de la force nucléaire faible. Mais cette dernière à une portée relativement limitée et ne s'applique que lorsque les particules sont suffisamment proches. Or, du fait de l'expansion, la densité de matière de l'Univers baisse peu à peu, alors que la distance moyenne entre particules augmente.

Ainsi arrive un point où cette séparation moyenne est trop grande pour l'interaction faible. Les neutrinos perdent alors le seul lien qui les reliait au reste de la matière. Ils vont dorénavant être insensibles à l'action des autres particules et se comporter comme si celles-ci n'existaient pas. On dit que les neutrinos se découplent de la matière. Ces neutrinos primordiaux, puisqu'ils n'interagissent plus, sont toujours encore présents dans l'Univers.


L'annihilation des électrons et des antiélectrons


Le deuxième événement important de l'ère leptonique est l'annihilation des électrons et des antiélectrons, qui se produit lorsque l'Univers est âgé d'environ une seconde. Nous avons vu comment, à la fin de l'ère hadronique, la température était tombée sous le seuil nécessaire à la création de paires proton-antiproton ou neutron-antineutron. De la même façon, il arrive un moment, vers un milliard de kelvins, où la température passe sous le seuil de la création de paires électron-antiélectron.

Les incessantes créations et annihilations de paires, qui maintenaient l'équilibre, se voient alors remplacées par des réactions qui ne se font plus que dans un seul sens, celui de la disparition des électrons et des antiélectrons. La grande majorité de ces particules se détruit mutuellement à la fin de l'ère leptonique. Cependant, la légère asymétrie matière-antimatière qui avait permis à quelques baryons de survivre est encore au travail, agissant de manière similaire et dans les mêmes proportions. Elle provoque la disparition totale des antiélectrons et permet la survie d'une faible proportion d'électrons. La fin de l'ère leptonique voit l'effacement total de l'antimatière. L'Univers ne contient plus dorénavant que de la matière ordinaire, formée de protons, de neutrons et d'électrons.

La quasi-disparition des électrons a une conséquence très importante sur l'équilibre des neutrons et des protons, liée à la différence entre ces particules en ce qui concerne leur capacité à se désintégrer. Le proton peut être considéré comme stable puisque sa durée de vie, bien que n'étant pas exactement connue, est en tout cas supérieure à 10^30 ans. Le neutron, par contre, n'est pas stable. Isolé, il se désintègre avec un temps caractéristique d'une quinzaine de minutes, en donnant naissance à un proton, un électron et un antineutrino.

Ainsi, en partant d'un mélange de protons et de neutrons dans des proportions identiques, la tendance va être à une diminution du nombre de neutrons et à une augmentation de la population de protons. Pendant l'ère leptonique, cependant, les électrons, qui sont encore très nombreux, interviennent pour réguler le nombre de baryons. Ils le font par l'intermédiaire de l'interaction faible qui peut, lors de la collision d'un électron et d'un proton, provoquer la transformation de ce dernier en un neutron. Cette réaction, qui agit dans le sens opposé à la désintégration du neutron, établit un équilibre et permet aux deux types de baryons de rester dans des proportions semblables.

Mais avec la disparition des électrons, protons et neutrons se retrouvent isolés. La réaction ci-dessus ne peut plus se produire et maintenir l'équilibre. Petit à petit, les neutrons vont se transformer en protons et la proportion relative des deux types de particules va graduellement changer. Alors que pendant l'ère leptonique, il y avait autant de neutrons que de protons, la matière va dorénavant être dominée par les protons.

 

La nucléosynthèse primordiale

Avec la disparition des électrons et de leurs antiparticules, commence l'ère du rayonnement. L'Univers est maintenant dominé par les photons. La température, toujours en baisse, atteint le milliard de kelvins lorsque l'Univers est âgé d'une centaine de secondes. C'est à ce moment que se produit l'une des étapes les plus importantes, la nucléosynthèse primordiale, la formation de noyaux à partir des protons et neutrons qui étaient jusque là libres.

Sous l'effet de la force nucléaire forte, protons et neutrons ont tendance à vouloir s'associer pour former des noyaux atomiques simples comme le deutérium, l'association d'un proton et d'un neutron. Mais tant que les photons sont suffisamment énergétiques pour casser les liaisons ainsi créées, ces regroupements ne sont pas stables. L'Univers voit ainsi une succession de créations et de dissociations de noyaux simples. Mais, lorsque la température de l'Univers descend sous le milliard de kelvins, les photons deviennent trop peu énergétiques pour casser la liaison interne des noyaux qui se forment. A partir de ce moment, les fusions successives donnent naissance à des structures de plus en plus complexes : deutérium, hélium-3, avec deux protons et un neutron, et hélium-4, avec deux protons et deux neutrons.

La complexification n'ira cependant pas plus loin. En effet, d'éventuelles collisions entre les noyaux les plus légers peuvent en produire de plus lourds, contenant entre 5 et 8 constituants. Mais tous les noyaux susceptibles d'être ainsi créés sont instables et se désintègrent rapidement. L'instabilité de ces éléments stoppe ainsi le processus de complexification des noyaux et empêche en particulier la création d'éléments plus lourds comme le carbone ou l'oxygène.

Il faut ajouter à ce problème le fait que, puisque l'Univers est en expansion rapide, les conditions qui rendent la nucléosynthèse possible ne sont réunies que pendant un temps très court. Ainsi, la production de noyaux s'arrête aux éléments les plus légers, l'hélium-4 et quelques traces de deutérium, d'hélium-3 et de lithium-7. Il faudra attendre l'arrivée des premières étoiles pour voir des éléments plus complexes faire leur apparition.


La composition de l'Univers


Les deux éléments principaux à la fin de la nucléosynthèse primordiale sont donc l'hydrogène - les protons - et l'hélium-4. Leur abondance relative est directement liée à la proportion de neutrons et de protons juste avant cette période. Or, nous avons vu précédemment que cette proportion changeait rapidement en faveur des protons du fait de l'instabilité des neutrons. Ainsi, lorsque la nucléosynthèse commence, il n'y a plus que deux neutrons pour environ 14 protons. Si vous voulez former un noyau d'hélium, il faut deux protons et deux neutrons, ce qui vous laisse 12 protons. En conséquence, la nucléosynthèse primordiale conduit à une proportion de l'ordre d'un noyau d'hélium pour 12 protons. Si l'on considère plutôt la masse de ces éléments, l'Univers se retrouve composé de 25 pour cent d'hélium et 75 pour cent d'hydrogène, puisqu'un noyau d'hélium est quatre fois plus lourd qu'un proton ou un neutron.

Cette proportion de 25 pour cent est le résultat de calculs théoriques s'appuyant sur la physique nucléaire et sur la physique des particules. Encore faut-il comparer cette valeur à la proportion réelle, celle que les observations astronomiques peuvent nous indiquer. De nombreuses mesures du rapport hélium sur hydrogène ont ainsi été tentées, par exemple dans des galaxies très anciennes ou des amas globulaires de notre Galaxie. Elles donnent toutes des résultats cohérents avec le rapport de masse de un à trois prévu par la théorie. Ainsi, les mesures d'abondance dans l'Univers sont en parfait accord avec la description théorique de la nucléosynthèse primordiale dans le cadre de la théorie du Big Bang. Cela constitue un succès éclatant pour cette théorie et l'un des principaux arguments en sa faveur.

 

Recombinaison et rayonnement fossile


La recombinaison


La prochaine grande étape se produit lorsque l'Univers est âgé de 380 000 ans et que sa température est tombée à 3000 kelvins. Avant cette époque, protons et électrons sont libres et les atomes ne peuvent pas exister. Si, par hasard, un proton et un électron se rencontrent et s'associent pour former un atome, leur liaison est immédiatement détruite par un photon énergétique. Pour cette même raison, les photons, qui sont rapidement absorbés par ces atomes éphémères, ont une durée de vie très courte. Ils n'ont donc guère le temps de se déplacer, ce que l'on exprime en disant que l'Univers leur est opaque.

Le changement se produit lorsque la température de l'Univers atteint les 3000 degrés. L'énergie moyenne des photons passe alors sous le seuil de la liaison électron-proton. Le rayonnement perd ainsi sa capacité à dissocier les couples qui se forment. Les rencontres au hasard entre noyaux et électrons vont dorénavant donner naissance à des composés stables : les premiers atomes d'hydrogène ou d'hélium. Cette époque est connue sous le nom de recombinaison.

En même temps, les photons sont maintenant trop peu énergétiques pour être absorbés par des atomes. La lumière n'a plus d'obstacle et les photons peuvent désormais se propager sans entrave. L'Univers devient transparent et le rayonnement se découple de la matière.


Le rayonnement fossile


Ce découplement a laissé une trace qui est encore observable de nos jours. En effet, comme il ne peut être absorbé, ce rayonnement qualifié de fossile emplit toujours encore l'Univers. Cependant, sa température a changé. En effet, depuis l'époque de la recombinaison, la taille de l'Univers a été multipliée par un facteur 1000. La température du rayonnement fossile a donc été divisée par ce même facteur. Comme elle était d'environ 3000 kelvins à l'époque, l'Univers actuel doit être baigné d'un rayonnement à environ trois kelvins. D'après la loi de Wien, son maximum se trouve par conséquent à une longueur d'onde de l'ordre du millimètre, dans la partie supérieure du spectre radio connue sous le nom de domaine des micro-ondes.

holmdel.jpg

L'antenne des laboratoires Bell à Holmdel où Arno Penzias et Robert Wilson
découvrirent le rayonnement fossile en 1965.


La confirmation de l'existence de ce rayonnement fossile vint dans les années 1960. Deux astrophysiciens américains, Robert Dicke et James Peebles s'attaquèrent sérieusement au problème de la naissance de l'Univers et prédirent que l'Univers devait être baigné par un rayonnement fossile dont le maximum d'intensité se trouvait dans le domaine des micro-ondes. Pour confirmer cette prédiction, Dicke et ses collaborateurs se lancèrent dans la construction d'une antenne destinée à détecter le rayonnement fossile.

Ils furent cependant devancés par accident par deux ingénieurs américains, Arno Penzias et Robert Wilson. Ces derniers avaient conçu une antenne micro-ondes destinée à recevoir les signaux de Telstar, le premier satellite de communication. Lors de leurs premiers essais, en mai 1965, ils se rendirent compte qu'ils captaient un signal imprévu, qui présentait la particularité d'être identique dans toutes les directions. Pensant qu'il s'agissait d'un simple bruit dû aux circuits électroniques ou à l'antenne, ils vérifièrent tout l'appareillage et nettoyèrent même les déjections d'oiseaux, mais sans succès.

L'explication leur vint finalement lorsqu'ils entendirent parler des travaux de Dicke et de Peebles : leur antenne ne captait pas un bruit parasite, mais le rayonnement fossile à trois kelvins. Cette découverte constituait un succès éclatant pour la théorie du Big Bang et valut à Penzias et Wilson le prix Nobel de physique. Elle fut rapidement confirmée par l'antenne de Dicke, fin 1965, puis par toute une série d'instruments, depuis des antennes terrestres jusqu'à des capteurs installés dans des ballons ou des fusées.

Finalement, en 1989, fut lancé le satellite COBE qui avait pour mission d'étudier le rayonnement fossile avec une résolution inégalée. Cet instrument spatial fournit un spectre qui correspondait avec une incroyable précision à celui d'un corps noir de température 2,73 kelvins. Après cette observation, l'origine du rayonnement fossile ne faisait plus guère de doute. Cette lumière micro-onde constituait bien une preuve que l'Univers était passé par une phase extrêmement dense et chaude.

 

La formation des galaxies


Les fluctuations de densité


L'époque de la recombinaison marque la fin de l'ère du rayonnement et le début de l'ère de la matière. L'évolution de l'Univers n'est cependant pas terminée. En effet, lors du découplement entre rayonnement et matière, l'Univers est très homogène, les densités de matière et d'énergie sont plus ou moins les mêmes partout. Or, de nos jours, les télescopes nous révèlent que l'Univers est très structuré : la matière se regroupe dans des galaxies, celles-ci s'assemblent pour former des amas, eux-mêmes agencés en superamas. Le problème se pose donc de savoir comment, à partir d'un Univers homogène, toutes ces structures ont pu apparaître. Cette question est loin d'être rés

olue et constitue l'un des grands axes de recherche de l'astrophysique moderne.

COBE
Le rayonnement fossile vu par le satellite COBE en 1992
(après correction du mouvement du système solaire et des émissions de la Galaxie).

La température moyenne du rayonnement est de 2,73 degrés Kelvins. Les zones bleues et rouges sont des fluctuations infimes (de l'ordre du cent millième) de cette température dans différentes directions du ciel. Ces fluctuations sont le résultat de faibles variations dans la densité de l'Univers primordial, qui ont plus tard donné naissance à la structure à grande échelle que nous observons aujourd'hui. Le rayonnement fossile a été mesuré avec encore plus de précision par le satellite WMAP en 2003. 

Le problème de la formation des structures de l'Univers connut une avancée majeure en 1992 grâce aux observations du satellite COBE (qui furent confirmées en 2003 par le satellite WMAP). La mission de ce satellite était d'étudier le rayonnement fossile, en particulier la façon dont son intensité variait selon la direction dans le ciel.

COBE mit d'abord en évidence que le rayonnement fossile était d'une très grande isotropie, c'est-à-dire que son intensité était la même dans toutes les directions du ciel, un phénomène que le scénario inflationnaire pouvait très bien expliquer. Cependant, une analyse plus poussée des résultats montra que le rayonnement n'était pas strictement homogène, mais présentait des fluctuations très faibles, de l'ordre de 1 pour 100 000. Ces fluctuations montraient que la température du rayonnement fossile n'était pas rigoureusement la même dans toutes les directions du ciel, mais variait très légèrement autour de la valeur moyenne de 2,73 kelvins.


Fluctuations de température, donc de densité


Les variations de température dans le rayonnement fossile fournissaient la preuve que lors du découplement entre rayonnement et matière il existait déjà des inhomogénéités dans la répartition de matière de l'Univers. En effet, lorsqu'un rayon lumineux s'éloigne d'une forte concentration de masse, il perd une légère fraction de son énergie et se trouve donc décalé vers le rouge. C'est par le biais de ce phénomène que les inhomogénéités dans la distribution de matière ont provoqué des fluctuations de température du rayonnement fossile. Les photons qui proviennent des régions où la densité de matière était légèrement supérieure à la moyenne ont perdu plus d'énergie que la moyenne. Le rayonnement paraît ainsi un peu plus froid qu'en moyenne. Au contraire, la lumière des régions moins denses a été moins affectée que la moyenne et sa température semble donc légèrement plus élevée.

La plupart des astrophysiciens pensent que ces fluctuations de densité primordiales sont à l'origine des structures de l'Univers actuel. En effet, pour accomplir son travail, la gravité a besoin d'un point de départ. Dans un Univers parfaitement homogène, aucune structure n'apparaîtrait car la gravité ne saurait pas par où commencer. Ce sont les fluctuations de densité primordiale qui jouent le rôle de guide. Grâce à elles, des régions apparaissent où la concentration de matière est légèrement supérieure à la moyenne. Le tour est alors joué et il suffit de laisser la gravitation agir. Les zones à haute densité vont commencer à attirer de plus en plus de matière, alors que les autres vont en perdre. Avec le temps, la différence de densité entre régions riches et pauvres en matière va s'accentuer. On aboutit finalement à un Univers comme le nôtre, dans lequel la masse est concentrée dans des galaxies, des amas et des superamas, le reste étant presque vide.


Origine des fluctuations


La question qui se pose maintenant est de savoir quelle est l'origine de ces fluctuations. Une fois de plus, la solution va nous être apportée par l'inflation. Comme nous l'avons vu, cette dernière est due à la présence dans l'Univers d'une formidable quantité d'énergie. Mais comme nous l'apprend la mécanique quantique, l'énergie est soumise au principe d'incertitude et connaît en conséquence des fluctuations. L'énergie présente dans l'Univers lors de l'ère inflationnaire était donc elle-même soumise à des fluctuations microscopiques d'origine quantique.

L'effet principal de l'inflation a été de multiplier la dimension de l'Univers par un facteur gigantesque. Les fluctuations d'énergie, d'abord microscopiques, ont donc elles aussi été démultipliées en taille. En conséquence, à la fin de l'ère inflationnaire, ces fluctuations ont atteint une échelle gigantesque. Lorsque l'énergie est finalement libérée et donne naissance à la matière, les fluctuations d'énergie conduisent à de légères variations de la densité de matière. Ainsi naissent les inhomogénéités primordiales qui conduiront aux structures actuelles de l'Univers.

 

Formation des structures de l'Univers

Les fluctuations de densité qui apparurent pendant l'ère inflationnaire pouvaient en théorie être de deux types différents. Il pouvait d'abord s'agir de fluctuations qualifiées d'isothermes si le rayonnement et la matière étaient complètement indépendants l'un de l'autre. Dans ce cas, la densité de matière pouvait varier sans que la distribution du rayonnement ne soit affectée. Il pouvait également s'agir de fluctuations qualifiées d'adiabatiques si le rayonnement et la matière étaient intimement liés. Dans ce cas, les zones de grande concentration de matière devaient correspondre à des régions de plus forte densité de rayonnement et vice-versa.


Deux comportements différents possibles


Ces deux types de fluctuations ont un comportement très différent lors de la formation de structures. Dans le cas de fluctuations adiabatiques, le rayonnement et la matière sont intimement liés. Lorsque la gravité cherche à concentrer la matière, elle est également obligée de comprimer le rayonnement. Or ce dernier est moins docile et essaye de résister. Il y réussit lorsque l'intensité de la gravité n'est pas suffisamment élevée, donc lorsque la taille des fluctuations de densité n'est pas trop grande. Mais si le rayonnement échappe à l'emprise de la gravité, la matière y réussit également puisqu'elle est intimement liée. Ainsi, les fluctuations adiabatiques de petite taille ne participent pas à l'élaboration de structures, et seules importent les fluctuations de grande dimension.

La situation est différente dans le cas de fluctuations isothermes car la matière est alors indépendante du rayonnement. Ce dernier n'a donc aucun effet sur l'action de la gravité et les fluctuations de toutes tailles peuvent conduire à des structures.

La formation des structures de l'Univers dépend ainsi fortement du type de fluctuations en jeu. Si celles-ci sont isothermes, les petites fluctuations ont une grande importance. Ce sont elles qui se condensent en premier. Ainsi, des structures relativement petites d'environ un million de masses solaires apparaissent. Certaines restent isolées et deviennent des galaxies naines. Mais la plupart s'agglomèrent pour former des galaxies plus massives comme la nôtre. Ensuite, sous l'influence de la force de gravitation, les galaxies s'associent pour former des amas, qui eux-mêmes se regroupent en superamas.

Dans le cas des fluctuations adiabatiques, la situation est différente. Les petites fluctuations de densité disparaissent avant d'avoir pu se condenser et seules les grandes entrent en jeu. Ce sont d'énormes structures qui apparaissent, avec une masse de l'ordre de 10 millions de milliards de masses solaires. Ces ensembles s'aplatissent rapidement sous l'effet de la gravité. Naissent ainsi des structures très minces, appelées crêpes, qui sont à l'origine des superamas. Par la suite, chaque crêpe connaît une série de fragmentations, qui vont d'abord conduire à des ensembles de 10 000 milliards de masses solaires, les amas de galaxies, puis à des objets encore plus petits, les galaxies elles-mêmes. L'évolution se fait donc dans le sens inverse, les grandes structures apparaissent en premier et se fragmentent pour en produire de plus petites.


Matière sombre et évolution


La question qui se pose donc est la suivante : les fluctuations primordiales étaient-elles isothermes ou adiabatiques ? Si l'Univers était exclusivement formé de matière ordinaire, la réponse serait simple : les fluctuations seraient adiabatiques et les grandes structures auraient vu le jour en premier. Mais en réalité la densité de matière de l'Univers est dominée par de la matière sombre, en particulier une fraction exotique ou non baryonique très importante. La réponse à la question précédente est donc intimement liée à la nature de la masse cachée.

Les physiciens ont développé toute une panoplie de particules pour expliquer la matière exotique. En ce qui concerne la formation des structures de l'Univers, les propriétés déterminantes de ces particules sont leur masse et leur vitesse lors du découplement d'avec la matière baryonique. Si les particules sont peu massives et cette vitesse comparable à celle de la lumière, on parlera de matière sombre chaude. C'est par exemple le cas des neutrinos. Dans le cas contraire, si les particules sont massives et leur vitesse négligeable devant celle de la lumière, il s'agit de matière sombre froide.

La distinction entre matière sombre chaude et froide est cruciale car elle détermine l'avenir des fluctuations nées pendant l'inflation. En effet, si les particules ont une vitesse comparable à celle de la lumière, elles vont résister à la gravité comme le rayonnement. Par conséquent, les fluctuations trop petites vont disparaître et la formation des structures de l'Univers commencera par les superamas. Par contre, si les particules ont une vitesse négligeable, elles sont incapables de résister à la gravité. Les petites fluctuations survivent et ce sont donc des petits ensembles d'un million de masses solaires qui se forment en premier.

 

Observation du rayonnement fossile

De nombreuses simulations théoriques ou numériques ont été élaborées pour établir comment galaxies, amas et superamas se sont formés. Jusqu'à récemment, aucune des deux possibilités n'avait vraiment pris le pas sur sa concurrente. Le défaut du scénario avec matière sombre froide était de conduire à une structure à grande échelle différente de celle que nous observons. Le scénario avec matière sombre chaude avait quant à lui du mal à expliquer le faible niveau de fluctuation dans le rayonnement fossile et rencontrait des difficultés dans la formation des plus petites structures. La solution générale consistait alors à considérer un mélange des deux composants. La part de matière sombre froide servirait à activer la formation des galaxies et la portion de matière sombre chaude donnerait naissance à une structure à grande échelle cohérente avec les observations.


Les résultats du satellite WMAP


Les résultats les plus fiables sont arrivés en 2003 grâce à WMAP. Ce satellite fut lancé en 2001 pour mesurer le rayonnement fossile avec une sensitivité et une précision angulaire inégalées. Les premiers résultats, publiés en février 2003, révolutionnèrent la cosmologie, en particulier nos connaissances sur l'évolution de l'Univers et l'énergie sombre. En ce qui concerne plus particulièrement la formation des galaxies, WMAP apporta deux informations cruciales. D'abord sur la composition de l'Univers : 4 pour cent de matière baryonique et 23 pour cent de matière non baryonique froide, le reste étant constitué d'énergie sombre. Ensuite sur l'époque d'apparition des premières étoiles de l'Univers : 200 millions d'années après le Big Bang (500 millions d'années plus tôt que les estimations antérieures).

 

WMAP
Une vue détaillée des fluctuations de température mesurées par le satellite WMAP en 2003.
Ces fluctuations de l'ordre du millionième sont des indicateurs des variations de la densité de l'Univers qui ont donné naissance aux structures que nous observons actuellement.


Des deux types possibles, il semble donc que c'est la matière sombre froide qui domine largement. La formation des structures de l'Univers a donc probablement commencé par des petites galaxies qui se sont peu à peu agglomérées pour former des galaxies plus massives, puis des amas et des superamas. En particulier, le fait que les premières étoiles se soient formées en un temps aussi court que 200 millions d'années favorise clairement cette hypothèse. En effet, dans un Univers dominé par de la matière sombre chaude, la gravitation aurait eu beaucoup plus de mal à provoquer la condensation du gaz et les premières étoiles seraient apparues beaucoup plus tard.

Remarquons, pour finir, que d'autres tentatives ont été menées pour expliquer les structures de l'Univers. Certains astrophysiciens pensent que les cordes cosmiques, possibles reliques de l'inflation, sont à l'origine de la structure en filaments de l'Univers. D'autres avancent que les grands vides de la structure à grande échelle sont dus aux premières explosions de supernovae. La majorité des astrophysiciens penche néanmoins pour l'explication par amplification des fluctuations de densité nées lors de l'inflation.

 

 

 

Partager cette page

Repost 0
Published by