Bienvenue Arts Sciences Technologies Tutoriels Vrac  
  Astronomie Mathématique Physique Textes  
 
 

Groupe  :   Invité

les Sarto's > Bienvenue > Sciences > Univers >    - 600'000 ans après le Big Bang : comment la gravitation a pris le pas…
       - 600'000 ans après le Big Bang : comment la gravitation a pris le pas…  
    Hors série - Science & Vie - 1998-12-01      
    Pour décrire, de façon cohérente avec les observations, l'action de la force de gravitation dans l'ordonnancement actuel de l'Univers en galaxies, amas et superamas de galaxies, il faut faire intervenir la matière noire. Une matière dont on ne connaît pas la nature, mais dont les calculs établissent qu'elle constitue plus de 90 % de la masse de l'Univers.  
    Les instruments d'optique, à commencer par l'oeil, nous fournissent des images objectives de I' Univers. Elles nous montrent que nous vivons dans un monde organisé, à des niveaux allant de l'infiniment petit à l'infiniment grand. La gravitation est à l'origine des structures de l'Univers sur des échelles cosmologiques. Les distances associées sont formidablement grandes de sorte que, pour les décrire, nous allons partir d'une échelle qui nous est familière pour atteindre progressivement le plus grand degré d'organisation auquel nous avons accès. Nous verrons ensuite comment la physique moderne explique la formation des structures en cosmologie.  
    L'observation de notre entourage immédiat, à notre échelle, nous dévoile la présence de structures très variées comme par exemple des pierres, des arbres, des objets ayant des propriétés physiques très différentes, notamment leur densité et leurs dimensions, de l'ordre du mètre.  
    Nous retrouvons un certain degré d'organisation à l'échelle du Système solaire (150 millions de kilomètres pour la distance Terre-Soleil). En effet, des planètes gravitent autour du Soleil et leur mouvement est régi par la même force, la gravitation. A nouveau, des différences apparaissent. Par exemple, la densité moyenne est de dix tonnes par mètre cube pour la Terre alors qu'elle est environ de deux tonnes par mètre cube pour le Soleil. Saturne, quant à elle, flotterait sur l'eau puisque sa densité moyenne de 700 kg/m3 est inférieure à celle de l'eau, de 1000 kg/m3. L'espace interplanétaire est constitué de poussières et de particules diverses. Sa densité n'est que de quelques dixièmes de milliardièmes de milliardièmes de kilogrammes par mètre cube (1019 kg/m3), soit un rapport de quelques milliers de milliards de milliards avec les densités planétaires Ces simples considérations sur notre entourage suffisent à nous faire comprendre que, localement, l'Univers n'est pas homogène.  
   

Selon la direction dans laquelle on l'observe, notre Galaxie n'offre pas le même aspect, les étoiles ne se repartissent pas de façon uniforme sur la voûte céleste.

 
   

Localement, l'univers est donc anisotrope.

 
    L'échelle suivante est celle des étoiles. L'unité de distance associée est l'année-lumière. C'est la distance parcourue par la lumière en une année, soit dix mille milliards de kilomètres (1013 km). L'étoile la plus proche de nous se trouve à quatre années-lumière (4•bull;1013 km). Lorsque nous regardons le ciel la nuit, nous voyons des étoiles réparties sur la voûte céleste. Elles appartiennent à notre Galaxie et ne sont manifestement pas réparties de façon uniforme. En effet, une simple paire de jumelles braquée vers le plan de la Voie lactée dévoile beaucoup plus d'étoiles dans cette direction que dans une autre, perpendiculaire au plan galactique. L'Univers local ne présente donc pas le même aspect selon la direction dans laquelle on l'observe : on dit qu'il n'est pas isotrope.  
    Pour atteindre l'échelle supérieure, nous devons utiliser les télescopes. Apparaissent alors les galaxies. En termes de masse, ce sont des concentrations localisées de matière de dix mille à cent millions de fois plus denses que la densité moyenne de l'Univers. Cette dernière est aujourd'hui estimée à 3 atomes d'hydrogène par mètre cube (soit 3 milliardièmes de milliardièmes de milliardièmes de kg). On évalue à quelque cent milliards le nombre d'étoiles peuplant notre Galaxie, la Voie lactée. On appelle parsec (pc) l'échelle de distance utilisée pour décrire les galaxies. Un parsec vaut environ trois années-lumière (3•bull;1013 km). La Voie lactée est une galaxie de forme spirale. Elle ressemble à une galette très fine avant un diamètre d'environ 30 kpc (trente mille parsecs) pour une épaisseur de 300 pc.  
    Les observations montrent que les galaxies sont groupées en amas, structures réunissant quelques dizaines de galaxies, d'un diamètre de l'ordre du Mpc (un million de parsecs). Ces structures sont à leur tour rassemblées en superamas dont la taille caractéristique se mesure en dizaines de Mpc.  
    Enfin des sondages récents, prenant en compte les distances des galaxies et permettant ainsi d'accéder à la troisième dimension d'espace, ont démontré que les galaxies se regroupaient en filaments et en crêpes. Cette organisation mène à une structure en éponge constituée de grands volumes vides plus ou moins sphériques. Leur diamètre est d'environ 70 Mpc et leur surface est matérialisées par les galaxies sur une épaisseur de 5 Mpc.  
    L'Univers est donc structuré sur des échelles de distances allant de la dizaine de kpc à la centaine de Mpc. On s'attend toutefois à trouver une distribution homogène à l'échelle du Gpc (gigaparsec : un milliard de parsecs). Les expériences comme les projets anglo-australien 2dF et américain SDSS - des télescopes qui mesurent les distances de millions de galaxies - devraient enrichir considérablement les catalogues de galaxies déjà disponibles et ainsi permettre une bien meilleure cartographie de ces structures en éponge.  
    On peut maintenant se demander quels processus physiques ont gouverné cette organisation. Pour tenter de répondre à cette question, nous allons abandonner temporairement les observations et nous pencher vers la théorie.  
    Le modèle physique adopté par une grande majorité de physiciens pour décrire l'Univers est celui du "Big Bang chaud". Ses multiples succès lui ont même conféré le titre de modèle standard. Ce modèle repose essentiellement sur le principe cosmologique et suppose que l'Univers est rempli d'un fluide homogène constitué de rayonnement (photons et neutrinos), de baryons (protons et neutrons, les constituants des noyaux des atomes) et d'électrons.  
    Les observations confirment que l'Unis ers est actuellement en expansion. Au cours de cette expansion, son volume spatial augmente, sa température baisse. En remontant le cours du temps par la pensée, ce processus s'inverse. L'Univers proviendrait ainsi d'une singularité géométrique où régnerait une pression, une densité d'énergie et une température infinies (d'où le nom de "Big Bang chaud"). Le modèle propose un récit décrivant l'Univers d'une façon relativement satisfaisante, à partir du temps extraordinairement petit de 10-43 seconde : c'est le temps de Planck, temps à partir duquel la physique actuelle est valide.  
   

Trois minutes après…

 
    La matière telle que nous la connaissons est née trois minutes après le Big Bang, au cours d'un processus appelé nucléosynthèse primordiale. Lors de ce processus, les noyaux légers se forment : les protons et neutrons se lient par la force nucléaire en noyaux légers comme l'hydrogène, le deutérium, l'hélium, le lithium… Les neutrinos sont déjà découplés du reste de l'Univers on1-encadre) et ne joueront plus aucun rôle par la suite. Quand aux photons, ils interagissent principalement avec les électrons rebondissant dessus comme des houles de billard qui s'entrechoquent. La fréquence de ces interactions est telle que les photons ne peuvent pas se propager librement, l'Univers est alors en équilibre thermique constituant ainsi un corps noir.  
    Beaucoup plus tard, alors que le Big Bang est tin événement déjà vieux de six cent mille ans, les électrons se lient aux noyaux (composés de harons) pour former des atomes. Les interactions avec les photons se font alors beaucoup plus rares et ces derniers sont désormais libres. Ils sont aujourd'hui détectés sous la forme d'un rayonnement d'une température de 3K (environ -270 °C) et dont la longueur d'onde associée est millimétrique. La densité numérique de ces photons est d'environ 400 par cm3. Ce rayonnement est plus connu sous le nom de rayonnement fossile, rayonnement de fond cosmologique ou encore rayonnement à 3K.  
    L'époque d'émission de ces photons, événement très particulier de l'histoire de l'Univers, est celle de la "recombinaison "pour les baryons et les électrons, et du découplage pour les photons. L'Univers ne connaît alors plus de phase remarquable jusqu'à la formation des galaxies.  
    Ces galaxies sont issues d'un effondrement gravitationnel. Il suffit pour cela que le potentiel gravitationnel ne soit pas constant en une région limitée de l'espace, formant une petite fluctuation localisée, une inhomogénéité, de la densité de masse. Par attraction gravitationnelle, la matière environnante est attirée par cette inhomogénéité. Celle-ci va dès lors s'amplifier, renforçant elle-même cette attraction. C'est l'effet houle de neige. Pour qu'il se produise, il faut que l'inhomogénéité initiale soit instable, c'est-à-dire qu'elle croisse au cours du temps. Cette condition ne peut advenir qu'après la recombinaison baryons-électrons, quand les photons désormais libres de se propager, ne sont plus en mesure d'interrompre tout début d'effondrement en interagissant sans cesse avec la matière. Dans le cadre du modèle standard, on calcule alors que, pour aboutir aujourd'hui aux galaxies, les fluctuations relatives de densité de masse doivent être de l'ordre de 10-3 à l'époque du découplage. Cela signifie que les écarts à la valeur moyenne de la densité de masse sont en proportion les mêmes qu'un écart de 1 g/m3 par rapport à 1kg/m3.  
   

Le découplage des particules

 
    Considérons un ensemble de particules identiques N en interaction, autre que gravitationnelle, avec d'autres particules et ceci dans un Univers en expansion. Le laps de temps séparant deux interactions est inversement proportionnel au nombre de particules N par unité de volume, c'est-à-dire à leur densité numérique. En effet, si les particules N sont très concentrées, la durée entre deux interactions successives sera plus courte que si elles sont très diluées. Tant que cette durée est relativement courte (inférieure à l'âge de l'Univers), les particules N sont en équilibre avec les autres espèces présentes et sont à la même température. Or avec l'expansion, le volume de l'Univers augmente alors que le nombre total de particules N reste fixe, donc leur densité diminue. Il arrivera un moment où l'intervalle de temps entre deux interactions sera si grand (plus grand que l'âge de l'Univers) que l'on peut considérer les particules N comme "gelées", c'est-à-dire sans aucune interaction avec les autres particules présentes dans l'Univers. C'est le découplage.  
    A ces fluctuations de densité de masse sont associées des fluctuations de densité de rayonnement. Matière et rayonnement étant en effet fortement couples jusqu'à cette époque, ces fluctuations doivent être elles aussi du même ordre de grandeur, soit 10-3. Or ces fluctuations de la densité de rayonnement se traduisent par des fluctuations de l'énergie de ce rayonnement, ou ce qui est équivalaient, de sa température. Le satellite COBE, lancé en 1959 par la NASA, a mesuré la température du ciel dans toutes les directions. Il a bien permis de mettre en évidence des fluctuations de température, directement liées à celles de la matière, mais dont l'amplitude relative à la moyenne n'est pas de 10-3, mais de 10-5. Le modèle standard du Big Bang se révèle donc incapable de reproduire les mesures il échoue d'un facteur 100 ! De plus, il est incapable de générer les fluctuations primordiales, il doit supposer leur existence, ce qui n'est pas satisfaisant pour une théorie physique. Il doit donc être modifié afin de rendre compte des observations.  
    Pour ce faire, reprenons les hypothèses de base qui constituent le modèle standard du Big Bang. D'abord, nous ne pouvons guère revenir sur l'homogénéité probable à très grande échelle ainsi que l'isotropie apparente. Nous conservons donc l'hypothèse d'un Univers homogène et isotrope. Ensuite, compte tenu des observations et des connaissances actuelles sur les forces fondamentales qui régissent la nature, nous persistons avec l'hypothèse d'un Univers dont la dynamique est gouvernée par la gravitation. C'est donc sur le contenu (qualitatif aussi bien que quantitatif à priori) qu'il nous faut revenir.  
    L'inventaire fait précédemment des espèces physiques présentes dans l'Univers doit donc être incomplet, On regroupe toute la matière manquante sous les appellations équivalent "matière noire "et "matière sombre". Malgré les apparences, ce n'est pas seulement la théorie qui nécessite l'ajout de matière les observations ont également prouvé l'existence de cette matière sombre de façon irréfutable. Mais il reste encore à déterminer sa nature et son abondance.  
   

Une force invisible

 
    Sur ce dernier point, les mesures de vitesses de rotation des étoiles autour du centre de leur galaxie hôte constituent un excellent indicateur. En effet, si la masse totale d'une galaxie n'était due qu'à sa partie visible (c'est-à-dire lumineuse), alors les vitesses de rotation des étoiles autour du noyau de cette galaxie devraient diminuer au fur et à mesure que l'on s'en éloigne. Or c'est le contraire qui est observé. Il s'ensuit donc que la masse d'une galaxie ne se réduit pas à celle de sa partie visible. Ainsi, pour rendre compte de la dynamique des galaxies et des amas de galaxies, on arrive à cette surprenante conclusion : entre 90 % et 95 % de la masse de l'Univers sont invisibles !  
    Compte tenu des performances des instruments d'optique modernes et de nos connaissances sur les interactions fondamentales, on s'attend à ce que la masse manquante soit représentée par des objets (astres, particules…) au mieux très peu lumineux ou interagissant très peu avec leur entourage. Ces objets peuvent être constitués de matière ordinaire (dite baryonique, faite de baryons) ou non (dite non baryonique).  
    Dans cette première catégorie, on peut penser aux trous noirs, astres opaques par excellence. Mais les estimations sur leur nombre et leur masse donnent des contributions bien trop faibles.  
    Une autre hypothèse repose sur les corps massifs et compacts, dénommés MACHOs en anglais et très à la mode ces dernières années. Cette catégorie inclut notamment les naines brunes, étoiles "ratées", trop légères pour que les réactions thermonucléaires s'amorcent et les fassent briller. Celles-ci sont censées se trouver dans un immense halo sphérique baignant la galaxie. Pour ce qui est de la matière noire, les résultats des études sur les MACHOs sont décevants ces astres ne peuvent représenter au mieux qu'une petite fraction de la masse manquante.  
    Une importante découverte très récente (collaboration SuperKamiokande au Japon, mai 1998) concerne la masse des neutrinos. Ces particules non baryoniques étaient jusqu'alors d'excellents candidats pour la matière noire. Il a été prouvé qu'ils possèdent une masse non nulle mais néanmoins trop faible pour résoudre le problème de la matière sombre. C'est cependant le cas d'une matière sombre non baryonique qui va nous intéresser, car sa présence est fortement encouragée par les résultats suivants : plus on regarde à grande échelle et plus la proportion de matière sombre est importante (si elle est de 90 % pour une galaxie, elle va être de 95 % pour un amas de galaxies) si toute la matière sombre était baryonique, les abondances d'hélium et de deutérium produits lors de la nucléosynthèse primordiale devraient être très différentes (supérieures pour l'hélium et inférieures pour le deutérium) des valeurs mesurées.  
    Ainsi, non seulement la quantité de matière baryonique semble plus ou moins fixée par la nucléosynthèse primordiale mais en plus la proportion de matière non baryonique augmente quand on considère des régions d'espace de plus en plus grandes.  
    De plus, les théories de grande unification (GUT en anglais) prédisent l'existence de particules non baryoniques. Elles auraient été créées aux tout premiers instants de l'Univers, après que les forces ne soient plus unifiées. comme c'était le cas auparavant, quand la température était plus élevée. Il faut dès lors en tenir compte, en plus des particules déjà mentionnées (photons, baryons et électrons seulement, puisque les neutrinos sont découplés).  
    Mais quel est le rôle joué par la matière sombre dans la formation des structures ? Rappelons-nous d'abord que la matière sombre n'interagit que très faiblement avec son entourage, contrairement aux photons qui sont très fortement couplés aux électrons et aux baryons. La conséquence de cette faible interaction est que le découplage de la matière noire a lieu avant le découplage des photons. Entre ces deux découplages, les fluctuations relatives de densité de la matière noire ont pu croître jusqu'à atteindre un niveau de 10-3 alors que celles des baryons (qui, eux, sont toujours en interaction avec les photons) restent faibles, de l'ordre de 10-5 - c'est le niveau détecté par COBE. Ainsi, la matière noire a pris "de l'avance "par rapport aux baryons.  
    Plus tard, lorsque les photons se découplent, les bavons deviennent libres. Ils vont dès lors être sensibles aux champs gravitationnels engendrés par les inhomogénéités de matière noire, qui agissent comme des pièges à baryons. Ces derniers vont rapidement tomber dans ces puits de potentiel et s'ajuster à leur grande amplitude de 10-3.  
    Les fluctuations ne vont cesser ensuite de s'amplifier pour mener à des inhomogénéités macroscopiques les galaxies. Tel est le mécanisme par lequel les baryons leur donneraient naissance. On dispose ainsi d'un moyen très simple de rendre compatible la formation des galaxies (nécessitant une amplitude des fluctuations de densité de baryons de 10-3) avec les mesures de COBE (l'amplitude de densité de rayonnement vaut 10-5, restaurant ainsi un certain accord entre théorie et expérience.  
    Ce modèle, de surcroît, explique de façon très naturelle l'agencement des galaxies en structures (amas et superamas). En effet, si la matière noire considérée précédemment s'est découplée alors qu'elle était dans un régime relativiste (c'est-à-dire avec des vitesses de dispersion proches de la vitesse de la lumière, on l'appelle alors matière noire chaude), elle aura eu le temps de parcourir de grandes distances avant le découplage des photons. Les baryons seront donc eux aussi répartis sur de grandes distances, fournissant ainsi le support pour former de grandes structures. La matière noire chaude mènera donc préférentiellement à de grandes structures qui se fragmenteront par la suite pour produire des superamas de galaxies puis des amas de galaxies.  
    Inversement, si le découplage de la matière noire s'est fait dans un régime non relativiste (matière noire froide), les vitesses de dispersion auront été faibles de sorte que les pièges à baryons seront relativement peu éloignés. Ainsi, les premières structures qui se mettront en place seront de petites tailles et proches les unes des autres. Les galaxies se formeront donc les premières, puis fusionneront en amas de galaxies, lesquels fusionneront en superamas. Dans ce mode hiérarchique de formation des structures, la matière noire froide est l'ingrédient principal.  
    Ces scénarios, basés sur le modèle standard auquel on ajoute de la matière noire, ne sont que deux exemples parmi beaucoup d'autres tentant "expliquer la formation des structures, ils ne fournissent toutefois qu'une explication partielle au problème posé et ne satisfont pas pleinement la communauté scientifique, surtout celui fondé sur la matière noire chaude. On peut aussi imaginer un mélange de matière noire chaude et froide pour affiner les prédictions. Un fort espoir réside cependant dans les satellites américain MAP (lancement prévu fin 2000) et surtout européen Planck (lancement prévu vers 2007). Ils mesureront très précisément les fluctuations du rayonnement à 3K. On déterminera avec ces données les paramètres cosmologiques (courbure, constante cosmologique, densité d'énergie totale, proportion de baryons, avec une précision sans précédent - de l'ordre du pour cent.  
    Ainsi, les multiples scénarios qui, chacun, reposent sur des hypothèses quant aux valeurs de ces paramètres, vont être sélectionnés d'une façon très efficace. Il deviendra dès lors possible de déterminer avec une certaine confiance la géométrie, l'histoire et le futur de notre Univers. On comprend donc mieux l'importance capitale de la mesure précise des fluctuations primordiales. Malgré les images objectives que les instruments nous donnent de l'Univers, leur interprétation est loin d'être simple…  
         
    Le sommaire          La page suivante  
       
  top Science & Vie - 1998-12-01