Bienvenue Arts Sciences Technologies Tutoriels Vrac  
  Astronomie Mathématique Physique Textes  
 
 

Groupe  :   Invité

les Sarto's > Bienvenue > Sciences > Univers >    - La relativité générale sera-t-elle dépassée ?
 
       - La relativité générale sera-t-elle dépassée ?  
    Hors série - Science & Vie - 1998-12-01      
    Pour englober dans un schéma unique les quatre interactions fondamentales de la physique, il faut arriver à donner une description microscopique de la force de gravitation, en d'autres termes, la traduire en quanta. Après des décennies d'échec, la théorie des "supercordes"ouvre une piste.  
    La gravitation fait aux physiciens un pied de nez : des quatre forces fondamentales (au rang desquelles figurent l'électromagnétisme, l'interaction faible et l'interaction forte), c'est la première à avoir été identifiée et modélisée, mais ce sera probablement la dernière à entrer dans un cadre théorique satisfaisant. La relativité générale d'Einstein, formulée en 19 h a supplanté la théorie newtonienne de la gravitation : elle a passé avec succès tous les tests expérimentaux ou observationnels disponibles ; elle a séduit par sa beauté mathématique. Les physiciens savent pourtant quelle n'est pas le fin mot de l'histoire.  
    Pourquoi ? Parce que la théorie d'Einstein, bus le verrons par la suite, est apparemment inconciliable avec la physique quantique, cet ensemble de lois bizarres découvertes il y a près de soixante-dix ans et auxquelles la nature obéit rigoureusement. A moins que les dieux aient conféré à la gravitation un statut "exception - on ne voit vraiment pas pourquoi ce serait le cas -, il faudra donc dépasser la relativité générale. Ce qu'on pensait d'ailleurs depuis longtemps et qui explique la longueur de l'histoire des tentatives pour parvenir.  
    Le récit de cette histoire implique des concepts quelque peu techniques. Tant pis ! On essaiera de simplifier sans trop trahir… Pour commencer, rappelons l'essence de la théorie einsteinienne de la gravitation. Selon celle-ci, ce que nous appelons force de gravitation n'est autre que l'effet de la courbure de l'espace-temps. Dans ce schéma conceptuel, un objet en chute libre suit dans l'espace-temps une trajectoire - appelée géodésique - telle que l'intervalle de temps propre (le temps mesuré par une horloge rattachée à l'objet en chute) entre deux quelconques de ses points est maximal. La trajectoire est alors déterminée par la courbure. Une métaphore classique consiste à comparer cela au comportement d'une petite bille posée et lâchée sur un relief, la bille dégringolant le long des pentes les plus raides. Bien sûr, ce n'est qu'une image : l'espace-temps n'est pas une surface bidimensionnelle mais quelque chose à quatre dimensions, c'est la pesanteur qui fait dégringoler la bille, etc. Mais à défaut de pouvoir visualiser des espaces quadrimensionnels,..  
    Un ingrédient de la relativité générale est donc que la gravitation traduit la courbure de l'espace-temps. Autre ingrédient clé, cette courbure découle de la présence de matière ou d'énergie. C'est ce que traduisent les "équations d'Einstein ": elles décrivent mathématiquement, en chaque point de l'espace et à chaque instant, comment la répartition de matière modifie la géométrie de l'espace-temps. Une bonne partie de l'astrophysique et cosmologie relativiste (trous noirs, modèle du Big Bang, etc.) repose sur ces fameuses équations, que l'on sait résoudre dans un petit nombre de cas.  
   

Des concurrents d'Einstein

 
    Regardons d'un peu plus près la courbure et la répartition de matière, cela nous sera utile pour la suite. La courbure varie selon le point X de l'espace-temps. Elle est construite à partir d'une grandeur fondamentale qui caractérise complètement la géométrie de l'espace-temps le "tenseur métrique". Cette grandeur englobe en fait un ensemble de dix grandeurs, chacune d'elles dépendant a priori du point X considéré. Quant à la répartition de matière, elle est décrite par une autre grandeur le"tenseur énergie-impulsion". Il possède aussi dix composantes, fonctions du point X considéré, qui spécifient les densités d'énergie et d'impulsion ainsi que leurs flux.  
    Techniquement, les équations d'Einstein reviennent donc à relier le tenseur métrique au tenseur énergie-impulsion. Il en résulte un système de dix équations, au demeurant très compliquées, et applicables à une grande diversité de problèmes : déterminer le champ gravitationnel d'un trou noir, d'une étoile en rotation, etc.  
    Les équations d'Einstein ne sont cependant pas l'unique manière d'établir un lien mathématique entre courbure et matière. "Il en existe une autre", précise Thibault Damour, spécialiste de la gravitation et professeur permanent à l'IHES (Institut des hautes études scientifiques, à Bures-sur-Yvette, près de Paris),"Elle a été explorée au début des années 1910 par des concurrents d 'Einstein, l'Allemand Max Abraham et le Finlandais Gunnar Nordström ; cela donnait une théorie acceptable, qui est restée en compétition avec la relativité générale jusqu'en 1919". Cette théorie n'a en effet pas résisté à l'épreuve d'une observation cruciale réalisée sous la houlette de Sir Arthur Eddington à l'occasion d'une éclipse totale, à savoir la déflexion de la lumière provenant d'une étoile et passant au voisinage du Soleil. La théorie d'Abraham et Nordström ne prédisait pas de déflexion, contrairement à celle d'Einstein !  
    Les théoriciens n'ont pas pour autant renoncé à proposer d'autres constructions. Einstein lui-même ne voyait dans sa relativité générale qu'un édifice nécessairement provisoire dans la mesure où il ne contenait pas l'électromagnétisme. D'ailleurs, dès sa formulation, il se mit en quête d'une théorie capable d'englober à la fois la gravitation et l'électromagnétisme. Avec sans doute trop d'entêtement, puisqu'il consacra tout le restant de sa vie à ce projet sans obtenir de résultats vraiment probants.  
    L'unification de la gravitation et de l'électromagnétisme n'en était pas moins un objectif recherché par nombre de scientifiques. Celle de l'électricité et du magnétisme par Maxwell, quelques décennies auparavant, avait marqué les esprits. L'idée métaphysique de l'unité des phénomènes physiques s'épanouit et se renforça avec la relativité restreinte d'Einstein, qui montrait que l'électromagnétisme (donc la lumière) obéit, comme la mécanique, au principe de relativité (c'est-à-dire que les lois sont indépendantes du référentiel auquel appartient l'observateur). La relativité générale, qui ajoute la gravitation sous la coupe du principe de relativité, poussait encore plus loin l'idée de l'unité de la physique. On comprend alors que les physiciens aient cherché un schéma unique englobant les phénomènes électromagnétiques et gravitationnels.  
    Aussi Einstein dut-il être passablement remué en recevant, un jour d'avril 1919, un manuscrit d'un certain mathématicien germano-polonais du nom de Theodor Kaluza. En quelques pages, ce chercheur énonçait une théorie audacieuse qui, à première vue, unifiait avec élégance la gravitation et l'électromagnétisme. Son idée : supposer que notre Univers n'a pas quatre, mais cinq dimensions. Plus précisément, la nouvelle dimension introduite par Kaluza était une quatrième dimension spatiale. En transposant les équations d'Einstein au nouvel espace-temps à cinq dimensions ainsi formé, Kaluza obtenait comme par enchantement à la fois la gravitation einsteinienne et l'électromagnétisme de Maxwell. Ainsi, parmi les composantes supplémentaires du tenseur métrique que la cinquième dimension introduisait, quatre d'entre elles s'interprétaient comme les potentiels électromagnétiques (grandeurs dont dérivent les champs électriques et magnétiques). En "autres termes, la lumière ou les ondes électromagnétiques apparaissent dans ce modèle comme une vibration affectant la dimension supplémentaire.  
    Mais où se trouve donc la cinquième dimension, que nul n'a évidemment jamais vue ? Pour rendre compte de ce fait, il faut supposer que la dimension supplémentaire, au contraire des trois autres dimensions de l'espace, n'a pas une taille infinie, mais se boucle sur elle-même en un cercle de rayon extrêmement petit, disons beaucoup plus petit que tout objet connu.  
    Cela explique alors l'absence apparente de la cinquième dimension. Imaginez en effet une fourmi savante, aveugle, et se déplaçant sur un plan illimité : Son univers, jugera-t-elle, est bidimensionnel. Supposez maintenant que le plan a une longueur infinie maïs que sa largeur est de 1 mètre, et que vous rejoigniez et colliez les deux bords, de façon à former un cylindre de hauteur infinie. La fourmi, après avoir exploré son territoire, dira qu'elle vit dans un univers toujours bidimensionnel (il faut bien deux coordonnées pour préciser la position d'un point)… mais fini, puisqu'en marchant dans l'une des deux directions, elle revient à son point de départ au bout d'un certain temps. Supposez enfin que le cylindre soit très fin, par exemple que son diamètre soit inférieur au micron la fourmi dira quelle se trouve dans un univers à une dimension, puisque la seule direction qu'elle puisse emprunter est le long de l'axe. Et pourtant, vous qui voyez tout cela à la loupe ou au microscope, vous savez que la fourmi marche sur un cylindre, donc sur une surface à deux dimensions. Cette image s'applique presque telle quelle au monde a priori étrange envisagé par Kaluza si nous ne percevons pas la cinquième dimension, c'est tout simplement parce qu'elle est trop petite.  
    Cette parenthèse étant fermée, revenons à l'histoire. Einstein n'a transmis l'article de Kaluza pour publication qu'en 1921, presque trois ans après sa réception ! Signe que cette théorie l'a embarrassé ou, à tout le moins, fait réfléchir… Dès lors, le modèle de Kaluza suscita de l'intérêt et fut l'objet d'améliorations ou de développements, notamment avec l'apport du physicien suédois Oskar Klein dès 1926. Ce dernier estima par exemple la taille de la cinquième dimension, trouvant 10-35 mètre comme ordre de grandeur : une taille inaccessible à toute expérience imaginable (pour comparaison, la taille d'un noyau atomique est de l'ordre de 10-15 m).  
   

Dans les années 20, le Suédois Oskar Klein élabore, avec l'Allemand Theodor Kaluza, une théorie fort audacieuse elle s'appuie sur un espace-temps non plus à quatre, mais à cinq dimensions.

 
    La théorie de Kaluza-Klein, comme on l'appelle aujourd'hui, était séduisante, mais les problèmes qu'elle suscitait à son tour ne manquaient pas. Par exemple, pourquoi ou comment la cinquième dimension est-elle "compactifiée "en un minuscule cercle, à la différence des autres ? Ou encore, que faire de l'une des composantes du tenseur métrique à cinq dimensions qui semblait impliquer des valeurs de la force gravitationnelle différentes de celles prévues par la relativité générale ? Vers 1930, la théorie de Kaluza-Klein sombra plus ou moins dans l'oubli. Ou plutôt, elle s'effaça devant la vague déferlante de la mécanique quantique, qui attirait de plus en plus les forces vives de la physique.  
    La théorie de Kaluza-Klein eut néanmoins quelques retombées. Autour de 1937, le physicien britannique Paul Dirac, l'un des héros de l'épopée quantique, fit l'hypothèse que la constante de gravitation G avait pu varier au cours du temps, ce dont la théorie de Kaluza-Klein, à la différence de la relativité générale, pouvait rendre compte. Cette idée fut reprise vers 1944 par l'Allemand Pascual Jordan, lui aussi l'un des fondateurs de la mécanique quantique, qui a examiné en détail la théorie de Kaluza-Klein. Puis un développement important intervint en 1956, lorsque le physicien suisse Markus Fierz s'est rendu compte que non seulement G, mais aussi la "constante de structure fine", pouvaient varier. Cette constante sans unités, qui vaut environ 1/137, caractérise, au niveau atomique et subatomique, l'intensité de l'interaction électromagnétique. Or si la constante de structure fine a varié au cours de l'histoire de l'Univers, cela devait se traduire dans les spectres de rayonnement des galaxies lointaines, donc anciennes (étant donné la vitesse finie de la lumière). En effet, les longueurs d'onde du rayonnement électromagnétique émis par leurs atomes seraient légèrement différentes de celles que l'on mesure au laboratoire si, au moment de l'émission, la constante de structure fine n'avait pas la même valeur qu'aujourd'hui.  
    Cependant, les observations astronomiques ne révéleront aucune différence de ce type avec des spectres de galaxies plus jeunes. Qui plus est, on pouvait montrer que si la constante de structure fine variait, le principe d'équivalence sur lequel Einstein a édifié sa relativité générale serait violé l'une des formulations de ce principe consiste à dire que tous les corps en chute libre dans un champ gravitationnel tombent avec la même accélération, indépendamment de leur composition). Or le principe d'équivalence était bien vérifié par l'expérience, avec une précision relative de 10-8 au moins. Fierz procéda alors à une opération radicale : dans les équations obtenues à partir de la théorie de Kaluza-Klein revue par Jordan, il supprima purement et simplement le terme gênant, celui qui entraînait une violation du principe d'équivalence. Ainsi naquit une théorie de la gravitation différente de celle d'Einstein mais formulée comme elle dans un espace-temps à quatre dimensions (bien que son origine remonte à la théorie de Kaluza-Klein et ses cinq dimensions). Elle est aujourd'hui connue sous le nom de théorie de Brans-Dicke, d'après les physiciens américains Carl Brans et Robert Dicke qui l'ont reprise à leur compte en 1961. Cette théorie, que T. Damour préfère appeler pour plus de justice le modèle de Jordan-Fierz-Brans-Dicke, a, comme la relativité générale, survécu (sous une forme généralisée) aux tests expérimentaux et observationnels, en dépit de son caractère quelque peu bricolé. "Elle est à peu près la seule rescapée de toutes celles qui ont été inventées dans la tradition géométrique, ce courant engagé par Einstein et espérant fonder la physique sur des concepts géométriques", conclut T. Damour.  
    Théorie quantique des champs et méthode des perturbations  
    Dans les théories de champs quantiques, dont le prototype est l'électrodynamique quantique, il est très rare que l'on puisse calculer les quantités physiques de façon exacte. Généralement, le calcul procède par approximations successives; le résultat se présente comme une somme illimitée de puissances d'un certain paramètre a, c'est-à-dire comme une expression du type c0 + c1a + c2a2 + c3a3 +… Si le paramètre a, qui mesure en quelque sorte l'intensité de l'interaction, est assez petit, on peut espérer que les deux ou trois premiers termes de la série suffisent pour fournir une bonne approximation du résultat cherché. C'est le cas en électrodynamique quantique, où le paramètre de développement est la "constante de structure fine "(valant environ 1/137). La difficulté se reporte sur le calcul des coefficients c0, c1, c2, etc… Il apparaît des sommes de lourdes expressions mathématiques pour lesquelles le physicien américain Richard Feynman a eu le génie de découvrir une représentation en diagrammes, chaque diagramme correspondant à une expression bien définie. Par exemple, le calcul de la probabilité du processus électron -> électron + photon fait intervenir la somme de tous les diagrammes distincts associés à ce processus :  
    Les lignes droites sont associées aux électrons ou aux positrons, les lignes ondulées aux photons. Le premier diagramme (sans boucle) correspond à l'ordre d'approximation le plus bas, les quatre autres à l'ordre suivant, etc. (chaque noeud dans le diagramme amène un facteur a). En fait, il s'avère que chaque diagramme contenant des boucles donne un résultat infini, donc dépourvu de sens. Tout le programme-long et difficile, mais couronné de succès-de la renormalisation en électrodynamique quantique était de trouver une méthode cohérente pour soustraire ces infinis de façon à ne garder que les quantités physiquement pertinentes. Ce programme a complètement échoué pour la version quantique de la relativité générale (où les quanta du champ gravitationnel sont les gravitons).  
   

Du côté de la physique quantique

 
    Entre-temps, toutefois, le vent de l'histoire de la physique avait plutôt tourné du côté quantique. Et de ce point de vue, les choses se sont d'abord mal passées pour ce qui concerne la gravitation. Remontons à 1930, époque où la physique quantique avait gagné, après plusieurs années agitées, une certaine maturité. On venait d'appliquer les principes quantiques à l'électromagnétisme, ce qui donnait l'ébauche de la première théorie quantique des champs. L'électrodynamique quantique. Ce ne fut pas sans mal et d'énormes difficultés subsistaient. Il n'empêche, la tentation était grande de rendre quantique l'autre théorie de champs dont on disposait, la relativité générale. Ici, hélas, les obstacles se sont révélés insurmontables.  
    La transposition quantique de la relativité générale s'est vite avérée non renormalisable. Qu'est-ce que cela veut dire ? Pour le comprendre, voyons ce qui s'était passé pour l'électrodynamique quantique. Cette théorie constitue un édifice mathématique dont les briques de hase sont le champ électromagnétique (plus précisément, les champs des potentiels électromagnétiques) et le champ électronique. Ils sont quantifiés, ce qui signifie que l'énergie, l'impulsion, etc. du champ est transmise par paquets appelés quanta. Les quanta du champ électromagnétique sont les photons. Ceux du champ électronique sont les électrons et les positrons. La théorie fournit alors un ensemble de règles permettant de calculer les probabilités de toute interaction électromagnétique impliquant électrons, positrons ou photons. Toutefois, on ne sait pas effectuer ces calculs autrement que par une méthode dite de perturbations, dans laquelle le résultat s'obtient par approximations successives. Et en opérant ainsi, les physiciens sont tombes sur un énorme os les calculs taisaient apparaître des quantités infinies Grâce à beaucoup d'opiniâtreté, les théoriciens ont pu, au cours des ans, régler de façon à peu près satisfaisante ce problème. Ils ont trouve des procédures dites de renormalisation qui permettent d'éliminer les infinis en les absorbant dans une redéfinition des paramètres (la masse et la charge de l'électron) contenus dans les équations de départ. Miracle, cela fonctionne et produit des résultats physiquement sensés.  
    Il n'y avait qu'à appliquer le même traitement à la relativité générale. Mais ça ne marchait pas du tout. On obtenait facilement la version quantique, dans laquelle les quanta du champ gravitationnel représenté par le tenseur métrique seraient des particules appelées gravitons, de masse nulle et de spin 2. Un peu comme les quanta du champ électromagnétique sont les photons, de masse nulle et de spin 1 (le spin est le moment cinétique intrinsèque d'une particule : dans les unités usuelles, il ne peut prendre que les valeurs 0, 1/2, 1, 3/2, 2, etc.). En revanche, on ne pouvait rien calculer car on ne pouvait juguler les infinis. Il y en avait trop, ils ne pouvaient être absorbés dans la redéfinition d'un nombre fini de paramètres. Le verdict tomba : la version quantique de la relativité générale n'est pas reformalisable (il en est d'ailleurs de même, sinon pire, avec la théorie de Kaluza-Klein et ses avatars, telle la théorie de Brans-Dicke). L'impasse était totale.  
    Du côte des autres forces fondamentales - les interactions dites faible (responsable de la radioactivité b) et forte (responsable de la cohésion des noyaux atomiques) - la situation, au début, n'était pas tellement meilleure, Une avalanche de données expérimentales et de nouvelles particules subatomiques allait à la fois fournir certaines pistes et semer une grande contusion. C'est seulement au début des années 1970, suite à des percées de nature théorique, que se dégagea un modèle assez satisfaisant, appelé aujourd'hui le Modèle standard de la physique des particules : une théorie quantique des champs renormalisable, qui unifie partiellement l'interaction électromagnétique avec l'interaction faible et, dans une moindre mesure, l'interaction forte. Elle repose de façon essentielle sur le concept de symétries de jauge.  
    Le Modèle standard a été, depuis, maintes fois confirmé par l'expérience. Cela n'a pas empêche les physiciens de chercher une théorie quantique meilleure, contenant moins de paramètres et réalisant l'unification des forces de manière plus intime, plus élégante, Ainsi sont apparues dans les années 1970 des théories dites de grande unification, fondées sur les mêmes principes que le Modèle standard… mais construites à partir d'un seul groupe de symétries de jauge, alors que le Modèle standard en juxtapose trois. Vers 1974, on eut l'idée d'ajouter et d'explorer un autre type de symétrie, dénommée supersymétrie, qui postule que, au niveau des particules élémentaires, à chaque boson (particule de spin entier) est associée l'existence d'un fermion (particule de spin demi-entier), et réciproquement. On assistait à un foisonnement d'intéressants modèles susceptibles d'unifier trois des interactions fondamentales. Malgré divers avantages, ils prédisaient do nombreuses particules nous elles et les indications expérimentales directes manquaient : les différences avec le Modèle standard ne se révéleraient, semble-t-il, qu'à de très hautes énergies, inaccessibles à court ou moyen termes.  
   

La naissance des théories de "supergravité"

 
    La gravitation, elle, restait obstinément à l'écart de ces théories. Jusqu'à ce que des physiciens explorent la supersymétrie en lui attribuant le statut d'une symétrie de jauge. "La supersymétrie considérée comme symétrie de jauge s'avère engendrer automatiquement une théorie de la gravitation, avec des particules de masse nulle et de spin 2 (les gravitons)", dit Costas Bachas, chercheur au Centre de physique théorique de l'École polytechnique, à Palaiseau.  
    Ainsi naquit la "supergravité", dès 1976. En fait, il y avait plusieurs modèles possibles de supergravité, qui redonnent tous les mêmes lois que la relativité générale à la limite classique (non quantique) et à basse énergie. On n'était même pas obligé de se placer à quatre dimensions : on pouvait être en dimension supérieure, à la manière de la théorie de Kaluza-Klein qui faisait ainsi un retour inattendu. "Cependant, pour des raisons de cohérence interne, l'espace-temps devait avoir au plus 11 dimensions". précise C. Bachas. Et la plus symétrique des théories de supergravité, celle qui comportait le plus de contraintes et de ce fait la plus intéressante, était le modèle à 11 dimensions publie en 1978 par Eugène Cremmer. Bernard Julia et Joël Scherk, chercheurs à l'École normale supérieure à Paris. Mais il fallait "compactifier "les 7 dimensions supplémentaires, ce qui donnait lieu à un grand nombre de théories possibles a 4 dimensions. De plus, contrairement aux espoirs initiaux, les modèles de supergravité se sont révélés non normalisable "souligne C. Bachas.  
   

Symétries et physique moderne

 
    Les symétries jouent un rôle capital en physique, en particulier dans l'élaboration de théories des interactions fondamentales. On emploie souvent le mot "invariance "comme synonyme de symétrie, qui a l'avantage d'être plus explicite : dire que quelque chose est symétrique par rapport à certaines transformations, c'est dire que la chose en question reste inchangée sous l'effet desdites transformations. Par exemple, un carré (dont les sommets ne sont pas numérotés) est symétrique ou invariant par rapport à une rotation de 90° autour de son centre, car la figure géométrique reste inchangée après une telle rotation.  
    Au départ, la notion de symétrie en physique était liée, comme dans notre expérience quotidienne, à des situations purement géométriques. Ainsi, c'est en étudiant les symétries géométriques - c'est-à-dire des symétries vis-à-vis d'une rotation, d'une translation, d'une réflexion - que tous les types de réseaux cristallins ont pu être dénombrés et classés.  
    Progressivement, la notion de symétrie allait se révéler pertinente dans des cadres non strictement géométriques. Par exemple, la relativité restreinte d'Einstein a été construite en exigeant que les lois de l'électromagnétisme (et de la mécanique) gardent la même forme quel que soit le mouvement de translation uniforme de l'observateur. On peut parler de symétrie de ces lois par rapport aux changements de référentiel d'inertie; une telle transformation n'est pas strictement géométrique, puisqu'elle fait intervenir le temps aussi bien que l'espace. Mais on a fini par généraliser et s'habituer à l'emploi du mot "géométrie "pour ce qui est de l'espace-temps.  
    Les physiciens et les mathématiciens ont découvert que la nature obéit ou semble obéir à des symétries encore plus éloignées de notre géométrie intuitive. Tel est le cas des symétries de jauge, notion que le mathématicien d'origine allemande Hermann Weyl a introduite en 1918 lors de ses tentatives (lui aussi !) d'unifier gravitation et électromagnétisme.  
    Qu'est donc une symétrie de jauge ? Présentons le point de vue moderne, esquissé dès 1954 par le physicien américain d'origine chinoise Chen Ning Yang et son étudiant Robert Mills qui recherchaient un principe permettant de déterminer la forme des interactions entre les nombreuses particules que l'on découvrait. Prenons l'exemple le plus simple de théorie de jauge, l'électrodynamique quantique. Elle pourrait être construite de la façon suivante (historiquement, c'était très différent) :
  1. On part des équations décrivant le champ électronique seul (champ dont les quanta sont les électrons et les positrons).
  2. On constate que ces équations sont invariantes si l'on applique au champ électronique une transformation T qui consiste à le multiplier par un facteur de phase constant (c'est-à-dire par un nombre complexe de module 1, par exemple (1 + i)/2). Cette invariance, on peut le démontrer, correspond à la loi de conservation de la charge électrique.
  3. On exige à présent que les équations soient invariantes même si le facteur de phase n'est pas constant, c'est-à-dire même si la transformation T dépend du point X dans l'espace-temps (en d'autres termes, on demande que la symétrie soit locale au lieu d'être globale).
  4. On s'aperçoit que l'invariance par rapport aux transformations T (X) ne peut être satisfaite que si l'on introduit dans les équations un nouveau champ dont les quanta sont de masse nulle et de spin 1, et dont l'interaction avec le champ électronique est automatiquement fixée. Ce nouveau champ (dit de jauge) est le champ électromagnétique, ses quanta sont les photons.
 
    Complications et difficultés techniques mises à part, c'est exactement ce principe qui a orienté la construction du Modèle standard des interactions électromagnétiques, faible et forte. L'une des difficultés a été de trouver les bons groupes de symétrie de jauge, c'est-à-dire les bons groupes de transformations T (X) vis-à-vis desquelles les équations doivent rester invariantes (il ne s'agit plus, sauf pour l'électromagnétisme, de simples multiplications par un facteur de phase, mais de transformations analogues à des rotations dans des espaces abstraits). Ainsi ont été prédits les "bosons de jauge "W+ , W- et Z associés à l'interaction faible, particules découvertes au CERN en 1983.  
    Les symétries de jauge ne sont pas les seules qui interviennent dans les théories modernes. Par exemple, dans la théorie des cordes, les grandeurs physiques doivent être indépendantes du système de coordonnées utilisé pour décrire les surfaces balayées au cours du temps par les cordes. Cette invariance peut paraître évidente, mais elle exerce des contraintes fortes sur les théories possibles.  
    Le lecteur pourrait se demander pourquoi les symétries abstraites, notamment celles de jauge, ont un lien si fort avec la réalité. A cette question, la physique n'a pas vraiment de réponse. Un certain ordre se cache derrière les phénomènes physiques, et se traduit par des symétries. C'est une constatation; vouloir aller plus loin relève pour l'instant de la métaphysique.  
    En proie à diverses difficultés, les modèles de supergravité allaient être éclipses au milieu des années quatre-vingt par une théorie plus révolutionnaire encore, celle des "cordes". Très schématiquement, l'idée est de considérer que les objets fondamentaux de la physique ne sont pas des particules ponctuelles (de dimension 0), mais des entités unidimensionnelles, dotées d'une très petite longueur (de l'ordre de 10-33 cm). Les différentes particules élémentaires que nous connaissons apparaîtraient alors comme différents modes de vibration d'une corde de la même façon que les différents modes de vibration d'une corde de guitare correspondent a des notes de musique distinctes. Ainsi, une simple corde pourrait rendre compte de toute la zoologie des particules subatomiques. Par ailleurs, deux types de cordes sont envisageables : ouvertes lorsque les deux extrémités sont libres, fermées lorsqu'elles sont jointes. Au cours du temps, une corde décrit dans l'espace temps une surface, qui est une sorte de tube si la corde est fermée. Une interaction entre deux cordes correspond à leur réunion ou à leur séparation.  
    L'idée des cordes trouve son origine à la fin des années soixante dans certaines tentatives de construire une théorie de l'interaction forte. Mais la chromodynamique quantique, modèle qui décrit l'interaction forte en termes de quarks et de gluons de différentes "couleurs", s'imposa bientôt et les cordes n'intéressèrent plus qu'une minorité de physiciens. D'autant que l'on montra qu'on ne pouvait construire une théorie de cordes mathématiquement cohérente qu'en 26 dimensions, ou 10 si l'on incorpore la supersymétrie, auquel cas on parle de supercordes. Le rapport avec la réalité semblait bien ténu !  
    La résurrection des cordes eut lieu sers 1984 - 1985, grâce à des avancées dues notamment à Michael Green et John Schwarz d'une part, à Edward Witten d'autre part (le premier est britannique, les deux autres américains). C'était une "première révolution", car l'élimination de certains obstacles techniques semblait ouvrir la voie à une théorie de supercordes capable de décrire toutes les interactions, gravitation comprise. Les attraits étaient nombreux : l'existence de la gravitation (gravitons de masse nulle et de spin 2), qui découle automatiquement des conditions de cohérence interne de cette théorie : le nombre de possibilités très réduit, puisque seuls deux groupes de symétrie de jauge pouvaient être envisagés : l' intervention d'une seule constante physique : la tension de la corde (le Modèle standard comporte, lui, une vingtaine de constantes…) : l'absence probable des infinis, rencontrés dans les théories de champs habituelles.  
   

Un rapide engouement

 
    L'engouement des théoriciens ne tarda pas. Une théorie aussi prometteuse, comparée aux impasses des autres voies, ne pouvait laisser indifférent. Mais tout n'était pas rose. La complexité mathématique - il faut jongler avec des ficelles dans des espaces à 10 dimensions, sans oublier les complications quantiques - est redoutable. Il existe de plus cinq théories de cordes, qui se distinguent notamment par le groupe de symétrie utilisé et la présence ou non de cordes ouvertes. Redescendre à quatre dimensions pose un problème, l'un des plus aigus : il a des milliards de façons envisageables pour compactifier les dimensions surnuméraires. "On ne dispose d'aucun principe satisfaisant permettant de déterminer la manière dont les dimensions supplémentaires doivent se compactifier Aujourd'hui encore, c'est là que se concentre l'essentiel de I 'arbitraire dans les théories de cordes", souligne Pierre Fayet, chercheur au laboratoire de physique théorique de l'École normale supérieure et l'un des artisans des théories supersymétriques.  
    Ces difficultés et d'autres ont, les années passant, refroidi l'espoir de trouver la "théorie de Tout", celle qui serait en mesure d'englober les quatre interactions fondamentales dans un schéma unique. Et puis, vers 1995, les théories de cordes ont fait l'objet d'une seconde révolution. Une accumulation de résultats obtenus ici et là mettait au jouir des correspondances entre les cinq théories de cordes existantes. Dans le jargon des spécialistes, on parle de "dualité". "On découvert trois types de dualité", précise P. Fayet, dont l'un fait correspondre le régime perturbatif d'une théorie au régime non perturbatif d'une autre". Autrement dit, des quantités que l'on ne sait pas calculer dans une théorie peuvent être déterminées par un calcul perturbatif en se plaçant dans une autre théorie adéquate. Cette dualité fournit donc un moyen de calculer des quantités auparavant impossibles à évaluer.  
    Plus généralement, la découverte des relations de dualité suggère fortement que les cinq théories en question ne sont que des facettes différentes mais équivalentes d'une seule et même théorie formulée à 11 dimensions. E. Witten l'a appelée M-théorie, le M venant peut-être pour "mère", ou pour "mystère". On encore pour "membranes", car on s'est aperçu quelle devrait aussi contenir des membranes, objets de dimensionnalité plus élevée que les cordes. Pour C. Bachas, "la M-théorie est peut-être une idée folle, mais très séduisante". "Le prohlème, c'est que la M-théorie n 'est pas encore vraiment bien définie", tempère P. Fayet. L'aventure est donc à suivre…  
    Comment tester ces spéculations fort abstraite ? Il a d'abord les arguments théoriques. "Une confirmation très spectaculaire de la cohérence de cette théorie imicroscopique de la gravité, dit C. Bachas, est venue de l'application aux trous noirs". En effet, depuis que le célèbre Stephen Hawking a montre en 1974 que les trous noirs devaient s'évaporer, un problème subsistait expliquer leur entro- pie, grandeur thermodynamique qui apparaît, pour les trous noirs, dans les calculs de Hawking (et d'un autre chercheur, J. D. Bekenstein). En mécanique statistique, l'entropie compte les états quantiques microscopiques accessibles au système. Comment les compter dans le cas d'un trou noir ? Cela implique de penser les trous noirs au niveau microscopique. Andrew Strominger, de l'université de Californie à Santa Barbara, et Cumrun Vafa, de l'université Harvard, ont su le faire en 1996, En faisant appel aux supercordes et aux membranes, ils ont réussi à obtenir une expression de l'entropie qui reproduit celle de Hawking-Bekenstein. "Ce succès indique que la théorie des cordes constitue une bonne théorie de la gravitation à haute énergie [l'échelle d'un trou noir], et pas seulement aux basses énergies", ajoute C. Bachas.  
    Côté expérimental, il n' a pour l'instant pas grand chose. Si les cordes existent, elles e manifesteront à coup sûr à des énergies de l'ordre de 1019 milliards d'électron volts, soit dix millions de milliards de fois ce que nos meilleurs accélérateurs savent faire ! Peut-être s'erra-t-on des effets à des énergies plus basses, mais on n'en sait rien pour le moment. Une éventuelle mise en évidence de partenaires supersymétriques des particules connues, avec les prochains accélérateurs, constituerait déjà un indice très utile. Sinon, la seule piste actuelle est de mesurer une possible violation du principe d'équivalence, violation que suggèrent certaines théories de supercordes sans qu'on sache la chiffrer. C'est l'une des raisons pour lesquelles T. Damour et d'autres promeuvent STEP (Satellite Test of the Equivalence Principle), un projet spatial arnéricano-européen qui, au prix d'une centaine de millions de dollars, pourrait tester le principe d'équivalence à une précision relative de 10-18 (soit une amélioration d'un facteur un million par rapport à aujourd'hui ). De tels tests semblent indispensables pour progresser. Les partisans des supercordes savent que leurs théories sont encore fragiles ce qui ressemble aujourd'hui à une théorie de Tout pourrait demain s'effondrer et devenir une théorie de rien.  
               
            
    Le sommaire  
       
  top Science & Vie - 1998-12-01