Sciences

Le renouveau de la relativité générale

Dossier - Relativité générale : comment l'espace-temps devint dynamique
DossierClassé sous :physique , Incontournables , relativité générale

-

La relativité générale matérialisa l'espace-temps. Ce dossier donne un aperçu de sa naissance (par la confrontation entre gravitation et principe de relativité), de ses implications (cosmologie, trous noirs) et de ses éventuelles descendantes.

  
DossiersRelativité générale : comment l'espace-temps devint dynamique
 

A - La cosmologie relativiste

La relativité restreinte avait mis fin aux mythes de l'espace et du temps absolus, pour néanmoins les remplacer par une sorte d'autre "absolu", l'espace-temps de Minkowski. En effet, selon cette théorie, l'espace-temps est le même pour tous les observateurs inertiels, auxquels il est "donné une fois pour toutes". Ce point de vue était cependant moins "absolutiste" que l'hypothèse newtonienne, puisque le découpage de l'espace-temps en "tranches d'espace", correspondant à différentes valeurs du temps, ne peut être fait que de manière relative dépendant de l'observateur. En ce sens, la relativité générale est toutefois bien plus révolutionnaire, puisqu'elle postule que non-seulement le temps et l'espace sont relatifs, mais qu'en plus l'espace-temps n'est pas réellement un cadre absolu immuable. Etant modifié par la présence de matière ou d'énergie, il est plutôt un "objet physique presque comme un autre", dont les propriétés ne peuvent se déduire que d'un recours simultané à la théorie et à l'expérience. D'ailleurs, la gravitation étant l'expression de la courbure de cet espace-temps, Einstein apporte au passage une réponse à la question que Newton se posa toute sa vie. La gravitation a bien une explication "mécaniste" locale et il n'est nul besoin d'avoir recours à une hypothèse "occulte", telle l'intervention de forces agissant à distance de manière instantanée "par dessus le néant".

D'autre part, la théorie d'Einstein étant de son point de vue plus un cadre de pensée qu'autre chose, il n'hésita pas à faire ce que certains auraient peut-être considéré comme une hérésie. Dès 1917, il décida que traitant du comportement de l'espace-temps, sa théorie devait pouvoir s'appliquer à "l'objet physique constitué de l'ensemble de l'espace-temps", l'Univers. Toutefois, Einstein n'était pas dénué d'a priori, et la croyance en un univers statique (indépendant du temps) étant profondément enracinée dans la culture d'alors, le premier modèle cosmologique qu'il considèra était statique. Il est cependant important de souligner que les raisons pour lesquelles Einstein suppose un Univers statique ne sont pas uniquement culturelles (toute sa vie il semble être resté opposé à l'idée d'un Univers dynamique), mais également scientifiques (pour plus de détails, voir l'introduction par Luminet au recueil d'articles de Friedmann et Lemaître). En effet, il faut se rappeler qu'à cette époque, on savait déjà que les étoiles ont des mouvements propres faibles, néanmoins, c'était sans connaître ni leur répartition, ni leurs éventuels mouvements à grandes échelles. L'existence d'autres galaxies (et la nature extragalactique de certaines nébuleuses qui ne sont autres que des galaxies) était également encore ignorée et il était donc légitime de supposer que l'Univers n'était qu'une sorte de gaz géant homogène d'étoiles, ce que fit Einstein.

Se reposant sur ces hypothèses et sur le principe de Mach (qui l'avait inspiré tout au long de la recherche de sa théorie), Einstein fut conduit, pour des raisons techniques, à renoncer à l'hypothèse d'un Univers infini dans l'espace et le temps. Il supposa alors que l'Univers avait une étendue spatiale finie, et découvrit une solution de ses équations qui décrit un espace-temps dont la partie spatiale est finie (mais sans limite, comme une sphère) et possède une courbure positive. C'était la première fois depuis Newton que l'on osait supposer que l'Univers n'était pas infini. Néanmoins, avant d'arriver à la solution qu'il découvrit, Einstein fut confronté à un problème lié au fait qu'il souhaitait trouver une solution statique décrivant un Univers fini et homogène. En effet, on peut montrer qu'une telle solution cosmologique est instable, que ce soit dans le cas de la gravitation newtonienne ou en relativité générale. Ainsi, Einstein aurait pu dès cette époque être amené à une conclusion naturelle de sa théorie : si l'espace-temps est une sorte d'objet physique dont la physique est décrite par les équations de la relativité générale qui, en toute généralité, dépendent du temps, il est tout à fait possible, voire inévitable, que l'Univers soit dynamique, c'est-à-dire qu'il ait des propriétés qui changent avec le temps. Cette idée l'effleura, mais puisque les observations semblaient impliquer un état stationnaire de l'Univers, il préféra modifier légérement sa théorie par l'introduction d'un terme supplémentaire dans les équations, une "constante cosmologique", dont les effets ne se feraient sentir qu'aux très grandes distances. Grâce à cette constante (qu'Einstein décrira plus tard comme la plus grande erreur de sa vie), le modèle cosmologique d'Einstein devenait statique, mais à cause d'elle, il passait à côté d'une grande prédiction : l'expansion de l'Univers.

C'est avec le mathématicien russe Alexander Friedmann que, vers 1922, l'Univers commença à être réellement envisagé comme un objet physique dynamique (De Sitter semble toutefois en avoir eu l'intuition encore plus tôt, grâce à un modèle "simpliste" qu'il avait formulé, mais il n'alla pas jusqu'à en faire une affirmation). Il fut ainsi le premier à trouver des solutions cosmologiques dynamiques, qui décrivaient un Univers homogène et isotrope, pouvant tout aussi bien être spatialement fini ou infini, et dont le rayon de courbure change avec le temps. Friedmann démontrait de plus au passage que la constante introduite par Einstein pouvait être gardée dans chacun de ces modèles, mais qu'elle n'était en rien nécessaire, ce qui signa le début de la disparition de cette constante, jusqu'à son très récent retour sur des bases observationnelles. Par ailleurs, Friedmann constata que curieusement, les solutions mathématiques qu'il avait découvertes comportaient, dans le passé ou l'avenir, un (ou des) moments où l'Univers "se réduit à un point géométrique"1, ce que l'on traduit en langage moderne et rigoureux par l'existence d'une "singularité" dans les équations (=apparition de termes infinis). Ce résultat l'entraina dans de longues réflexions philosophiques et il écrivit même ce qu'il espérait être un livre de vulgarisation sur l'espace et le temps à destination des philosophes. Cependant, il semble que son ambition était trop grande, le contenu étant bien trop technique, même s'il y discutait les conclusions révolutionnaires auxquelles il avait abouti et qui restent encore aujourd'hui sujet de longs débats : la "création de l'Univers" était un résultat naturel des équations, des solutions périodiques dans le temps pouvant même décrire un Univers cyclique qu'il rapprocha de la mythologie indienne. Mais Friedmann prit bien soin d'éviter de mélanger ses travaux scientifiques et ses réflexions plus spéculatives, et toute discussion sur ce sujet est absente de ses écrits techniques, qui se résumèrent "uniquement" à poser les fondations de la cosmologie en démontrant que l'Univers pouvait être dynamique. Toutefois, Friedmann mourut assez tôt (1925), et il n'eut que très peu de temps pour s'intéresser à l'astronomie qu'il ignorait précédemment. Ainsi, c'est un autre mathématicien et physicien, le Belge Georges Lemaître, qui fut le premier à faire le lien entre les modèles de Friedmann (qu'il redécouvrit partiellement seul) et certaines observations qui soutenaient l'hypothèse de l'expansion de l'Univers.

Cliquez pour agrandirIllustration des modèles d'Univers en expansion découverts par Friedmann. Le facteur a, qui varie au cours du temps, est le facteur d'échelle décrivant le rayon de courbure de l'Univers. On observe un modèle en expansion infinie, avec un Univers spatialement infini et à courbure négative (k=-1), un modèle en expansion infinie, mais avec un Univers spatialement infini, plat et euclidien (k=0), ainsi qu'un modèle d'Univers spatialement fini et dans lequel il s'effondre à nouveau sur lui-même (modèle k=1, avec un "big-crunch" final). Les points indexés par "bang" sont ceux qui correspondent dans chacun de ces modèles à la singularité initiale présente dans les équations. Comme l'illustre la figure, l'âge de l'Univers (= durée qui nous sépare du "bang") dépend du modèle employé et donc des observations témoignant de l'expansion actuelle. Source  S.M. Carroll.

En effet, attiré très tôt par la théorie d'Einstein, mais aussi par l'astronomie, Lemaître obtint une bourse d'étude pour aller aux Etats-Unis où il travailla avec l'astronome américain Harlow Shapley sur "les nébuleuses" (taches peu lumineuses et immobiles que l'on observe dans le ciel et dont l'origine était alors imcomprise) et rencontra, entre autres, Edwin Hubble, qui cherchait à mesurer la distance entre la Terre et ces nébuleuses. En 1925, Hubble apporta un élément très important pour leur étude, en démontrant que certaines de ces nébuleuses sont d'autres galaxies identiques à la nôtre et constituées d'un très grand nombre d'étoiles. Si elles semblent si peu lumineuses et fixes, c'est uniquement car elles sont très éloignées de nous. Par ailleurs, l'un des grands problèmes astronomiques de cette époque était que la lumière émise par ces galaxies semblait systématiquement "décalée vers le rouge", ce qu'avait récemment découvert un autre astronome américain, Vesto Slipher, que Lemaître rencontra quand il rendit visite à Hubble. L'interprétation usuelle, par l'effet Doppler classique, était que ces galaxies s'éloignaient à de très grandes vitesses radiales (de l'ordre de 600 km/s) de la Terre (voir la figure suivante).

Illustration de l'effet Doppler dans le cas d'une onde sonore. Le décalage Doppler apparaît lorsqu'un signal périodique (onde sonore ou lumineuse) est émis par une source mobile (l'ambulance ici) par rapport à l'observateur (ou auditeur). Si la source se rapproche, le signal émis semble avoir une longueur d'onde plus courte (= une fréquence plus élevée et bruit plus aigu) qu'il n'a réellement. Et inversement s'il s'éloigne. Or, dans le cas de la lumière, les fréquence visibles les plus faibles sont celles des couleurs rouges, et les plus élevées celles des couleurs bleues. Ainsi, le "décalage vers le rouge d'un signal lumineux" correspond à ce qui se passe lorsque la source lumineuse s'éloigne du récepteur, la valeur du décalage entre la fréquence d'émission et la fréquence de réception permettant par ailleurs de calculer la vitesse de la source. Source: http://www.lcse.umn.edu

De retour en Belgique, Lemaître commença à rédiger sa thèse de Doctorat qu'il dédia à la cosmologie relativiste. Il s'attaqua ainsi aux équations d'Einstein et trouva une solution cosmologique dynamique, qu'il développa en un modèle cosmologique d'Univers en expansion. Ce modèle était très similaire à l'un des modèles de Friedmann, mais plus réaliste pour la description de la matière2. Cependant, la grande différence entre Friedmann et Lemaître est que ce dernier avait eu connaissance des travaux observationnels de Hubble et Slipher. Anticipant les conclusions de Hubble, Lemaître publia en 1927 son modèle cosmologique par lequel il montrait qu'il existait des solutions cosmologiques dynamiques des équations d'Einstein, et également que cette hypothèse expliquait naturellement les observations faites : le décalage vers le rouge des fréquences qui augmente avec la distance entre la source et la Terre. Selon Lemaître, le décalage vers le rouge observé n'est donc pas un effet Doppler (même si ce terme reste parfois maladroitement utilisé dans ce contexte), mais un effet gravitationnel similaire à l'effet Einstein : la lumière qui nous parvient a été émise à une époque où la courbure de l'Univers (et donc le champ gravitationnel) était plus importante qu'aujourd'hui. De fait, Lemaître va même jusqu'à trouver la relation linéaire entre la "vitesse" apparente d'éloignement et la distance, découvrant deux ans avant Hubble la loi et la constante qui portent néanmoins le nom de ce dernier.

Cliquez pour agrandirIllustration de la loi de Hubble par la façon dont la vitesse apparente des galaxies dépend de leur distance. La vitesse est calculée à partir de la formule de l'effet Doppler donnant la vitesse en fonction du décalage vers le rouge observé. Ainsi, les "vitesses" tracées ici comportent à la fois une "vitesse apparente" liée à l'expansion de l'Univers, mais aussi une vitesse physique, les diverses galaxies étant localement en mouvement les unes par rapport aux autres. C'est (entre autres) pour cette raison que les points observationnels ne tombent pas exactement sur la courbe et sont dispersés autour d'elle. Source M. Haynes, Université de Cornell.

Bien qu'ils soient la première explication des observations de Hubble, les travaux de Lemaître eurent beaucoup de mal à être acceptés3, et il fallut même pour cela le soutien (tardif) de son ancien mentor Eddington. Toutefois, lorsque l'expansion de l'Univers commençait tout juste à être acceptée, Lemaître avait déjà eu une idée encore plus révolutionnaire. Extrapolant vers le passé le principe selon lequel l'Univers est en expansion, Lemaître en vint à conclure qu'il avait probablement été dans le passé beaucoup plus dense, formant ce qu'il appela un "atome primitif". Cependant, ce terme ne devrait pas laisser croire que Lemaître avait eu une réflexion naïve sur ce sujet. Dans un de ses premiers articles, il parle de "quantum primitif", soulignant le fait que si l'Univers n'a fait que s'étendre depuis une époque lointaine, alors il existe un moment dans le passé où nos conceptions d'espace et de temps ne peuvent plus tenir. Il s'agit de ce que l'on nomme désormais "l'échelle de Planck", et qui correspond a priori aux échelles d'espace et de temps pour lesquelles l'espace-temps lui-même ne peut plus être décrit sans l'intervention de phénomènes quantiques.

Toutefois, Lemaître ne réussit jamais réellement à faire complètement admettre son idée, et il fallut pour cela attendre que le modèle soit perfectionné par un ancien étudiant de Friedmann, Georges Gamow. Celui-ci étant spécialisé en physique quantique plutôt qu'en relativité, il vint assez tardivement à la cosmologie, même s'il était l'un des défenseurs de la théorie de Lemaître. Cependant, la formation de Gamow allait justement lui permettre de perfectionner le modèle de l'atome primitif en y introduisant deux éléments-clés : la thermodynamique et la physique nucléaire. Ainsi, dans les années 1940, Gamow fit deux prédictions cruciales pour tester la théorie :

  • avec Ralph Alpher et Robert Herman, il prédit l'existence d'un rayonnement thermiqueomniprésent dans l'Univers. Ce rayonnement devait résulter du fait que l'Univers était autrefois composé d'une "soupe" dense et chaude, laquelle refroidit au fur et à mesure de l'expansion, Gamow prédisant pour le rayonnement une température actuelle très basse de l'ordre de 5 kelvins (soit environ -270 degrés Celsius). Ce calcul de Gamow passa cependant inaperçu, et c'est accidentellement que les ingénieurs américains Arno Penzias et Robert Wilson détectèrent en 1964 ce rayonnement dont il ne comprirent pas l'origine. Ils cherchaient simplement à éliminer tous les bruits parasites de leur nouvelle antenne radio dédiée à l'astronomie, et leur travail était si soigneux qu'ils finirent par réaliser que l'un de ses bruits, dont ils ne pouvaient se débarrasser, était isotrope, ce qui fut rapidement interprété comme une preuve de son origine cosmologique. Ce rayonnement (dont la température est environ 2,7 K) a été depuis mesuré très précisément par divers satellites (notamment COBE, WMAP, Planck), qui ont ainsi vérifié son isotropie, les légères anisotropies (une partie pour 100.000) étant des traces des germes des grandes structures actuelles (amas de galaxies), et donc un outil très important à la fois pour la physique des hautes énergies et l'astrophysique (les résultats de COBE valurent le prix Nobel de physique 2006 à George Smoot et John Mather, les deux principaux scientifiques en charge de cette mission) ;
  •  l'abondance des éléments primordiaux. Selon la théorie développée par Lemaître et Gamow, il n'y avait autrefois pas d'atomes, mais uniquement des particules, majoritairement des neutrons, des protons, des électrons, des neutrinos et des photons. Les atomes légers rencontrés autour de nous ayant dû être formés à partir de ces particules, Gamow fut capable en 1948 de prédire, avec son étudiant Ralph Alpher4, les différentes abondances des éléments légers tels que l'hélium 4, l'hélium 3, le deutérium et le lithium 7. Or, on peut montrer que, dans ce modèle, les valeurs de toutes ces abondances ne doivent dépendre que d'un seul paramètre, le rapport initial entre le nombre de photons et le nombre de baryons (neutrons + protons). Ainsi, le fait que les mesures de l'abondance primordiale de ces éléments soient compatibles avec une valeur unique de ce rapport photons/baryons est considéré comme un autre test crucial du modèle de Lemaître-Gamow, puisque d'autres théories concurrentes ne sont pas capables de rendre compte de ces abondances de manière aussi concordante.
Comparaison entre les spectres (intensité lumineuse en fonction de la longueur d'onde du rayonnement) théorique et observé. L'écart entre les deux est si faible qu'il est indiscernable entre ces deux "corps noirs". Source : Nasa
Carte des écarts à la valeur moyenne du rayonnement observé. Ces faibles anisotropies (quelques millikelvins) sont la trace des grandes structures actuelles. Source :Nasa
Illustration des différences de résolution entre les missions COBE (1989), WMAP (2001) et Planck (2009). En deux décennies, les progrès technologiques réalisés ont permis de commencer à discerner de faibles fluctuations locales de la température. Source : http://photojournal.jpl.nasa.gov/

La découverte fortuite, en 1964, de Penzias et Wilson5 fut une véritable révolution pour la théorie de Gamow-Lemaître qui obtint ainsi ses lettres de noblesse, seule une minorité de scientifiques continuant à croire en des modèles statiques ou stationnaires de l'Univers. Parmi ces derniers, il est important de citer l'astrophysicien britannique Fred Hoyle (celui qui démontra que les atomes les plus lourds sont produits au cœur des étoiles les plus massives), qui lors d'une émission radio de la BBC, au cours de laquelle il souhaitait se moquer de Lemaître et de son modèle, parla du "Big Bang", nom qui est resté pour désigner le modèle. Cependant, le modèle du Big Bang a continué son évolution depuis cette époque, les divers progrès réalisés en physique des hautes énergies ayant encouragé les cosmologistes à continuer l'étude d'instants de plus en plus reculés (voir le dossier sur l'inflation pour plus de détails).

Ainsi, les modèles cosmologiques traitant des époques les plus lointaines font parfois appel à des théories encore très spéculatives (supercordes, Univers branaires, etc), qui seront, pour certaines, brièvement abordées dans le dernier chapitre. Par ailleurs, la confiance envers le modèle du Big Bang est telle que pour expliquer certains phénomènes (dont une partie fait intervenir la gravitation dans un régime où la théorie de Newton suffit), on en est venu à supposer l'existence d'une "matière noire" (matière massive mais non-lumineuse, quelque chose donc d'assez naturel) et plus récemment celle d'une "énergie noire", dont l'effet gravitationnel serait en quelque sorte répulsif et permettrait de rendre compte de l'accélération apparemment observée de l'expansion de l'Univers (découverte en 1998 par Perlmutter, Schmidt et Riess, ce qui leur valut le prix Nobel de physique 2011). La question reste toutefois encore ouverte de la validité de ces hypothèses, notamment de la deuxième qui, si elle existait, pourrait en outre n'être rien d'autre que la constante cosmologique autrefois introduite par Einstein. En effet, par le passé, supposer l'existence de nouveaux objets physiques invisibles se révéla parfois une bonne idée (cf. Pauli qui inventa le neutrino pour sauver le principe de conservation de l'énergie, ou Adams et Le Verrier qui prédirent l'existence de Neptune), mais parfois tel ne fut pas le cas, notamment quand on prédit une nouvelle planète, Vulcain, pour essayer d'expliquer l'avance du périhélie qui fut finalement éclaircie par Einstein.

Quoiqu'il en soit, la question est assez subtile, puisque selon certains astrophysiciens le besoin de faire appel à l'hypothétique énergie noire pour expliquer les observations ne serait même pas encore une certitude. Le point important à retenir est cependant qu'il semble peu probable qu'une nouvelle révolution rejette en bloc tous les principes de base du modèle du Big Bang (expansion de l'Univers et courbure de l'espace-temps), ces derniers paraissent au contraire de mieux en mieux établis, les arguments en leur faveur s'accumulant sans cesse. Parmi ceux-ci, l'observation de mirages gravitationnels, formés à partir d'objets très lointains (les quasars), ces mirages étant également une preuve de la validité des principes de la théorie d'Einstein.

Cliquez pour agrandir
 Illustration de l'évolution de l'Univers depuis les instants les plus reculés sur lesquels les théories actuelles peuvent encore s'exprimer. La formation des diverses structures aujourd'hui observables dans l'Univers est représentée, la largeur de la partie centrale ne devant pas être interprétée comme la taille de l'Univers (qui peut être infini depuis le début), mais plutôt comme son rayon de courbure (un grand rayon signifiant un Univers plus plat). Source  S. Campbell.

B - Mirages gravitationnels, (micro)lentilles gravitationnelles et effet Shapiro

Les mirages et lentilles gravitationnels furent l'une des premières prédictions (indirecte) d'Einstein, puisque le principe est simplement la déviation de la lumière par des objets astrophysiques ou cosmologiques massifs, menant à la possible observation d'images multiples éventuellement déformées d'un même objet. Ainsi, si une source lumineuse ponctuelle (ou très distante), un objet astrophysique massif et un observateur sont rigoureusement alignés, ce dernier devrait observer un anneau de lumière autour du corps massif, cette lumière provenant de la source située derrière celui-ci (voir figure). Cette situation exige une telle précision qu'elle n'est que rarement observée, mais la déviation lumineuse par la gravitation n'ayant rien à voir avec celle que subit la lumière à l'interface entre deux milieux transparents, il existe cependant beaucoup de situations astrophysiques dans lesquelles on observe des images multiples d'un objet lointain. Toutefois, cela nécessite des instruments capables d'observer des sources très éloignées (et donc peu visibles), et c'est pour cela que le premier mirage gravitationnel ne fut observé qu'en 1979. Parmi les nombreux mirages gravitationnels connus à ce jour, quelques très célèbres exemples sont la "Croix d'Einstein", où l'on observe plusieurs images du même quasar Q2237+030, ou bien encore les déformations multiples provoquées par l'amas de galaxies Abell 1689.

 
Au-dessus, principe des mirages gravitationnels, avec formation d'un anneau de lumière ou d'images multiples, selon l'alignement source/objet massif/observateur (cliquez pour agrandir). En dessous, la croix d'Einstein, où la lumière d'une galaxie lointaine (quasar Q2237+030) nous parvient amplifiée et par plusieurs chemins, du fait de la présence d'une autre galaxie sur la ligne de visée. Source NASA.

Grâce au télescope spatial Hubble, il existe désormais une multitude de photos de mirages gravitationnels, et certains astrophysiciens en sont naturellement arrivés à songer à une façon fort subtile d'utiliser ce phénomène prédit par la relativité générale. Ainsi, on peut montrer que l'une des conséquences de la présence d'une "lentille gravitationnelle" (c'est-à-dire un objet massif situé entre la source et l'observateur) est une amplification de l'intensité du signal lumineux reçu. Pour cette raison, furent lancées diverses expériences dont le but était d'observer des étoiles situées dans notre Galaxie, avec l'espoir d'observer un effet de "micro-lentille gravitationnelle" provoqué par le passage, entre l'étoile et nous, de corps massifs non-lumineux (voir la figure suivante pour le schéma de l'expérience), ces corps pouvant être des explications au moins partielles de la masse manquante de l'Univers. Parmi ces expériences, EROS et MACHO ont ainsi annoncé en 1993 la découverte des premiers effets de microlentille gravitationnelle. Toutefois, même si les observations furent nombreuses, l'analyse finale des données de l'expérience EROS semble indiquer que peu d'objets astrophysiques obscurs, de masses non-négligeables mais inférieures à 0,02 masses solaires, existent dans la Galaxie, et ils ne peuvent donc tout au plus rendre compte que d'une faible partie de la masse manquante de la Galaxie.

Cliquez pour agrandir
Au-dessus, vue obtenue par le télescope spatial Hubble de l'amas de galaxies Abell 1689. Situé à deux milliards années-lumière de nous, cet amas extrêmement massif courbe l'espace-temps autour de lui, ce qui résulte en de nombreuses déformations des images de galaxies plus lointaines. Certaines déformations conduisent même presque à l'apparent applatissement complet des images. Source  NASA, Astronomy Picture Of the Day (APOD). En dessous, illustration du principe de microlentille gravitationnelle utilisé par la collaboration EROS. Source collaboration  EROS.

Par ailleurs, il reste à mentionner une autre vérification similaire de la courbure de l'espace-temps impliquée par les objets massifs, mais qui a d'abord été réalisée avec de la "lumière invisible" et non la lumière visible : celle de l'effet Shapiro, prédit en 1964 par le physicien américain Irwin Shapiro. Parfois considéré comme le quatrième test fondamental de la relativité, il s'agit tout simplement de la prédiction du changement de la durée de parcours d'un signal électromagnétique lorsqu'il passe à proximité du Soleil6. Un point est d'ailleurs crucial à souligner ici : on parle parfois de "ralentissement de la lumière près du Soleil" pour décrire ce phénomène, mais c'est une expression maladroite et erronée. Comme cela a déjà été mentionné, la vitesse de la lumière est constante en relativité générale aussi bien qu'en relativité restreinte. Dans le cas de l'effet Shapiro (et dans d'autres cas similaires), ce qui change c'est l'écoulement du temps là où passe la lumière, par rapport à ce qu'il est là où se situe l'observateur.

Bien qu'il s'agisse d'un effet faible, on a pu le vérifier très précisément depuis l'arrivée des sondes Viking sur Mars en 1976, à l'aide de signaux envoyés depuis la Terre vers Mars et réfléchis sur cette dernière par les sondes (voir le principe de l'expérience sur la figure suivante). En outre, il existe même désormais un objet de plus en plus courant pour le fonctionnement duquel l'effet Shapiro doit être pris en compte : le "GPS" (Global Positioning System). En effet, malgré la faiblesse du champ de gravitation terrestre, une précision géographique de quelques mètres nécessite de tels détails dans les calculs. En outre, de 2004 à 2005, un satellite a permis de vérifier, dans le champ de gravitation terrestre, un effet encore plus faible prédit par la relativité générale et qui n'intervient même pas dans le GPS : l'entraînement de l'espace-temps, aussi nommé effet "Lense-Thirring".

Illustration de la mesure de l'effet Shapiro, qui a été vérifié à l'aide des sondes Viking entre la Terre et Mars, mais également en 2002 entre la Terre et un quasar grâce au passage de Jupiter entre les deux. Source Collège de France.

C - Effet Lense-Thirring, entraînement des référentiels et principe de Mach

L'histoire de l'effet "Lense-Thirring" commença en quelques sortes en 1916, lorsque le physicien néerlandais Willem De Sitter démontra que, selon la toute récente relativité générale, un objet en rotation sur lui-même et en orbite autour d'un objet massif sans rotation, devait présenter un mouvement de "précession", c'est-à-dire un mouvement additionnel de rotation propre (on parle de "précession géodésique"). La prédiction de De Sitter peut être considérée comme à l'origine de l'effet Lense-Thirring, découvert en 1918 par les Autrichiens Joseph Lense et Hans Thirring, car ce dernier se traduit entre autres par un effet de précession supplémentaire (plus faible que celui de De Sitter), qui apparaît si le corps massif source du champ gravitationnel est en rotation. Également nommé "entraînement des référentiels" ("frame-dragging" en anglais), cet effet Lense-Thirring peut en fait se comprendre comme un équivalent gravitationnel du magnétisme et l'on parle parfois à son sujet de "gravitomagnétisme". En effet, le principe physique sous-jacent est que le mouvement de rotation d'un corps sur lui-même implique l'existence d'une source supplémentaire de courbure de l'espace-temps, qui s'ajoute à celle, statique, provoquée par la masse/énergie. Cette nouvelle courbure a ainsi deux conséquences possibles majeures : d'une part, elle implique une force gravitationnelle qui modifie celle de Newton et peut dévier la trajectoire d'un corps en chute libre, tout comme la force magnétique de Lorentz qui complète celle électrique de Coulomb, et d'autre part, elle influence la rotation propre des corps, un phénomène analogue cette fois à l'action d'un champ magnétique sur le moment magnétique intrinsèque d'une particule.

Bien que l'entraînement des référentiels puisse être interprété comme le signe de l'existence d'une notion absolue de vitesse, en violation du principe de relativité, il n'en est rien. Il ne faut pas oublier que, comme cela a déjà été signalé avec la description du seau de Newton / Mach, une rotation est accompagnée d'une accélération. En conséquent de quoi, même uniforme, une rotation n'est pas comparable à un mouvement de translation uniforme et ne peut pas être "effacée" par un changement lorentzien de coordonnées. Par ailleurs, l'effet d'entraînement des référentiels pourrait également donner l'impression que la relativité générale est conforme avec le principe de Mach selon lequel la rotation n'a, elle aussi, qu'une existence relative. En effet, par analogie avec l'expérience du seau en rotation proposée par Newton et reprise par Mach, si l'on considère, dans la théorie d'Einstein, un ensemble de masses lointaines en rotation autour d'un objet central, l'effet Lense-Thirring prédit une mise en rotation de ce dernier. Cependant, comme le montra par exemple en 1949 le mathématicien Kurt Gödel à l'aide d'une solution cosmologique des équations d'Einstein qu'il trouva et qui représente un univers en rotation (voir le dossier « Singularités, trou de ver et voyage spatiotemporel » pour plus de détails), ce phénomène ne se fait pas en accord parfait avec les idées de Mach. La question de la compatibilité entre le principe énoncé par ce dernier et la théorie d'Einstein reste néanmoins assez subtile, et les avis des experts en relativité divergent, le problème principal étant avant tout de définir clairement et mathématiquement le "principe de Mach".

Au-dessus, illustration de l'effet d'entraînement des référentiels inertiels impliqué par la rotation d'un corps massif. En dessous, illustration de la mission "Gravity Probe B", lancée en 2004 et dont le but était de mesurer précisément la précession de De Sitter et l'effet Lense-Thirring (cliquez pour agrandir). Source Gravity Probe B.

Indépendamment de ces questions plus fondamentales et philosophiques, la précession associée aux effets de De Sitter et de Lense-Thirring est en général extrêmement faible, en particulier dans le voisinage de la Terre. Même si l'on envisagea dès les années 70 de les mettre en évidence, il fallut attendre les années 2000 pour que le satellite Gravity Probe B en fasse une étude quantitative minutieuse. Plus précisément, l'effet De Sitter, qui fut pour la première fois vérifié expérimentalement (avec une précision de 1%) grâce à des tirs laser effectués à destination de miroirs posés sur la Lune, impliquait sur le satellite Gravity Probe B une déviation d'environ 6,6 seconde d'arc par an qui devait être mesurée avec une précision de 0,01%. Cela restait toutefois très grand devant l'effet attendu de l'entraînement des référentiels (0,042 seconde d'arc par an), lequel était l'objectif principal de la mission puisqu'il s'agissait d'un effet qui n'avait jamais été vérifié expérimentalement [1]. Le principe de l'expérience était donc de placer en orbite dans le champ terrestre quatre "gyroscopes" (= toupies) avec un télescope embarqué pointant très précisément (0,0001 sec arc) vers une étoile lointaine (IM Pegasus) de position et dérive connues, afin de mesurer la déviation des gyroscopes. Néanmoins, pour pouvoir avoir une telle précision le satellite devait être un modèle de haute technologie et contenir :

  • un Vase Dewar rempli d'hélium superfluide, dont le but était de maintenir tout l'équipement à une température de 1,8 K avec comme objectif initial de le faire pendant au moins 2 ans ;
  • un blindage contre les champs magnétiques terrestre et solaire, en partie constitué de superconducteurs qui permettaient d'avoir un champ magnétique interne inférieur à 10-17 gauss (le gauss étant l'ordre de grandeur du champ magnétique terrestre) ;
  • les gyroscopes, qui étaient des boules de quartz de la taille de balles de ping pong couvertes de nobium (superconducteur à cette très faible température). Ces boules, les objets les plus parfaitement sphériques jamais construits, étaient en lévitation électrostatique et avaient des vitesses de rotation de 10.000 tours par minute entretenues grâce à des jets soniques d'hélium gazeux ;
  • le système de lecture des données lui-même devait éviter de perturber l'expérience, et il s'agissait pour cela d'un "SQUID" (Superconductivity Quantum Interference Device).

Gravity Probe B était par conséquent une expérience très complexe et ambitieuse qui rencontra malheureusement des difficultés, notamment en raison d'effets électrostatiques entre les divers composants plus importants que prévus. L'analyse des données s'avéra un travail de longue haleine et ce n'est qu'en 2011 que la NASA annonça que l'expérience avait bel et bien confirmé l'effet De Sitter et celui de Lense-Thirring, même si la précision des mesures ne fut pas aussi bonne qu'espérée.

L'observation de l'influence de la rotation d'un corps sur l'espace-temps pourrait cependant être vérifiée quantitativement dans un futur proche à proximité des objets astrophysiques compacts que sont les étoiles à neutrons et les trous noirs et autour desquels la courbure de l'espace-temps est plus forte que près de la Terre. En fait, dès 1997, l'expérience Rossi X-ray Timing Explorer, qui étudiait des disques d'accrétion autour de candidats trous noirs, annonça avoir observé l'effet Lense-Thirring. Les incertitudes sur ces mesures et sur la modélisation des phénomènes physiques en jeu sont tellement grandes que l'on ne peut néanmoins pas encore les considérer comme ayant attesté de la validité de la relativité générale. L'espoir réside actuellement dans les projets GRAVITY (qui devrait entrer en service dès 2016 sur le VLT, Very Large Telescope en anglais et Très Grand Télescope en français) et Event Horizon Observer (projet de réseau de télescopes en vue de faire de l'interférométrie à très longue base) qui ont tous deux pour objectif principal de sonder le voisinage de Sagittarius A*, le trou noir supermassif au centre de notre galaxie. La résolution de ces expériences devrait en effet être suffisante pour distinguer les phénomènes physiques qui se produisent dans une région de taille comparable à celle de l'horizon de ce trou noir.

[1] Selon certains scientifiques, les satellites LAGEOS, qui mesurent le champ gravitationnel terrestre afin d'étudier la géodynamique, auraient permis de mettre en évidence l'effet Lense-Thirring avant Gravity Probe B, mais les avis restent partagés sur cette question en raison de l'analyse compliquée des données.