Sciences

Relativité d'Einstein : tests et applications (dilatation temporelle, paradoxe des jumeaux…)

Dossier - Relativité restreinte et naissance de l'espace-temps
DossierClassé sous :physique , espace-temps , relativité restreinte

Il y a un siècle naissait, en deux étapes, la relativité selon Einstein : en 1905 la relativité dite « restreinte », puis, entre 1907 et 1915, la relativité « générale ». Découvrez comment la relativité restreinte a révolutionné notre conception de l'espace et du temps.

  
DossiersRelativité restreinte et naissance de l'espace-temps
 

Quelles applications pour la relativité d'Einstein ? Découvrez les plus surprenantes, comme la dilatation temporelle (paradoxe des jumeaux) par exemple. 

Les Piliers de la création, image la plus nette jamais prise de cette colonne de poussières interstellaires. © Nasa, ESA, the Hubble Heritage Team (STScI/AURA), DP

Langevin : la dilatation temporelle et le paradoxe des jumeaux

La situation imaginée par Langevin est la suivante : deux frères jumeaux décident de faire une expérience grâce à une fusée pouvant voyager à des vitesses proches de celle de la lumière. L'un d'entre eux reste sur Terre, alors que l'autre part en voyage à une vitesse relativiste, puis, au bout d'un certain temps, fait demi-tour et revient vers la Terre à la même vitesse.

Le «paradoxe » consiste en ceci : lorsque le jumeau voyageur reviendra sur Terre, il sera plus jeune que son frère resté sur Terre. À partir de là, il existe plusieurs versions concernant «ce qui est paradoxal ».

L'un des « paradoxes » les plus connus concernant la relativité restreinte est dû au physicien français Paul Langevin et est souvent nommé « paradoxe des jumeaux ». © DR

La version la plus simple est celle où, selon le bon sens commun, le paradoxe réside dans le fait que des jumeaux devraient garder le même âge toute leur vie. Pourtant, ceci repose sur une conception de temps absolu et universel, que la relativité renie entièrement. Ce n'est donc pas un paradoxe interne à la théorie.

En revanche, il peut paraître paradoxal que l'un des jumeaux soit finalement plus âgé que l'autre car, a priori, rien n'interdit de se placer du point de vue du jumeau qui part dans la fusée et de considérer que c'est la Terre qui se déplace : depuis Galilée déjà, le mouvement et la vitesse sont relatifs. Ainsi, selon un principe de symétrie, on devrait s'attendre à ce que chacun des jumeaux puisse faire le même raisonnement et on ne saurait conclure qui des deux sera réellement plus âgé, ni même s'il y en aura un plus âgé. Or, cet apparent paradoxe n'est pas plus valable que le premier car les deux jumeaux n'ont pas des rôles symétriques. Celui qui part dans la fusée n'est plus un observateur inertiel car il subit des accélérations et des décélérations, alors que celui resté sur Terre n'en subit aucune. Il convient d'ailleurs de ne pas oublier que rien n'interdit dans ce raisonnement à la Terre d'être en mouvement de translation uniforme, elle est supposée inertielle, mais pas immobile, ce qui n'a aucun sens dans l'absolu.

Par conséquent, pour faire des calculs valables dans le cadre de la relativité restreinte, il est nécessaire d'utiliser un système de coordonnées fixe (ou mobile à vitesse constante) par rapport au terrien, puisqu'il est inertiel. Si l'on souhaitait faire le calcul du point de vue du jumeau voyageur, il faudrait se placer du point de vue d'un observateur non-inertiel, cas sur lequel cette théorie ne dit rien (toutefois en relativité générale ce serait possible). Néanmoins, pour obtenir le résultat définitif, la relativité restreinte est suffisante, si l'on prend le soin d'utiliser un système de coordonnées valable.

En haut, cycliste relativiste vu par un piéton immobile dans une rue. En bas, rue vue par le cycliste. Dans chacun des cas, ce qui est en mouvement par rapport à l'observateur semble contracté dans le sens du mouvement. Le phénomène est symétrique, en accord avec le principe de relativité. © Le Nouveau monde de M. Tompkins, G. Gamow, R. Stannard et M. Edwards (illustrations), éditions Le Pommier (2002)

Compte tenu de la technologie actuelle, l'expérience de Langevin reste impossible à vérifier sur des êtres humains. Cependant, une expérience très similaire a été réalisée à l'aide d'horloges embarquées dans des avions faisant le tour de la Terre en sens contraires avant de revenir à leur point de départ (on aurait tout aussi bien pu procéder avec une seule horloge mobile et une horloge fixe à la surface de la Terre). Pour mettre en évidence l'effet attendu, on peut montrer qu'une précision de l'ordre d'une microseconde (un millionième de seconde) est suffisante. Or, les horloges de pointe actuelles sont tout à fait capables d'arriver à une telle précision et l'effet prédit par la relativité restreinte a bien été observé.

Par ailleurs, même si la dilatation temporelle est désormais un effet constaté presque tous les jours dans les accélérateurs de particules, on a pu l'observer avant même la construction de ceux-ci grâce aux rayons cosmiques. En effet, il existe un cousin de l'électron, nommé «muon », qui nous parvient parfois de la haute atmosphère à des vitesses très proches de celle de la lumière (voir le dossier sur l'anti-matière). Ces muons ont été créés lors de réactions entre les molécules atmosphériques et des particules, éjectées au cours d'évènements astrophysiques extrêmement violents, qui ont parcouru plusieurs années-lumière avant de nous parvenir. Toutefois, les muons ont une propriété très précisément vérifiée lors d'expériences de physique des particules faites au sol (et dans lesquelles ils naissent avec des vitesses moindres) qui est leur instabilité : un observateur qui regarde un muon immobile par rapport à lui le voit se désintégrer en deux millionièmes de seconde. Ainsi, cette propriété étant universelle, aucun muon produit dans l'atmosphère ne devrait nous parvenir, cette durée ne permettant pas à une particule, même à la vitesse c, de parcourir cette distance.

Cependant, cette conclusion repose sur une erreur de raisonnement, qui est que la durée de vie du muon mentionnée auparavant est celle dans un système de coordonnées lié au muon, c'est-à-dire son temps propre de vie. Dans le référentiel lié au sol, la dilatation temporelle joue son rôle et le muon semble avoir une durée de vie d'autant plus longue qu'il se déplace rapidement. L'observation de muons nés dans l'atmosphère est donc une autre preuve de la «réalité » des effets relativistes. Toutefois, il est important d'insister sur le fait que ces "contractions spatiales" ou «dilatations temporelles » n'ont pas plus de réalité physique que n'en ont les changements de taille qui semblent accompagner le mouvement via les effets de perspective1. Une fois intégrée la nécessité de renoncer au temps et à l'espace absolus et universels (vérifiée expérimentalement chaque jour), les effets prédits par la relativité restreinte ne devraient rien avoir de plus surprenant que ces derniers. Si ce n'est que nous ne les observons pas dans la vie de tous les jours puisque les vitesses relativistes sont peu courantes pour les objets matériels. Malheureusement, il en est de même de la plupart des autres prévisions de cette théorie qui reste donc souvent incomprise, même si les militaires ont rapidement réalisé qu'ils pouvaient tirer profit de l'équivalence masse/énergie.

Observations de l'équivalence entre masse et énergie

Comme cela a déjà été rappelé (voir page précédente de ce dossier), la fameuse équation E = mc² a pour implication première que la masse n'est qu'un type particulier d'énergie, ce qui signifie aussi la possibilité de convertir l'une ou l'autre de ces grandeurs en la deuxième. Ce phénomène est derrière l'énergie libérée par les armes nucléaires, mais il ne faudrait pas oublier qu'il a également des implications bien plus constructives, puisque c'est par exemple «grâce à lui » que brillent les étoiles et que sont nés les atomes qui nous composent (voir aussi le dossier sur l'énergie nucléaire).

En effet, avant que n'apparaissent les premières étoiles, les seuls atomes qui peuplaient l'Univers étaient des atomes d'hydrogène (atome le plus léger dont le noyau ne comporte qu'un proton) avec, dans une plus faible proportion, des atomes d'hélium, les atomes plus lourds étant négligeables et/ou non-existants. Avec le temps, les nuages stellaires, que formaient ces atomes, allaient s'effondrer sous leur propre poids pour donner naissance aux étoiles de la première génération et indirectement aux atomes plus lourds.

Au-dessus, photo prise par le télescope spatial Hubble d'une « maternité » stellaire, immense nuage d'hydrogène et de poussière au sein duquel naissent une multitude d'étoiles (cliquez pour agrandir). © Nasa. Voir aussi le site de Ciel des hommes. En dessous, un exemple de réaction nucléaire avec conversion de masse en énergie (émise sous forme de photons notés γ) ayant lieu au cours de la chaîne proto-proton qui, dans les étoiles, mène de l'hydrogène à l'hélium : la masse du noyau final He est inférieur à la somme des deux masses des noyaux initiaux (proton p et deutérium H). © M. Trump

En effet, le lent effondrement d'un nuage stellaire implique une hausse, lente mais inexorable, de sa température et de sa densité, ce qui permet à des réactions de fusion nucléaire de s'amorcer2 au cœur de ce qui est devenu une proto-étoile. Ces réactions ont pour effet systématique de former, à partir de plusieurs noyaux, un noyau dont la masse est inférieure à la somme des masses initiales, la différence entre la masse finale et la somme initiale étant nommée « défaut de masse » (voir figure précédente). Ce défaut de masse est converti en énergie, qui est libérée sous forme de rayonnement et d'énergie cinétique microscopique, ce qui crée une pression capable de résister à la gravitation. Tout au long de son évolution ultérieure, au moins tant qu'elle le peut, l'étoile utilise les réactions nucléaires pour produire de l'énergie et résister à la gravitation.

Lorsqu'à la fin de sa vie l'étoile ne peut plus fusionner de noyaux, deux grandes catégories de destins s'offrent à elle, la valeur de la masse initiale de l'étoile étant le principal paramètre régulateur. Si cette masse est trop faible, l'étoile devient stérile une fois tous les carburants possibles épuisés. Dans ce cas, il reste, après diverses péripéties, un cadavre petit (un rayon de l'ordre de celui de la Terre) et dense (la même masse que le soleil environ, soit un million de fois celle de la Terre), de composition variable (une structure en couches dont l'élément central est le plus lourd d'entre les éléments qui ont été produits), une naine blanche, condamnée à se refroidir lentement. Si la masse initiale de gaz est assez importante, les diverses réactions qui se succèdent vont au contraire le faire jusqu'à ce que du fer soit produit en grande quantité au cœur de la structure « en pelure d'oignon » de l'étoile. L'élément 56 du fer étant le plus stable, il ne peut plus réagir : la fusion de noyaux de fer 56 ne libère pas d'énergie, elle en consomme. Ce fer s'accumule donc, et lorsque la masse du cœur dépasse une valeur critique, dite de Chandrasekhar, environ 1.2 fois la masse solaire, le cœur s'effondre brusquement sous l'effet de la gravitation, phénomène qui peut donner naissance soit directement à un trou noir, soit à une supernova gravitationnelle laissant en son centre un trou noir ou une étoile à neutrons. Mais le plus important pour nous est que cette explosion aura libéré dans l'espace tous les noyaux atomiques produits au sein de l'étoile (tout en créant les noyaux plus lourds que le fer), lesquels donneront à nouveau des nuages interstellaires et donc des étoiles, qui ne seront cependant plus formées uniquement d'hydrogène. Les éléments les plus lourds de ces nuages permettront ainsi qu'autour des futures étoiles subsistent des « disques nuageux » pouvant eux-mêmes mener à la création de planètes « telluriques » (non gazeuses) telles que la Terre.

On a beaucoup entendu parler du projet Iter, dont le but est justement d'utiliser ces réactions de fusion pour générer de l'énergie en grande quantité. La raison principale pour laquelle cela n'a jamais été réalisé de manière non-militaire est que de telles réactions, tout en nécessitant de grandes énergies3, demandent aussi de très grandes précautions si l'on souhaite éviter qu'elles ne s'emballent et ne libèrent l'énergie de manière explosive. Ce qui signifie également que militairement, cela a déjà été utilisé depuis longtemps... En revanche, le fait que l'élément 56 du fer soit le plus stable est relié à l'existence d'un autre phénomène qui fait intervenir l'équivalence entre masse et énergie. Il s'agit de la radioactivité (alpha), qui est la fission naturelle d'un noyau plus lourd que le fer en plusieurs noyaux plus petits et tels que la somme des masses de ces noyaux soit inférieure à la masse du noyau initial. Cette réaction libère donc également de l'énergie et peut être utilisée avec « un peu moins » (commentaire très relatif qui ignore le problème des déchets nucléaires) de risques que la fusion dans les centrales nucléaires.

Dans les réactions décrites précédemment, une partie de la masse mise en jeu était convertie en énergie (principalement sous forme de photons), cependant il existe également des phénomènes dans lesquels toute la masse mise en jeu disparaît au profit d'énergie sous forme de photons, ou bien d'autres dans lesquels des photons se convertissent en matière. Il s'agit des processus d'annihilation et de matérialisation, le premier se produisant lorsque des particules de matière rencontrent leurs « antiparticules » (voir le dossier sur l'antimatière). Ces processus seront brièvement décrits par la suite, mais ce sera après une présentation de quelques-unes des conséquences qu'eut au sein de la physique théorique la relativité restreinte, la prédiction de l'existence de l'antimatière étant l'une d'entre elles.

Équation de Dirac et électrodynamique quantique

En 1926, le physicien autrichien Erwin Schrödinger découvrit l'équation fondamentale de la mécanique quantique, qui porte désormais son nom. Décrivant la propagation de l'onde de probabilité associée à une particule quantique, cette équation est invariante lors d'un changement de coordonnées galiléen4. Très rapidement, le physicien anglais Paul Dirac se posa donc la question légitime de l'existence d'une équation équivalente pour décrire l'électron, mais qui soit invariante sous les changements de coordonnées de Lorentz. Imposant, pour des raisons techniques, que cette équation d'onde relativiste soit du premier ordre par rapport au temps, Dirac comprit qu'elle devait être « matricielle », portant sur des objets mathématiques à plusieurs composantes. En 1929, il obtint cette équation qui, pour une quantité de mouvement donnée, contenaient quatre solutions décrivant des particules de même masse, deux d'entre elles ayant cependant une énergie négative. Plus précisément, Dirac en vint à interpréter les deux solutions d'énergie positive comme deux états de « spin »5 de l'électron, et les deux d'énergie négative comme deux états de spin d'une particule « jumelle » de l'électron. Traitant le cas avec champ électromagnétique, il montra de plus que cette particule jumelle devait avoir une charge électrique opposée à celle de l'électron. Plus étonnant, le résultat de la collision entre un électron et sa particule jumelle devait mener à la disparition de ces deux particules. Grâce à ses arguments avant tout mathématiques, Dirac avait ainsi réussi à prédire l'existence de l'antimatière, via celle du positron, qui fut découvert peu après (en 1932) dans les rayons cosmiques par le physicien américain Carl David Anderson. Cependant, l'interprétation directe de l'équation de Dirac n'était pas des plus claires, le nombre de particules n'étant pas une grandeur conservée dans le contexte relativiste, alors que l'équation de Dirac décrit une particule isolée. Il fallut encore attendre quelques années pour que les ambiguïtés disparaissent dans le cadre de l'électrodynamique quantique, autre théorie reposant sur la relativité restreinte.

Illustration du concept de spin par une représentation très naïve du spin du proton résultant des spins des quarks qui le composent. Une description plus réaliste doit prendre en compte la présence de paires virtuelles de quarks-antiquarks comme l'ont montré les expériences (voir aussi le dossier sur la structure de la matière). © Expérience Hera, collisionneur proton-électron allemand Desy

Par construction, la théorie de Maxwell de l'électromagnétisme était relativiste, et avec le formalisme quadridimensionnel de Minkowski, on découvrit même qu'elle pouvait s'écrire de manière très condensée. En effet, la densité de charge électrique et le vecteur de flux de densité de charge s'avérèrent former un (quadri)vecteur pour les transformations de Lorentz, alors que les six (2x3) composantes des champs électrique et magnétique forment ce que l'on nomme un « tenseur » antisymétrique6, objet mathématique généralisant le « vecteur » et qui apparaît naturellement dans la théorie de Minkowski.

Cependant, la théorie de Maxwell n'était pas une théorie quantique, et trouver son équivalent quantique n'était pas trivial, étant donné que la mise au point de la physique quantique n'avait consisté jusqu'alors qu'en la « quantification » d'équations décrivant des particules isolées, cas bien plus simples que celui d'un champ. En effet, en physique classique, pour décrire la position d'une particule et son état de mouvement, il suffit de connaître six nombres : les trois coordonnées de sa position, et les trois composantes de sa vitesse associées à ces coordonnées. On dit qu'il y a six degrés de liberté. En revanche, la connaissance de l'état physique d'un champ non-quantique, tel le champ électromagnétique, passe par celle de la valeur du champ en chaque point de l'espace-temps. Ce qui implique un nombre infini de valeurs à connaître. Sans même entrer plus dans les détails techniques, on peut imaginer l'ampleur des difficultés techniques et conceptuelles impliquées par la recherche de la version des équations quantiques de Maxwell.

© DR

L'électrodynamique quantique ne fut véritablement formulée qu'en 1948, suite aux travaux du Japonais Sin-Iro Tomonaga et des Américains Julian Schwinger et Richard Feynman, chacun d'entre eux découvrant la formulation de cette théorie de manière indépendante. Toutefois, les travaux de Feynman sont les plus connus et furent fondamentaux pour l'émergence ultérieure d'autres théories telles que la chromodynamique quantique (qui décrit l'interaction entre les quarks, ces particules qui constituent les neutrons et protons, voir le dossier sur le plasma de quarks-gluons). En fait, ce que Feynman découvrit est même une reformulation de la physique quantique qui soit « naturellement » relativiste, puisque l'espace-temps de Minkowski est l'ingrédient fondamental. Ainsi, on dit parfois que la mécanique quantique non-relativiste peut « se comprendre » en considérant (ce qui reste cependant une manière maladroite et inexacte de formuler la physique quantique) que pour aller d'un point A à un point B, une particule emprunte tous les chemins possibles entre ces deux points, si l'on « n'observe pas » le chemin par lequel elle est passée (un exemple très connu étant celui « des fentes de Young », voir la figure suivante). De manière équivalente, la formulation que proposa Feynman de la physique quantique relativiste repose sur le postulat selon lequel pour déterminer l'état d'une particule en un événement (x', t') étant donné son état en (x, t), il faut d'une certaine façon considérer que la particule « emprunte »7 tous les chemins possibles joignant ces deux points. Mais les chemins à considérer sont des chemins à travers l'espace-temps et le long de certains d'entre eux la coordonnée t n'est pas nécessairement croissante. Autrement dit, une particule qui suit cette trajectoire « passe une partie de son temps à remonter le temps », ce qui peut aussi « se comprendre » (depuis Feynman) en considérant que les anti-particules sont « juste des particules qui remontent le temps ».

 
Au-dessus, illustration de l'expérience des fentes de Young ; en dessous, illustration du «mouvement » d'une particule quantique selon Feynman (voir aussi son livre Lumière et matière : une étrange histoire). Dans le premier cas, la mécanique quantique «explique » la figure d'interférences observée comme le résultat du passage de particules quantiques « par les deux chemins à la fois ». De manière similaire, Feynman réussit à reformuler toute la physique quantique (théorie des champs incluse) en postulant que le principe précédent devait également s'appliquer dans les cas relativistes ou non mais dépendants du temps. Autrement dit, une particule quantique, initialement en l'événement spatio-temporel A (caractérisé par une date t et une position x), sera détectée plus tard en B (caractérisé par une date t' et une position x') dans un «état » qui ne peut être compris qu'en supposant que la particule quantique a emprunté toutes les lignes d'univers possibles menant de A à B (et pas seulement celles du genre temps). Comme mentionné dans le texte, le fait que certains de ces chemins puissent parfois «remonter le temps » implique la nécessité de faire appel à une interprétation stipulant qu'une particule remontant le temps est indiscernable (à une nuance technique inutile ici près) d'une antiparticule se déplaçant dans le sens conventionnel du temps. © Pour l'image sur l'expérience de Young : Research Center for Optics (Olomouc, République tchèque)

Malgré ces affirmations qui peuvent a priori sembler complètement délirantes, l'électrodynamique quantique offre un cadre théorique fiable dans lequel les phénomènes d'annihilation et de matérialisation sont parfaitement formulés. Ce ne sont que des « changements de forme » de l'énergie, qui n'est plus réellement répartie de manière concentrée entre des particules, mais plutôt de manière continue entre des champs, les particules étant les « effets visibles discrets » de ces derniers. En outre, la formulation de Feynman repose sur des graphes spatio-temporels qu'il découvrit et qui portent désormais son nom. Ces fameux « graphes de Feynman » sont à la fois des outils de visualisation et de calcul pour étudier ce genre de phénomènes. Ainsi, sur la figure suivante, l'un de ces graphes est donné en exemple, graphe sur lequel l'une des directions est spatiale et l'autre temporelle, le choix de ces directions étant nécessaire pour identifier le processus physique décrit. Si le temps est horizontal et orienté vers la droite, le graphe représente l'absorption d'un photon par un électron qui le réémet peu après. En revanche, si le temps est orienté vers la gauche, il s'agit du même processus, mais pour un positron. Finalement, si le temps est vertical et vers le haut, il s'agit de l'annihilation d'une paire électron/positron donnant naissance à une paire de photons, et inversement, le temps vers le bas correspond à la matérialisation d'une paire de photons sous forme électron/positron.

Exemple de graphe de Feynman, dessins qui sont autant des illustrations de processus physiques que des outils de calcul. © DR

Ce dernier phénomène, observé pour la première fois en 1933 par les physiciens français Irène Joliot-Curie et Frédéric Joliot, est illustré sur la photo suivante, qui est d'ailleurs celle de leur première observation. On y constate l'apparition soudaine de deux particules matérielles de charges électriques opposées, ce qui se traduit, en présence d'un champ magnétique, par deux trajectoires de courbures opposées. Depuis cette époque, l'observation de l'antimatière est devenue un phénomène assez banal, même si sa création et son stockage en grandes quantités restent encore très difficiles. Toutefois, les positrons sont quotidiennement utilisés dans l'imagerie médicale par l'intermédiaire de ce que l'on nomme « caméras à positrons ».

Illustration de la matérialisation d'un photon (invisible sur la photo et interagissant avec le champ magnétique) sous la forme d'une paire électron-positron observée par Irène Joliot-Curie et Frédéric Curie en 1933. © Archives Curie et Joliot-Curie, Paris

Ainsi, bien que pouvant sembler complètement farfelue, la formulation de Feynman de l'électrodynamique quantique, qui est bien plus subtile qu'il n'y paraît, est l'un des outils les plus puissants de la physique moderne actuelle, les prédictions de l'électrodynamique quantique faites grâce à elle étant (selon la phrase de Feynman) « aussi précise(s) que la mesure de la distance Los Angeles-New York à l'épaisseur d'un cheveu près ». Mais parmi les nombreuses descendantes de la relativité restreinte, ce n'est pourtant pas celle qui a été le mieux validée expérimentalement. En effet, celle pour laquelle l'accord entre la théorie et les mesures expérimentales est le meilleur sera le prochain sujet abordé : la relativité générale, vérifiée avec une précision d'une partie pour cent mille milliards (1/1014).

Notes :

1 la durée de vie du muon est une grandeur absolue, en ce sens où si l'on prend bien soin de mesurer la durée de vie des muons observés en unités de temps propre, on vérifie qu'ils ont tous la même.

2 On note d'ailleurs que si la masse de gaz n'est pas suffisante, inférieure à 8 % environ de la masse du Soleil, ces réactions ne se déclenchent jamais et l'effondrement ne conduit pas à une étoile mais à une planète ou à une naine brune.

3 car les noyaux ont des charges électriques qui font qu'ils se repoussent initialement avant de pouvoir fusionner s'ils se touchent. On parle de « arrière coulombienne à franchir ».

4 les modifications apportées par le changement de coordonnées peuvent être incluses dans un facteur de phase de la fonction d'onde, ce qui n'influe pas la physique.

5 une image très grossière pour décrire les deux spins possibles consiste à se représenter l'électron comme une petite flèche ou toupie pouvant tourner sur elle-même de deux façons opposées : la pointe vers le haut ou vers le bas.

6 un tenseur est une sorte de tableau carré qui, dans le cadre relativiste, est formé de 16 coefficients. Le fait qu'il soit « antisymétrique » signifie que seuls six de ces coefficients sont indépendants. De plus, la décomposition de ce tenseur en champs électrique et magnétique explique naturellement que le premier soit un champ vectoriel et que le second soit pseudo-vectoriel (grossièrement : ils se comportent différemment si on les observe dans un miroir).

7 il est évidemment hors de question de formuler ici d'un point de vue mathématique propre les termes utilisés, mais il ne faudrait pas les prendre au pied de la lettre et imaginer des « boules newtoniennes » se déplaçant dans tout l'espace-temps simultanément.