Physique

L’inconstance
de la constante

Henri DUPUIS • dupuis.h@belgacom.net 

PxHere

La constante de Hubble-Lemaître, qui traduit le taux d’expansion de l’univers, varie selon la méthode utilisée pour la calculer. Pas très sérieux pour une constante ! Pour la première fois, une tentative d’explication semble réconcilier ces différentes valeurs

 

À la fin des années 1920, notre compatriote Georges Lemaître d’abord, Edwin Hubble ensuite, font une découverte majeure: l’univers est en expansion. Selon les 2 astrophysiciens, les galaxies s’éloignent les unes des autres d’autant plus rapidement qu’elles sont éloignées de l’observateur. Ils en tirent une relation appelée depuis loi de Hubble-Lemaître: Vexpansion = Hx D où H0 est une constante, la fameuse constante de Hubble (aujourd’hui nommée constante de Hubble-Lemaître) et D la distance à l’observateur, la constante d’expansion s’exprimant pour sa part en km par seconde par mégaparsec (km/s/Mpc). Traduction: si H0 avait une valeur de 100 par exemple, cela voudrait dire qu’une galaxie située à un mégaparsec de nous (environ 3,26 millions d’années-lumière) s’éloigne du fait de l’expansion à une vitesse de 100 km/s. Ceci montre bien que si l’on veut connaître la valeur de H0, il faut effectuer 2 mesures, l’une de vitesse l’autre de distance. Contrairement à ce qu’on pourrait penser, la mesure de vitesse est la plus simple: on mesure le décalage spectral vers le rouge de l’objet visé, qui est directement proportionnel à la vitesse de récession. Pour la distance, c’est plus compliqué. Les scientifiques utilisent ce qu’on appelle des chandelles standard: des objets dont la luminosité intrinsèque est connue, ce qui permet d’en déduire leur distance en observant leur luminosité apparente. Sans entrer dans les détails, disons que les astrophysiciens utilisent 2 types de chandelles standard: les étoiles Céphéides (des étoiles pulsantes) et des supernovas de type Ia, explosion thermonucléaire d’une étoiles naine blanche. L’exercice est cependant périlleux, dépendant pour beaucoup de la qualité des observations, donc des instruments. De leur vivant, Lemaître et Hubble avaient déjà tenté de calculer la valeur de leur constante. Le premier était arrivé à un résultat de 625 km/s/Mpc, le second de 530 km/s/Mpc. Des nombres très approximatifs qui ne cesseront de varier au fil du temps. Dans les années 1950, il va être divisé par 2, puis tombe à 75 pour finalement échouer à 50, valeur acceptée jusqu’en 1976. Avant de remonter à près de 100 km/s/Mpc ! À la fin des années 1990, un progrès est réalisé grâce au télescope spatial Hubble qui peut observer des galaxies plus lointaines et en plus grand nombre, et dispose donc de davantage de chandelles. Au tout début du troisième millénaire, la valeur de Hest alors fixée à 72 km/s/Mpc. Les scientifiques se croyaient sauvés; le pire était à venir.

 
Variation avec le temps

La faute tout d’abord au télescope spatial Hubble lui-même et à ses trop bonnes performances. Il est en effet capable d’observer des supernovas jusqu’à une distance d’environ la moitié de l’univers. Une distance qui est aussi une remontée folle dans le passé. L’idée est donc venue de calculer la valeur de Hà différents moments de cette histoire longue. C’est ce qu’ont fait Adam Riess et Brian Schmidt d’une part, Saul Perlmutter d’autre part. Leur conclusion leur a valu le Prix Nobel: la constante n’a rien de constant, elle varie avec le temps ! Ils montrent que l’univers est en expansion accélérée; plus le temps passe, plus l’expansion est rapide. Alors qu’on aurait plutôt imaginé le contraire: une forte poussée, donc forte accélération au Big Bang puis un ralentissement au fur et à mesure qu’énergie et matière se diluent dans l’espace. L’inverse a valu l’entrée en scène d’un nouvel acteur, l’énergie sombre, dont la densité serait constante.

 
Hubble versus Planck

Comme si cela ne suffisait pas, un autre problème allait bientôt surgir. Car toutes les mesures effectuées jusque là l’ont été par la mesure de la vitesse et de la luminosité comme indiqué précédemment. Certes, les instruments variaient, les chandelles aussi. Mais la méthode restait identique. Jusqu’en 2001 avec le lancement du satellite WMAP  chargé d’étudier le rayonnement fossile de l’univers (fond diffus cosmologique). L’intensité de ce rayonnement varie très légèrement dans différentes directions, fluctuations qui dépendent entre autres de la vitesse de l’expansion de l’univers. Donc de H0. On tenait donc là une méthode nouvelle, tout à fait indépendante de la première, de mesure de la constante. Sitôt imaginé, sitôt fait. Verdict: 72 km/s/Mpc. Ouf, coïncidence parfaite avec les résultats livrés par le satellite Hubble, utilisant l’autre méthode. Mais ce bel édifice s’écroule en 2009 avec le lancement d’un autre satellite, Planck, chargé de la même mission que WMAP. Mais il est beaucoup plus performant et précis. Cette fois, Hn’affiche que 67,4 km/s/Mpc. Qui a raison ? Hubble ou Planck (plus exactement le télescope Hubble ou le satellite Planck) ?

 
Quelle importance ?

Avant de, peut-être, départager les 2, il convient de répondre à une autre question: Pourquoi s’acharner ainsi à calculer la valeur de H0 ? Après tout, que telle galaxie s’éloigne de la nôtre avec telle vitesse plutôt qu’une autre (du reste peu différentes aux échelles de l’univers), quelle importance ? Le souci de la précision ? Pas seulement. Celui de la compréhension de cet écart ? Davantage sans doute. Mais c’est surtout à cause de ce que signifie cette constante. Puisque la loi de Hubble-Lemaître donne à voir un univers en expansion et que celle-ci s’est accélérée au cours du temps, elle autorise en quelque sorte à rembobiner le film de l’univers. Cette expansion a eu un point de départ. Et c’est la constante qui fournit la clé de ce point de départ. Ainsi par exemple, avec les valeurs calculées par Lemaître et Hubble, notre univers n’aurait entamé son expansion que voici 2 milliards d’années pour le second, moins encore pour le premier ! De quoi faire sourire. Et de quoi, surtout, comprendre l’acharnement des physiciens: la constante de Hubble est LE paramètre cosmologique qui décrit la taille et l’âge absolus de notre univers. Et l’on ne badine pas avec des paramètres aussi fondamentaux. D’où la quête désespérée de la valeur de H0.

 
Champs magnétiques primordiaux

D’autres mesures ont été effectuées, donnant lieu à des discussions homériques. Mais la plupart ne s’approchent pas du fatidique 67,4 de Planck. Ce qui excite beaucoup les cosmologistes. Car cela peut signifier que le fameux modèle standard cosmologique est peut-être pris en défaut. Il s’est peut-être passé quelque chose entre 380 000 ans après le Big Bang (moment d’apparition du fond diffus cosmologique observé par Planck) et aujourd’hui.

Deux cosmologistes viennent de proposer une explication (1) qui a aussi le mérite de résoudre d’autres problèmes. Mais ils placent ce quelque chose avant l’apparition du fond diffus: des inhomogénéités à petite échelle dans la densité de baryons (protons et neutrons). En tenant compte de ces inhomogénéités, la valeur de H0 calculée à partir du fond diffus cosmologique est très proche de 72 km/s/Mpc elle aussi ! D’où proviendraient ces inhomogénéités ? De très petits champs magnétiques présents dans le plasma avant la recombinaison des électrons avec les protons. D’où leur nom de champs primordiaux puisque présents au tout début de l’univers, peu après le Big Bang. Reste à savoir comment ces champs sont apparus…

 

(1) Relieving the Hubble Tension with primordial Magnetic Fields, K. Jedamzik and L. Pogosian, Phys. Rev. Lett. 125, 28 october 2020.

Share This