Physique

Des lois mises à mal

Henri DUPUIS • dupuis.h@belgacom.net

© Daniel Dominguez / CERN, © Greg Stewart/SLAC National Accelerator Laboratory

La désintégration de  particules qui viole la loi de  symétrie et un métal qui  viole celle de la catastrophe entropique. L’été fut chaud.

Vue d’artiste d’un baryon lambda-B composé de ses 3 quarks (up, down et beauty).

Notre première histoire pourrait commencer en 1928 lorsque le physicien anglais Paul Dirac se met en tête de décrire le comportement d’un électron. Il parvient à formuler celui-ci en une équation qui laissa les scientifiques perplexes: elle était vérifiée pour deux valeurs, un électron d’énergie positive et un d’énergie négative. Exactement comme l’équation x2 = 4 a 2 solutions, x = 2 ou x = -2. Or l’énergie est toujours positive. Dirac en conclut qu’il devait exister une particule en tout point semblable à l’électron mais de charge opposée, un antiélectron (appelé ensuite positon). Et qu’il en allait de même pour toutes les particules de matière. L’antimatière était née. Un bébé qui posait d’énormes problèmes: où était cette antimatière ? Et si elle s’annihilait avec la matière, pourquoi existons-nous ?

Au fil des décennies, les découvertes (et les interrogations !) vont se succéder. Selon les modèles cosmologiques, matière et antimatière sont apparues en quantité égale lors du Big Bang. Après quelques fractions de seconde, elles se sont annihilées par paire, produisant de l’énergie. Pas complètement cependant: on estime qu’une particule de matière sur un milliard a réussi à survivre. Ce sont elles qui constituent l’univers que nous observons. Sans cet «accident», tout, nous aussi, ne serait qu’énergie pure. Que s’est-il passé ? Il semblerait que l’annihilation ne soit pas immédiate mais que les particules de matière et antimatière se transforment l’une dans l’autre des millions de fois par seconde avant de se désintégrer. Donc, puisque c’est un nombre très important de transformations, il devrait y avoir autant de particules d’une catégorie que de l’autre. Un peu comme lorsqu’on lance une pièce de monnaie un très grand nombre de fois: la probabilité qu’elle retombe du côté pile est égale à celle qu’elle retombe du côté face
(50-50). Sauf si «quelque chose» vient perturber le lancer. Arriver à déterminer le mécanisme perturbateur à l’œuvre lorsque les particules sont en oscillation est une des questions primordiales de la physique aujourd’hui. Pour y arriver, les chercheurs étudient toutes les différences de comportement possibles entre les 2 types de particules créées artificiellement dans les grands collisionneurs, dont celui du CERN, champion de la création d’antiprotons.

Pas le même nombre de désintégrations

Dans un article publié dans Nature (1), la collaboration LHCb montre qu’elle a découvert des différences dans le taux auquel des baryons se désintègrent par rapport à ce taux de désintégration des antibaryons. La désintégration est le processus par lequel des particules instables se transforment en deux (ou plus) particules plus légères et plus stables. Des différences avaient déjà été observées pour la famille des mésons, particules non élémentaires composés d’un nombre pair de quarks et d’antiquarks, comme les bosons par exemple. Et sans doute aussi pour les neutrinos. Mais jamais pour des baryons. Or ceux-ci (les plus connus sont les protons et les neutrons) constituent l’essentiel de la matière visible.

Les scientifiques ont passé au crible d’anciennes données (les plus anciennes provenant d’une campagne datant de 2009 ! On ne jette rien au CERN !) relatives à des désintégrations de baryons lambdas-b (composé de 3 quarks: up, down et beauty) et de sa particule miroir, les antibaryons lambdas-b. Résultat: le nombre de désintégrations n’est pas le même dans les deux cas, les particules se désintègrent plus souvent (5% plus souvent, ce qui est statistiquement significatif) que les antiparticules. Une violation nette de ce qu’on appelle la symétrie charge-parité, règle de tout comportement entre matière et antimatière. Reste à comprendre le(s) mécanisme(s) qui est(sont) à la base de cette violation. Peut-être la «faute» de nouvelles particules qu’on n’a pas encore détectées…

Les chercheurs de l’instrument Matter in Extreme Conditions (MEC) ont utilisé un laser pour surchauffer un échantillon d’or. Ensuite, ils ont envoyé une impulsion de rayons X ultra-lumineux à travers l’échantillon pour mesurer la vitesse, et donc la température, des atomes vibrant dans l’échantillon.

Catastrophe évitée

La seconde rébellion de cet été provient de l’or. Non parce que le cours de ce métal précieux aurait subi des variations désordonnées mais parce qu’un échantillon a refusé de…. fondre ! En thermodynamique existe un phénomène appelé la catastrophe entropique. C’est le moment critique où un corps reste dans son état initial (solide, liquide) bien que sa température de changement d’état soit dépassée. Ainsi, il était admis qu’un solide pouvait demeurer dans cet état à des températures 3 fois supérieures à celle de leur point de fusion. Autrement dit, la matière reste solide alors qu’elle aurait dû se liquéfier depuis longtemps. Cela vaut aussi pour d’autres changements d’état: l’eau pure peut rester liquide bien en deçà de 0° C puis, geler d’un coup sec (notamment quand on y introduit une impureté). Ces phénomènes sont appelés «catastrophe» non seulement à cause de la soudaineté du changement d’état mais aussi parce que ce changement est en général brutal.

Dans le cas qui nous occupe (2), des chercheurs de l’instrument Matter in Extreme Conditions (MEC) du SLAC (Stanford) et de l’université du Nevada ont utilisé un laser pour surchauffer un échantillon d’or. Ceci n’a rien d’exceptionnel mais le problème de ces expériences est de mesurer la température. On le sait peu, mais il est très difficile de mesurer des températures très élevées comme celles atteintes par des plasmas par exemple dans des réacteurs à fusion. Les scientifiques du SLAC y sont parvenus grâce à une méthode originale: en mesurant directement la vitesse des atomes. Rappelons en effet que la température est la mesure de l’agitation des particules (molécules ou atomes). Mesurer la vitesse d’atomes n’est pas non plus chose aisée mais les chercheurs ont réalisé cet exploit en envoyant sur l’échantillon d’or une impulsion de rayons X ultrabrillants dont la fréquence changeait au fur et à mesure qu’ils rencontraient les atomes d’or surchauffés et vibrants. Mesurant ainsi leur vitesse.

Résultat: l’or avait atteint une température de 19 000 K (18 726 °C) soit plus de 18 fois sa température de fusion (1 064 °C) ! Et malgré cela, il était toujours sous forme de solide, il n’avait pas fondu. Aucune catastrophe entropique ne s’était produite alors qu’elle aurait dû se produire à 3 fois sa température de fusion. Outre la méthode de mesure de la température, ces résultats ont aussi montré que les catastrophes entropiques peuvent être évitées si les matériaux sont chauffés extrêmement rapidement, les atomes n’ayant pas le temps de se désorganiser – dans ce cas-ci, en un billionième de seconde. On se prend alors à rêver: il n’existerait peut-être aucune limite supérieure à la surchauffe des matériaux si l’opération est réalisée en un temps suffisamment court !

(1) Observation of charge–parity symmetry breaking in baryon decays, LHCb collaboration, Nature, 16 juillet 2025.

(2) Superheating gold beyond the predicted entropy catastrophe threshold, Thomas G.White et al. Nature, 23 juillet 2025.

Share This