N9 : Les premiers résultats du LHC

Page 1

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 9

Revue d’information scientifique

Équinoxe d'automne 2016

Les premiers...

e e d les ! d iso cu ép arti l ve s p ou e de n Un ntur ve l'a

...résultats du LHC


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Et oui, Élémentaire est bel et bien de retour ! En terminant le précédent numéro d'Élémentaire, nous imaginions revenir un jour pour vous raconter la moisson de résultats récoltée une fois que le grand collisionneur de hadrons du CERN, le LHC, aurait démarré. Six ans sont passés, et si nous sommes restés silencieux, ce n'est pas parce que les physiciens sont restés inactifs, bien au contraire.

En effet, le LHC a remarquablement fonctionné, et les données se sont accumulées, avec leurs lots de surprises et des découvertes pour les physiciens. La plus médiatique et la plus remarquable a été annoncée le 4 juillet 2012 : on a identifié au LHC une nouvelle particule, le boson H. Cette découverte n'est certainement pas le fruit du hasard, et elle résulte du travail acharné de plusieurs milliers de physiciens, ingénieurs et techniciens, tant au niveau du LHC lui-même que des expériences ATLAS et CMS. Et elle fournit la dernière pièce manquante du puzzle élaboré patiemment par les théoriciens depuis des décennies pour décrire les particules élémentaires, à savoir le Modèle Standard. Le boson H constitue ainsi un des thèmes principaux de ce numéro. «  L'Apéritif  » dressera pour vous un portrait-robot du boson H. Une particule très attendue ! En effet, « Histoire » vous contera l'élaboration progressive du Modèle Standard grâce à un va-et-vient permanent entre théorie et expérience, tandis que la « Question Qui Tue » vous expliquera le rôle subtil et essentiel joué par le boson H dans la délicate structure mathématique de cette théorie. François Englert, prix Nobel de physique 2013 avec Peter Higgs pour cette idée, nous a fait l'honneur de répondre à nos questions et ainsi de partager l'émotion et l'enthousiasme de cette découverte. Au fait, comment a-t-on mis en évidence l'existence du boson H ? « Accélérateur » vous racontera la mise en place progressive du LHC. « Découverte » vous décrira l'aventure des physiciens qui ont progressivement vu jaillir ce boson de leurs analyses, et « Analyse » vous permettra de mieux comprendre comment ils ont pu identifier une telle particule dans le flot des données du LHC.

Mais loin de se reposer sur leurs lauriers, les physiciens réfléchissent déjà à l'avenir. Qu'y a-t-il au-delà du Modèle Standard et comment le découvrir ? « Théorie » vous décrira les limites du Modèle Standard et quelques-unes des idées favorites des physiciens théoriciens pour étendre cette théorie. « Expérience » vous montrera comment les expériences ATLAS, CMS et LHCb vont progressivement être modifiées pour s'adapter à la montée en performance du LHC et ainsi améliorer leur sensibilité à de nouveaux phénomènes. Et « Centre » vous expliquera les différentes manières d'effectuer des collisions à plus haute énergie afin de produire des particules encore inconnues, avant de vous montrer quels accélérateurs pourraient à long terme remplacer le LHC. Mais les nouveautés ne se sont pas limitées au boson H et au LHC. Il s'en est passé, des choses, en six ans... « Détection » est consacré à une autre découverte très importante et toute récente, la première mesure des ondes gravitationnelles prédites par la Relativité Générale. Et « ICPACKOI » effectue notre sélection, toute personnelle, des nouvelles qui ont attiré l'attention des physiciens, qu'il s'agisse de l'étude du fond diffus cosmologique, de la découverte de tétraquarks et de pentaquarks, ou encore des informations supplémentaires obtenues sur les fantomatiques neutrinos. Voici donc une actualité riche, et que nous espérons plus riche encore avec la nouvelle période de prise de données au LHC entamée en 2015. Elle a déjà reservé son lot de déviations inattendues, dont certaines se sont révelées n'être que des fluctuations statistiques. Mais peut-être reviendrons-nous d'ici quelques années vous conter la suite de l'aventure, avec une pléthore de nouvelles particules très massives laissant les physiciens abasourdis et fiévreux, ou encore des observations astrophysiques et cosmologiques ouvrant de nouvelles portes sur la physique de l'infiniment grand et de l'infiniment petit. Encore une fois, nous vous remercions tous, fidèles lecteurs, pour votre patience attentive et votre intérêt constant pour cette grande aventure que nous vous racontons numéro après numéro. Nous vous souhaitons une excellente lecture, et à très bientôt, qui sait ?

Revue d’information publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex. Tél. : 01 64 46 83 95 - Fax : 01 69 07 94 04. Directeur de la publication : Sébastien Descotes-Genon. Rédaction : N. Arnaud, S. Descotes-Genon, L. Iconomidou-Fayard, P. Roudeau, M.-H. Schune, J. Serreau. Illustrations graphiques : B. Mazoyer, P. Roudeau, J. Serreau. Maquette : D. Bony, C. Bourge. Ont participé à ce numéro : M.-A. Bizouard, F. Couchot, P. Paganini. Site internet : D. Bony, C. Bourge, http://elementaire.lal.in2p3.fr/ Imprimeur : BMG, Tours - Numéro ISSN : 1774-4563


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Apéritif p. 4

Analyse p. 60

Boson H : avis de recherche

Le boson dans une botte de foin

Histoire p. 6

La longue marche vers le boson H

p. 73 Le LHC : six ans et toutes ses dents !

Interview p. 19

p. 83 La fabuleuse découverte du LHC

François Englert

Centre de recherche p. 24

Faut-il tourner en rond ou bien aller tout droit ?

Expérience p. 37

Accélérateurs Découvertes Théorie

p. 97 En attendant la Nouvelle Physique

La question qui tue p. 107 D'où vient la masse des particules élémentaires ?

Les améliorations des détecteurs du LHC

Détection p. 50

GW150914 : on a vu des ondes gravitationnelles !

Elementaire est téléchargeable gratuitement sur le site http://elementaire.lal.in2p3.fr, où vous pourrez également commander une version imprimée des différents numéros de cette revue. Contact: elementaire@lal.in2p3.fr

ICPACKOI p. 115

Physique des particules, médias et internet BICEP-2 : la vraie-fausse découverte des ondes gravitationnelles primordiales É1, é2, é3 Tétraquarks et Pentaquarks


Apéritif Boson H : avis de recherche Recherché pour brisure de symétrie et trafic de masse généralisé Le boson H est complice du champ de Higgs, qui est responsable de la brisure de la symétrie électro-faible. Celle-ci est à l’origine de la masse des particules élémentaires comme l’électron ou le muon, mais aussi des différences de comportement entre l’interaction électromagnétique et l’interaction faible (par exemple la première est de longue portée alors que la seconde a une portée de quelques attomètres : 10-18 mètres).

Masse Le boson H a une masse de 125 GeV/c2, soit 2,2 × 10-25 kg. C’est environ 133 fois la masse d’un proton, et à peine plus lourd qu’un noyau de césium (composé de 55 protons et 78 neutrons). Il faut une énorme énergie pour le produire, de l’ordre de celles atteintes dans les collisions du LHC (CERN).

Parenté © CERN/ATLAS

Un candidat H " WW " n o + 2 jets vu par ATLAS. La trace rouge correspond au muon, les deux cônes verts aux 2 jets de particules issus de deux quarks énergétiques. +

Aucune connue dans le cadre du Modèle Standard ! Le boson H est une particule élémentaire d'un type nouveau : cela se voit à son spin nul, qui en fait la seule particule scalaire du Modèle Standard.

Charge électrique Le boson H est électriquement neutre, ce qui lui permet de passer facilement inaperçu, étant insensible aux interactions électromagnétiques. De même, il n’a pas de charge de couleur et n’est donc pas directement sensible à l’interaction forte. En revanche, il est sensible à l’interaction faible, et peut en particulier se désintégrer en deux bosons Z ou deux bosons W.

Spin nul Selon notre compréhension actuelle de l'infiniment petit, à chaque particule élémentaire est associé un champ. Chaque particule observée est une excitation du champ associé, tout comme une vague peut être vue comme une excitation de la mer. Le champ décrivant le boson H, appelé champ de Higgs, est scalaire et présente le même aspect dans tous les référentiels. Cela est traduit par le spin du boson H, un nombre quantique, qui vaut 0. En revanche, les particules médiatrices des interactions électromagnétique, faible et forte ont un spin égal à 1 et leurs champs associés sont vectoriels (à l'instar des champs électrique et magnétique).

Furtif Il est difficile à approcher ! Comme il interagit peu avec la matière ordinaire (contenant des quarks u et d légers), il est rarement produit dans les collisions effectuées dans les accélérateurs de particules. Une autre particularité du boson H qui le rend difficilement repérable est sa très courte durée de vie. Il se désintègre en moyenne 1,5 ×10-22 s après avoir été formé. Il est très furtif !

Camouflage

page 4

Malgré ces difficultés, on peut repérer le passage d’un boson H en identifiant ses produits de désintégration dans un détecteur. Les plus faciles à distinguer sont : une paire de photons, deux paires de leptons chargés issus de deux bosons Z de la manière suivante : H " ZZ " (, + , -)(, + , -) , ou encore une paire de leptons

ÉLÉMENTAÍRE


Boson H : avis de recherche chargés accompagnée d’une paire neutrino-antineutrino venant de deux bosons W de la manière suivante : H " W + W - " (, + o)(, - o ) .

Où le trouver ? ©CERN/Philippe Mouche

Là où beaucoup d’énergie est disponible ! En particulier dans les accélérateurs de physique des particules les plus puissants : il est actuellement produit au LHC (1 boson H tous les dix milliards de collisions en moyenne). Il a certainement été présent en quantité dans l’Univers primordial et il pourrait avoir joué un rôle dans son expansion accélérée lors des premiers instants de son évolution.

Capture Finalement réussie après 50 ans de recherche. Mises sur la piste par les détectives privés Robert Brout, François Englert et Peter Higgs, toutes les forces « policières » des accélérateurs de particules ont été mises à contribution. Après des efforts infructueux au LEP (près de Genève) et au Tevatron (près de Chicago), c’est au LHC que le boson H a finalement été repéré dans quelques 1 500 événements des expériences ATLAS et CMS parmi plusieurs milliards enregistrés !

Plan de coupe de l'accélérateur LHC.

Récompense

© CERN/CMS

Un prix Nobel pour Peter Higgs et François Englert en 2013 !

© Julien Serreau

ÉLÉMENTAÍRE

page 5

Un candidat H " ZZ " e + e - n + n - , où les traces rouges correspondent aux muons et les traces bleues aux électrons.


Histoire La longue marche... Si la découverte du boson H par le LHC est une grande aventure expérimentale, elle est aussi l'aboutissement d'une quête encore plus longue, celle d'une théorie cohérente pour décrire les particules élémentaires. En effet, il aura fallu plusieurs décennies d'efforts théoriques et expérimentaux communs pour aboutir au « Modèle Standard », et de nombreuses années encore pour le tester dans tous ses recoins... jusqu'à l'arrivée du boson H.

Avec Maxwell, une seule symétrie suffit ! Avant de commencer notre route, faisons un petit détour théorique. L'aventure commence à la fin du XIXe siècle. J.C. Maxwell puis H.A. Lorentz proposent une description unifiée de tous les phénomènes électriques et magnétiques à l'aide d'une entité appelée « champ électromagnétique », solution de certaines équations dites de Maxwell-Lorentz.

Excellent accord Un des tests les plus précis de l'électrodynamique quantique est obtenu en mesurant le moment magnétique de l'électron. Pour une particule de charge électrique -e, de spin 1/2 et de masse m, son moment magnétique μ est égal à :

Il apparaît que ce champ peut lui-même être représenté à l’aide de fonctions abstraites, appelées « potentiels ». Or la structure des équations est telle que la physique, uniquement déterminée par le champ électromagnétique, reste inchangée sous l’effet d’une transformation spécifique de ces potentiels, appelée transformation de « jauge » car elle consiste à modifier leur point de référence, ou jauge. De plus, et c’est là une particularité importante, on peut modifier la jauge de façon différente en chaque point d’espace et de temps sans changer la physique : on parle alors de symétrie « locale ». Tous ces concepts, abstraits, sont décrits plus en détail dans la « Question qui tue » de ce numéro.

μ = -g/2 e/2 m g est appelé moment magnétique anormal et vaut 2 pour l'électron au premier ordre, avant qu'on ne prenne en compte les échanges de plusieurs photons ainsi que des processus plus complexes. Cette quantité peut être à la fois prédite très précisément dans le cadre de l'électrodynamique quantique et mesurée avec une haute précision. La dernière mesure, réalisée en 2008 à Harvard, donne

Maxwell avait travaillé dans le cadre de la mécanique classique. Mais on peut obtenir une théorie similaire basée sur la mécanique quantique. En raison de l'existence de la symétrie locale liée à l'électromagnétisme, les équations de la théorie doivent faire intervenir un médiateur pour l'interaction entre particules électriquement chargées, qui doit de plus être de masse nulle : c'est le photon, notre « grain de lumière », qui apparaît naturellement dans ce cadre.

g/2 = 1,001 159 652 180 73 (28) (mesuré) alors que la prédiction théorique obtenue en 2012 est égale à g/2 = 1,001 159 652 181 13 (86) (calculé) Les derniers chiffres, entre parenthèses, correspondent aux incertitudes expérimentale ou bien théorique sur les deux derniers chiffres. Leurs valeurs indiquent que les deux résultats sont extrêmement précis et qu'ils sont compatibles. La précision du calcul théorique effectuée par une équipe japonaise spécialisée dans ce type d'études nécessite l’emploi de supercalculateurs et l'évaluation de plus de 12 000 configurations où cinq photons peuvent être échangés. Elle est limitée par la connaissance expérimentale du couplage électromagnétique α = e2/(ħc).

Mais dans le monde quantique, les conséquences de la symétrie de jauge sont encore plus inattendues. Prenons l’exemple de l’interaction entre deux particules chargées, qui peut être vue comme résultant de l’échange d’un, deux, trois... d'une multitude de photons. Lorsqu'on essaie de calculer la probabilité d’un tel processus, l'échange d'un unique photon semble donner la bonne réponse avec une excellente précision. Cependant, les contributions venant de l'échange de deux photons et plus donnent des résultats infinis !

page 6

Il faudra attendre quelques décennies pour voir ce problème résolu. À la fin des années 1940, R.P. Feynman, J. Schwinger et S.-I. Tomogana élaborent la théorie de la renormalisation, un ensemble de méthodes permettant d’éliminer les infinis mentionnés ci-dessus de manière cohérente et de donner un sens mathématique à ces modèles. Le bien-fondé de cette procédure, surprenante au premier abord, est confirmé par un excellent accord avec

ÉLÉMENTAÍRE


...vers le boson H les mesures expérimentales, extrêmement précises, de différents processus électromagnétiques. Et la symétrie de jauge dans tout ça ? Elle joue un rôle crucial dans la procédure de renormalisation, par exemple en interdisant l'apparition de certains infinis intempestifs. L’électrodynamique quantique (QED) est la première théorie relativiste et quantique à posséder une cohérence mathématiquement claire. Elle est le prototype d'une classe de théories aujourd'hui appelées « théories de jauge » (voir « La Question Qui Tue »).

L'interaction faible

© Elémentaire

Après le succès de QED, les physiciens essayèrent rapidement d'utiliser l'outil des théories de jauge pour décrire les autres interactions subatomiques. En effet, ils avaient étudié l'interaction faible très en détail à travers la désintégration b des noyaux atomiques. Par exemple, au niveau des nucléons, le processus b- élémentaire est la désintégration d'un neutron en proton avec émission d'un électron et d'un antineutrino électronique : n → p + e– + –ne

La désintégration bêta du muon selon deux points de vue. En haut, la théorie de Fermi, valable à basse énergie, décrit ce processus comme une interaction ponctuelle entre quatre particules, tandis que en bas, la théorie électrofaible fait appel à une particule intermédiaire, un boson véhiculant l'interaction faible. Aux énergies mises en jeu dans ce processus, le boson W, 900 fois plus lourd que le muon, ne se propage quasiment pas avant de se désintégrer, de sorte que les trois particules finales semblent provenir du même point.

Au début des années 30, Enrico Fermi propose une théorie pour ce processus qu'il suppose ponctuel : tout se passe comme si les trois particules finales apparaissaient au même point et au même instant lors de la désintégration du neutron. Cette même théorie prévoit la possibilité d'autres processus comme, par exemple, la fusion d'un νe avec un neutron, pour donner un proton et un électron : ne + n → p + e–. Mais, lorsqu'on calcule la probabilité que cette réaction se produise, quand l'énergie du neutrino augmente audelà d'une certaine valeur, on atteint des niveaux de probabilité... supérieurs à 100 %. Impossible ! Ce qui signifie que la théorie est incomplète et que quelque chose d'autre doit se passer à ces échelles d'énergie. Dans les années 1950, les physiciens théoriciens J. Schwinger, T.-D. Lee et C.-N. Yang commencent à bâtir des théories où cette interaction ponctuelle n'est en fait qu'une approximation, valable à basse énergie, d'une théorie plus fondamentale, où, par analogie avec l'électrodynamique quantique, l'interaction est due à l'échange de bosons médiateurs, baptisés W pour « weak » (faible). Si on prend l’exemple de la désintégration bêta du muon : m_ → e– + nm + –ne, celui-ci se désintègrerait d’abord en un neutrino muonique _ _ tout en émettant un boson W (m– → W + nm) , lequel se désintègrerait rapidement en un électron et un antineutrino électronique _ (W → e– + –ne). Si la masse du boson médiateur est suffisamment élevée, tout se passe effectivement comme si l’interaction était ponctuelle.

La masse du boson médiateur Si l'on suppose que l'interaction ponctuelle de la théorie de Fermi est une approximation de basse énergie d'une interaction causée par un boson médiateur, on peut relier les paramètres de ces deux descriptions. On montre en particulier que la constante de Fermi GF , qui caractérise l’intensité des processus faibles à basse énergie, est inversement proportionnelle au carré de la masse du boson médiateur. La constante de Fermi peut être évaluée en mesurant les temps de vie de différentes particules subissant la désintégration bêta, comme le muon. On en déduit que la masse du boson médiateur de l’interaction faible doit être de l’ordre de 80 GeV/c2.

ÉLÉMENTAÍRE

page 7

Pourtant, les physiciens n'arrivent pas à obtenir une théorie satisfaisante. Tout d'abord, le problème des probabilités plus grandes que 100 % n’est que repoussé à plus haute énergie. Mais ce n'est pas fini ! De même qu’en QED, si l’interaction élémentaire est véhiculée par un boson médiateur, il faut considérer les corrections (quantiques) dues à l’échange de plusieurs de ces mêmes bosons. Et là encore les calculs deviennent absurdes, et donnent


La longue marche... des réponses infinies. Mais même les meilleures recettes de QED s'avèrent inefficaces et aboutissent à des résultats inexploitables. Quelles différences entre les deux situations ? La masse et la symétrie : le photon est sans masse, ce qui est lié à l'existence de la symétrie de jauge de l’électrodynamique. Le boson de l'interaction faible est massif et ne bénéficie pas de la protection de symétries contre l'apparition d'infinis mathématiques. Cette première mouture de la théorie de l'interaction faible est dite « non-renormalisable ». Pour résoudre ce problème, les théoriciens s’inspirent du succès de QED et tentent d’incorporer l’interaction faible dans le cadre d’une symétrie de jauge.

Nombreux théoriciens En 1964, trois groupes travaillant indépendamment adaptent au cas de la physique des particules un modèle mis au point par Philip Warren Anderson (né en 1923, prix Nobel de physique 1977) pour décrire certains phénomènes de supraconductivité. Ce sont, dans l'ordre de publication des articles présentant leurs travaux :

De l'interaction faible à la théorie électrofaible En 1960, Abdus Salam, John Clive Ward et Sheldon Glashow parviennent à bâtir une telle théorie en regroupant interaction électromagnétique et interaction faible : outre le photon responsable de l'électromagnétisme, on y trouve trois particules véhiculant l'interaction faible, les bosons chargés _ W+ et W et un boson neutre, le Z0. Dans le cadre de cette théorie de jauge, les infinis peuvent être éliminés par la procédure de renormalisation, aboutissant à une théorie mathématiquement cohérente. Oui, mais cette « réussite » a un prix immédiat : tout comme en électrodynamique, la symétrie de jauge de cette théorie interdit que les bosons médiateurs soient massifs ! Si cela n’est évidemment pas un problème pour le photon, la portée subatomique des interactions faibles implique que les bosons W et Z doivent être très lourds. La symétrie postulée par les théoriciens ne semble pas réalisée dans la Nature. En fait, la situation est encore plus grave car la symétrie implique qu’aucune des particules de matière interagissant avec les bosons médiateurs faibles et électromagnétique ne peut avoir de masse. Ce devrait donc être le cas de toutes les particules élémentaires connues actuellement (quarks, leptons, etc.), ce qui est manifestement faux !

• les Belges R. Brout et F. Englert • le Britannique P. Higgs • les Américains G. Guralnik et C.R. Hagen et le Britannique T. Kibble. Ces travaux permettront d'élaborer une théorie de l'interaction faible mathématiquement cohérente et physiquement satisfaisante, en donnant une explication pour la masse non nulle des particules élémentaires et des bosons médiateurs de l'interaction faible.

page 8

Au cours des années 1960, de nombreux théoriciens, dont P. Higgs, réalisent progressivement qu'il est en fait possible de donner une masse aux bosons W et Z en brisant la symétrie DR selon un mode bien spécifique, dit de brisure spontanée. Ceci signifie, en substance, qu’il est possible que les interactions – et donc les équations – respectent la symétrie, mais que la solution des équations la brise. Comme décrit dans la « Question qui tue », dans le cas de la brisure spontanée d’une symétrie de jauge, les bosons médiateurs de l’interaction acquièrent spontanément une masse ! C’est le « mécanisme de BroutDe gauche à droite : T. Kibble, G. Guralnik, C.R. Hagen, F. Englert, R. Brout. A droite, P. Higgs. Englert-Higgs ». Steven Weinberg

ÉLÉMENTAÍRE


...vers le boson H réussit en 1967, au même moment qu'Abdus Salam, à bâtir un tel mécanisme satisfaisant pour l'interaction électrofaible : le photon reste de masse nulle, les bosons W et Z sont massifs. En 1971, G. t’Hooft et M. Veltman montrent que cette théorie est renormalisable, c’est-à-dire cohérente, sans infinis. Le modèle de Salam et Weinberg fait intervenir une nouvelle particule, le boson H, dont les interactions avec les bosons de jauge sont choisies de manière appropriée. Et il y a mieux, pour le même prix : si un tel boson existe, il doit a priori interagir avec les autres particules de matière. Et tout comme les bosons de jauge, les particules qui interagissent avec le boson H acquièrent une masse non nulle quand la symétrie est spontanément brisée... ce qui permet de décrire correctement les masses des particules du Modèle Standard. Ouf !

© CERN

Première photographie obtenue dans Gargamelle de l’interaction d’un antineutrino – par un courant neutre. Un antineutrino nm (invisible) arrive par la gauche de la photo et interagit avec un électron atomique (invisible). L’électron ainsi frappé est éjecté de son atome et des bulles matérialisent sa trajectoire. Le fait que la trace ainsi formée soit due à un électron est attesté par la présence de plusieurs photons rayonnés (deux sont bien visibles) qui interagissent dans le liquide de la chambre pour former des paires électron-positron. L’antineutrino diffusé est invisible. En analysant dix fois plus de clichés, les membres de la collaboration ne trouveront que deux autres interactions de ce type.

De bien discrets médiateurs Reste encore à se convaincre que cette belle théorie est effectivement celle qu'on rencontre dans la Nature... Pour cela, il faut étudier plus précisément les particules médiatrices qui la véhiculent au niveau subatomique. La théorie électrofaible postule l'existence de trois bosons massifs, les W+ et _ W chargés et le Z0 neutre, qui se manifestent de deux manières. D’une part, on a des processus où la particule échangée est un boson chargé et pour laquelle il y a donc transfert de charge électrique. Par exemple, _ m_ → nm + W → nm + e– + –n e , où l'on voit que le muon « perd » sa charge _ électrique pour devenir un neutrino-µ, tandis que le W se désintègre en une paire chargée électron – anti-neutrino-électron (on parle de « courant chargé »). D’autre part, il peut y avoir des processus où un boson Z0 électriquement neutre est échangé de sorte qu’il n’y a pas de transfert de charge. C'est le cas de la réaction e– + nm → e– + nm où on retrouve dans l’état final les mêmes particules chargées que dans l’état initial (avec des énergies et des impulsions différentes, toutefois). Au moment où la théorie électrofaible est parachevée, à la fin des années 1960, ce second processus, appelé « courant neutre », n'est toujours pas observé.

Antineutrino Comment produit-on un faisceau d'antineutrinos, qui ira ensuite bombarder la chambre à bulles Gargamelle ? On peut créer des pions « π » en lançant un faisceau de protons sur de la matière. Les collisions produisent de nombreuses particules, entre autres des pions chargés qui se désintègrent rapidement. Lors de leur désintégration, les π– et les π+ donnent respectivement, et dans 99,99 % des cas, une paire –n m_ ou une paire n m+. En utilisant un m m champ magnétique pour sélectionner les pions de la bonne charge, il est possible de générer un faisceau soit de neutrinos, soit d'antineutrinos.

ÉLÉMENTAÍRE

page 9

Un premier soutien à cette théorie est fourni au CERN en 1973 par l'expérience Gargamelle, une gigantesque chambre à bulles conçue par plus de cinquante physiciens de sept laboratoires. Gargamelle contient du fréon liquide permettant de visualiser le passage de particules chargées. À la fin de l’année précédente, un événement historique e– + –n m → e– + –n m a été détecté par le groupe d’Aix-la-Chapelle. Or, cette réaction ne peut avoir lieu que par l’intermédiaire d’un boson Z... puisque les neutrinos (et les antineutrinos), neutres électriquement, n’interagissent que par la force faible. La réaction est immortalisée par une photographie prise dans la chambre à bulles Gargamelle montrant les traces laissées par les différentes particules en jeu. Ce cliché est la première preuve de l’existence des courants neutres. Le bruit de fond estimé est inférieur à 0,01 événement. Cependant, comme aucune autre expérience n’avait la capacité de confirmer l’observation de Gargamelle, la mesure d’un seul événement laissait place au doute.


La longue marche... Gargamelle observait également des interactions de neutrinos dans lesquelles plusieurs particules autres que des électrons étaient émises. Il s'agit là d’une autre manifestation des courants neutres (dits hadroniques) où le neutrino interagit avec un quark d'un noyau atomique au lieu d'un électron (ces derniers étant appelés courants neutres leptoniques). La version « hadronique » se manifeste bien plus souvent que la version « leptonique » (il y un facteur 100 de différence !), mais il existe d'autres événements, sans rapport avec les courants neutres (du « bruit de fond »), qui mettent en jeu des neutrons et peuvent ressembler au signal recherché. De nombreux tests sont alors effectués par les physiciens de la collaboration sur les sources possibles de bruit de fond. Cela les convainc que les candidats mesurés sont bien issus des interactions de neutrinos - Gargamelle annonce ainsi l'observation © FNAL de ces courants neutres leptoniques et hadroniques les 2 et 23 juillet 1973. Appareillage de la collaboration HPWF. Les neutrinos arrivent par la droite et interagissent dans des modules contenant du scintillateur liquide. Entre chaque module sont disposées des chambres à étincelles qui vont matérialiser la position des particules chargées émises lors de la collision. Ensuite sont disposés, en alternance, quatre murs de fer de 1,2 m d'épaisseur chacun et quatre chambres à étincelles. Seuls les muons peuvent traverser le premier mur, les autres particules qui l'atteignent sont absorbées. Les grandes roues génèrent un champ magnétique dans lequel les trajectoires des muons sont courbées, ce qui permet de mesurer leur énergie. Celle des autres particules est mesurée à partir de la quantité de lumière qu’elles créent dans les modules de scintillateur.

De l'autre côté de l'Atlantique, les quinze physiciens de l’expérience HPWF (dont les initiales correspondent aux universités américaines concernées, à savoir Harvard, Pennsylvania, Wisconsin, Fermilab) commencent leurs mesures fin 1972 au Fermi National Accelerator Laboratory situé près de Chicago. Leur détecteur peut enregistrer 100 fois plus d’interactions, à une énergie 10 fois plus élevée... et il observe également des courants neutres hadroniques. Ce résultat est annoncé à la conférence de Bonn fin août 1973 mais il n'est pas publié immédiatement car l’analyse n'est pas encore finalisée.

Cependant la situation expérimentale va rester confuse pendant quelques mois. Les courants neutres hadroniques sont abondants, leur nombre est environ 20 % de celui des courants chargés, qui procèdent via un boson W, et émettent un muon. Les physiciens de HPWF modifient leur détecteur afin qu’il soit plus efficace pour détecter les muons et mieux séparer les différents types de courants. Malheureusement, ces changements vont entraîner la présence dans les données de « faux muons » qui noient le signal. Avec leur nouveau détecteur, les physiciens n’enregistrent quasiment plus d’événements issus de courants neutres hadroniques. Le problème ne sera compris que plusieurs mois plus tard, et après correction, les courants hadroniques réapparaissent. Certains diront même en plaisantant que HPWF avait découvert des « courants neutres alternatifs » ! En avril 1974, à la conférence de Londres sur la physique des hautes énergies, l’existence des courants neutres n’est plus mise en doute.

Comparaison entre : en haut, la collision d'un proton énergétique (10 GeV) sur une cible fixe (proton au repos de masse 1 GeV/c2) ; en bas, la collision de deux protons de même énergie (5 GeV). Dans le second cas, toute l'énergie disponible sert à produire de nouvelles particules ; dans le premier, plus de la moitié est utilisée pour le mouvement global des particules produites.

page 10

Cette découverte suscite un grand programme de recherche des bosons médiateurs de l'interaction faible auprès du CERN. Or en 1976, le CERN se dote d’un nouvel accélérateur, le SPS (pour Super Proton Synchroton), pouvant accélérer des protons jusqu’à une énergie de 400 GeV... un record pour l'époque ! Des faisceaux en sont alors extraits et envoyés sur des cibles fixes. Dans ce mode de fonctionnement, l’énergie disponible pour les réactions ne dépasse pas 30 GeV... et n’est donc pas suffisante pour permettre la création des particules plus lourdes, comme les W± et les Z0.

ÉLÉMENTAÍRE


...vers le boson H David Cline, Carlo Rubbia et Peter McIntyre proposent alors la transformation du SPS en collisionneur proton-antiproton dans le but précis de permettre la découverte des bosons W± et Z0. Pourquoi proton-antiproton ? En fait, la collision proton-antiproton favorise la production des W± et des Z0 par rapport au mode proton-proton. Mais construire un faisceau d’antiprotons n'a rien d'évident. Comment faire ? Ils proposent de commencer par envoyer des protons extraits du PS (Proton Synchrotron) sur une cible fixe. Des antiprotons sont alors produits, mais de façon extrêmement rare : seulement un par million de protons incidents. Il faut donc accumuler et stocker les antiprotons le temps nécessaire (une journée environ) pour en disposer d’un nombre suffisant. Cette gageure est relevée grâce à l’Accumulateur d’Antiprotons, un outil novateur conçu et réalisé par Simon van der Meer.

La collision proton-antiproton favorise la production des W± et des Z0 par rapport au mode proton-proton À haute énergie, la collision entre deux particules composites peut être vue comme celle de leurs constituants fondamentaux, à savoir les quarks, les antiquarks et les gluons. Dans le cas d’un proton en mouvement les quarks emportent environ la moitié de son impulsion, les gluons en prennent une quantité similaire alors que les antiquarks n’en emportent que quelques pourcents. La situation est inversée pour les antiprotons, où ce sont les antiquarks qui jouent un rôle de premier plan.

Expérience sur cible fixe et collisionneurs Une expérience sur cible fixe consiste à envoyer un faisceau de particules d'énergie donnée sur un bloc de matière pour observer les particules produites. Dans les collisionneurs, on envoie deux faisceaux de particules l'un contre l'autre. Pour comparer les deux situations, on doit évaluer l'énergie dans le référentiel du centre de masse de la collision car c'est cette dernière qui est disponible pour créer des particules.

Les bosons W± et Z0 sont issus de la rencontre d’un quark et d’un antiquark : ud " W +, u d " W -, u u " Z 0, ou 0 dd " Z . Pour faciliter la production des W± et des Z0 on a donc intérêt à utiliser des collisions de quarks (majoritaires dans les protons) contre des antiquarks (majoritaires dans les antiprotons).

Dans le premier cas elle vaut environ 2mE et dans le second elle est égale à 2 E, où m est la masse de la particule cible et E l’énergie du faisceau. À énergie de faisceau donnée et nettement supérieure à la masse des particules, il est bien plus avantageux de travailler sur collisionneur que sur cible fixe... ce qui explique la préférence des physiciens des particules.

Dans l'anneau du SPS circulent ainsi à chaque instant trois paquets de protons et trois paquets d’antiprotons. Ces paquets peuvent entrer en collision à six emplacements : deux d'entre eux sont occupés par les expériences UA1 et UA2, où les initiales UA signifient Underground Area (zone souterraine). En effet, UA1 et UA2 se trouvent respectivement à 20 et 50 m sous terre, dans deux cavernes spécialement creusées. Dans cette configuration et pendant toute la période du fonctionnement des expériences _ UA, le SPS s’appelle SppS (Super proton antiproton Synchrotron).

ÉLÉMENTAÍRE

Annonce de la découverte des bosons W le 25 janvier 1983 au CERN. Sont assis, de gauche à droite, C. Rubbia (porte-parole de l’expérience UA1), S. Van der Meer (qui a permis la réalisation d’un faisceau suffisamment intense d'antiprotons), E. Schopper (directeur du CERN), E. Gabathuler (directeur adjoint pour la physique) et P. Darriulat (porte-parole de l'expérience UA2). page 11

En février 1981, le Synchrotron à Protons, ou PS, première étape du complexe accélérateur du CERN, reçoit et accélère les premiers antiprotons. Dès le mois de juillet ces particules sont transférées avec succès vers le SPS et brièvement stockées à une énergie de 270 GeV. Le 10 juillet, Carlo Rubbia annonce que les premières collisions protonantiproton ont été enregistrées par UA1. Néanmoins, les intensités de protons et d’antiprotons sont encore trop modestes pour que l’on puisse espérer voir des bosons W± ou Z0. Au mois de décembre, le détecteur UA2, opérationnel, est amené dans sa zone de fonctionnement et peut lui aussi enregistrer des

© CERN


La longue marche... collisions. Le 21 janvier 1983, la collaboration UA1 annonce l’observation de cinq événements caractéristiques des désintégrations des bosons W±. UA2 confirme la découverte avec l'observation de quatre événements similaires. Au printemps 1983, le nombre d'événements accumulés est multiplié par dix. Dans le courant du mois de mai, le CERN annonce la découverte du troisième boson intermédiaire, le Z0, sur la base de quelques événements observés comportant un électron et un positron. À la fin de la prise de données de 1983, les expériences UA1 et UA2 ont enregistré environ une douzaine de désintégrations de Z0 et une centaine de désintégrations de bosons W±. Les masses des W et Z sont mesurées : 80 GeV/c2 et 91 GeV/c2 respectivement, avec une incertitude de plus ou moins 5 GeV/c2, en bon accord avec les prédictions théoriques.

© FNAL

Production directe Nous désignons par ce terme des collisions dans lesquelles deux constituants élémentaires fusionnent pour former un boson H. Il s'agit, dans le cas des collisionneurs habi_ tuels, de e+e- → H ou bien de q q → H. La production indirecte du boson H fait intervenir des quarks ou bien des bosons lourds créés lors de la collision comme cela est illustré ci-dessous.

À la pêche au boson H... La proposition en 1963-1964 d’un mécanisme pour briser spontanément la symétrie électrofaible n’a pas déclenché de ruée des expérimentateurs pour proposer de nouvelles expériences qui permettraient la découverte du boson H. Il y a plusieurs raisons à cela. La théorie de l’interaction faible n’était pas encore établie et on attendait plus de résultats expérimentaux pour trancher entre plusieurs possibilités. D’autre part, le plus important semblait être l’existence d'un mécanisme pour briser la symétrie électrofaible, et il n’était pas clair que cela impliquât l’existence d’une nouvelle particule élémentaire. Comme nous l’avons décrit précédemment, une étape cruciale est la découverte des courants neutres en 1973 puis l'observation des bosons W et Z en 1983 qui lève les derniers doutes.

© LBL

Et le boson H dans tout cela ? Pas facile de le chercher... La théorie de l’interaction faible, maintenant validée, ne permet pas de prédire la masse de ce boson. Il faut donc le rechercher dans un large domaine car il peut être très léger (100 fois moins lourd qu’un proton) ou bien très lourd (des milliers de fois plus). Il existe cependant un guide dans cette recherche car, pour une masse fixée on sait calculer combien on produit de bosons H et comment il se désintègre. Pendant près de trois décennies, et jusqu'en 2012, la recherche d’un hypothétique boson H est donc au menu de tout accélérateur ou de tout dispositif permettant d’accéder à un nouveau domaine en énergie. Dès 1975, un portrait-robot du boson H est ainsi établi par des théoriciens (J. Ellis, M.-K. Gaillard et D. Nanopoulos) dans un rapport du CERN, qui indiquait aux expérimentateurs les modes de désintégrations possibles pour le boson H.

page 12

Probabilité d'interaction lors de la collision entre un électron et un positron en fonction du carré de l’énergie de la collision. Les « pics » rouges correspondent à des résonances, produites en quantité à des énergies bien déterminées, et qui sont des états liés entre un quark et un antiquark : les J/Ψ et Ψ(2S) correspondent au charme alors que trois résonances notées ici collectivement ϒ, contiennent des quarks beaux.

Une propriété importante du boson H est que sa largeur (voir « Analyse ») doit être inférieure à la résolution expérimentale tant que sa masse n’excède pas une centaine de GeV/c2. Dans le cadre du Modèle Standard, il est ainsi possible d'estimer combien de bosons on doit observer pour une masse fixée selon le mode de désintégration étudié. Si aucun signal n’est

ÉLÉMENTAÍRE


...vers le boson H observé, cela peut signifier que l’expérience n’est pas suffisamment sensible ou bien que le boson a une masse différente de celle considérée. Seul ce dernier cas est intéressant puisqu’il permet de contraindre la région de masse où doit se trouver le boson H. Malheureusement, avant LEP, pratiquement aucune expérience sur collisionneur n’a été suffisamment sensible pour exclure l’existence du boson H dans un quelconque intervalle de masse. En effet, comme le boson H interagit avec les particules élémentaires proportionnellement à la masse de ces dernières, il est illusoire de rechercher _ sa production directe dans les collisionneurs e+e-, pp ou pp, car les taux sont très faibles. Les mécanismes les plus prometteurs pour créer un boson H dans ces collisions passent par la création de quarks lourds (voir « Analyse »). Ces processus étant plus complexes, ils sont encore relativement rares, si bien que la recherche du boson H reste très difficile. Pour obtenir des quarks en grande quantité, une voie particulièrement intéressante consiste à effectuer des collisions e+e- à des énergies bien choisies pour produire des résonances constituées d'un quark lourd et de son antiquark associé. En effet, à ces énergies spécifiques, le taux de production de quarks lourds augmente de plusieurs ordres de grandeur.

Une accumulation d’événements est visible autour d’une masse de 2,2 GeV/c2 et le signal qui a une signification statistique de 4,6 déviations standard est un pic étroit, compatible avec la résolution expérimentale. Cette étroitesse n’est pas confirmée, l’année suivante, par la collaboration DM2 qui utilise le collisionneur DCI à Orsay et qui a enregistré 8,6 millions de désintégrations du J/ψ. DM2 observe plutôt une bosse assez large dans cette zone de masse. Cependant, MARK-III n’abandonne pas la partie et un signal similaire est obtenu en 1985 en analysant deux fois plus d’événements que dans leur publication initiale. Un signal est également observé dans un autre canal ξ → KS KS. Si on suppose qu’il est réel, le signal de MARK-III est dix fois trop abondant pour

ÉLÉMENTAÍRE

DR

J/ψ → γ + ξ suivi de ξ → K+ K-

Distributions de la masse de paires K+K-(en haut) et KSKS (en bas) mesurées par l'expérience MARK-III. Un « pic » étroit est visible dans les deux distributions aux alentours d’une masse de 2,2 GeV/c2 (un zoom de la région concernée est placé en haut et à droite de chaque distribution). Les significations statistiques sont respectivement de 4,5 et 3,6 déviations standard ce qui implique que le ξ dépasse(rait) nettement le seuil de découverte (5 déviations standard) si on les combine ensemble.

Assemblage du détecteur DM2 pour l’anneau de collisions DCI en 1978.

page 13

En 1983, la collaboration MARK-III propose un premier candidat pour le boson H sous la forme d'une particule appelée ξ. Elle est observée en analysant 2,7 millions de désintégrations du J/ψ (état lié charmeanticharme) de la forme :

© SLAC

Dans ce domaine, il y a eu beaucoup d'annonces... mais aucun succès clair. Avec le recul, on peut le comprendre car le boson H ne peut être obtenu par la désintégration de quarks (comme le c ou le b) certes lourds, mais nettement plus légers que le boson H maintenant observé. Mais évidemment, à l'époque, personne ne connaissait la masse du boson H... et on le cherchait donc dans toutes les réactions possibles !


La longue marche... correspondre au boson H. La collaboration BES-1 (à Pékin) prend le relais de ces expériences et, avec environ dix fois plus d’événements, confirme en 1996 l’existence du ξ. Mais l’interprétation en termes de boson H est cependant exclue pour de nouvelles raisons : la largeur de la résonance, voisine de 20 MeV, est trop importante et cette particule se désintègre aussi facilement en paires de pions qu’en paires de kaons, alors que le boson H devrait se désintégrer préférentiellement en kaons qui contiennent des quarks étranges plus lourds. Finalement, après analyse d’un échantillon statistique encore plus grand, l’expérience BES-2 ne confirme pas les résultats précédents. Encore actuellement, le statut du ξ reste obscur et l’existence même de cette « particule » reste à confirmer...

Une découverte Afin d’éviter ce genre de « découvertes » les méthodes d’analyse utilisées par les physiciens sont maintenant différentes. Les critères appliqués pour sélectionner les événements parmi l’ensemble des collisions doivent être mis au point sur des données simulées et non sur les collisions réelles. Ceci permet d’éviter de favoriser des fluctuations statistiques dues au hasard. Les valeurs de variables critiques pour l'étude sont également cachées dans les événements réels (par exemple ici l’énergie du photon) et ne sont dévoilées que lorsque le groupe (ou la personne) effectuant l’analyse déclare publiquement qu'il (elle) pense que son analyse est au point.

Après le charme, c'est au tour des quarks beaux, plus lourds, d'être utilisés comme canne à pêche pour le boson H. En 1984, la collaboration Crystal Ball, opérant sur le collisionneur DORIS2 (DESY, Hambourg) observe un nouveau candidat pour le boson H, appelé cette fois ζ, et qui apparaît dans la désintégration du méson ϒ qui est un état lié beau-antibeau :

© Cornell University

ϒ → γ + ζ suivi de ζ → plusieurs hadrons (particules constituées de quarks)

© DESY

La désintégration du ϒ en boson H accompagné d’un photon aurait été possible... si le boson H avait été assez léger (mH<mϒ ). L'état intermédiaire indiqué par le diagramme est constitué d'un quark b et d'un anti-b, qui composent le ϒ et s'annihilent en un photon et un boson H.

Le détecteur CUSB-II installé sur l'anneau de collision CESR à Cornell (USA). Autour de la chambre à vide on trouve successivement des barrettes en silicium mesurant la position des particules chargées, trois couches cylindriques de cristaux de BgO suivies de cristaux de NaI (horizontaux et verticaux). Ces cristaux mesurent précisément l'énergie des photons et des électrons.

page 14

Distribution de l'énergie du photon dans la réaction ϒ → γ + hadrons mesurée par l'expérience Crystal Ball. L'accumulation d'événements, autour de 1,2 GeV, est attribuée à la présence de la particule ζ dont la masse vaut 8,3 GeV/c2.

ÉLÉMENTAÍRE


...vers le boson H L’énergie de la collision étant connue, la mesure de l’énergie du photon est suffisante pour détecter la présence d’une particule (ζ) étroite qui l’accompagne. Les expérimentateurs ont ainsi observé une accumulation d’événements, autour d’une énergie fixe du photon, avec une dispersion compatible avec la résolution expérimentale. L’effet statistique dépasse cinq déviations standard ce qui constitue en physique des particules… une découverte. Higgs Bremsstrahlung Mécanisme de production d’un boson H qui est rayonné par un électron lors de l’interaction de l'électron avec un photon au voisinage d'un noyau atomique.

DR

L’interprétation de la particule ζ en termes de boson H (du Modèle Standard) est cependant impossible car le signal observé est environ 100 fois plus important que celui attendu. Mais les théoriciens ayant de la ressource, une interprétation faisant appel à une nouvelle théorie reste possible. Cependant deux ans plus tard, adieu veaux, vaches, boson et nouvelle physique. La collaboration Crystal Ball enregistre de nouvelles collisions et n’observe aucun signal en appliquant la même analyse que celle effectuée précédemment. D’autre part la collaboration CUSB (Columbia University Stony Brook), opérant dans des conditions similaires sur le collisionneur CESR (Cornell, USA) n’observe pas de signal non plus. CUSB place finalement une limite inférieure de quelques GeV/c2 sur la masse du boson H standard. La valeur de cette limite dépend d’incertitudes venant de la mauvaise connaissance d’effets liés à l’interaction forte dans le calcul de la désintégration ϒ → γ + H. Par la suite, le collisionneur LEP1 va explorer de nouveau l'ensemble des basses énergies et exclure un vaste domaine de masses. Toujours dans le cadre des recherches d'un boson H très léger, il faut aussi mentionner une expérience réalisée en 1989, avant les résultats de LEP, sur l’accélérateur linéaire à électrons de 1,6 GeV, situé à Orsay. Elle s'intéresse à la production éventuelle du boson H par l'interaction d'un électron avec la matière, selon un processus portant le joli nom anglo-allemand de Higgs Bremsstrahlung : l'électron rayonne littéralement un boson H lors de son passage à proximité de la matière. Une fois produit, le boson H est supposé se désintégrer en une paire électron-positron, sa masse étant trop faible pour qu’il puisse produire des particules plus lourdes. À cette masse, ayant peu de canaux de désintégration à sa portée, le boson H est relativement stable. En supposant l'existence d'un boson H ayant une énergie de 1,6 GeV, son parcours moyen varie de 80 m à 75 cm pour une masse allant de 5 à 50 MeV/c2. Dans ces collisions le boson H est émis suivant une direction et une énergie très voisines de celles de l’électron incident.

Variation du nombre d’événements en fonction de l’énergie mesurée par le calorimètre lors de l'expérience réalisée à Orsay (noter que l'échelle verticale est logarithmique). Le signal attendu d’un boson H ayant une masse de 20 MeV/c2 est indiqué par la courbe en pointillés.

ÉLÉMENTAÍRE

page 15

Le principe de l’expérience est basé sur le fait que le boson H interagissant très peu avec la matière il peut jouer au passe muraille. Le faisceau d’électrons est absorbé dans une cible de tungstène. Si des bosons H sont produits lors de ces collisions, une fraction d’entre eux peuvent traverser le tungstène puis se désintégrer ensuite en paire e+e–. Un calorimètre, placé à quelques mètres de la cible, va enregistrer l’énergie de la paire dont la valeur doit être aux alentours de celle du faisceau (1,6 GeV), avec une dispersion qui dépend du dispositif de mesure. Le bruit de fond correspond à des dépôts d’énergie plus faible. L’expérience, réalisée en quelques heures, n’a pas


La longue marche... © Julien Serreau

permis d'observer de dépôt d’énergie supérieure à 0,75 GeV. Le mécanisme de production et le taux de désintégration du boson H étant calculables précisément dans le cadre du Modèle Standard, le nombre d’électrons incidents (2 × 1016) a été choisi de manière à ce que la mesure permette d’exclure (ou de découvrir) la présence du boson H. N’ayant pas enregistré de signal, les physiciens ont exclu un boson H ayant une masse entre 1 et 50 MeV. Le résultat des courses ? Aucune des expériences n'a pu mettre en évidence de boson H très léger, ce qui est logique... puisqu'elles le cherchaient à des masses et selon des processus qui in fine n'ont pas lieu dans la Nature. C'est un boson H à une masse très différente qu'il faut chercher, avec des outils bien différents eux aussi !

Entre en scène le LEP Pendant ce temps, et après la découverte des bosons W et Z, on pense déjà à l'étape suivante... En 1976, Burton Richter, un des découvreurs du quark charmé, se trouve alors en année sabbatique au CERN. Il tente de convaincre les physiciens européens de l’utilité de construire un grand collisionneur électron-positron, fonctionnant à une énergie de l’ordre de la centaine de GeV, afin d’étudier en détail les propriétés de l'interaction électrofaible et la théorie de Glashow, Salam et Weinberg. En 1977, le Comité Européen pour les Futurs Accélérateurs exprime un large accord des physiciens pour réaliser ce qui deviendra le LEP (Large Electron Positron collider). À la suite d'un effort soutenu de réflexion de la communauté scientifique, les représentants des états membres du CERN décident, en 1982, de construire le plus grand accélérateur du monde pour explorer un domaine d’énergie allant de 70 à 200 GeV.

Cavités accélératrices supraconductrices Ces cavités installées sur le LEP sont pour l'essentiel fabriquées en cuivre recouvert de niobium et refroidies à la température de l'hélium liquide soit 4,5 K (-268,7 °C). Le niobium est alors supraconducteur et les pertes d’énergie sur les parois de ces cavités sont réduites à un niveau très bas. Ceci permet d’atteindre des valeurs du champ électrique accélérateur quatre fois plus élevées (6 MV/m) qu'avec des cavités classiques. L'installation des cavités a été terminée au début de 1999 et le LEP fonctionnait alors avec 288 cavités supraconductrices et 56 cavités standard en cuivre opérant à la température ambiante. Durant l'année 2000, afin d’atteindre l'énergie la plus élevée possible pour les collisions et dans le but de découvrir le boson H, le système a été poussé au maximum. Les faisceaux ont ainsi atteint l'énergie de 104,5 GeV chacun. Depuis lors, de grands progrès ont été faits sur la construction des cavités accélératrices supraconductrices et des champs de 35 MV/m sont obtenus couramment.

Le 13 septembre 1983, on commence à creuser le tunnel de 27 kilomètres de circonférence. Après de nombreuses péripéties (comme la découverte de sources en creusant sous le Jura !), la machine est terminée début 1988, et les premières collisions ont lieu en août 1989. Pendant six ans (programme LEP1) les études se concentrent sur la mesure des propriétés du boson Z0 (sa masse, sa largeur, en quoi et comment il se désintègre) dont 17 millions de désintégrations sont enregistrées. L’amélioration des performances de la machine, des appareillages, ainsi que des moyens de calcul, fait que la précision des mesures dépasse les prévisions les plus optimistes.

page 16

En 1995 débute le programme LEP2 durant lequel l’énergie de l’accélérateur est progressivement augmentée. Grâce au développement des cavités accélératrices supraconductrices il est finalement possible d’atteindre une énergie totale de 209 GeV. Au-delà de 160 GeV les physiciens du LEP ont étudié la production de paires W+ W- et montré qu’elle est bien décrite par le modèle proposé par Glashow, Salam et Weinberg. Une mesure précise de la masse du W, avec une incertitude de 0,04 % est finalement obtenue. Les propriétés ainsi mesurées des bosons de l'interaction faible confirment la validité du Modèle Standard.

ÉLÉMENTAÍRE


...vers le boson H Le LEP a aussi l’avantage de permettre la production du boson H par des mécanismes où intervient le couplage de ce boson avec le Z0 ou bien les W±. Ceci augmente beaucoup le nombre d’événements espérés et on peut ainsi enfin tester les attentes du Modèle Standard. Dans la phase LEP1 (de 1989 à 1995) durant laquelle la majorité des événements ont été enregistrés lors de collisions à 90 GeV d’énergie, toutes les masses du boson H sont exclues à 95 % de niveau de confiance jusqu’à la valeur de 65,6 GeV/c2. Pour cela, de nombreuses études dédiées ont été menées par les quatre expériences (ALEPH, DELPHI, OPAL et L3) car les modes de désintégration du boson H dépendent de sa masse. La recherche du boson H est ensuite effectuée pendant la phase LEP2, en poussant au maximum l’énergie fournie par l’accélérateur, jusqu'au moment de l'arrêt du LEP en 2000 et en mettant en commun les données enregistrées par les quatre expériences. Aucun signal significatif correspondant à la production d'une nouvelle particule n’ayant été observé, la masse du boson H doit être supérieure à 114 GeV/c2 avec 95 % de probabilité.

Mécanismes de production du boson H à LEP. Le boson se couple soit au Z0 ou bien au W. Les taux correspondants sont calculables de façon précise dans le cadre du Modèle Standard.

Toutefois, il est possible de faire mieux... si on est sûr de bien comprendre le Modèle Standard. En effet, le boson H n'apparaît pas seulement comme le produit final de certaines collisions, si elles sont suffisamment énergétiques. Grâce à la mécanique quantique, il peut aussi intervenir dans n'importe quel processus, même à des énergies plus basses : il n'est alors qu'un état intermédiaire fugace, absent au début et à la fin du processus, ce qui ne l'empêche pas de participer aux prédictions du_ Modèle Standard pour ces processus. Ainsi le processus e+e_ → Z → qq peut faire intervenir un boson H intermédiaire. L'analyse de toutes les mesures du LEP aboutit à une contrainte assez forte m H = 129 +-7449 GeV/c 2 ... mais tant qu'on n'a pas observé le boson H, il n'est guère possible de savoir si on doit prendre cet intervalle au sérieux !

Prendre cet intervalle au sérieux ! L’intervalle de masse allant de 80 GeV/c2 (=129-49) à 203 GeV/c2 (=129+74) a 68 % de chances de contenir la vraie valeur de la masse du boson H. Si on répétait un grand nombre de fois cette mesure, la méthode statistique utilisée donnerait à chaque fois un intervalle de masse différent (puisqu'elle se base sur une nouvelle mesure qui serait différente à chaque fois). Mais dans 68 % des cas, l'intervalle de masse ainsi obtenu contiendrait la vraie valeur de la masse du boson H.

Par-delà les mers

ÉLÉMENTAÍRE

page 17

Le LEP s'arrête de fonctionner en 2000. C'est en fait l'objet de discussions intenses parmi les physiciens. Certains militent pour continuer, tout en augmentant un peu l'énergie du LEP, pariant que le boson H est au coin de l'accélérateur. Mais une grosse partie de la communauté s'est engagée depuis de nombreuses années en faveur du LHC. En effet, dès 1984, alors que le tunnel du LEP était encore en train d'être creusé, on réfléchissait déjà au successeur du LEP, un collisionneur non plus électron-antiélectron mais proton-proton, exploitant le même tunnel que son prédécesseur. En 1994 le Conseil du CERN approuvait la construction du LHC, et dès 1998, on commençait les travaux d'excavation pour les cavernes des nouveaux détecteurs du LHC. Les communautés de physiciens participant au projet de l'accélérateur et des détecteurs ont finalement gain de cause : le LEP laisse la


La longue marche...

© CDF

place au LHC... Il faudra en fait attendre 2008 pour que les premiers protons circulent dans l'anneau, non sans quelques difficultés qui ont retardé d'une année supplémentaire les premières collisions...

Vue de l'expérience CDF en cours d'installation sur le Tévatron.

Tevatron Collisionneur proton-antiproton qui a fonctionné jusqu'en 2011 à Fermilab (ÉtatsUnis). Chaque faisceau a une énergie voisine de 1 TeV (1 000 GeV = 1012 eV), d'où son nom. Luminosité En physique des particules, chaque processus susceptible de se produire lors d’une collision, par exemple l’annihilation d’un électron et d’un positron en une paire de muons de charges opposées, a une certaine probabilité d’occurrence. Dans une expérience, le taux de ce processus (c’est-à-dire le nombre de fois où il se produit chaque seconde) est égal à cette probabilité multipliée par une quantité appelée luminosité. Plus elle est élevée, plus l'accélérateur est productif. La luminosité est proportionnelle au courant des faisceaux qui circulent dans les tubes à vide et augmente lorsque la section des paquets diminue. Elle dépend donc beaucoup de la qualité du guidage des particules au point de croisement et du contrôle que les opérateurs de l'accélérateur ont des propriétés des faisceaux à cet endroit.

Entre temps, les principales nouveautés viennent du Tevatron, un accélérateur américain situé près de Chicago, _ qui reprend le principe des collisions proton-antiproton de feu le Spp S, à des énergies bien plus élevées... jusqu'à 1,96 TeV. Le Tevatron peut ainsi améliorer un certain nombre de mesures faites au LEP sur les bosons W et Z et il découvre en 1995 le quark top et mesure de façon précise sa masse. Ces informations supplémentaires permettent d'affiner les prédictions du Modèle Standard, et donc les contraintes indirectes sur la masse du boson H : m H = 94 +-2924 GeV/c 2 . Mais les physiciens des expériences CDF et DØ installées au Tevatron espèrent bien ne pas s'arrêter là... et qui sait, voler la vedette au CERN en trouvant le boson H les premiers ? Une course poursuite s'engage : à partir de 2001, les physiciens du Tevatron s'efforcent d'augmenter la luminosité de leur machine pour acquérir beaucoup d'événements... et peut–être distinguer un petit excès lié à la présence d'une nouvelle particule. Cela n'avait rien d'évident car un boson H trop lourd (au-dessus de 180 GeV/c2) est impossible à atteindre pour l'énergie du Tevatron, tandis qu'un boson trop léger (en dessous de 140 GeV/c2) se désintègrerait principalement en quarks beaux, difficiles à séparer du bruit de fond. Fin septembre 2011, le Tevatron s'arrête : accumuler des données supplémentaires n'est plus utile, car les analyses ne sont plus dominées par les incertitudes statistiques, mais plutôt par des effets systématiques indépassables. Les physiciens de CDF et DØ livrent leur analyse finale en 2012, excluant certaines régions de masse (entre 100 et 103 GeV/c2, et entre 147 et 180 GeV/c2). Ils observent aussi un petit excès d'événements dans la région entre 114 et 140 GeV/c2, mais le signal est trop faible pour pouvoir en tirer autre chose que le sentiment frustrant qu'il y a là quelque chose d'intéressant à creuser... Ce sera au LHC de finir la chasse. À partir de 2011, les physiciens d'ATLAS et de CMS commencent à contraindre la masse du boson H, qui ne peut être ni entre 155 et 190 GeV/c2 ni entre 149 et 206 GeV/c2... et en décembre, c'est la zone entre 115 et 130 GeV/c2 qui semble la plus prometteuse. Les données continuent à s'accumuler et les analyses se raffinent tout au long du premier semestre 2012, confirmant un excès d'événements autour de 126 GeV/c2. Et le 4 juillet de la même année, les porte-paroles des expériences ATLAS et CMS annoncent conjointement au CERN, devant un parterre de physiciens particulièrement émus, dont Peter Higgs et François Englert, qu'une nouvelle particule élémentaire a été trouvée avec une masse de 125 GeV/c2 : probablement le boson H, enfin découvert après une chasse de près de cinquante ans !

page 18

Les contraintes sur la masse du boson H, à l'époque de LEP, puis après les résultats du Tevatron. Les boîtes correspondent aux zones exclues par les résultats obtenus auprès de chaque collisionneur.

ÉLÉMENTAÍRE


Interview DR

François Englert Qu'est-ce qui vous a amené à faire de la physique, qui plus est de la physique théorique ? Ah, c'est une bien longue histoire ! Pendant ma scolarité en école secondaire, près de Bruxelles, j'étais surtout intéressé par la littérature française et par les mathématiques. Mes parents étaient des gens modestes et ils ont pensé que pour bien gagner ma vie plus tard, il fallait que je devienne ingénieur. Je n'aimais pas beaucoup cette idée mais j’ai également été poussé dans la même direction par mon professeur de mathématiques, une personne que j'appréciais particulièrement. Pour faire ces études, il fallait à l'époque passer un concours qui était assez difficile, mais qui permettait ensuite de s’inscrire à n'importe quelle université, toutes disciplines confondues. C’est la raison pour laquelle mon professeur m’a encouragé à le passer, pensant sans doute que ce serait une excellente clé pour mon avenir. Je me suis donc bien préparé, j’ai réussi ce concours et j’ai commencé à étudier les sciences de l’ingénieur, ce qui ne m'a amusé que peu de temps. J’ai réalisé rapidement que ce n’était pas vraiment ma tasse de thé, mais j’ai voulu aller au bout des cinq années d’études pour ne pas rester sur un sentiment d’échec.

DR

François Englert pendant l’interview. Il porte une cravate dessinée et offerte par l'un des lauréats du prix Nobel de Physique 1999 Gerard t’Hooft (une production privée fabriquée à très peu d'exemplaires), avec la représentation de toutes les particules élémentaires – dont évidemment le boson scalaire H.

« Les semi-conducteurs », de P. Aigrain et F. Englert, éditions Dunod, 1958.

ÉLÉMENTAÍRE

page 19

DR

Ainsi, en 1955, une fois mon diplôme d’ingénieur obtenu, je me suis inscrit à l’Université en sciences physiques, après avoir passé un examen pour obtenir l’équivalence des deux premières années d’études. J’aimais bien la physique et, en plus, j’avais la possibilité d’enseigner comme assistant au Département Polytechnique de l’Université de Bruxelles, ce qui couvrait mes frais. En fait, je n’étais pas non plus très intéressé par les cours que je donnais mais un événement a tout changé. Un physicien français, Pierre Aigrain, qui dirigeait le laboratoire de physique des solides à l’Ecole Normale de Paris est arrivé à notre université pour donner un cours sur les semi-conducteurs, ce qui était LE sujet « chaud » de l’époque. Voyant que ses propres cours ne m’enchantaient pas, le responsable de l’enseignement avec qui je travaillais alors m’a conseillé d’aller rejoindre ce nouveau professeur… Ainsi, pendant mes études de physique, j’ai travaillé avec Aigrain : je suis devenu son assistant et j’ai même écrit un livre avec lui sur les semi-conducteurs ! J’ai également monté un laboratoire de travaux pratiques sur le sujet pour les étudiants.

Pierre Aigrain (1924-2002) est un scientifique français au parcours original et foisonnant. Après des études supérieures à l'École Navale, il devient officier de Marine en 1945 et part aux Etats-Unis, à l'Institut de Technologie de Pittsburgh où il obtient un doctorat en Electrotechnique en 1948. À son retour en France, il rejoint l'École Normale Supérieure à Paris, où il développe progressivement un laboratoire autour de l’étude des semi-conducteurs, qui deviendra le Laboratoire de Physique du Solide qu’il va diriger jusqu’en 1965. Après avoir démissionné de l'armée, il devient professeur à l'Université où il développe plusieurs enseignements. En 1958, il reçoit du Général De Gaulle la mission de lancer la Délégation Générale de la Recherche Scientifique et Technique. Il occupe des fonctions au Ministère des Armées et au Ministère de l’Éducation Nationale. Il fait des passages dans le secteur privé, en particulier comme directeur général de Thomson. De 1978 à 1981 il est Secrétaire d'État pour la Recherche dans le gouvernement de Raymond Barre. Il est élu à l'Académie des Sciences en 1988.


François Englert C’est grâce à Aigrain que j’ai suivi les cours de l’Ecole des Houches de Physique, où j’ai eu la chance d’avoir des professeurs de renom comme John Bardeen, Bryce DeWitt (mari de Cécile DeWitt-Morette) et bien d’autres. Après la fin de mes études en 1958 j’ai commencé ma thèse sur un sujet que j’avais choisi moi-même (!) : « Le comportement d’un petit système quantique dans un milieu faiblement dissipatif ». Mais je devais aussi faire mon service militaire : j’ai eu la chance de l’effectuer à l’Ecole Royale Militaire, qui avait une excellente bibliothèque, ce qui m’a permis d’avancer rapidement ma thèse et de la compléter en parallèle avec mon service… Une thèse d’un an, c’était tout juste la limite légale ! Que faire par la suite ? Là, un certain Robert Brout est entré en scène. Professeur à l’Université Cornell (située à Ithaca aux Etats-Unis), il recrutait des jeunes sur des emplois postdoctoraux appelés « associés de recherche ». Comme il connaissait bien Aigrain, il lui a demandé des suggestions de bons candidats. Aigrain lui a proposé deux noms : en premier Pierre-Gilles de Gennes et en second moi. De Gennes n’a pas pu venir et je suis donc arrivé à Cornell en 1959. Je me rappelle que Robert est venu me chercher à l’aéroport dans sa vieille Buick en ruines. C’est ainsi que ma longue collaboration avec lui a commencé – elle allait se poursuivre pendant de nombreuses années. À la suite de mon contrat postdoctoral, j’ai eu des offres de travail pour rester aux Etats-Unis. Mais l’Europe me manquait trop… Ainsi je suis rentré en Belgique et Robert Brout a également pris la décision de rejoindre notre vieux continent avec toute sa famille. Nous nous sommes donc retrouvés à l’Université Libre de Bruxelles pour continuer notre recherche commune. Nous avions des approches différentes de la physique : Robert savait décrire les problèmes avec des images concrètes d’une manière extraordinaire, tandis que moi je restais fidèle à mon éducation européenne, plus formelle. Mais nous sommes devenus tellement complémentaires que souvent dans les discussions, l’un finissait la phrase de l’autre, avec un plaisir évident !

L'École de Physique des Houches a été fondée en 1951 par une jeune physicienne française, Cécile DeWitt-Morette, dans le but de contribuer au redressement du pays dans le domaine de l'enseignement, au lendemain de la guerre. L'École a lieu dans des vieux chalets du village des Houches, situé dans la vallée de Chamonix, face au massif du Mont Blanc et dure huit semaines chaque été. Son impact a été immédiat après sa création et des physiciens de renom sont venus y enseigner (Enrico Fermi, Wolfgang Pauli, Murray Gell-Mann, John Bardeen, etc.). L'École a aussi contribué à la promotion de physiciens plus jeunes et non moins célèbres. Elle s’est progressivement ouverte à d’autres disciplines, comme les Mathématiques, la Chimie et les Sciences de la Terre. Parmi les étudiants on compte plusieurs Prix Nobel comme Pierre-Gilles de Gennes, Georges Charpak, Claude Cohen-Tannoudji, Alain Connes (médaille Fields) et François Englert. Aujourd’hui, elle fait partie du parcours classique des écoles suivies par des étudiants en thèse ou juste après. Le lieu accueille pendant l’année plusieurs autres événements scientifiques : conférences, ateliers, etc. Pour des informations plus détaillées : http://houches.ujf-grenoble.fr/fr/presentation/hier-et-aujourd-hui.

Pour vous, qu'est-ce qu'une particule élémentaire ? De manière intuitive, il s’agit d’une particule qui n’est pas composite, qui n’a pas de sous-structure. De manière plus précise, c’est une particule dont les interactions sont locales et non étendues. C’est la généralisation quantique d’un point.

DR

John Bardeen (1908-1991) est un physicien-ingénieur américain, dont les travaux ont été récompensés à deux reprises par le Prix Nobel de physique, en 1958 et en 1972. Pendant ses années de travail aux laboratoires Bell ; il a été le co-inventeur du transistor (avec William Shockley et Walter Brattain) qui a révolutionné l’industrie électronique. Puis, il a construit la théorie de la supraconductivité avec Leon Cooper et Robert Schrieffer, alors qu'il était professeur à l’Université de Urbana-Champaign, près de Chicago.

page 20

Qu’est-ce que le boson scalaire pour vous ? Je ne peux pas refaire la théorie ici ! Disons qu’au moment où j’ai commencé à travailler sur le sujet, j’avais une certaine impression que les champs de spin zéro n’étaient pas élémentaires, pas pour des raisons complexes (comme par exemple le problème de « naturalité »), mais juste parce qu'une particule scalaire (c’est-à-dire de spin 0) peut être obtenue de plusieurs manières différentes. Pourquoi ce boson aurait-il alors choisi d’être élémentaire ? Avec Robert, on a essayé une description avec un champ scalaire en l‘utilisant comme un « modèle jouet » avec des bosons qui se condensent, comme Goldstone l’avait proposé auparavant.

ÉLÉMENTAÍRE


François Englert DR

Ce condensat donnait de la masse aux champs de jauge qui absorbaient les bosons de Goldstone (voir « théorie »). Nous avons étudié des champs de jauge abéliens et non-abéliens et aussi considéré le cas où le champ scalaire n’était pas suffisant pour la description. À l’époque, on n’avait aucune idée de la masse de ce condensat, donc le fait que la masse du boson a été mesurée finalement à 125 GeV, ne m’évoque rien de particulier. Quant à la découverte expérimentale, c’est une autre histoire. En juin 2012 j’ai reçu une invitation du CERN pour assister à « un séminaire où des résultats des deux expériences [ATLAS et CMS du LHC] seront présentés ». Mais depuis décembre 2011 il me semblait bien que le moment de l’annonce d’une découverte approchait ! Depuis bien longtemps, dès les courants neutres (1973), et surtout depuis la découverte des bosons W et Z (1983), c’était pour moi évident que le mécanisme de Brout-Englert-Higgs était correct et vérifié. Il y avait bien sûr encore un doute quant à l’existence d’une particule scalaire élémentaire, doute que la découverte du CERN en 2012 a fait voler en éclats !

Robert Brout (1928-2011) est un physicien belge d'origine américaine. Il a soutenu son doctorat à l'Université de Columbia à New York en 1953. Il a fait la plus grande partie de sa carrière à l'Université Libre de Bruxelles où il s’est définitivement installé en 1961. Avec François Englert, il a proposé le mécanisme appelé aujourd’hui « de Brout-Englert-Higgs » qui génère la masse des particules élémentaires. Il est aussi à l’origine de l’inflation cosmique, en commun avec F. Englert et Edgard Gunzig. Il a été colauréat du Prix de la Société Européenne de Physique en 1997, du Prix Wolf de physique en 2004 et du Prix Sakurai en 2010.

DR

Naturalité Les théories physiques font souvent intervenir une série de paramètres dont les valeurs numériques (exprimées dans les mêmes unités) sont très différentes. Un bon exemple est donné par les valeurs des masses des particules élémentaires dans le Modèle Standard. A contrario, on s'attend à ce qu'une « échelle typique globale » intervienne pour une théorie physique dominée par une dynamique donnée. On qualifie une telle théorie de « naturelle » lorsque tous les paramètres sont « d'ordre 1 » en prenant cette échelle typique globale comme référence. Si on considère que le Modèle Standard est valide jusqu'aux échelles où la gravitation doit s'unifier avec les autres forces, l'échelle naturelle de cette théorie est celle de la masse de Planck (1019 GeV), sans commune mesure avec la masse du boson H (125 GeV). Cette différence d'échelles (par un facteur cent millions de milliards) pose donc un problème en terme de naturalité. Pour bâtir des théories naturelles en faisant néanmoins intervenir des paramètres petits, on utilise souvent la notion de brisure de symétrie (voir article « Théorie »).

ÉLÉMENTAÍRE

page 21

Pierre Gilles de Gennes (1932-2007) est un physicien français. Élève de l’École Normale, il rejoint le CEA où il obtient son doctorat en physique en 1957. Après un séjour postdoctoral au laboratoire de Berkeley en Californie, il devient Professeur à la Faculté d’Orsay en 1959, puis au Collège de France. En 1976, il prend la direction de l’ESPCI (École Supérieure de Physique et de Chimie Industrielles) à Paris. Ses travaux sont très nombreux et ont porté sur la physique du solide, le magnétisme, les transitions de phase, les polymères, la matière molle. Membre de l'Académie des Sciences dès 1979, il reçoit de nombreux prix prestigieux, avant d'être lauréat en 1991 du Prix Nobel pour ses travaux sur les cristaux liquides. En dépit de ses compétences théoriques il portait une attention toute particulière à la formation expérimentale des jeunes, en militant pour des approches très pratiques des concepts physiques.


François Englert Qu’est-ce que vous aimeriez voir sortir des prochaines séries de données du LHC ? Je ne suis pas sûr de vouloir répondre à cette question… Parce que je ne sais pas… Évidemment, la chose la plus intéressante serait l’émergence de la supersymétrie. Mais même si on ne trouve rien, ce serait très important du point de vue de la physique ! Evidemment, ce serait moins bien pour le CERN dont le but premier est la découverte de nouvelles particules… Mais cela voudrait dire que les plages d’énergie sans nouvelle physique sont beaucoup plus vastes que ce que nous imaginons à l’heure actuelle. Toutefois, n’oublions pas que des mesures plus précises de tous les couplages du boson scalaire sont nécessaires, non seulement pour l’étude du Modèle Standard mais aussi pour celles de ses extensions éventuelles ! © CERN

Quel est votre rêve de physicien ?

Photo prise au CERN lors du passage de François Englert en février 2014, quelques mois après avoir reçu le Prix Nobel de physique 2013.

Mon rêve ? De comprendre le problème qui me semble le plus fondamental à l’heure actuelle : la quantification de la relativité générale. Est-ce que l’origine de l’Univers est vraiment due à une fluctuation quantique ? Dans ce cas, il est raisonnable de penser qu’avec l’inflation on devrait trouver indirectement le graviton, comme preuve indirecte de cette quantification. Ce sont là des choses qui m’intéressent énormément.

DR

Quels sont les événements marquants de votre vie scientifique et les éventuels regrets ?

page 22

Pièce belge de 5 euros en argent, émise en nombre limité par la Monnaie Belge, avec les effigies de Robert Brout (à gauche) et de François Englert (à droite).

J’en ai déjà parlé lors de ma réponse à la première question. Lorsqu’on a fini l’article sur le boson scalaire avec Robert, on a vraiment réalisé que nos résultats pouvaient avoir d’énormes répercussions, sans savoir précisément en quoi. Mais le modèle construit nous semblait tellement cohérent, tellement solide, qu’on s’est très vite convaincu de son importance. On est allé fêter la publication du papier ! Il faut rappeler qu’à cette période on travaillait de façon isolée par rapport à la communauté des théoriciens de l’interaction faible : nous avions fait notre réputation dans le domaine de la matière condensée, avec en particulier nos travaux sur le ferromagnétisme. Le modèle de Brout-Englert, qui est devenu le mécanisme de BroutEnglert-Higgs, était notre premier travail en théorie des champs. Robert et moi avons fait des choses bien différentes par la suite ! On a travaillé beaucoup sur l’interaction forte, sur le confinement et aussi sur la cosmologie. Nous avons effectué les premiers travaux sur l’inflation et j’ai passé beaucoup de temps à réfléchir sur l’Univers primordial. À partir de 1980, j’ai commencé à étudier la relativité générale et sa quantification, la supersymétrie et la supergravité. J’ai donc eu de nouveaux collaborateurs tandis que Robert a plutôt continué dans la cosmologie. Nous sommes restés très proches, pendant sa maladie et jusqu’à la fin de sa vie. Il n’était plus avec nous pour assister à la découverte du boson…

ÉLÉMENTAÍRE


© Maximilien Brice, CERN

François Englert De tels regrets j’en ressens de plus en plus, surtout à mon âge, en voyant les gens partir. J’ai eu aussi le choc terrible de perdre un autre collaborateur très proche qui avait été aussi mon étudiant, Laurent Houart. Ces dernières années, nous avions travaillé ensemble sur la généralisation des algèbres infinies et leurs applications à la gravitation. Nous étions devenus très amis. C’est lui qui a organisé le colloque scientifique pour fêter mes 80 ans à l’Université Libre de Bruxelles, mais il n’était déjà plus là pour y assister.

Est-ce que vous avez des conseils à donner aux jeunes qui veulent faire de la recherche ?

François Englert signe une copie du détecteur ATLAS, construite en Lego et hébergée au CERN.

Je n’ai pas de conseil à donner, mais je peux dire comment j’ai ressenti les choses. J’ai toujours été attiré par plusieurs sujets différents au niveau purement théorique ou même phénoménologique. Je suis convaincu qu’il est important d’éviter la spécialisation sur des sujets étroits et qu’il est essentiel de se laisser des ouvertures possibles vers de nouveaux horizons en physique théorique.

Comment voyez-vous l’avenir de la discipline ? Je ne suis pas devin ! Il y a eu tellement de développements extraordinaires au XXe siècle ! La physique théorique est également parfois devenue spéculative, surtout lorsqu’elle ne peut pas être testée par des expériences. Il y a des problèmes fondamentaux qu’on ne sait pas résoudre pour le moment. Parfois, ce mur mène à des développements que je n’apprécie pas beaucoup, comme le principe anthropique. De quoi s’agit-il ? On ne sait pas pourquoi certains paramètres ont les valeurs qu’ils ont, alors on peut imaginer que ces valeurs ne sont valables que dans notre Univers, qui n’est qu’un parmi une multitude d’autres, où ces paramètres seraient différents. Et si nous vivons dans un Univers avec ces paramètres-ci, c’est parce que nous sommes là pour les observer. Ce sont là des démarches intéressantes et pas nécessairement fausses – d’ailleurs j’ai travaillé sur les « multivers » dans le passé – mais je crois qu’il ne faut pas se perdre dans cette direction, parce que cela évacue les problèmes physiques sans les élucider. Un gigantesque pas en avant serait la résolution de la quantification de la relativité générale, qui semble être l’obstacle qui nous empêche aujourd’hui de remonter aux tous premiers instants de l’Univers. J’espère pouvoir assister à cette avancée rapidement ! De façon plus générale, il est encore aujourd’hui nécessaire et essentiel de promouvoir sans relâche la recherche fondamentale, aussi bien expérimentale que théorique, à tous les niveaux de l’éducation. Pour faire avancer notre compréhension du monde bien sûr. Mais aussi, parce que c’est cette recherche qui a apporté à l’humanité – directement mais surtout indirectement – tous les progrès technologiques dont nous profitons.

Multivers La notion de multivers est issue de la mécanique quantique : notre monde ne serait qu'un univers parmi d'autres, chacun obéissant à des lois physiques différentes les unes des autres. Certains de ces univers seraient complètement stériles, alors que d'autres, comme le nôtre, auraient les conditions nécessaires pour l'apparition de structures complexes (étoiles, galaxies...) et de la vie. Cette hypothèse permet de justifier les lois physiques de notre Univers en arguant que si elles avaient été différentes, nous ne serions pas là pour le constater : c'est le principe anthropique.

page 23

ÉLÉMENTAÍRE

© Patrick Roudeau


Centre de recherche Faut-il tourner en rond... La construction d’un nouvel accélérateur de haute énergie est un projet de longue haleine. Il s’est écoulé environ 25 ans entre les premières discussions sur une machine qui allait devenir le LHC (Large Hadron Collider) et sa mise en route au CERN (Genève), en 2008. Ce délai avait été un peu plus court, une quinzaine d’années (1976 – 1989), pour le LEP (Large Electron Positron collider), le prédécesseur du LHC. Faudra-t-il attendre 40 ou 50 ans avant qu’un nouvel accélérateur ne prenne le relais du LHC ?

1 GCHF Il s’agit d'un milliard (préfixe « giga ») de francs suisses. En août 2016, 1 CHF = 0,93 € = 1,02 $ et comme nous ne prétendons pas donner des évaluations des coûts des différents projets mentionnés dans cet article avec une précision meilleure que 20 %, toutes ces monnaies sont donc « équivalentes ».

Compte tenu des défis techniques et du coût de telles infrastructures, les projets sont discutés au niveau mondial afin de mobiliser suffisamment de physiciens, de réunir les financements et d’obtenir des soutiens politiques. En effet, jusqu’à maintenant, le pays qui est l’hôte d’un nouvel accélérateur en finance toujours une part importante. Si la machine est construite dans un complexe existant, comme le LHC au CERN, les frais de construction sont pris en charge par les états membres de l’organisation en lui attribuant un budget annuel, essentiellement constant, et voisin de 1 GCHF.

Les mesures vont différer du résultat attendu L’observation en 1973, au CERN, d’un nouveau type d’interaction des neutrinos, appelé « courants neutres » et non prévu par le « modèle standard » de l’époque, permit de choisir, parmi plusieurs possibilités, la bonne théorie pour l’interaction faible et d’en déduire les conditions expérimentales nécessaires pour observer directement les particules qui la transmettent, découvertes une dizaine d’années plus tard, toujours au CERN.

Pour faire des découvertes en physique des particules trois voies sont explorées : réaliser des collisions à des énergies de plus en plus élevées, faire des mesures de plus en plus précises ou bien rechercher des réactions qui sont interdites, dans le cadre de nos connaissances actuelles. Dans le premier cas, on réalise des collisions violentes qui sont nécessaires pour produire des particules encore inconnues et dont on pense qu'elles sont lourdes (sinon elles auraient déjà été observées). Dans la seconde approche, bien que l’on n’ait pas, dans ce cas, suffisamment d’énergie pour les créer dans des collisions, l’existence même de nouvelles particules peut affecter certains processus entre particules connues, si bien que les mesures vont différer du résultat attendu, évalué à partir de nos connaissances actuelles (le Modèle Standard). Dans le troisième cas, on recherche des réactions qui sont interdites dans le cadre du Modèle Standard mais qui peuvent être détectées dans les collisions enregistrées.

À la même époque, la présence d’un quatrième quark, le quark charmé, est proposée pour expliquer la valeur, expérimentale voisine de 10-8 (un cent millionième), de la probabilité de la désintégration : KL → μ+μ-. En absence de ce « nouveau » quark, le calcul de cette probabilité donne un résultat très largement supérieur à la valeur mesurée. De même, au début des années 1990, des mesures précises des propriétés du boson Z0 ont permis d'estimer la masse du quark top, découvert par la suite dans « l'intervalle attendu », en 1995, à Fermilab (USA).

De nombreux éléments interviennent dans le choix du projet : le potentiel de découvertes, bien sûr, mais également les possibilités de financement, les progrès technologiques nécessaires (notamment sur les méthodes d’accélération, l’intensité des champs magnétiques réalisables dans les aimants, les performances des détecteurs), la géologie (le site hôte de l’accélérateur va s’étaler sur plusieurs kilomètres)… Disons que les ingénieurs et les physiciens vont essayer de réaliser le meilleur accélérateur possible, compte tenu de l’ensemble de ces contraintes.

Electron, proton, où va-t-on ?

Stables Les antiparticules ont la même durée de vie que les particules correspondantes. Ainsi, le positron et l’antiproton sont-ils stables. Cependant, on ne les rencontre pas dans notre environnement habituel, car ils peuvent s'annihiler avec une particule de matière correspondante.

Afin de pouvoir être accélérées, les particules doivent être chargées et stables. Cela restreint le choix à l’électron (e-) et au proton (p) ainsi qu’à leurs antiparticules respectives : le positron (e+) et l’antiproton (p– ).

page 24

Pour produire de nouvelles particules, des collisions entre deux faisceaux circulant dans des directions opposées sont plus efficaces que celles

ÉLÉMENTAÍRE


ou bien aller tout droit ? obtenues avec un faisceau dirigé sur une cible au repos. En effet, dans le second cas, une grande partie de l’énergie initiale est consommée pour mettre les particules produites en mouvement et ne peut pas servir à créer de la masse. Les accélérateurs destinés à produire de nouvelles particules sont donc maintenant en général des collisionneurs. On peut ainsi envisager toutes les possibilités de réaliser des collisions à partir des quatre particules mentionnées précédemment. Cependant, pour des raisons techniques ou bien pour l’intérêt de la recherche, seules certaines possibilités sont retenues. Les antiparticules n’existant pas à l’état naturel, il faut au préalable les produire avant de pouvoir les accélérer. La réalisation de faisceaux intenses d’antiprotons étant particulièrement difficile, il n’est plus envisagé d’utiliser ces particules dans l’avenir pour réaliser des collisions à haute énergie, même si de tels faisceaux ont été utilisés dans un passé récent aux États-Unis. Par contre, le positron étant léger, il est relativement aisé d’en obtenir des sources adéquates. On pourrait aussi considérer des collisions entre deux antiparticules mais cela n’a guère d’intérêt puisque l’on s’attend aux mêmes résultats qu’en utilisant les particules correspondantes, bien plus faciles à obtenir.

© Julien Serreau

Des collisionneurs électron-électron ont été construits dans le passé pour étudier les propriétés de l’interaction électromagnétique à haute énergie. Ces machines sont peu efficaces pour créer de nouvelles particules car les deux électrons qui interagissent sont encore présents après la collision si bien que très peu d’énergie est utilisable pour créer des particules supplémentaires. À l’opposé, dans les collisionneurs électron-positron, toute l’énergie disponible peut être transformée en masse puisque les deux particules initiales s’annihilent (elles disparaissent lors de la collision). Par exemple, dans les collisionneurs PEP-II (USA) et KEK-B (Japon) appelées « usines à beauté », qui fonctionnaient à une énergie de 10,6 GeV, on réalisait des collisions dans lesquelles deux particules composites (des mésons B), ayant chacune une masse de 5,3 GeV/c2 et contenant l’une un quark beau et l’autre un antiquark beau, étaient créées. Dans ce cas, toute l’énergie fournie par la machine est transformée en masse lors de la collision.

e–e– e+e+ e+e– pp pp pp e±p e±p

Machine de première génération (dates de fonctionnement), lieu, énergie totale VEP-1 (1963-1967) Novossibirsk (URSS), 260 MeV AdA (1961-1964) Frascati (Italie) et Orsay (France), 500 MeV ISR (1971-1984) CERN, 60 GeV SppS (1981-1984) CERN, 630 GeV

ÉLÉMENTAÍRE

HERA (1991-2007) Hambourg (Allemagne), 314 GeV

Machine de dernière génération (dates de fonctionnement), lieu, énergie totale

Nombre de machines, commentaire

CBX (1962-1967) Stanford, USA, 1 GeV

2, les machines russe et américaine ont fonctionné quasi en même temps 0, même physique que e–e– LEP (1989-2000) CERN, 208 GeV 20, il y a 4 machines en fonctionnement PEP-II (1999-2008) Stanford (USA), 11 GeV (BEPC II à Pékin, VEPP-4M et VEPP-2000 KEK-B (1998-2010) Tsukuba (Japon), 11 GeV à Novossibirsk et DAΦNE à Frascati). LHC (2010-2035?) CERN, 14 TeV 2 Tevatron (1992-2011) Fermilab (USA), 2 TeV 2 0, même physique que pp 1, les électrons et les protons circulaient dans deux anneaux distincts et avaient des énergies différentes (respectivement : 27,5 et 920 GeV) 0, même physique que e±p page 25

Type

Ce tableau indique les différents collisionneurs de particules construits jusqu’ici. Dans la première colonne la nature des particules entrant en collision est indiquée. La seconde colonne correspond aux machines ayant la plus basse énergie (ce sont en pratique aussi les plus anciennes). Dans la colonne suivante on trouve les machines ayant la plus grande énergie. L’énergie des collisionneurs e+e−qui fonctionnent actuellement varie entre 1,4 et 12 GeV. Il s'agit de machines conçues pour l’étude des quarks étrange, charmé et beau qu’elles produisent en grandes quantités.


Faut-il tourner en rond... Des collisions électron (ou positron)-proton sont aussi envisagées dans l’avenir. Elles ont permis, en 1968, à SLAC (USA) de découvrir que des quarks existaient dans le proton. Le collisionneur HERA (Hambourg) dans lequel des électrons (ou des positrons) de 27,5 GeV interagissaient avec des protons de 920 GeV a été la machine qui a atteint la plus haute énergie dans ce domaine. Ce type d’étude est complémentaire des deux précédents (e+e- et pp). Lors des collisions ep, les électrons permettent d’étudier la structure du proton à des distances de plus en plus petites ce qui fournit des informations sur l’énergie emportée par ses différents constituants, indispensables pour que l’on puisse interpréter les réactions obtenues dans les collisionneurs proton-proton. D’autre part, ces machines sont les mieux à même de produire des lepto-quarks dans l’éventualité où de telles particules existeraient dans la Nature.

Lepto-quarks Il s’agit de particules hypothétiques susceptibles de se désintégrer en une paire contenant à la fois un quark et un lepton, une transition impossible dans le cadre du Modèle Standard. De telles particules apparaissent dans des modèles d'unification expliquant entre autres les charges électriques des particules élémentaires. Rayonnement synchrotron Toute particule chargée soumise à une force électromagnétique rayonne une partie de son énergie sous forme de lumière. Pour un électron accéléré par un champ électrique, la puissance rayonnée est indépendante de l’énergie de l’électron et s’avère négligeable pour les champs électriques les plus intenses que l’on sait mettre en œuvre. Par contre, lorsque l’électron est guidé par un champ magnétique, par exemple lors de son parcours dans un accélérateur circulaire, le rayonnement peut devenir très intense. La puissance rayonnée est proportionnelle à l’énergie de l’électron élevée à la puissance quatre et inversement proportionnelle au carré du rayon de la machine. Pour cette raison, dans une machine de taille donnée, il est impossible de faire circuler des électrons au-delà d’une certaine énergie, pour laquelle quasiment toute l’énergie fournie au faisceau dans les cavités accélératrices est perdue par rayonnement. La puissance rayonnée est également inversement proportionnelle à la masse de la particule élevée à la puissance quatre. Un proton étant environ 2 000 fois plus lourd qu’un électron, il rayonnera la même quantité de lumière qu’un électron en circulant dans un même anneau, en ayant une énergie 2 000 fois plus grande.

L'heure du choix À cause du rayonnement synchrotron, il est difficile d’accélérer des électrons à de très hautes énergies dans une machine circulaire, contrairement aux protons pour lesquels ce phénomène reste négligeable, même au LHC. Cependant, l’énergie de l’accélérateur n’est pas le seul élément de comparaison entre électrons et protons. Contrairement à l’électron (ou au positron), le proton n’est pas une particule élémentaire et seule la fraction d'énergie correspondant aux objets élémentaires entrant en collision (quarks, antiquarks et gluons) est utilisée pour la création éventuelle de nouvelles particules. L’énergie efficace des collisions entre deux protons est ainsi, en moyenne, bien inférieure à celle délivrée par l’accélérateur. Cependant, l’énergie transportée par un constituant élémentaire donné, dans un proton, n’est pas une constante comme cela est illustré sur la figure ci-après. Elle est différente pour chaque collision, si bien que de hautes énergies peuvent également être atteintes, mais plus rarement et en restant le plus souvent inférieures à la moitié de l’énergie totale disponible. La nature des collisions est également variée en fonction du type des constituants qui, au départ, interagissent : quark-quark, gluon-gluon, gluon-quark, quark-antiquark, etc. Contrairement aux collisionneurs électron-positron, une machine à protons permet ainsi d’accéder en permanence à un large domaine en énergie sans qu’il soit nécessaire de changer les réglages de la machine. On qualifie ainsi fréquemment de « machine à découvertes », ce type de collisionneurs.

page 26

© Jullien Serreau

Les collisionneurs proton-antiproton sont a priori plus efficaces pour créer de nouvelles particules que ceux utilisant uniquement des protons. Dans le premier cas, un quark de valence du proton peut s’annihiler avec un antiquark de valence de l’antiproton et toute l’énergie disponible dans cette réaction peut être utilisée pour créer de nouveaux objets. Dans le second cas, seul un antiquark de la mer d’un des protons est disponible et son énergie est bien plus faible que celle d’un antiquark de valence contenu dans un antiproton. Cependant, on ne dispose pas de sources très intenses d’antiprotons alors que l’on sait faire circuler des faisceaux de protons

ÉLÉMENTAÍRE


ou bien aller tout droit ?

DR

Le proton n’est pas une particule élémentaire On dit souvent que le proton est formé de trois quarks (deux quarks « up » et un quark « down »). Cela n'est vrai qu'en partie car l'énergie transportée par ces quarks n'est qu'environ 50 % de celle d’un proton en mouvement. Le reste de l'énergie correspond aux gluons (45 %), qui assurent la liaison entre les quarks au sein du proton, et à d'autres quarks et antiquarks (5 %), formant « la mer », qui apparaissent fugitivement par interaction avec les gluons. Les proportions précédentes ne sont vraies qu'en moyenne et, pour un proton entrant en collision, elles peuvent avoir des valeurs très différentes d’une collision à l'autre. D'autre part, de même que l'on peut avoir une image différente d’un même objet lorsqu'on l'examine avec un faisceau lumineux ayant une longueur d'onde plus ou moins courte (et donc une énergie plus ou moins grande), le contenu effectif d’un proton en termes de constituants élémentaires dépend aussi de la violence de la collision. Plus celle-ci est élevée et plus on a de chances de trouver dans le proton un gluon ou bien un quark (ou un antiquark) de la mer.

©DESY

Les courbes représentent les distributions de la fraction d’énergie emportée par différents constituants élémentaires dans un proton. Les quarks de valence sont représentés en vert, pour ceux de type « up » et en bleu, pour celui de type « down ». Les gluons sont tracés en rouge et les quarks de la mer en violet.

À quoi ressemble un proton ? À l'intérieur d'un domaine d'une taille voisine de 0,85 × 10-15 m, on trouve non seulement trois quarks (grosses boules bleues), dits quarks de valence, mais aussi des gluons (ressorts) et des paires quark-antiquark (boule verte pour ce dernier) formant la « mer » du proton. Les gluons, qui transmettent l’interaction forte, se transforment fugitivement, et en permanence, en paires quark-antiquark qui, à leur tour disparaissent en s'annihilant en gluon(s). Contrairement aux trois quarks de valence, les particules de la mer ne transportent qu'une faible partie de l'énergie du proton. Les gluons interagissent également entre eux ; ceci est représenté par la présence de plusieurs gluons se rencontrant en un même point. La structure du proton a été notamment étudiée en le sondant avec des faisceaux d'électrons. Seuls les constituants chargés du proton, quarks et antiquarks, peuvent être mesurés par cette méthode.

© ATLAS

Différente pour chaque collision Voici la distribution de la masse reconstruite de deux jets de particules obtenue à partir de 1014 collisions (cent mille milliards) entre deux protons, à 7 TeV, au LHC. Cette masse donne une idée de l'énergie de la collision entre constituants des protons. L'échelle verticale, qui correspond au nombre d'événements observés dans un intervalle de masse donné, est logarithmique. Seules 2 collisions sont à plus de 3,5 TeV (soit la moitié de l'énergie disponible) et moins d’une sur un milliard a une énergie supérieure à 1 TeV.

contenant mille fois plus de particules. D’autre part des mécanismes autres que l'annihilation quark-antiquark existent pour produire des particules nouvelles lors de collisions, si bien que, dans l’avenir, il n’est pas prévu de construire de nouveau collisionneur proton-antiproton de haute énergie.

À chaque problème son collisionneur

ÉLÉMENTAÍRE

page 27

On ne construit pas un nouveau collisionneur pour le plaisir ; il faut justifier son existence par un programme de physique et quelques exemples sont présentés dans ce qui suit. Il en va aussi de l’avenir des grands centres de recherche dans ce domaine (le CERN en Europe, Fermilab aux USA, KEK


Faut-il tourner en rond... au Japon) qui doivent définir des programmes couvrant les dix ou vingt prochaines années.

DR

Explorer un nouveau domaine d’énergie peut constituer une raison suffisante pour construire une nouvelle machine, sans garantie d’une découverte. Ce fut le cas des collisionneurs électron-positron qui ont précédé le LEP, avec des fortunes diverses. De tels accélérateurs pouvaient être réalisés au niveau d’un pays avec un investissement humain et financier limité. Ce n’est plus aujourd’hui d’actualité car les accélérateurs envisagés sont gigantesques et les moyens financiers, techniques et humains, doivent être réunis à l’échelle mondiale.

Principe de la production de la particule W+ dans une collision proton-antiproton. Un quark « up » du proton s'annihile avec un antiquark « down » de l'antiproton en créant un boson W+. Ce dernier se désintègre ensuite en un antimuon et un neutrino-muon νμ. L'interaction faible est responsable de la production et de la désintégration du W+. Seul l'antimuon est mesuré dans les appareillages que le neutrino traverse sans y interagir. De nombreuses autres particules sont produites, dans cette même collision, cette fois par interaction forte entre les différents constituants du proton et de l'antiproton qui n'ont pas conduit à la création du W+.

Le choix pour une nouvelle machine peut résulter de la symbiose entre des considérations théoriques et expérimentales. Par exemple le collisionneur Spp–S du CERN a été construit pour produire les bosons W± et Z0 qui sont les médiateurs de l’interaction faible. Ce choix s'est appuyé sur la théorie proposée par S. Glashow, A. Salam et S. Weinberg qui permet d’unifier les interactions faible et électromagnétique et dont une des prédictions, concernant certaines propriétés de l’interaction des neutrinos, avait été observée en 1973 par l’expérience Gargamelle (CERN) (voir encadré « les mesures vont différer du résultat attendu » page 24). Dans le cadre de cette théorie et à partir de ces mesures il était possible de prédire la masse des bosons W± (aux alentours de 70 GeV/c2) et Z0 (plus lourd que les W±) et de calculer leur taux de production et leurs modes de désintégration dans des collisions –S a été un grand succès : les bosons W± et Z0 y proton-antiproton. Le Spp

– Le collisionneur SppS En 1976, le Super Proton Synchrotron (SPS) du CERN entre en fonctionnement. Dans un anneau de 7 kilomètres de circonférence, il permet de faire passer l'énergie de protons, déjà accélérés dans le Proton Synchrotron (PS), de 0,025 à 0,45 TeV. Un accélérateur du même type (le Main Ring) atteint également l'énergie de 0,5 TeV, à Fermilab (USA). Toujours en 1976, D. Cline (Wisconsin), P. McIntyre (Harvard) et C. Rubbia (Harvard) proposent de produire suffisamment de particules W± et Z0 en réalisant des collisions proton-antiproton dans ce type de machines afin de pouvoir les détecter sans ambigüité. Ceci suppose cependant de transformer les nouveaux accélérateurs pour qu’ils puissent fonctionner en mode collisionneur (avec deux faisceaux circulant en sens opposés) et surtout de créer une source intense d'antiprotons. Seul le CERN va se lancer dans l’aventure ; à Fermilab la priorité est donnée au doublement de l'énergie de la machine existante avant de passer à des collisions entre protons et antiprotons. Le CERN possède également un autre avantage. En effet, les antiprotons n'existant pas dans la nature, il faut les créer en faisant interagir avec une cible un faisceau très intense de protons accélérés par le PS à 26 GeV. Une partie des antiprotons ainsi obtenus est captée par un dispositif spécial appelé corne magnétique (inventée par S. Van der Meer). Ces antiprotons ayant des énergies et des directions très dispersées, il faut les « refroidir » avant de pouvoir en former un faisceau. Ceci est réalisé en utilisant le refroidissement stochastique proposé également, dès 1968, par S. Van der Meer et qui est mis en œuvre dans un anneau spécial : l’Accumulateur d’Antiprotons (AA). Il faut une vingtaine d'heures avant qu’un nombre suffisant (2×1011) d'antiprotons soit disponible pour être accélérés et envoyés dans l'anneau du SPS. En 1978, le CERN approuve le projet de réaliser des collisions proton-antiproton dans l'anneau du SPS. En 1980, les premiers antiprotons circulent dans AA et le SPS est arrêté pour onze mois afin de réaliser les modifications nécessaires. Dès 1982 les premières collisions ont lieu – dans le nouveau SppS et les deux expériences UA1 et UA2 (pour « Underground Area »), construites spécialement pour enregistrer les résultats de ces collisions, observent des désintégrations des particules W±. En 1983, grâce à l'analyse de données supplémentaires, le Z0 est également découvert. Ce programme de recherche sera couronné, dès 1984, par le prix Nobel de physique attribué à C. Rubbia et S. Van der Meer pour « leurs contributions décisives au grand projet qui conduisit à la découverte des particules W± et Z0, médiateurs de l’interaction faible».

page 28

Lorsque Fermilab a réalisé que la course avec le CERN était perdue pour la découverte des W± et Z0, la priorité a été d'augmenter l'énergie de la machine qui va prendre le nom de Tevatron. Les premières collisions proton-antiproton y ont lieu en octobre 1986 à l'énergie de 1,8 TeV. En 1995, les expériences DØ et CDF annoncent la découverte du dernier quark connu, le top, dont la masse, voisine de 173 GeV/c2, en fait la particule élémentaire la plus lourde connue à ce jour.

ÉLÉMENTAÍRE


ou bien aller tour droit ? ont été découverts en 1983 par les expériences UA1 et UA2 et leurs masses mesurées avec une précision relative de 1 %. Les valeurs de ces masses étaient en accord avec la théorie proposée pour l’interaction faible. Cette théorie requérait l’existence d’une nouvelle particule, le boson H.

© CERN

Aux USA, le laboratoire Fermilab a construit le Tevatron, permettant de réaliser des collisions proton-antiproton à 1,8 TeV à partir de 1986, puis presque 2 TeV un peu plus tard. Cette énergie, plus élevée que celle obtenue au CERN, a conduit à la découverte du quark top (1995) mais la luminosité de la machine n’a pas été suffisante pour y observer le boson H, découverte qui a été réalisée au LHC (CERN) en 2012. Cependant, afin de mesurer de manière précise les masses des bosons W et Z et d’étudier leurs propriétés, un autre type de machine était nécessaire. Les paramètres du successeur du Spp–S au CERN, le LEP, un collisionneur entre électrons et positrons, ont alors été définis dans ce but. La masse du Z0 y a été mesurée avec une précision impressionnante de 0,002 % et celle des W± à 0,025 %.

Vue d’ensemble de l’anneau AA. La masse du Z0 La précision de la mesure de la masse du boson Z0 dépend de la connaissance de l'énergie des faisceaux qui circulent dans le collisionneur. En effet, cette masse est simplement égale à la somme des énergies de l'électron et du positron. Dans des collisionneurs de grande taille, plusieurs phénomènes, qui peuvent modifier la circonférence de la machine et ainsi changer l'énergie des faisceaux doivent être pris en compte comme cela a été observé sur le LEP (marées terrestres, niveau du lac Léman…). Un dispositif utilisant la polarisation des faisceaux a été mis au point et a permis de mesurer très précisément leur énergie, lors d'expériences dédiées (voir Elémentaire numéro 6).

De même, les différents canaux de désintégration du Z0 ont été mesurés à LEP avec une grande précision ; par exemple, 0,3 % pour la transition Z0 → – –S seuls les canaux où étaient présents des électrons ou bb , alors qu’au Spp bien des muons pouvaient être étudiés à cause de la présence de nombreuses autres particules issues de l’interaction entre les constituants du proton et de l’antiproton n’ayant pas participé à la création du W± ou du Z. Le LEP a ainsi permis d’établir la validité de la théorie décrivant l’interaction faible. La précision atteinte sur les mesures a été bien supérieure à ce qui avait été envisagé au moment de la définition du projet. D’autres études, réalisées sur l’interaction forte, ont également contribué à valider le Modèle Standard. Bien sûr, les physiciens espéraient dévoiler quelques déviations entre les prédictions de la théorie et les mesures, et découvrir, par exemple une (des) nouvelle(s) famille(s) de quarks et de leptons ou encore observer le boson H... Rien de tout cela n’a été au rendez-vous !

© CERN

–S et le LEP on peut tirer quelques leçons. De cette comparaison entre le Spp Pour un même domaine en énergie, un collisionneur électron-positron est bien supérieur à un collisionneur proton-proton ou bien proton-antiproton pour mesurer de manière précise les propriétés des collisions. Cependant, à cause du rayonnement synchrotron, dans un anneau de taille donnée, il est possible d’atteindre des énergies bien plus élevées avec des protons. Le – à 0,63 TeV, a utilisé un anneau de 7 km, Spp–S, générant des collisions pp déjà existant au CERN (le SPS), alors que le LEP a nécessité le creusement d’un tunnel circulaire de 27 km, pour des collisions e+- e- à 0,2 TeV.

ÉLÉMENTAÍRE

page 29

Comparaison entre les valeurs mesurées de l’énergie des faisceaux circulant dans le LEP (points) à différents moments d’une journée (les heures correspondantes sont données sur l’axe horizontal) et l’effet calculé à partir des marées terrestres. L’effet maximal est voisin de 10 MeV soit environ cinq fois la précision obtenue sur la masse du Z0.


Faut-il tourner en rond... Espéraient dévoiler En 1978, un colloque s’est tenu aux Houches (en Haute-Savoie, près de Chamonix) qui a réuni des théoriciens et des expérimentateurs afin de préciser les objectifs scientifiques et les caractéristiques du LEP. Sheldon Glashow (théoricien américain, futur prix Nobel de physique en 1979 avec Abdus Salam et Steven Weinberg pour leur contribution à l’unification des interactions faible et électromagnétique) a notamment proposé quatre scénarios pour le futur programme de physique du LEP allant, compte tenu des connaissances de l’époque, du plus classique au moins conventionnel. Dans le premier cas, les expériences allaient améliorer la précision sur certains des paramètres (19 au total) dont dépend la théorie des constituants élémentaires (le « Modèle Standard »). Cependant, rien de vraiment nouveau n’était attendu dans ce scénario sauf, éventuellement, les découvertes du quark top et du boson H si leurs masses n’étaient pas trop élevées pour que ces particules soient produites à LEP. Le dernier scénario était celui des « surprises » : allait-on observer de nouveaux quarks ou bien de nouveaux leptons ? Montrer qu’ils sont des objets complexes, formés de constituants plus élémentaires ? Trouver un lien entre les quarks et les leptons ? Dès les premiers mois après le démarrage du LEP, les mesures indiquent qu’il n’existe pas dans la Nature de nouvelle famille de constituants élémentaires similaire aux trois déjà connues. Ce résultat est très important car aucune théorie ne permet de prédire ce nombre de familles. Finalement c’est le premier scénario de S. Glashow qui va être le bon et les physiciens participant aux quatre grandes expériences installées sur le collisionneur vont faire des mesures précises et les mettre en commun afin de valider le Modèle Standard.

© Patrick Roudeau

Les protons explorateurs du LHC Pour explorer de nouveaux domaines à haute énergie, il était donc nécessaire de construire un collisionneur à protons : ce sera le LHC. Le LHC réutilise non seulement le tunnel creusé pour le LEP mais également l’ensemble des accélérateurs déjà existants au CERN qui augmentent progressivement l’énergie des protons avant leur injection dans le grand anneau. Avec des aimants supraconducteurs spécialement développés pour cette machine et produisant un champ de 8,4 T, il est possible de faire circuler des protons dans l’anneau jusqu’à une énergie de 7 TeV, soit 70 fois celle des électrons du LEP.

DR

Les buts du LHC étaient de découvrir le boson H et d’établir la nature de la physique nouvelle qui devait se manifester par l’apparition de particules inconnues ayant des masses aux alentours de 1 TeV, compte tenu des échelles d’énergie des interaction électromagnétique et faible. Ces mêmes considérations avaient été mises en avant pour proposer, dès 1983 aux USA, la construction du SSC (Superconducting Super Collider), date à laquelle débutaient en Europe les études pour le LHC. Le site pour le SSC avait été choisi en 1988, au Texas, et l’énergie des collisions devait être de 40 TeV. La construction des bâtiments avait démarré et des équipes techniques ainsi que des physiciens étaient déjà au travail. Vingt trois kilomètres de tunnel, sur un total de 87, avaient été réalisés et deux milliards de dollars dépensés quand, en 1993, le projet a été abandonné. Les raisons d’une telle décision du Congrès américain sont sans doute multiples. Le fait que les physiciens n’aient pas su convaincre les politiciens qui devaient voter le budget, la dérive du coût de la machine évalué initialement à six milliards de dollars et ayant doublé en 1993, le lobbying du CERN qui présentait le LHC comme une machine moins chère pouvant obtenir des résultats similaires, etc. Ne disait-on pas que le LHC atteindrait la moitié de l’énergie du SSC pour 1/5 de son coût ? Les USA n’ont pas su non plus impliquer d’autres pays dans le financement de leur projet.

Bâtiments du SSC abandonnés depuis plus de vingt ans. L'ensemble des lieux a été acheté en 2011 par l'entreprise chimique Magnablend à des fins de stockage.

page 30

Le programme de fonctionnement du LHC est établi jusqu’en… 2035 et sera sans doute réorienté compte tenu de différents événements, de

ÉLÉMENTAÍRE


ou bien aller tout droit ? toute nature, pouvant survenir d’ici là. Il consiste en une succession de périodes d’enregistrement de données et d’améliorations de la machine durant chacune deux à trois ans. Après deux ans d’arrêt, la machine a ainsi redémarré au printemps 2015 à une énergie totale de 13 TeV. La prochaine grande étape sera en 2023. Jusqu’à cette date, le LHC devrait avoir produit dix fois plus de collisions que ce qui a été obtenu durant la période 20102012, et à plus haute énergie, puisque l’on sera passé de 8 à 13 (voire 14 TeV). En 2023, plusieurs améliorations seront apportées qui doivent permettre un gain d’un facteur dix supplémentaire sur le taux des collisions. Il s’agit de la phase à haute luminosité pour laquelle un ensemble d’études a été lancé en 2011 et dont les conclusions ont été publiées en janvier 2016. Ces études se font en collaboration avec les États-Unis qui ont déjà contribué à certains éléments importants du LHC et qui n’ont pas (pour l’instant ?) de projet de construction d’un nouveau grand accélérateur.

1/5 de son coût Il est encore difficile de chiffrer le coût d'un projet comme le LHC, même après sa réalisation. En effet, il s'étale sur plusieurs décennies et concerne différents pays. Les taux de change varient, doiton inclure le prix des expériences, le coût des personnels, la mise en place des infrastructures internationales de calcul qui sont indispensables à l'analyse des données enregistrées ? Le CERN a évalué à 4,6 GCHF le prix (en 2010) de la machine et à 1,1 GCHF sa contribution aux expériences. Dans ces sommes, le coût des personnels est inclus et voisin de 2 GCHF. Le CERN a une participation minoritaire, de l'ordre de 20 %, au financement de la construction des expériences. En tenant compte de l'évolution des taux de change, le coût du LHC, seul, est ainsi deux fois moindre que celui du SSC au moment de l'abandon du projet. Soulignons que la machine utilise le tunnel de 27 km creusé pour le LEP (0,5 GCHF d'économies).

Va-t-on tourner en rond ? Réaliser des collisions proton-proton reste l’unique moyen pour atteindre des énergies de plusieurs dizaines de TeV. L’énergie maximale de la machine est alors déterminée par la taille envisageable pour le tunnel, compte tenu de son coût, et de la valeur du champ magnétique qui courbe la trajectoire du faisceau le long de l’anneau. Une énergie de 50 TeV par faisceau semble actuellement réalisable pour des protons guidés dans un anneau de 80 km de circonférence par des champs magnétiques de 20 T. Si l’on envisage également la circulation d’électrons et de positrons dans le même anneau, connaissant la puissance maximale que l’on peut fournir raisonnablement au faisceau afin de compenser le rayonnement synchrotron, il est possible d’estimer, pour différentes énergies de fonctionnement de la machine, le nombre maximal de particules que l’on peut accélérer et, ainsi, la luminosité du collisionneur.

Actuellement réalisable Le rayon de courbure (R en km) de la trajectoire d’une particule de haute énergie (E en TeV) circulant dans un champ magnétique uniforme (B en teslas), perpendiculaire à son mouvement est égal à : R = E/(0,3 B). Cela donne une limite inférieure (et de fait, un ordre de grandeur réaliste) sur le rayon de l'accélérateur à construire pour atteindre une telle énergie. En effet, l'anneau n'est pas un cercle parfait et il contient non seulement des aimants de courbure, mais aussi des sections droites avec des cavités accélératrices et des aimants de focalisation, ce qui « allonge » la circonférence de l'anneau pour obtenir une énergie donnée.

Va-t-on reproduire dans l’avenir l’alternance entre collisionneurs à protons et à électrons : Spp–S → LEP → LHC avec la succession LHC →FCCee → FCC-hh (FCC signifie Futur Collisionneur Circulaire) ? Le collisionneur électron-positron (FCC-ee) devrait-être construit en premier pour, notamment, mesurer de manière précise les propriétés du boson H découvert récemment au LHC. Il serait suivi du collisionneur à protons (FCC-hh), occupant le même tunnel. Comme l’on connaît la masse de ce boson et le mécanisme qui conduit à sa production dans ce type de machine : e+ e- → Z0 H

ÉLÉMENTAÍRE

page 31

l’énergie du collisionneur est alors déterminée (de l’ordre de 240 GeV). Notons en passant, que cette énergie est à peine supérieure à celle atteinte par le LEP (209 GeV).


Faut-il tourner en rond... Possible d’estimer Actuellement, on considère qu’il est possible de fournir une puissance maximale de 50 MW à chacun des faisceaux d'électrons et de positrons pour compenser le rayonnement synchrotron. Quatre énergies pour les collisions sont envisagées avec des objectifs scientifiques différents. À 90 GeV la machine sera une source intense de bosons Z0 ce qui permettra d’améliorer grandement la précision des mesures de LEP. Vers 160 GeV ce seront les propriétés des bosons W± qui seront mesurées. À 240 GeV on pourra étudier en détail les propriétés du boson H à travers la réaction : e+ e− → Z0 H. Enfin, à 350 GeV, ce sont les propriétés du quark top qui seront mesurées.

Quelques propriétés d'un collisionneur électron-positron de 80 km de circonférence dans l’hypothèse où chaque faisceau rayonne 50 MW par émission de lumière synchrotron. Quatre valeurs pour l'énergie des collisions sont envisagées en fonction des objectifs de physique. La luminosité prévue dans chaque cas est supérieure aux valeurs obtenues dans les machines actuelles les plus performantes (pour mémoire, le LEP n'a pas dépassé 1032 cm-2 s-1). On peut noter que la durée de vie attendue pour les faisceaux (temps au bout duquel on a perdu environ 2/3 des particules) est de quelques dizaines de minutes seulement. C'est le prix à payer pour obtenir de fortes luminosités instantanées. Ceci implique que l'on injecte en permanence des électrons et des positrons dans la machine pour compenser les particules perdues pendant son fonctionnement. Un tel dispositif a déjà été utilisé aux USA et au Japon, à plus basse énergie, dans les collisionneurs PEP-II et KEK-B.

Afin d’élargir le spectre de la physique étudiée, il serait sans doute intéressant de pouvoir également mesurer précisément les propriétés du quark top. Le mécanisme de production est dans ce cas : e+ e- → top anti-top, ce qui nécessite une énergie de 350 GeV, compte tenu de la masse de ce quark (173 GeV/c2). Notons en passant Le collisionneur LEP a atteint, en 2000, la dernière année de son fonctionnement, l'énergie de 209 GeV, une valeur dont on sait aujourd’hui qu'elle n'était pas suffisante pour produire le boson H (dont la masse est égale à 125 GeV/c2) en association avec un Z0. Il a donc manqué seulement une vingtaine de GeV d'énergie à la machine pour effectuer cette découverte. Les mesures de précision de LEP indiquaient que le boson H devait être relativement léger avec une masse inférieure à 285 GeV/c2 à 95 % de niveau de confiance. D’autre part, des considérations théoriques utilisant la SUperSYmétrie (SUSY) prédisaient que la masse de ce boson devait être inférieure à 126 GeV/c2. À l'époque, des physiciens du CERN, sous l’impulsion de D. Treille, ont tenté de convaincre les instances dirigeantes de l'organisation afin que plus de cavités accélératrices soient installées dans l’anneau pour explorer la production du boson H dans le domaine prévu par SUSY. Cela aurait retardé le démarrage du LHC d’une ou deux années… mais le boson H aurait été découvert une dizaine d’années plus tôt ! Chacune des quatre expériences aurait observé un signal significatif mais le nombre d'événements aurait été trop faible pour étudier les propriétés de ce boson, hormis sa masse. L'investissement était modeste pour ce genre d'expérience, de l'ordre de 100 MCHF mais la pression des physiciens, déjà engagés dans le programme LHC depuis plusieurs années, fut la plus forte.

page 32

Il faut aussi noter que le Tevatron, avait démarré aux USA et aurait pu observer le boson H avant le CERN à condition que cette particule ne fut ni trop légère ni trop lourde. En effet, dans le Modèle Standard ou dans la plupart des modèles de Nouvelle Physique possédant un scalaire léger, la masse du boson H est inconnue. Cette particule aurait pu donc être relativement légère (c'est-à-dire voisine de la limite donnée par LEP, aux alentours de 100 GeV/c2) ou bien dix fois plus lourde. Ni l'un ni l'autre de ces scenarii ne convenaient au Tevatron : un boson H lourd était inaccesssible du fait de l'énergie des collisions et un boson trop léger (moins de 150 GeV/c2) se désintègre principalement dans des canaux pour lesquels il aurait été très difficile d'observer un signal vu l'importance du bruit de fond. Malheureusement pour le Tevatron, c'est cette dernière situation qui se trouve réalisée par la Nature... et c'est au LHC qu'est revenu le plaisir de la découverte du boson H.

ÉLÉMENTAÍRE


ou bien aller tout droit ? La machine pourrait aussi fonctionner à des énergies plus basses et à très haute luminosité afin d’améliorer encore les mesures du LEP sur les propriétés des bosons Z0 et W±, dans l’espoir d’observer des différences (minimes) par rapport à ce que prédit la théorie actuelle. Dans le même tunnel pourrait ensuite être installé un collisionneur à protons pour atteindre des énergies nettement plus élevées.

© CERN

Le CERN et la Chine ont chacun un projet de collisionneur à protons de haute énergie. La taille et l’énergie de ces machines ne sont pas encore précisément définies. Dans le même tunnel il est également proposé de réaliser au préalable, dans les deux cas, un collisionneur électron-positron.

Représentation schématique du FCCee. Contrairement à LEP, les électrons et les positrons voyagent dans deux tubes séparés. En effet, pour atteindre de hautes luminosités, il est nécessaire que de nombreux paquets de particules circulent dans la machine sans être perturbés par ceux de l'autre faisceau. Pour les mêmes raisons, un troisième anneau de la même taille assure en permanence l'injection d'électrons et de positrons à l'énergie de fonctionnement du collisionneur.

La construction de telles machines est un projet à long terme car de nombreuses études sont nécessaires pour définir précisément les aspects techniques qui nécessitent des améliorations par rapport à la technologie actuelle et construire des prototypes. On citera par exemple la réalisation d’aimants générant un champ magnétique élevé (15-20 T, soit une augmentation d’un facteur deux à trois par rapport aux aimants du LHC) ainsi que des cavités accélératrices permettant de fournir une forte puissance au faisceau. Dans le cas du projet FCC-hh du CERN, des groupes de travail ont été formés en 2014 et les paramètres de base de la machine sont en cours de définition. Fin 2016, une première évaluation du coût sera réalisée et le projet ajusté compte tenu des résultats du LHC. Un rapport réunira l’ensemble des éléments permettant de concevoir et de réaliser la machine. Il sera remis fin 2018 pour être discuté au niveau des instances européennes. Ces études sont ouvertes à l’ensemble des laboratoires dans le monde qui désirent y contribuer.

© CERN

Une implantation possible pour le FCC (Futur Collisionneur Circulaire) dans la région de Genève. La structure géologique du site est complexe puisque l'anneau rencontre les contreforts de plusieurs massifs montagneux et passe sous une partie du lac Léman.

ÉLÉMENTAÍRE

page 33

Comparaison des projets européen et chinois d'accélérateurs circulaires.


Faut-il tourner en rond... Dans le projet chinois, qui fait l’objet d’études depuis une dizaine d'années, le collisionneur électron-positron pourrait être construit à Qinhuangdao, une ville située sur la côte à 300 km à l’est de Pékin, entre 2021 et 2027 et produire des collisions entre 2028 et 2035. Une des raisons du choix de ce site est liée à la géologie particulièrement favorable au creusement d’un grand tunnel. La construction du collisionneur à protons s’étendrait de 2035 à 2042. L’intérêt de ce projet est qu’il pourrait débuter tôt et produire des collisions électron-positron en parallèle avec la phase du LHC à haute luminosité. Alors que les moyens financiers du CERN (et de l’Europe) sont mobilisés par le LHC et notamment pour le programme d’améliorations envisagé, il est possible que le gouvernement chinois désire financer un futur collisionneur.

Vue aérienne de Qinhuangdao. Les deux cercles correspondent aux variantes envisagées pour le futur collisionneur avec des circonférences de 52 et de 80 km.

Le projet est d’ailleurs décliné en deux versions. La plus modeste correspond à une machine de 52 km qui pourrait être construite entièrement par la Chine et pour un coût de 3 G$. Une variante plus ambitieuse prévoit un tunnel de 80 km, à la condition que des pays étrangers s’associent au projet. Cependant, l’énergie actuellement envisagée pour les collisions entre électrons et positrons, qui est adaptée à la production du boson H, est relativement faible et ne permet pas de produire et d’étudier en détail des quarks top. D’autre part, la Chine n’a pas d’expérience dans la construction d’accélérateurs de très haute énergie. La machine projetée est complexe et serait construite dans un lieu où aucune infrastructure n’existe. Il faudrait donc des contributions technologiques importantes venant d’autres pays. Un centre international a été créé (Center for Future High Energy Physics) dont le directeur est le physicien théoricien américain d’origine iranienne Nima Arkani Ahmed. Ce centre est destiné à rassembler une communauté internationale importante et à organiser les études pour réaliser le futur collisionneur.

Sur cette carte on peut localiser la ville de Qinhuangdao (flèche bleue) par rapport à Pékin (flèche rouge), distante de 300 km.

Et pourquoi pas tout droit ? Il convient de mentionner un autre grand projet : l’ILC (International Linear Collider) qui est un collisionneur linéaire (et non plus circulaire) électron-positron dont les études se sont terminées en juin 2013 et dont la construction pourrait débuter prochainement, si le Japon, qui envisage la possibilité d’être le pays hôte, se déclare effectivement intéressé. Cette machine est à même de réaliser la physique envisagée aux grands collisionneurs électron-positron mentionnés précédemment. Générer des collisions en utilisant deux accélérateurs linéaires a l’avantage que le rayonnement synchrotron n’est plus une limitation pour atteindre de hautes énergies. Par contre, alors que dans les anneaux de collision les faisceaux circulent de manière stable et se croisent en permanence, dans un collisionneur linéaire, il faut recréer les faisceaux après chaque collision car on ne peut pas récupérer les particules des faisceaux utilisés. Afin que le taux de collisions soit suffisant, il est alors nécessaire que la taille page 34

DR

ÉLÉMENTAÍRE


ou bien aller tout droit ? transverse des faisceaux soit de quelques nanomètres, ce qui n’est pas sans poser quelques difficultés pour que les deux faisceaux se rencontrent. Des collisions entre deux faisceaux de 45 GeV, issus d’un accélérateur linéaire et dont la taille transverse était de quelques micromètres, ont déjà été réalisées au Stanford Linear Accelerator Center, ou SLAC (USA) dans les années 1990. Un dispositif expérimental installé au laboratoire KEK au Japon (Accelerator Test Facility 2, ATF2) a également permis de tester le système de focalisation du faisceau. Des tailles inférieures à 40 nm ont été obtenues et la position du faisceau a été stabilisée à mieux que 2 nanomètres. © KEK

Les études en vue de la construction d’un collisionneur linéaire ont eu lieu durant de nombreuses années. Deux projets ont été poursuivis. Nous avons déjà évoqué l'ILC. Un deuxième projet, le CLIC (Compact LInear Collider), proposé par le CERN, utilise une technologie d’accélération non conventionnelle dans laquelle l’énergie transportée par un deuxième faisceau intense d’électrons et de basse énergie (allant de 2,4 GeV à 0,24 GeV) est progressivement transférée aux particules du faisceau principal (dont l’énergie peut atteindre 3 à 5 TeV). Cette approche doit permettre de créer des champs accélérateurs supérieurs à ceux générés dans les méthodes plus classiques utilisées dans l’autre projet (ILC). Ce dernier est similaire à l’accélérateur de Stanford mais utilise des cavités accélératrices plus performantes. Récemment, ces deux projets ont été regroupés au sein de l’organisation LCC (Linear Collider Collaboration) dont le but est de coordonner les recherches menées de part et d'autres afin qu’un collisionneur linéaire soit construit. Lynn Evans, qui a été le chef de projet du LHC, est à la tête de cette nouvelle stratégie. Les rapports techniques disponibles depuis juin 2013 marquent la fin d’une série d’études et de tests effectués pendant de nombreuses années par environ 700 physiciens pour la machine et 900 pour les détecteurs. Le projet est mûr sur le plan scientifique et nécessite maintenant une décision politique. Le coût d’un tel collisionneur produisant une énergie de 500 GeV a été évalué en 2012 à 8 G$.

Ensemble de quadrupôles (lentilles magnétiques) de l'installation ATF2 (KEK, Japon) qui permettent de focaliser un faisceau d'électrons pour atteindre des tailles de quelques dizaines de nanomètres dans le plan transverse.

Présentation schématique de l'ILC dans lequel entrent en collision des électrons et des positrons accélérés indépendamment par deux accélérateurs linéaires. La longueur totale de l'ensemble est de 31 km. Le point de collision unique est marqué d'une croix rouge.

Le Japon a une longue tradition de construction de collisionneurs électronantiélectron. Au vu des temps nécessaires pour concevoir et construire de tels expériences, les physiciens japonais commencent d'ores et déjà à réfléchir au collisionneur qui succédera à l'usine à beauté Super-KEK-B, tout juste en démarrage à Tsukuba. Aussi, une demande a-t-elle été faite à son gouvernement afin que le Japon soit le pays hôte du collisionneur linéaire. Une première réponse sous la forme d’un rapport du « Science Council » japonais, de septembre 2013, a formulé deux requêtes. Ce comité désire plus d’arguments convaincants concernant la recherche de physique nouvelle, compte tenu des progrès attendus quant au fonctionnement du LHC. Il demande aussi une évaluation précise des coûts de construction, de fonctionnement et de démantèlement de la machine ainsi que d’étudier le partage des coûts entre les différents utilisateurs. Un premier rapport du Ministère de l'Education japonais a été publié en juin 2015 et résume les résultats de trois groupes de travail mis en place par le ministère en mai 2014. Il apparait que

ÉLÉMENTAÍRE

page 35

© Jullien Serreau

DR


Faut-il tourner en rond... le coût de la machine (hors infrastructures annexes) est très élevé par rapport à celui des accélérateurs construits précédemment au Japon (environ dix fois plus cher). Il faudrait donc que d'autres pays participent au financement de cette machine. Il est aussi clair que le gouvernement japonais étudiera de près les résultats qui seront obtenus au LHC en 2017 à l’énergie de 13 TeV, avant de prendre une décision en 2018. Dans l’intervalle, des groupes de travail planchent sur différents aspects du projet. Les études développées pour la réalisation d’un collisionneur linéaire ont eu de nombreuses retombées techniques. En particulier, les performances des cavités accélératrices supraconductrices ont été © Rey Hori-KEK beaucoup améliorées. Celles construites pour le LEP généraient un champ électrique inférieur à 8 MV/m alors que les cavités réalisées pour l’ILC atteignent 35 MV/m. On peut aussi remarquer que les deux pays qui ont envisagé la construction de cette machine (USA et Allemagne) ont développé des sources intenses de photons dans le domaine des rayons X. Ce rayonnement synchrotron est émis lors du passage des électrons dans des structures magnétiques spéciales dont les propriétés permettent d’obtenir une émission cohérente de lumière. Beaucoup de photons sont alors produits sous la forme d’impulsions de quelques dizaines de femto secondes. Il est alors possible d’étudier, par exemple, des réactions chimiques au niveau de molécules individuelles.

Trop tôt pour conclure

Une vue d'artiste de l'ILC

Le domaine d’énergie à explorer en détail avec un collisionneur électronpositron n’est pas très élevé (moins de 500 GeV) et un collisionneur circulaire reste envisageable, en dépit des pertes par rayonnement synchrotron. Les objectifs de physique consistent à réaliser des mesures de précision afin de détecter, on l’espère, des écarts par rapport aux prédictions théoriques effectuées dans le cadre du Modèle Standard. Si tel était le cas, de la physique nouvelle pourrait ainsi être trouvée en dépit du fait que l’énergie de la machine ne soit pas suffisante pour produire directement les particules correspondantes. Le même tunnel pourrait ensuite être réutilisé pour y installer un collisionneur à protons qui, lui seul, permettrait d’explorer un nouveau domaine en énergie dans lequel pourraient apparaître de nouvelles particules ayant des masses de plusieurs TeV/c2. D’ici là, plusieurs groupes d’études auront défini les points critiques de ces projets de machines circulaires. De nombreuses améliorations des performances (et du coût) des composants des accélérateurs existants devront être apportées. En effet, si l’on extrapole naïvement les coûts du LHC, on atteint plusieurs dizaines de milliards de CHF pour de telles machines.

page 36

© Julien Serreau

Avant que des décisions ne soient prises sur les caractéristiques de ces accélérateurs il convient d’attendre les prochains résultats du LHC (vers 2018). La découverte ou non de nouvelles particules lors de cette seconde phase du LHC sera un argument de poids dans les procédures nationales et internationales pour le choix de la future machine et la décision de la construire.

ÉLÉMENTAÍRE


Expériences Les améliorations des détecteurs du LHC La vie au LHC n’est pas un long fleuve tranquille. Les détecteurs sont soumis à un flux de particules intense résultant des collisions de protons. Ceci engendre une usure des détecteurs qui nécessite leur maintenance régulière et le remplacement de certains éléments si l’on veut conserver des performances optimales. Cette situation est compliquée par le fait que le LHC lui-même évolue : après un arrêt de près de deux ans entre 2013 et 2015, l’accélérateur a redémarré au printemps 2015 avec une énergie disponible dans les collisions de protons qui est passée de 8 à 13 TeV ! La luminosité n’est pas en reste puisque un doublement est prévu dans les années à venir. Ces nouvelles conditions propices à des découvertes ont obligé les physiciens à se remettre à l’ouvrage en améliorant les détecteurs (on parle d'« upgrades »), en profitant des pauses offertes par le calendrier.

La luminosité traduit la capacité d’un collisionneur à produire des collisions. Elle s’exprime en cm-2s-1. Le produit de la section efficace d’interaction (exprimée en cm2) par la luminosité représente le nombre d’interactions produites par seconde. Ainsi, connaissant la section efficace inélastique proton-proton (environ 10-25 cm2) et la luminosité que l’on devrait atteindre dans les prochains mois, de l’ordre de 1034 cm-2s-1, le LHC produira 109 interactions par seconde, soit plus de 1016 par an (en tenant compte des périodes d’arrêt ou de maintenance).

DR

Quelles découvertes ?

Calendrier des arrêts prévus pour le LHC (en date de mi-2015).

ÉLÉMENTAÍRE

page 37

Ainsi, en parallèle avec le travail de finalisation et de publication des analyses des données enregistrées pendant cette – ô combien fructueuse – première période de prise de données (2010-2012), de nombreuses opérations de maintenance et d’amélioration des détecteurs ont eu lieu. Les raisons de ces activités sont multiples. Tout d’abord, certains éléments s’usent avec le temps – ils « vieillissent » – tandis que l’oxydation et l’humidité résiduelles finissent par attaquer localement l’appareillage. S’ajoute aux pannes – rares mais impossibles à éviter totalement – l’effet des radiations dues aux produits des collisions proton-proton du LHC, intenses et à haute énergie, qui abîment certaines pièces des détecteurs, diminuant ainsi leurs performances. Les arrêts de longue durée de l’accélérateur sont les bons moments pour effectuer des réparations. De plus, les détecteurs doivent maintenir, voire améliorer, leur niveau de performances année après année, et ce alors que le LHC va fournir des faisceaux plus intenses de protons à des énergies plus élevées. Cet objectif demande des systèmes de lecture des données toujours plus rapides et précis, afin de pouvoir traiter immédiatement les événements

La découverte du boson H en 2012 par les expériences ATLAS et CMS au CERN marque une étape importante dans l’histoire de la physique des particules. Dans la zoologie des particules élémentaires, le boson H est (à ce jour) l’unique particule sans spin (sorte de moment angulaire intrinsèque). Il est donc de première importance de mesurer avec précision toutes ses propriétés et notamment ses modes rares de désintégration et de production. Cela exige l'accumulation de grandes quantités de données. L’augmentation de la luminosité du LHC devrait permettre d'obtenir une partie de ces informations sur le boson H dans des délais « raisonnables » (de l’ordre de la dizaine d’années). À ce jour, tout indique que la théorie en vigueur, le Modèle Standard de la physique des particules, reste valable jusqu'à des échelles d'énergie très élevées. Cependant, des modèles alternatifs (la supersymétrie par exemple) prédisent la présence de particules supplémentaires très massives. On espère que l'augmentation de l'énergie du LHC permettra de produire ces nouvelles particules hypothétiques.


Les améliorations... lus, de rejeter efficacement ceux qui sont inintéressants et de sélectionner les signaux recherchés, le tout sans mettre en péril le potentiel de physique et de découverte de l’expérience. Enfin, il peut être utile d’ajouter des détecteurs dans des régions actuellement dépourvues d’instrumentation, pour mieux détecter certains types d’événements.

Pseudo-rapidité Dans les collisionneurs hadroniques comme le LHC, on utilise cette variable, notée η, à la place de l’angle polaire θ pour mesurer la direction d’une particule par rapport à l'axe des faisceaux. Par définition, la pseudo-rapidité vaut η=0 pour θ = 90o et elle tend vers l'infini (c’est-à-dire qu'elle prend une valeur de plus en plus grande) à mesure que la trajectoire de la particule s'approche de la ligne des faisceaux. L'intérêt de son utilisation à la place de l’angle polaire θ est double. D'abord, la production des particules varie peu avec la pseudo-rapidité (un exemple concret : le nombre de particules émises dans l’intervalle de pseudo-rapidité [η ; η+1] est indépendant de la valeur de η) alors qu’elle change très rapidement lorsque θ se rapproche de 0o ou de 180o. Par ailleurs, la différence entre les pseudo-rapidités de deux particules reste constante quand on passe du référentiel du laboratoire au référentiel du centre de masse de la collision — et vice-et-versa.

Régions dépourvues d’instrumentation Un « rêve » des physiciens travaillant sur les collisionneurs est de construire des détecteurs complètement hermétiques, c'est-à-dire pouvant étudier toutes les particules « détectables » produites au point d’interaction, indépendamment de leurs trajectoires (les neutrinos interagissent trop peu pour laisser une trace visible dans les appareillages, aussi perfectionnés soient-ils). Ceci n'est jamais possible : d’une part parce qu’un espace doit être prévu au centre des détecteurs pour le passage du tube à vide contenant les faisceaux, et d’autre part parce que des contraintes, technologiques comme financières, limitent souvent l'extension des sous-détecteurs qui, une fois assemblés, forment le détecteur global. Ainsi, on se retrouve toujours au final avec des régions dites « mortes », c'est-à-dire où aucune mesure n'est possible, ou encore avec des zones insuffisamment équipées, qui n'offrent qu’une information partielle ou imprécise sur les particules qui les traversent. Optimiser un détecteur demande de limiter au maximum ces régions. On peut citer dans le cas d'ATLAS l'exemple suivant : l’identification d’un électron requiert des informations du calorimètre électromagnétique (qui mesure l'énergie de la particule chargée) ainsi que du détecteur de traces (qui reconstruit sa trajectoire avant d'arriver au calorimètre). Or, le détecteur interne couvre l’intervalle de pseudorapidité allant de -2,5 à 2,5 (de 9,4o à 170,6o en utilisant l'angle polaire θ) : la sensibilité aux électrons n'est donc optimale que dans cette région. En dehors, l'absence d’information sur l'existence ou non d’une trace chargée en amont du dépôt d'énergie oblige à n'utiliser que le calorimètre pour reconnaître les électrons, ce qui est une méthode d’identification moins performante.

Table de correspondance entre la pseudo-rapidité η et l'angle polaire θ.

Les améliorations prévues pour ATLAS La préparation du Run 2 (2015-2018) Commençons par les modifications apportées au détecteur ATLAS en vue du redémarrage de l’accélérateur lors du Run 2. Rappelons que l’énergie dans le centre de masse est passé de 8 à 13 TeV tandis que la luminosité instantanée (voir Accélérateurs) a atteint rapidement 1,2x1034cm-2s-1, soit environ le double de celle du Run 1. Côté ATLAS, la principale nouveauté pour cette seconde période de prise de données est à chercher très près de l’axe des faisceaux. En effet, au cœur du détecteur, le tube à vide dans lequel circulent les protons a été remplacé. Le nouveau tube est construit dans un matériau plus léger, ce qui diminue la probabilité que sa structure n’interagisse avec une particule issue d’une collision proton-proton qui traverse sa paroi pour pénétrer dans le détecteur. Le diamètre de ce tube est également plus petit que celui de l’ancien, ce qui laisse de la place pour ajouter une quatrième couche de détecteurs

DR

page 38

L'évolution de la pseudo-rapidité η en fonction de l'angle polaire θ. η vaut 0 pour une particule émise perpendiculairement à la direction des faisceaux et prend une valeur très élevée en valeur absolue à mesure que la trajectoire de la particule se rapproche de celle des faisceaux

ÉLÉMENTAÍRE


des détecteurs du LHC au silicium. Ce nouvel élément, appelé IBL (pour « Insertable B-layer » que l’on pourrait traduire approximativement par « couche de détecteur ajoutée pour améliorer la détection des hadrons beaux ») améliore grandement la reconstruction des traces (c'est-à-dire des trajectoires des particules) près du point de collision. Ainsi, la séparation des traces proches est facilitée, tout comme la reconstruction du point d’interaction, appelé aussi vertex primaire. Grâce à l’IBL installé en mai 2014, on améliore l’identification des vertex multiples et la reconnaissance des vertex décalés indiquant la désintégration d’une particule (par exemple un hadron beau) après qu'elle ait parcouru une distance notable à travers le détecteur.

Le détecteur ATLAS Il s’agit du détecteur le plus volumineux du LHC. Il est installé dans la caverne située au point de collision « P1 » (point 1), la plus proche des bâtiments principaux du CERN (ce qui est très commode pour les membres de cette collaboration qui peuvent aller à pied de leur bureau à la zone expérimentale). ATLAS mesure 50 m de haut pour une longueur de 45 m. Comme la plupart des détecteurs sur collisionneur, ATLAS possède une symétrie cylindrique autour de l’axe des faisceaux et il est constitué d’une partie centrale et de deux « bouchons » comme le montre la vue globale du détecteur peinte sur le bâtiment d'ATLAS page 42. Si on prend une tranche verticale du détecteur, une particule créée au point de collision au centre d'ATLAS va, en s’éloignant, d'abord rencontrer le trajectographe qui détecte et suit les particules chargées. Cet instrument comporte plus de 100 millions de capteurs de silicium et des tubes remplis de gaz ; l’ensemble baigne dans un champ magnétique intense de deux teslas grâce auquel on mesure l’impulsion (l’équivalent relativiste de la quantité de mouvement classique, qui est égale au produit de la masse par la vitesse du système considéré) et la charge des particules. Au-delà du trajectographe se trouvent le calorimètre électromagnétique (dans son cryostat) puis le calorimètre hadronique ; tous deux servent à mesurer l’énergie des particules qui les traversent. La partie la plus externe du détecteur est occupée par l’imposant ensemble des détecteurs à muons, plongé dans le champ magnétique de quatre teslas créé par huit aimants supraconducteurs toroïdaux.

© ATLAS

© ATLAS

Plusieurs parties du détecteur ATLAS ont également été changées et renforcées pendant le long arrêt du LHC. Citons les réparations de chambres à muons défectueuses et l’ajout de nouveaux détecteurs dans certains endroits du trajectographe afin d’améliorer les performances au niveau de la reconstruction des traces chargées.

ÉLÉMENTAÍRE

Dessin d’une « tranche » d’ATLAS (vu de face) montrant la succession des détecteurs (représentés chacun par une couleur différente) à partir du point de collision des protons (situé à l’intérieur du cercle blanc en bas de l’image, qui représente le tube dans lequel circulent les faisceaux). On a représenté les signatures expérimentales variées laissées par les différents types de particules.

page 39

Coupe transverse illustrant le positionnement du nouveau détecteur IBL au cœur d’ATLAS. Vingt-sept mille pièces de silicium de dimension 50×250 μm2 sont montées sur des unités de lecture de taille 19×20 mm2 environ. Ces unités sont par la suite installées par série de 32 sur l'une des 14 structures (signalées sur la figure par leur coupe triangulaire en gris foncé) de 64 cm de long. Ces structures sont agencées en biais autour du tube à vide (en jaune) afin de restreindre les zones mortes. Le rayon du tube à vide d’ATLAS pour le Run 2 vaut 23,5 mm, contre 29 pour le Run 1.

© ATLAS

ATLAS dans sa caverne.


© ATLAS

© ATLAS CERN

Les améliorations...

Insertion au centre d’ATLAS en mai 2014 de l'IBL monté sur le nouveau tube à vide.

Schéma du détecteur ATLAS.

© CERN

Vertex multiples

Visualisation des vertex multiples reconstruits dans un événement qui contient une désintégration intéressante d’un boson Z en deux muons, indiqués par les lignes jaunes. Les différents vertex sont représentés par les petits carrés colorés ; chaque ligne de couleur est une trace chargée reconstruite.

La grande quantité de protons contenus dans chaque paquet provoque une multitude de collisions à chaque croisement des faisceaux au centre des détecteurs. Même si elles sont loin de toutes donner naissance à des processus physiques intéressants, elles génèrent de nombreuses traces plus ou moins énergétiques qui sont enregistrées simultanément et qui rendent la reconstruction globale de l'événement plus difficile. À titre d'exemple, pendant la prise de données de 2012, 20 collisions en moyenne se superposaient dans chaque événement enregistré. La séparation de ces nombreux vertex requiert des détecteurs et des algorithmes capables de reconstruire les trajectoires des particules au plus près de l’axe des faisceaux.

DR

Vertex décalés

page 40

Schéma d’une coupe transverse de couches de pixels du détecteur ATLAS montrant des traces provenant du vertex primaire (interaction au point de collision des deux faisceaux, trajectoires rouge et bleu) et d’un vertex décalé (trajectoires vertes). Les pointillés montrent le trajet – invisible pour les détecteurs – suivi par une particule neutre depuis le vertex primaire où elle a été produite jusqu’au vertex décalé où elle s’est désintégrée.

La majorité des particules instables créées au LHC (par exemple les bosons W+, W−, Z0, ou encore le boson H) se désintègrent quasi-instantanément, si bien que leur trajectoire se confond avec le point d’interaction (ou vertex d’interaction) où les deux protons sont entrés en collision. D'autres particules instables comme les mésons B0 (des hadrons beaux) ont une durée de vie plus longue, ce qui leur permet de parcourir une distance mesurable (quelques millimètres) dans le détecteur ATLAS avant de se désintégrer. Leur désintégration produit des particules chargées stables ou de durée de vie plus longue et qui sont détectées dans le trajectographe. La signature possible d’un méson B0 dans le détecteur ATLAS est donc l'apparition d’un vertex décalé par rapport au point d’interaction, vertex qui est reconstruit dans le détecteur interne à partir des trajectoires des particules chargées. Plus les couches de ce détecteur sont proches de l’axe des faisceaux, plus les vertex déplacés sont facilement et efficacement identifiés. Des vertex décalés sont aussi observés dans le cas de la conversion d’un photon (neutre) en paire électron-positron (des particules chargées) suite à ses interactions avec la matière qu’il a traversée.

ÉLÉMENTAÍRE


des détecteurs du LHC En route vers le Run 3 (2020-2022)

Système de déclenchement À chaque croisement des paquets de protons au centre de chacun des détecteurs, de nombreuses particules chargées sont produites lors de collisions. Les interactions inintéressantes d’un point de vue physique ne doivent pas être enregistrées. Des systèmes électroniques combinés à des logiciels traitent les informations recueillies dans les détecteurs pour juger de la pertinence de l'événement.

Fin 2018 le LHC va s’arrêter à nouveau. En prévision de ces deux années d’interruption de prise de données, la collaboration ATLAS se concentre sur le développement des outils nécessaires pour pouvoir profiter de la très haute luminosité du Run 3 (voir Accélérateurs), et elle travaille sur l’amélioration des performances du système de déclenchement de l’expérience. L’effort principal vise à adapter la chaîne de lecture des données et la reconstruction des événements en direct en tenant compte du très grand taux de collisions à traiter. Commençons par le calorimètre électromagnétique à argon liquide qui mesure l’énergie des électrons et des photons qui y sont absorbés. Actuellement, on regarde des « tours » (un ensemble de cellules voisines dans le calorimètre où on a détecté des électrons et des photons), et on détermine l'énergie de cette « tour » en faisant la somme des énergies mesurées dans chacune des cellules. Un événement est retenu pour les phases ultérieures de la sélection si l’énergie d’une « tour » dépasse un certain seuil, choisi suffisamment bas pour rejeter le moins possible d’événements intéressants mais assez haut tout de même pour ne pas saturer le système de déclenchement. Pour le Run 3, on utilisera les énergies individuelles déposées dans chacune des cellules du calorimètre, ce qui permettra de connaitre plus précisément la forme du dépôt d’énergie. De cette façon, on pourra distinguer plus efficacement les bons candidats électrons et photons parmi les gerbes de particules qui peuvent leur ressembler dans le calorimètre. Ainsi, non seulement le rejet de mauvais candidats sera plus efficace, mais aussi l’énergie du candidat, mesurée à ce stade du système de déclenchement, sera plus précise.

Dans le cas d'ATLAS, le choix se fait en trois étapes, en se basant successivement sur l'énergie collectée dans les calorimètres, puis sur les traces identifiées dans le détecteur interne, enfin sur leurs vitesses et leurs impulsions. Un événement sélectionné est définitivement enregistré et fera partie des données qui seront utilisées pour les analyses de physique. Grâce au système de déclenchement, le flux initial de quelques 40 000 000 événements de tous types par seconde est réduit à quelques centaines, ce qui forme un lot contenant une fraction nettement plus importante d'événements intéressants. Dans le cas de CMS, le filtrage s'effectue en deux étapes. En premier lieu des modules d'électronique spécifiques réalisent un tri grossier mais rapide (le flux passe alors de 40 MHz à 100 kHz). En second lieu, des fermes d’ordinateurs plus lentes affinent la décision et réduisent le flux à quelques centaines de hertz, ce qui constitue une fréquence acceptable pour enregistrer les données sélectionnées. Dans le cas de LHCb, le système fonctionne lui aussi en deux étapes. Il y a tout d'abord un premier niveau « détecteur », basé sur les données disponibles sur les cartes d'électronique qui récoltent les traces laissées par les particules en traversant les différentes couches d’appareillage. Les événements qui passent ce premier filtrage, extrêmement rapide mais « grossier », sont ensuite envoyés vers l’un des ordinateurs d’une gigantesque « ferme » de calcul (plusieurs milliers de processeurs) où un ensemble d'algorithmes effectue une sélection plus fine (car moins contrainte au niveau du temps de calcul) : c'est le niveau « logiciel » du système de déclenchement. Le premier niveau traite des dizaines de millions de collisions par seconde pour en isoler quelques centaines de milliers qui sont les plus susceptibles de contenir un hadron avec un quark b (ou un quark c).

© ATLAS CERN

Comparaison des « tours » utilisées pour le déclenchement du calorimètre actuellement (à gauche) et à partir de 2020 (à droite). En améliorant la granularité du détecteur (la finesse des points de mesure), on pourra obtenir des mesures plus précises et une séparation plus efficace entre le signal recherché (électrons et photons énergétiques) et le bruit de fond (gerbes de particules, par exemple).

ÉLÉMENTAÍRE

page 41

Lors de cette nouvelle phase de la prise de données, il faudra également accélérer la vitesse du système de reconstruction des traces chargées afin que ces informations soient disponibles au niveau du système de déclenchement pour accepter ou rejeter l’événement en cours. Le système choisi utilise les positions des points de passage de la trace mesurés par


Les améliorations... © CERN

le détecteur interne (et conservés dans des mémoires spécifiques) pour déterminer une trajectoire globale à l’aide d’algorithmes rapides. Ces algorithmes déterminent avec une très bonne précision les paramètres de la trace reconstruite tout en rejetant de façon efficace les traces inintéressantes. De plus, ils sont suffisamment rapides pour satisfaire les contraintes du système de déclenchement. Finalement, de nouvelles chambres pour la détection des muons seront installées très près des faisceaux à l’avant et à l’arrière du détecteur ATLAS. Dans ces régions, la densité de traces est très grande et des technologies novatrices (en instrumentation et au niveau de la lecture rapide des données) sont nécessaires pour que ces détecteurs fonctionnent avec précision pendant plusieurs années.

Le bâtiment abritant le centre de contrôle d’ATLAS au point 1 (« P1 ») du LHC sur lequel une vue globale du détecteur a été représentée à l'échelle 1/3 par le peintre américain Josef Kristofoletti.

Prévoir la prise de données à haute luminosité (2025-2035)

© ATLAS CERN

La dernière phase actuellement prévue pour le LHC commencera vers 2025. L’accélérateur subira des modifications importantes pour pouvoir encore augmenter le taux de collisions. L’objectif est de fournir 3 fb-1 de données par jour à chaque expérience, à comparer aux 25 fb-1 par expérience accumulés pendant toute la durée du Run 1 – l’équivalent d’environ 12 mois de fonctionnement continu de l’accélérateur, répartis entre mars 2010 et décembre 2012. Au total, 3 000 fb-1 de données seront collectés par ATLAS au bout de 10 ans de fonctionnement à ce rythme. Pour faire face à ce flux de données, la collaboration travaille sur des améliorations majeures de presque tous les détecteurs. Le système de déclenchement de l’expérience sera notamment reconfiguré dans le but d’enregistrer le maximum d’événements intéressants. Pour cela, le traitement des informations mesurées par chaque partie d’ATLAS devra être plus performant et plus rapide ; en particulier, le système de lecture des détecteurs devra être adapté à ces nouvelles conditions de fonctionnement. Ce sera le cas pour les deux calorimètres d’ATLAS (électromagnétique et hadronique), ainsi que pour le spectromètre à muons. La modification la plus lourde du détecteur concernera la partie interne, qui sera Disposition proposée des futurs modules du détecteur totalement remplacée. En l’état, ce détecteur ne pourra pas être interne pour la prise de données à haute luminosité du performant avec le taux de radiation et le grand nombre des particules LHC. En rouge les pixels, en bleu les bandes de silicium. attendus lors de cette période de prise de données. Il sera remplacé L’acceptance géométrique est élargie jusqu'à des angles correspondant à une rapidité de |η|=3 (5,7o < θ < 174,3o en par de nouveaux éléments composés de silicium et couvrant une plus angle polaire) sur la figure ; actuellement, les traces chargées grande plage angulaire. Plusieurs technologies sont actuellement sont reconstruites jusqu'à |η|=2,5 (9,4o<θ <170,6o). étudiées pour ce détecteur en silicium, afin d’optimiser sa résistance aux radiations, sa forme et ses performances.

La jouvence de CMS

fb-1 : cette unité, qui se lit femtobarn inverse, est utilisée par les physiciens pour quantifier la quantité de données accumulée.

page 42

La collaboration CMS (Compact Muon Solenoid) au CERN a organisé les modifications de son détecteur en deux phases : la première s’étend jusqu’au prochain arrêt de longue durée du LHC prévu en 2019-2020 ; la suivante se prolongera jusqu’au troisième arrêt de longue durée, soit jusqu’en 2024-2025.

ÉLÉMENTAÍRE


des détecteurs du LHC Une petite pause pour mieux redémarrer

Le détecteur CMS

Le LHC a connu son premier arrêt prolongé entre 2013 et 2015, après trois ans de fonctionnement au cours desquels l’expérience CMS a notamment contribué à la découverte du fameux boson H. Cet arrêt a été mis à profit pour réparer divers éléments. Une série de chambres à muons situées dans des zones de grande rapidité (« bouchons ») a pu être mise en place, comme prévu lors de la conception du détecteur. Dans la partie du calorimètre hadronique la plus proche du faisceau (« Forward Calorimeter »), les capteurs photosensibles (tubes photomultiplicateurs ou PM) chargés de capter la lumière provenant de fibres de quartz scintillantes ont été remplacés pour des modèles multi-anodes dont le principal intérêt est de diminuer les probabilités de signaux anormaux provenant de l’interaction directe de particules énergétiques avec les PM.

Il est caractérisé par sa compacité et un fort champ magnétique, l’acronyme CMS signifiant « Compact Muon Solenoid ». La compacité est toute relative, puisque le détecteur de forme cylindrique s'étend tout de même sur près de 29 mètres de long pour un diamètre de 15 mètres. Sa masse, de l'ordre de 14 000 tonnes, comparable à celle de la tour Eiffel, en fait le poids lourd des détecteurs au LHC. Le détecteur est fermé par deux bouchons instrumentés. Le champ magnétique, généré par un immense solénoïde long de 13 m et de 6 m de diamètre, atteint 3,8 teslas au centre soit environ 100 000 fois le champ magnétique terrestre. Le solénoïde est suffisamment grand pour héberger en son sein trois détecteurs différents. Le trajectographe, au plus proche du point de collision des faisceaux, utilise environ 75 millions de capteurs en silicium, et mesure la trajectoire des particules chargées. Le calorimètre électromagnétique (ECAL) est constitué de plus de 75 000 cristaux de tungstate de plomb qui absorbent l'énergie des électrons et des photons. Enfin, le calorimètre hadronique (HCAL), mélange de laiton et de plastique scintillant est sensible au passage des hadrons (particules formées de quarks). À l'extérieur du solénoïde, se trouve une série de détecteurs gazeux, les chambres à muons, plongées dans le champ magnétique résiduel du solénoïde, d'environ 2 teslas, capté par la culasse de l’aimant représentée en rouge.

Le reste des changements vise à anticiper l’augmentation de la luminosité du LHC. Une luminosité accrue implique un plus grand nombre de collisions. Le faisceau est organisé en paquets de protons contenant chacun de l’ordre de 1,2 × 1011 particules. Chaque croisement de paquets génère donc plusieurs interactions proton-proton, c’est l'effet d’empilement qui apparaît également dans les autres expériences du LHC. La plupart de ces collisions présentent peu d’intérêt pour la physique, mais elles tendent à polluer les interactions les plus intéressantes en rajoutant des traces parasites, ce qui complique les mesures utilisées par les physiciens pour leurs études (identification de la nature des particules, estimation de leur trajectoire et de leur énergie, etc.). On trouve qu’en moyenne environ une vingtaine d'interactions se superposent par croisement de paquets, compte tenu des conditions de prise de données pendant la phase 1. De plus, en raison du temps de réponse des détecteurs, les collisions ayant eu lieu lors des croisements de faisceaux précédents contaminent partiellement l’événement en cours. On parle alors d’empilement hors-temps.

ÉLÉMENTAÍRE

© CMS

page 43

Fort heureusement, il est possible de distinguer les événements d’empilement en déterminant chaque point de collision primaire entre deux protons, le long de l’axe du faisceau. La première couche active du trajectographe, un détecteur formé de pixels de silicium dans sa partie la plus interne, doit donc se situer au plus près du faisceau pour garantir une bonne précision et donc une bonne distinction des particules. Le détecteur de pixels actuel comporte trois couches mais les dommages engendrés par les radiations nécessitent de le changer lors du prochain arrêt de longue durée à la fin de la décennie. On en profitera pour installer un nouveau détecteur à quatre couches, dont la plus interne ne sera distante que de 3 cm du faisceau (contre 4,4 cm aujourd’hui). Ceci implique également de diminuer le diamètre du tube à vide dans lequel circulent les faisceaux. Ce changement a été anticipé pendant l’arrêt de 2013-2015, en réduisant le diamètre du tube à vide de 59,6 mm à 45 mm. La partie du détecteur de pixels située dans les bouchons sera également améliorée lors de


Les améliorations... Le nouveau détecteur de pixels le schéma de gauche présente la disposition des différentes couches de pixels pour le nouveau détecteur (partie supérieure) et l'ancien (partie inférieure). On constate que pour des traces ayant un angle inférieur à 9,4° par rapport à l'axe du faisceau (η>2,5 sur le schéma), quatre points de mesure seront possibles au lieu de 3 actuellement, améliorant ainsi la détermination du vertex primaire de l’interaction proton-proton. Le schéma de droite est une vue en perspective du nouveau détecteur (partie droite) et de l'actuel (partie gauche).

© CMS

l’arrêt de 2019-2020 : il passera de deux à trois couches, contribuant ainsi à réduire l’effet d’empilement et à mieux identifier les vertex multiples. L’augmentation de la luminosité implique également des changements au niveau des calorimètres hadroniques (HCAL, partie centrale et bouchons). Les capteurs photosensibles actuels (des photodiodes hybrides, HPD) récoltent la lumière issue du signal de scintillation produit par les plastiques scintillants insérés dans la structure du HCAL ; Ils seront changés lors de l’arrêt de 2019-2020 au profit de SiPM, des photodiodes à avalanche équipées de capteurs en silicium multi-pixels. Les performances des SiPM (excellent rapport signal-sur-bruit, gain plus élevé, etc.) permettent en effet une segmentation en profondeur (du centre du détecteur vers l’extérieur) plus fine et donc un plus grand nombre de points de mesure dans le HCAL le long de la trajectoire des particules. Ainsi, il sera plus facile d’identifier les particules issues des événements d’empilement car ces dernières, moins énergétiques, ont tendance à déposer leur énergie dans la première couche du HCAL et non dans les couches plus profondes. Cette segmentation permettra également de mieux exploiter la technique d’analyse dite de « particle flow », utilisée avec succès dans CMS. Signalons que les changements des capteurs photosensibles ont déjà été effectués pendant l’arrêt 2013-2015, pour la partie la plus externe du HCAL, car dans cette région la présence d'un fort champ magnétique perturbait le bon fonctionnement des capteurs HPD.

L'empilement d'événements après 2015 Dans cette simulation, un «  simple  » croisement de faisceau a donné naissance à une interaction produisant une paire de quarks top anti-top intéressante pour la physique et... 140 autres interactions de moindre intérêt ! Les points rouges le long de l'axe du faisceau représentent les vertex primaires d'interaction (point de création des événements).

© CERN

page 44

DR

L’algorithme de « particle flow » Il vise à reconstruire individuellement toutes les particules stables en combinant les éléments de mesure des différents détecteurs de façon optimale afin de déterminer au mieux leur type et leur énergie. Dans l'exemple ci-contre, un jet de particules est représenté sur le schéma de gauche. Il est composé en moyenne de 65 % de hadrons chargés, de 10 % de hadrons neutres et de 25 % de photons. Classiquement, l'énergie et la direction du jet sont évaluées à partir de mesures provenant du calorimètre hadronique (HCAL). Cependant, les hadrons chargés et les photons génèrent respectivement des signaux dans le trajectographe et le calorimètre électromagnétique (ECAL) dont la précision de mesure est bien supérieure à celle du calorimètre hadronique (schéma de droite). L'algorithme de « particle flow » exploite cet avantage en décomposant le jet en particules individuelles à partir des meilleurs éléments de mesure de chaque détecteur. L'évaluation de l'énergie et de la direction du jet est ensuite effectuée à partir de ces particules individuelles.

ÉLÉMENTAÍRE


des détecteurs du LHC

© Julien Serreau

Le dernier changement majeur pour la phase 1 concerne le système de déclenchement. Les modifications apportées visent à garder une efficacité élevée sur les événements intéressants pour la physique, sans pour autant avoir un taux de déclenchement global qui augmente significativement lorsque la luminosité s’accroît. Ces modifications concernent principalement les modules d’électronique, les fermes d’ordinateurs étant « simplement » renforcées avec des processeurs plus puissants. La nouvelle électronique se doit d’être plus flexible afin de s’adapter aux conditions exigeantes et changeantes du LHC. Cette flexibilité est possible grâce à l’utilisation de nouvelles cartes d’électronique programmables inspirées des standards des télécommunications modernes et de liens optiques à large bande passante autorisant des échanges de données massifs entre cartes. Ainsi, il est possible de faire évoluer les algorithmes de déclenchement : ces derniers peuvent utiliser directement des données globales provenant de l’ensemble du détecteur (calorimètres et chambres à muons), et non seulement des données provenant d'une partie restreinte des détecteurs comme c'est le cas à présent. À titre d’exemple, il sera possible de soustraire au sein des cartes d’électronique la contribution des événements d’empilement dès la première étape du système de déclenchement. Les modifications sont en cours, l’installation et les tests du nouveau système s’effectuant en parallèle de l’utilisation de l’ancien, avant un basculement au cours de l’année 2016.

Vers la très (très) haute luminosité Le LHC subira à nouveau de profondes modifications pendant l’arrêt de longue durée de 2024-2025, lui permettant de fonctionner avec une énergie disponible pour les collisions allant jusqu'à 14 TeV pour une luminosité atteignant 5×1034 cm-2s-1. Le niveau moyen d’empilement sera alors de l’ordre de 150 interactions simultanées par croisement de faisceaux ! La quantité de radiation accumulée pendant une année correspondra à la dose totale cumulée depuis les débuts du LHC. Les physiciens planifient dès maintenant les changements à apporter au détecteur CMS.

© CMS

Les détecteurs actuels ne sont pas en mesure de supporter de telles conditions. L’ensemble des sous-détecteurs d’aujourd’hui doit donc être repensé. Ainsi, il est prévu de changer l’intégralité du trajectographe pendant l’arrêt 2024-2025 au profit d’éléments plus tolérants aux radiations et possédant une granularité (finesse des points de mesures) quadruplée. Le système de déclenchement inclura les éléments de détection du trajectographe dès le premier niveau de décision, basé sur de l’électronique dédiée. Il pourra ainsi identifier les vertex primaires des interactions. Le premier niveau réduira le taux de déclenchement jusqu’à environ 750 kHz (contre « seulement » 100 kHz aujourd’hui), et sera en mesure de stocker sur disque les événements à une fréquence de 7,5 kHz (gain de l’ordre d’un facteur 10 par rapport au système actuel). Les calorimètres hadronique et électromagnétique dans la partie « bouchon » devront également être totalement changés. Les parties centrales sont bien moins critiques car la dose accumulée après 10 ans de fonctionnement à haute luminosité (une luminosité intégrée de 3 000 fb-1) sera du même ordre que celle actuellement page 45

ÉLÉMENTAÍRE

Insertion du nouveau tube à vide.


Les améliorations... Le projet de calorimètre ultra-granulaire à échantillonnage Ce détecteur est composé de trois calorimètres successifs. La partie électromagnétique (EE), la plus proche du centre du détecteur, est constituée de 28 couches. Elles comprenent d'une part un absorbeur, du tungstène et du cuivre, pour faire interagir les électrons ou les photons issus des interactions primaires, et d'autre part un milieu actif, du silicium, pour capter les particules chargées issues de l'interaction des électrons et des photons avec l'absorbeur. Un premier calorimètre hadronique (FH) inclut 12 couches de laiton (l'absorbeur) et de silicium (le milieu actif), et le second (HE) reprend la technologie de l'actuel calorimètre hadronique, soit 12 couches présentant une succession de laiton et de plastique scintillant. Le tout occupera un volume équivalent aux actuels calorimètres électromagnétique et hadronique, mais arrêtera plus efficacement les électrons, photons et hadrons. En outre, le plus grand nombre de points de mesure permettra de suivre la propagation des particules dans le calorimètre de façon plus précise.

accumulée par les bouchons. CMS envisage de remplacer les calorimètres de la partie bouchon (couvrant un angle de 5,7° à 26° par rapport à l’axe du faisceau) par un calorimètre à échantillonnage ultra-granulaire inspiré des détecteurs développés pour le futur collisionneur linéaire ILC (International Linear Collider). Ce type de détecteur présente des granularités transversale (du centre du détecteur vers l’extérieur) et longitudinale (le long de l’axe du faisceau) suffisantes pour permettre une séparation entre les contributions des événements d’empilement et ceux du signal recherchés. De plus, c’est un détecteur particulièrement adapté à l’utilisation des algorithmes de « particle flow ».

Quoi de neuf pour LHCb ?

© CMS

LHCb se blinde !

© LHCb

Le calorimètre à haute granularité ou HGCAL est une partie nouvelle du calorimètre de CMS, qui contiendra une partie électromagnétique (EE) et une partie hadronique (FH).

LHCb a parfaitement fonctionné pendant le Run 1 et aucune intervention importante sur le détecteur n’a été nécessaire de 2009 à 2012. La période d'arrêt entre 2013 et 2015 était donc la première opportunité pour accéder pendant un temps long à l’appareillage. Tout le détecteur a été passé en revue, depuis l'alimentation en différents produits nécessaires à son fonctionnement (eau, air, électricité, CO2, C4F10, CF4) jusqu’aux systèmes de sécurité chargés de protéger le personnel comme les appareillages. Au-delà de ces interventions de routine, plusieurs modifications ont été apportées au détecteur. Par exemple, un support plus léger pour le tube à vide a été installé, afin de réduire la quantité de matière que traversent les particules dont on veut mesurer les propriétés. Cela diminue les interactions entre les particules et la matière du détecteur susceptibles de parasiter les événements que l'on souhaite détecter.

page 46

Vue schématique de l’expérience LHCb. Les deux faisceaux arrivent de part et d'autre dans le tube à vide (horizontal, en gris). Le point d'interaction où se rencontrent les deux faisceaux est situé à gauche, au centre du VErtex LOcator (VELO). La flèche violette indique l'emplacement du mur de plomb ajouté pendant l'arrêt.

Une autre modification a consisté en l’installation d’un blindage à « l’arrière » de l’expérience, juste après les dernières chambres à muons – indiqué par la flèche violette à droite sur la vue schématique de LHCb. La configuration de LHCb est différente des configurations cylindriques d'ATLAS et CMS : LHCb est un spectromètre dont « l’avant », à gauche sur l’image, est l’endroit où les collisions proton-proton ont lieu. Si l'on souhaite détecter les particules issues de la collision entre les deux faisceaux de protons, on désire éliminer autant que possible celles qui viennent d'autres sources. En particulier, les faisceaux qui traversent LHCb (et les autres expériences du LHC) sont accompagnés par d'un halo de particules « parasites ». On s'en débarrasse en les absorbant

ÉLÉMENTAÍRE


des détecteurs du LHC dans des collimateurs situés en amont et en aval du détecteur. Mais les particules parasites qui « frôlent » les collimateurs peuvent parfois interagir avec de la matière environnante et arracher des particules supplémentaires qui vont ensuite sortir du tube à vide et arriver dans la caverne.

Les collimateurs En optique, un collimateur est un dispositif qui permet d'obtenir un faisceau de taille réduite à partir d'une source de lumière. Pour les accélérateurs il s’agit d’un dispositif qui élimine les particules qui sont trop éloignées de l’axe du faisceau. Des collimateurs sont installés tout le long de l’anneau du LHC.

Les particules de ce type qui arrivent par la « droite » sur la figure peuvent interagir avec le premier détecteur qu'elles rencontrent, à savoir la chambre à muons M5, créant ainsi des événements parasites. Comme le nombre de ces particules augmente avec l’intensité des faisceaux, il devient essentiel d'éliminer ce halo parasite. La configuration de la caverne et la géométrie de LHCb rendent l’accès à cette zone extrêmement difficile et 2 100 blocs de plomb ont dû être installés à la main pour construire au final un mur de protection de 30 tonnes.

Le deuxième arrêt de longue durée

© LHCb

Après le redémarrage, la prise de données doit se poursuivre jusqu’en 2018, ce qui permettra de doubler environ le nombre d’événements enregistrés pendant le Run 1. À cette date, le LHC s’arrêtera de nouveau pour environ 18 mois. Cet arrêt sera utilisé par LHCb pour apporter des modifications majeures à son détecteur. 2018 c’est déjà (presque) demain et donc ce planning est à la fois très ambitieux et très différent de celui des deux expériences ATLAS et CMS, pour lesquelles les grosses interventions sur les détecteurs sont prévues plus tard (vers 2021 ou 2022), du fait de structures de détecteurs très différentes.

Un collimateur ouvert et vu du dessus, dans un atelier de montage.

ÉLÉMENTAÍRE

© LHCb

La mise en place d'un des 2 100 blocs de plomb du mur de protection de la chambre à muons M5. L'opération est très... physique : chaque bloc pèse environ 14 kilogrammes – il faut un matériau dense pour arrêter les particules !

Un événement enregistré par LHCb, illustrant le fait que les hadrons avec un quark lourd, comme le quark b, « volent » à travers le détecteur avant de se désintégrer. Lors d'une collision (à gauche de la figure) de nombreuses particules sont produites, dont un méson B énergétique dont la trace est représentée en bleu. Comme le méson B est neutre et ne laisse pas de trace dans les détecteurs qu’il traverse, cette trajectoire est reconstruite à partir des informations obtenues par ailleurs sur les autres particules. Ce méson B parcourt ici 49 millimètres dans le détecteur avant de se désintégrer en un muon et un antimuon, dont les traces apparaissent en rose. page 47

© LHCb

Le défi majeur de cette phase critique pour le futur à moyen terme de LHCb est lié au système de déclenchement de l’expérience. Ce dispositif, bien que très performant, est toutefois source de limitation. On ne peut pas lire l’ensemble des données dans les cartes d’électronique actuelles du détecteur à une fréquence supérieure à 1 MHz, alors que les paquets de protons se croisent à 40 MHz. Pendant cet arrêt, il est prévu de remplacer l’électronique de lecture de tous les composants de LHCb pour qu’elle fonctionne à cette fréquence. Une bien plus grande ferme de calcul devra alors être installée au CERN pour traiter l’afflux d’événements. Avec ce nouveau système, non seulement la taille de l’échantillon de données accumulées devrait être multipliée par dix environ, avec une fraction plus importante de désintégrations intéressantes que dans la configuration actuelle, grâce à des critères de sélection améliorés.


Les améliorations... Au-delà de ces modifications du système de lecture du détecteur, certaines parties de l’appareillage seront remplacées par de nouveaux sous-détecteurs à la pointe de la technologie. En particulier, tous les éléments nécessaires pour reconstruire les traces chargées seront changés. Le but de cette opération est double : pouvoir travailler avec une luminosité environ cinq fois plus élevée qu’actuellement et être capable de fournir les informations les plus pertinentes possible pour le déclenchement à 40 MHz.

Paramètre d’impact

DR

Ainsi, par exemple, un des éléments cruciaux pour l’expérience LHCb est le détecteur mesurant le vertex de désintégration, et donc le temps de vie des hadrons contenant Le paramètre d'impact mesure l'écart entre la trajectoire d'une un quark b ou un quark c. On l’appelle VELO pour « VErtex particule et le point de collision initial. Il faut pour cela prolonger la LOcator » (ou « localisateur des points de désintégration », trajectoire de la particule et mesurer la distance minimale entre cette selon une traduction française un peu lourde). L’extrême droite et le point de collision des protons. précision nécessaire, de l’ordre de 10 microns sur le paramètre d’impact des traces, ne peut être atteinte qu’en s’approchant le plus près possible des faisceaux (et donc du point de collision) et en ayant un grand nombre de canaux de mesure. Le futur VELO sera constitué de 40 millions d’éléments de mesure ayant la forme de petits carrés de 55 microns de côté et pourra s’approcher à 5,1 mm des faisceaux du LHC – contre 8,2 mm à présent. Le VELO actuel a la forme d'une série de deux demi-disques, tandis que le futur VELO prendra la forme de deux « L » entourant l’axe des faisceaux. Les sous-détecteurs TT, T1-T2 et T3, que l’on voit sur la vue schématique de LHCb et qui ont pour objectif de reconstruire les traces chargées et de mesurer leur impulsion, vont eux aussi être remplacés, soit par des détecteurs avec des bandes de silicium, soit par Le VELO actuel de LHCb des détecteurs avec une nouvelle technologie à base de fibres scintillantes.

page 48

© LHCb

À l'heure actuelle, le VELO (VErtex LOcator) de LHCb est installé au voisinage du point de collision, à 8,2 millimètres du faisceau lorsque la prise de données est en cours. D’un rayon de 8,4 centimètres, le VELO est constitué de 21 disques de silicium placés perpendiculairement à la ligne des faisceaux de protons. Les pistes de silicium sont alternativement disposées comme des pétales selon des anneaux concentriques, pour suivre à la fois l'angle et le rayon des trajectoires des particules dans le plan des disques de silicium. Mais les détecteurs au silicium sont très sensibles aux radiations ! Pour protéger le VELO, chaque disque est en fait constitué de deux demi-modules. Tant qu'on procède à des réglages sur les faisceaux du LHC, les demidisques restent écartés de l’axe des protons, et le VELO est à l’arrêt. Ce n'est qu’une fois les faisceaux parfaitement stabilisés que le VELO est refermé en position de fonctionnement et que la prise de données peut commencer.

ÉLÉMENTAÍRE


des détecteurs du LHC

© LHCb

Un demi détecteur du VELO actuel.

© LHCb

© Julien Serreau

Vue simulée du futur VELO de l'expérience LHCb. Le dispositif a été ouvert afin de montrer le détecteur proprement dit (série de « L »jaunes et rouges), enveloppant le faisceau de particules (représenté par une ligne jaune traversant le détecteur).

En guise de conclusion...

ÉLÉMENTAÍRE

page 49

Les trois collaborations ATLAS, CMS et LHCb ont développé un programme ambitieux s’étalant sur plus de dix ans, qui vise à exploiter au mieux le potentiel de découverte que procure le LHC. Seul l’avenir nous dira si ce potentiel tiendra ses promesses, à l’image des trois premières années de fonctionnement du LHC !


Détection GW150914 : on a vu... Émois et frémissements

Signal L1 Signal H1 (décalé, inversé)

Temps (s)

© LIGO/VIRGO

Amplitude (10-21)

Signaux observés par les détecteurs LIGO Livingston (L1, en bleu) et Hanford (H1, en rouge). Pour tenir compte du temps de propagation de l'onde gravitationnelle entre les deux instruments et de leurs orientations différentes, le signal de LIGO Hanford a été décalé de 7 ms environ et multiplié par un facteur (-1) pour inverser le signe de ses données et permettre une comparaison directe avec le signal enregistré à Livingston.

© LIGO

Depuis 2007, LIGO et Virgo sont liés par un accord de collaboration motivé par les particularités de la recherche des ondes gravitationnelles. Ainsi, l'ensemble des données enregistrées par les différents instruments sont partagées. Elles sont analysées conjointement par les deux expériences qui publient ensemble les résultats – en particulier le premier événement détecté, GW150914.

Les détecteurs LIGO Livingston (à gauche) et LIGO Hanford (à droite). page 50

Virgo est un détecteur similaire aux instruments LIGO, construit à Cascina, près de Pise en Italie. Cette collaboration regroupe cinq pays européens : la France et l'Italie (tous deux à l'origine du projet dans les années 1990), les Pays-Bas, la Pologne et la Hongrie. Comme LIGO, le détecteur Virgo a bénéficié après sa première période de fonctionnement d’un vaste programme d'améliorations sur plusieurs années qui doit se conclure courant 2016. Après une phase de démarrage et de mise au point qui durera quelques mois, Virgo rejoindra LIGO pour des prises de données communes.

14 septembre 2015, vers 11h51 heure de Paris : les deux détecteurs d’ondes gravitationnelles LIGO («  Laser Interferometer Gravitationalwave Observatory », en français « Interféromètres laser pour l’observation des ondes gravitationnelles »), situés aux États-Unis, l’un dans l’état de Washington (à Hanford) et l’autre en Louisiane (à Livingston) enregistrent à quelques millièmes de seconde d’intervalle un court signal (quelques dixièmes de seconde tout au plus). Bien que très faible dans l’absolu, ce signal se voit presque à l’œil nu dans les données des deux instruments qui viennent à peine de redémarrer, après une campagne d’amélioration qui a duré plusieurs années. Et la forme de ce signal est également caractéristique : elle signe les derniers instants de la coalescence (ou fusion) d’un système de deux astres compacts, des trous noirs.

ÉLÉMENTAÍRE


des ondes gravitationnelles ! 11 février 2016, 16h30 heure de Paris : lors de conférences de presse simultanées aux Etats-Unis et en Europe, les expériences LIGO et Virgo annoncent la première détection directe des ondes gravitationnelles, décrite dans un article accepté par la prestigieuse revue scientifique américaine « Physical Review Letters ». Entre ces deux dates, cinq mois se sont écoulés. Pendant cette période, les scientifiques des deux collaborations ont décortiqué minutieusement le signal observé pour se convaincre de sa nature astrophysique. Voyons maintenant les principales étapes de l’analyse de cet événement, passé à la postérité sous le nom de code « GW150914 » – pour « Gravitational Wave 2015/09/14 » : « Onde Gravitationnelle, 14 septembre 2015 ».

Une onde gravitationnelle est une perturbation de l'espace-temps, émise par un corps massif accéléré. Elle s'y déplace à la vitesse de la lumière, tandis que son amplitude s'atténue proportionnellement à la distance parcourue – un peu comme une vague à la surface de l’eau, produite par le lancer d’un galet. Une onde gravitationnelle déforme l'espace-temps dans le plan perpendiculaire à sa direction de propagation et cette déformation varie dans ce plan. Cette action est illustrée sur le schéma ci-dessous qui montre l'effet du passage d’une onde gravitationnelle se propageant de vos yeux vers la feuille de papier ou l'écran sur lequel vous lisez cet article. Le cercle de points représenté à gauche devient une ellipse sous l'effet de la déformation de l'espacetemps : sa taille diminue dans une direction tandis qu'elle s'allonge simultanément dans la direction perpendiculaire. Le cycle complet allongement-contraction se reproduit à chaque période du signal.

La plupart des recherches d’ondes gravitationnelles nécessitent au minimum deux détecteurs fonctionnant simultanément. Tout d'abord pour mieux différencier les bruits de mesure, qui affectent généralement les détecteurs selon des modalités et à des moments différents, d’une vraie onde gravitationnelle. Mais aussi pour exploiter les différences entre les signaux observés, en particulier leurs décalages en temps, dus au fait que les ondes gravitationnelles se propagent à une vitesse certes très grande, mais finie – celle de la lumière dans le vide. L'événement GW150914 a ainsi d’abord été vu à Livingston, puis 7 millisecondes plus tard à Hanford, distant de 3 000 km. Si trois détecteurs au moins détectent le même signal (on parle de détection en coïncidence), on peut remonter à la position de la source par triangulation – en pratique, les incertitudes de mesure font qu'on obtient toujours une région du ciel, plus ou moins étendue et pas une direction unique. Ces deux points expliquent pourquoi LIGO et Virgo collaborent pleinement depuis 2007. Puisqu’ils peuvent observer les mêmes événements, ils ont tout intérêt à mettre leurs efforts en commun dès le début de l'analyse des données. La situation est très différente en physique des particules où chaque détecteur enregistre des collisions différentes. C’est pourquoi ATLAS et CMS par exemple analysent leurs données séparément avant de combiner leurs résultats dans un second temps.

Les observatoires terrestres d’ondes gravitationnelles – notamment les deux détecteurs LIGO et le détecteur Virgo – ont été décrits en détail dans la rubrique « Centre de Recherche » du numéro 7 d’Elémentaire, paru à l’été 2009. À l’époque, les instruments de première génération atteignaient le niveau de performances pour lequel ils avaient été conçus. Ce succès important n’était toutefois qu’une étape, dans la mesure où cette sensibilité n'a pas permis de détecter des ondes gravitationnelles. Pour aller plus loin, il fallait passer à des instruments de seconde génération, les détecteurs « avancés » (« aLIGO » et « AdVirgo »), capables de détecter une source d’ondes gravitationnelles dix fois plus lointaine et donc de fouiller un volume d’Univers mille fois plus vaste. Une onde gravitationnelle possède deux polarisations, notées Les programmes d’amélioration des instruments, prévus pour « + » et « x », selon que le cycle allongement-contraction a durer plusieurs années, sont financés au tournant des années lieu dans les directions horizontale et verticale, ou tournées de 2010, alors que la crise économique frappe de plein fouet de

ÉLÉMENTAÍRE

page 51

45 degrés.


GW150914 : on a vu... © LIGO

nombreux pays. Dans ce contexte, LIGO obtient le feu vert de son organisme de tutelle (la «  National Science Foundation » américaine) un an environ avant Virgo (financé en France par le programme « Très Grands Instruments de Recherche », TGIR, du CNRS) et bénéficie de ressources supérieures, tant financières qu’en personnel. Cette asymétrie explique en partie pourquoi les détecteurs aLIGO sont prêts à prendre leurs premières données à la fin de l’été 2015 alors que le démarrage d’AdVirgo n’est pas attendu avant la fin 2016 ou le début 2017. Et, c’est au tout début de la première prise de données dite « d’Observation » – le « Run O1 » – que l’événement GW150914 est détecté à Hanford et Livingston.

Des interférences... constructives !

Schéma des instruments aLIGO. On reconnaît la configuration d’un interféromètre de Michelson : la source laser (« Laser Source »), la lame séparatrice (« Beam Splitter ») et les deux miroirs d'extrémité (les « Test Mass » au bout des bras de 4 km de long : le schéma n'est évidemment pas à l'échelle). Pour allonger le parcours de la lumière dans les bras kilométriques et ainsi améliorer la sensibilité des détecteurs, deux miroirs supplémentaires ont été ajoutés juste après la lame séparatrice : les « cavités Fabry-Perot » ainsi formées stockent les faisceaux laser dans les bras (où on atteint une puissance de 100 kW, soit un gain d’un facteur 5 000 par rapport aux 20 W de la source laser). Toujours pour améliorer les performances de l’instrument, deux miroirs supplémentaires ont été ajoutés : l'un (« Power Recycling ») entre la source laser et la lame séparatrice, l'autre (« Signal Recycling »), entre la lame séparatrice et le capteur qui mesure la puissance lumineuse en sortie du détecteur (« Photodetector ») : à peine quelques dizaines de nanowatts. Cette configuration optique permet d’obtenir des performances inégalées, au prix d’un fonctionnement complexe : en effet, les positions relatives des miroirs doivent être contrôlées très finement (au niveau du millionième de millionième de mètre) en permanence.

© LIGO/VIRGO

page 52

Principe de fonctionnement d’un détecteur interférométrique d'ondes gravitationnelles comme Virgo et les deux instruments LIGO.

La configuration de base est celle d’un interféromètre de Michelson. Une source laser (cylindre gris) envoie un faisceau qui est divisé en deux en traversant une lame séparatrice, un miroir incliné à 45 degrés. Les faisceaux ainsi produits se propagent dans des directions perpendiculaires, jusqu’à des miroirs très réfléchissants qui les renvoient vers la lame séparatrice. Là, ils se recombinent et le faisceau résultant de cette interférence est détecté en sortie de l’instrument – sur la plaque grise représentant le capteur de lumière. En l’absence d’ondes gravitationnelles (image de gauche), le détecteur est réglé de telle sorte que presque aucune lumière ne sort : cette configuration est appelée « frange noire ». Lors du passage d’une onde gravitationnelle (image de droite), les temps de parcours de la lumière dans les deux bras sont modifiés : l’un diminue tandis que l’autre augmente. Ces changements sont minuscules mais suffisants pour « désaccorder » les deux faisceaux de lumière. La façon dont ils interfèrent change : une puissance lumineuse plus importante est détectée en sortie. C’est cette variation de

ÉLÉMENTAÍRE


des ondes gravitationnelles ! puissance lumineuse qui est enregistrée et qui permet de détecter le passage d'une onde gravitationnelle. Sur les schémas ci-contre, la lumière (une onde électromagnétique oscillant à très haute fréquence) est représentée par une vague qui se propage dans les bras du détecteur. En haut (situation correspondant au réglage nominal de l’instrument en l’absence d’onde gravitationnelle) les deux ondes s’annulent lorsqu’elles se recombinent sur la lame séparatrice : les « creux » de l’une compensent les « bosses » de l’autre ; aucune lumière n’est détectée en sortie – c’est la frange noire. En bas (instantané du passage d’une onde gravitationnelle, qui modifie le temps de parcours de la lumière dans les bras), les deux ondes sont décalées et, dans cet exemple (très exagéré), le décalage est même maximal puisque « creux » et « bosses » s’ajoutent ; en conséquence, une quantité non nulle de lumière est détectée en sortie.

© LIGO/VIRGO

Les instruments aLIGO sont probablement les détecteurs les plus sensibles au monde. Grâce à de nombreuses astuces, ils sont capables de détecteur une variation de longueur de l’ordre de la taille d’un atome, rapportée à la distance Terre-Soleil. Ce sont des interféromètres de Michelson qui mesurent la différence de temps de parcours de la lumière dans leurs bras, longs de 4 km. Comme les faisceaux laser se propagent à vitesse constante (celle de la lumière dans le vide : 299 792 458 mètres par seconde), cette différence de temps de parcours peut s’interpréter comme le signe que les « longueurs » des bras ont varié. En fait, c’est l’espace-temps lui-même qui s’est distordu (et non pas les miroirs de l’interféromètre qui ont bougé par rapport à leur environnement) sous l’effet du passage d’une onde gravitationnelle.

Illustration de l’interférence entre les deux faisceaux laser dans un détecteur interférométrique d’ondes gravitationnelles comme Virgo ou LIGO.

La sensibilité d’un interféromètre comme LIGO ou Virgo varie en fonction de la fréquence et dépend de l’ensemble des « bruits » qui affectent l’instrument. Ceux-ci sont de trois types.

ÉLÉMENTAÍRE

Une suspension complexe de Virgo : le superatténuateur. page 53

• Les bruits instrumentaux : tous les bruits liés au fonctionnement du détecteur et dont on peut en principe s’affranchir. Par exemple les vibrations du moteur d’une pompe utilisée pour maintenir l’ultravide (un millième de milliardième de la pression atmosphérique) dans les tubes dans lesquels circulent les faisceaux laser. Lorsqu'un bruit instrumental limite la sensibilité du détecteur dans une gamme de fréquence donnée, il faut jouer au détective pour trouver sa cause et y remédier – dans l’exemple ci-dessus, remplacer le moteur par un autre, plus calme.

© VIRGO

• Les bruits fondamentaux, dont on ne peut s’affranchir et qui limitent au final la sensibilité du détecteur. C’est la conception de l’instrument qui permet de les minimiser. Par exemple dans Virgo, les miroirs sont accrochés au bout de suspensions complexes, longues de sept mètres et qui les isolent complètement du bruit sismique (microséismes) à partir d’une fréquence de quelques Hertz. Par contre, aux fréquences plus basses, les suspensions n’agissent plus et le bruit sismique devient dominant, interdisant toute détection d’onde gravitationnelle.


GW150914 : on a vu...

© VIRGO

• Les bruits environnementaux : tout ce qui se passe en dehors de l’instrument mais qui peut impacter sa sensibilité. Perturbations électromagnétiques liées à un orage, vent qui génère des vagues sur la côte, passage d’un avion au-dessus de l’interféromètre, activités humaines (circulation automobile, génie civil) pendant la journée en semaine, etc. Toutes les parties sensibles de l'instrument sont isolées le plus possible de ces sources de bruit (miroirs suspendus, laser dans un caisson antibruit, etc.) mais on ne peut pas entièrement les éliminer. On mesure donc en permanence les niveaux de bruit au moyen de dizaines de milliers de capteurs répartis sur l’ensemble du site pour identifier les périodes pendant laquelle la sensibilité est trop dégradée pour être utilisée dans les analyses de données. Une manière de résumer l’information complexe contenue dans une courbe de sensibilité consiste à prendre une source d’ondes gravitationnelles dont le signal émis est fixé – par exemple un système de deux trous noirs similaire à celui du signal GW150914 – et à calculer son horizon, c’est-à-dire la distance maximale à laquelle la source peut se trouver et rester détectable en dépit des bruits affectant les instruments. Pour les quarante jours de données analysées pour la découverte, l’horizon GW150914 des détecteurs LIGO Hanford (H1) et Livingston (L1) varie entre 1 500 et 2 000 mégaparsecs (Mpc), soit 3 à 4 fois la distance estimée pour le signal enregistré : environ 410 Mpc. Cela montre que les instruments aLIGO ont bien la capacité de détecter une telle source. Au contraire, les détecteurs LIGO de première génération n’auraient pas été assez sensibles pour détecter un tel signal.

Vue aérienne du détecteur Virgo.

Un parsec correspond à 3,26 annéeslumière, soit environ 3,1 × 1013 km. Un mégaparsec est un million de parsecs.

© LIGO/VIRGO

page 54

Evolution de l’horizon GW150914 des deux détecteurs LIGO (en mégaparsecs) pendant les quarante jours de données analysées pour la découverte (12 septembre - 20 octobre). L'instant de l'événement GW150914 est indiqué par la ligne pointillée verticale sur la gauche du graphique.

Les courbes d’évolution de l’horizon ne sont pas continues : il y a des trous, correspondant aux périodes pendant lesquelles les interféromètres ne sont pas en train de prendre des données utilisables pour les analyses de physique. C’est principalement dû au fait que ces instruments ne sont sensibles au passage d’une onde gravitationnelle que dans des conditions de fonctionnement bien précises. Si l’on s’en éloigne (à cause d’un problème instrumental ou d’une perturbation environnementale), il faut réussir à ramener l’interféromètre dans sa configuration optimale. Cette phase est très complexe et délicate : elle peut prendre plusieurs dizaines de minutes.

ÉLÉMENTAÍRE


des ondes gravitationnelles ! GW150914

Forme d’onde prédite par la relativité générale

Comment l’événement GW150914 a-t-il été détecté ? Là encore le hasard a bien fait les choses. Le signal a une forme d’onde prédite par la relativité générale – ce qui en fait un candidat de choix pour l’utilisation de la technique du « filtrage adapté » : on cherche cette forme d’onde particulière dans les données. Mais ce signal était aussi suffisamment bref pour qu’une méthode de recherche de signaux courts (qui ne fait aucune hypothèse sur la forme du signal) le mette également en évidence. La double détection de GW150914 par des méthodes complètement indépendantes et qui donnent des résultats compatibles est un argument fort en faveur de la réalité de cet événement.

Le signal émis lors de la coalescence de deux trous noirs peut se décomposer en trois phases. Tout d’abord un « chirp », « gazouillis » en français, c'est-à-dire une sinusoïde dont l'amplitude et la fréquence augmentent de plus en plus rapidement jusqu'à la fusion (voir pages suivantes); ensuite la fusion proprement dite ; enfin, la désexcitation du trou noir final qui revient à l'équilibre rapidement. Ces différentes formes d'onde sont aujourd’hui bien connues grâce à des travaux théoriques basés sur la relativité générale et qui mêlent calculs analytiques et simulations numériques.

La méthode de recherche de signaux courts utilise des cartes tempsfréquence qu’on peut voir comme un écran sur lequel se trouvent un grand nombre de pixels, plus ou moins allumés selon le niveau d’activité détecté à un instant donné et dans une bande de fréquence particulière. Une fois les cartes disponibles, des algorithmes regroupent les pixels brillants proches pour reconstruire des signaux potentiels et comparer les données des deux interféromètres.

© LIGO/VIRGO

© Patrick Roudeau

Cartes temps-fréquence (« Time-Frequency » en anglais) des détecteurs Hanford (à gauche) et Livingston (à droite) pour l'événement GW150914. Plus la couleur représentée est chaude et plus le signal observé est d'amplitude importante. On reconnaît l'allure d’un « chirp », un signal dont l'amplitude et la fréquence augmentent avec le temps. GW150914 est tellement fort qu’il est immédiatement identifiable. Ce ne sera évidemment pas toujours le cas et les algorithmes d'analyse des données ont la capacité de faire ressortir des signaux bien plus ténus.

Pour le Run O1, la recherche de signaux courts décrite précédemment était menée en direct. C’est elle qui a permis de repérer les données contenant l’événement GW150914 et ce à peine trois minutes après leur enregistrement. Moins d’une heure plus tard, les premiers courriels circulaient dans les collaborations LIGO et Virgo, d’abord pour avertir les groupes d’analyse de la présence de ces données « intéressantes ». Puis, plus tard dans la journée, pour donner les premières informations sur cet événement décidément extraordinaire. Tout d’abord la confirmation que ce n’était pas un signal artificiel ajouté aux données « à la main » pour tester le bon fonctionnement des méthodes d’analyse. Ensuite, l’information que les deux interféromètres fonctionnaient normalement à ce moment-là. Puis, que la qualité des données semblait bonne. Enfin, le fait que c’était un possible signal de coalescence de deux trous noirs d’une trentaine de masses solaires chacun. page 55

ÉLÉMENTAÍRE

En l’absence de vrais signaux d'ondes gravitationnelles, une procédure utilisée dans le passé pour tester le bon fonctionnement des méthodes d’analyse a consisté à ajouter un signal artificiel aux données des différents interféromètres, par exemple en utilisant un laser pour exercer une pression (de radiation) sur un miroir en bout de bras.


GW150914 : on a vu... Une fois que les premières analyses ont confirmé que l’événement était potentiellement d’origine astrophysique, les collaborations LIGO-Virgo se sont mises en mode « découverte », un scénario préparé de longue date. La tâche la plus importante est alors de calculer la « signification » statistique du signal, c’est-à-dire la probabilité qu’il ne soit pas réel, mais dû à des fluctuations « possibles » du bruit de mesure dans les deux interféromètres qui imiteraient le signal cherché et qui en plus se produiraient au même instant. Évidemment, ces conditions rendent une telle coïncidence fortuite rare, mais il faut être plus quantitatif. Pour atteindre cet objectif, la décision est prise de « geler » la configuration des deux détecteurs LIGO, c’est-à-dire de ne pas chercher à les améliorer, pour continuer à prendre des données dans des conditions aussi proches que possible de celles qui régnaient au moment du signal GW150914. Ce gel va durer un peu plus de quarante jours, le temps d’accumuler seize jours de données en coïncidence pour les deux interféromètres.

Seize jours de données en coïncidence ont été accumulés en quarante jours. À partir de ces deux nombres on peut estimer la fraction du temps moyenne pendant laquelle les détecteurs LIGO sont tous deux en fonctionnement : environ 40 %. Ce pourcentage illustre la difficulté de faire fonctionner de tels détecteurs.

Un vrai signal doit être détecté dans les deux détecteurs LIGO avec un écart d’au plus 10 ms, correspondant au temps maximum mis par une onde gravitationnelle pour parcourir à la vitesse de la lumière les 3 000 km séparant les deux instruments. Si on décale artificiellement l’un des deux jeux de données d’un temps bien supérieur, on est certain que toutes les « détections » réalisées dans ces conditions par les algorithmes d’analyse des données sont fortuites et dues à des fluctuations de bruit. C’est cette méthode, dite du « décalage temporel » et bien connue des physiciens, qui est utilisée pour estimer le bruit de fond des recherches et ainsi mesurer la signification statistique de l’événement GW150914.

© Elémentaire

page 56

Schéma montrant le principe de la méthode du décalage temporel, utilisée pour estimer la probabilité que le signal GW150914 soit dû à une fluctuation de bruit. Chaque ligne noire représente les données temporelles enregistrées par un interféromètre (« IFO ») Dans la configuration nominale, sans décalage temporel (au-dessus du trait jaune), les coïncidences observées sont soit dues à un vrai signal (carrés verts), soit au bruit (disques bleus et triangles rouges). Lorsqu’un décalage temporel ΔT est appliqué (configuration en-dessous du trait jaune), les vrais signaux ne peuvent plus être en coïncidence. Les coïncidences observées sont dues au hasard : des fluctuations de bruit sans lien entre elles (par exemple le disque bleu et le triangle rouge), associées par les algorithmes d’analyse des données qui leur trouvent des similitudes. Cette étude permet d'estimer la probabilité d'associer par erreur deux signaux sans aucun rapport dans le cadre du fonctionnement normal des deux appareils.

Une fois toute cette mécanique déroulée, on obtient le résultat final de l’analyse, présenté ici pour la méthode du filtrage adapté. Il est sans équivoque : l’événement GW150914 est non seulement le signal le plus fort observé sur les 16 jours d’analyse de données en coïncidence, mais il est aussi le plus fort dans les détecteurs pris séparément et il est également plus fort que tous les événements de bruit seul. Converti en probabilité, le niveau de rareté (ou signification statistique) de cet événement dépasse le seuil des « 5 sigmas », utilisé traditionnellement en physique des hautes énergies pour annoncer une découverte.

ÉLÉMENTAÍRE


des ondes gravitationnelles ! Des résultats très bavards Une jolie moisson de résultats accompagne la première détection directe des ondes gravitationnelles. • Les ondes gravitationnelles existent bien, comme prévu par la relativité générale.

• C’est la première observation directe de trous noirs – jusqu’à maintenant on n’en avait détecté que de manière indirecte, via les phénomènes qu’ils induisent autour d’eux : jets électromagnétiques dans le cas des binaires X, effets gravitationnels pour les trous noirs supermassifs que l’on trouve au centre de la plupart des galaxies, Dans le formalisme de la théorie quantique des champs, utilisé au niveau des particules élémentaires pour décrire la force électromagnétique, l’interaction faible et l’interaction forte, les forces sont transmises par des particules médiatrices, les bosons : le photon pour l’interaction électromagnétique, les bosons chargés W± et neutre Z0 pour l’interaction faible et les huit gluons pour l’interaction forte. A contrario, la gravitation est décrite par la relativité générale, une théorie complètement différente d’un point de vue mathématique et qui ne « connaît » pas les particules. Donc parler de graviton (le boson qui transmettrait la gravitation) dans ce contexte est une forme « d’anachronisme », mais qui pourrait être légitimé un jour si on arrive à trouver une « théorie quantique de la gravitation » qui permettrait de décrire les quatre interactions fondamentales avec un seul et même formalisme à base de particules. En attendant, il n'est pas interdit de voir ce que les observations nous apprennent sur cette hypothétique particule dont on sait en particulier qu’elle devrait être de masse nulle puisque la gravitation (et donc les ondes gravitationnelles) se propage à la vitesse de la lumière dans le cadre de la relativité générale.

© LIGO/VIRGO

Résultat final de l'analyse de recherche des coalescences de systèmes binaires pour les seize premiers jours de données en coïncidence du Run O1 des détecteurs avancés aLIGO. L'axe des abscisses montre la « statistique de détection » utilisée pour classer les événements coïncidents détectés (qu’ils soient de vraies coïncidences ou des coïncidences artificielles obtenues après décalage temporel de l'un des deux lots de données). Plus cette quantité est élevée et plus l'événement est significatif (c'est-à-dire qu’il est à la fois fort et ressemblant au signal cherché) : on en rencontre donc de moins en moins à mesure que l'on balaye l'histogramme de la gauche vers la droite – l'axe des ordonnées est en échelle logarithmique. GW150914 (le carré orange dont la statistique de détection est de l'ordre de 23) est de loin l'événement le plus fort observé. Et aucun événement de bruit de fond n'atteint sa statistique de détection, alors que l'équivalent de 200 000 années de données « bruit seul » ont été analysées de deux manières différentes (courbes bleue et noire).

© LIGO/VIRGO

• La relativité générale prédit avec précision les signaux de coalescence de systèmes binaires et une nouvelle limite supérieure sur la masse d’un hypothétique graviton – inférieure à … 10–22 eV/c2 ! – a été obtenue. En effet, si cette particule existait et avait une masse non nulle, la vitesse de propagation des ondes gravitationnelles dépendrait de leur énergie, et donc de leur fréquence, ce qui aurait modifié la forme du signal observé.

ÉLÉMENTAÍRE

page 57

Le signal observé est également la première observation directe de trous noirs, plus précisément de la fin de la coalescence d’un système formé de deux trous noirs, pesant chacun une trentaine de masses solaires. La courbe rouge donne la prédiction de la relativité générale pour un tel système, tandis que la bande grise montre la forme d'onde reconstruite avec ses incertitudes : l'accord est excellent entre les deux signaux. Sur le graphique du bas, la courbe verte montre l'évolution de la vitesse relative des deux objets compacts, rapportée à la vitesse de la lumière dans le vide c (axe vertical de gauche). Juste avant la fusion, la vitesse atteint les 180 000 km/s ! La courbe noire donne l'évolution de la distance entre les deux trous noirs (axe vertical de droite), rapportée à leur taille (appelée « rayon de Schwarzschild » et notée RS). On est donc en présence de deux astres massifs, qui se rapprochent à quelques centaines de kilomètres et tournent l’un autour de l’autre à une fréquence qui atteint 75 Hz. Les seuls objets que l'on connaît et qui peuvent avoir de tels comportements sont des trous noirs.


GW150914 : on a vu... dont la nôtre. Les trous noirs d’une trentaine de masses solaires existent donc bien et ils sont capables de former des systèmes doubles qui peuvent fusionner en un temps inférieur à l’âge de l’Univers.

Un système binaire X est formé d'une étoile et d'un astre compagnon compact – étoile à neutrons ou trou noir. Celui-ci « aspire » peu à peu la matière de l'étoile à cause de sa forte attraction gravitationnelle. Un puissant rayonnement électromagnétique est émis dans le domaine des rayons X pendant que ce processus d'accrétion se déroule.

L’estimation des paramètres de l’événement GW150914 est basée sur des méthodes statistiques complexes qui utilisent le fait que la forme de l’onde mesurée dépend étroitement des caractéristiques du système binaire observé. Certains paramètres sont mieux déterminés que d’autres, du fait des liens (on parle de « corrélations ») qui peuvent exister entre ces quantités. Ainsi, la distance est estimée en comparant l’amplitude du signal mesuré (inversement proportionnelle à la distance de la source) au modèle fourni par la relativité générale. Mais cette amplitude dépend également de l’inclinaison du plan orbital du système binaire : en effet, l’émission d’ondes gravitationnelles est maximale dans la direction perpendiculaire au plan de l’orbite des deux trous noirs. Et donc plus le système nous « fait face », plus on peut le voir loin.

© LIGO/VIRGO

Le principe de la méthode d’estimation des paramètres du système binaire GW150914 se comprend en comparant les quatre formes d'onde ci-contre. En haut à gauche, le signal détecté ; sur les trois autres graphiques, une forme d'onde du même type mais correspondant à des paramètres physiques différents. Les courbes de couleur sont toutes différentes du vrai signal, reproduit en gris clair à l'arrière-plan.

En comparant la somme des masses des deux trous noirs initiaux à la masse du trou noir final, on observe que l’équivalent de trois masses solaires a été converti en énergie au moment de la fusion. C’est une quantité d’énergie énorme émise en un temps très court, ce qui fait de GW150914 l’événement le plus violent jamais observé dans l’Univers : plus fort que tous les sursauts gamma et, à son paroxysme, une dizaine de fois plus « puissant » que la puissance lumineuse émise par l’ensemble de l’Univers visible (de l’ordre de 1011 galaxies contenant chacune environ 1011 étoiles). Une autre raison pour laquelle il est important d’effectuer une première analyse en direct des données des détecteurs d’ondes gravitationnelles, est la possibilité de lancer des alertes vers un réseau de télescopes lorsqu’un événement potentiellement intéressant est détecté. Environ 70 groupes qui ont signé des accords avec LIGO et Virgo ont ainsi reçu le 16 septembre (soit deux jours après l’enregistrement du signal GW150914) une circulaire annonçant l’existence d’un candidat ondes gravitationnelles et leur demandant d’observer une région particulière du ciel, susceptible d’abriter la source de l’événement. Cette région était malheureusement assez étendue page 58

Un événement potentiellement intéressant se doit d'être rare : les détecteurs d'ondes gravitationnelles devraient envoyer une alerte par mois en moyenne.

ÉLÉMENTAÍRE


des ondes gravitationnelles !

© LIGO/VIRGO

(environ 600 degrés carrés, soit plus de 1000 fois la taille de la pleine lune) car la détection n’a été faite qu’avec deux détecteurs. Aucun signal non-ambigu n’a été observé par ces télescopes, en accord avec la prédiction que seules des ondes gravitationnelles sont émises lors d’une fusion de trous noirs. Mais cet exercice sera utile dans l’avenir : les collaborations LIGO et Virgo espèrent détecter des ondes gravitationnelles accompagnées d’une contrepartie électromagnétique et/ou d’une bouffée de neutrinos, ce qui permettrait d’identifier avec certitude la source du signal et de tester les modèles qui sont actuellement utilisés pour décrire de tels événements astrophysiques. On peut penser à l’explosion d’une supernova dans notre galaxie, mais aussi à la fusion d’objets compacts (comme des étoiles à neutrons) capables de générer des sursauts gamma, ces flashs de photons énergétiques détectés régulièrement par des satellites d’observation.

Une, deux... beaucoup ? La première détection directe des ondes gravitationnelles est à la fois l’aboutissement d’un siècle d’études – puisque ce phénomène a été introduit par Einstein lui-même dans un article de 1916, quelques mois après avoir publié sa théorie de la relativité générale – et l’ouverture d’une nouvelle fenêtre d’observation sur l’Univers. En effet, les ondes gravitationnelles apportent des informations sur le cosmos complémentaires de celles fournies par les rayonnements électromagnétiques ou les particules (rayons cosmiques, neutrinos). Elles sont les témoins uniques des mécanismes à l'origine des phénomènes violents dans l'Univers et se propagent jusqu'à nous sans interagir Et les coalescences de trous noirs sont peut-être assez fréquentes dans l'Univers ! Au moment où nous bouclons ce numéro d'Elementaire, LIGO et Virgo annoncent la découverte d'une seconde fusion trou noir - trou noir, l'événement GW151226 observé le lendemain de Noël. Comme GW150914, ce signal a été détecté quelques minutes après le passage de l'onde gravitationnelle mais l'analyse de ses données aura pris environ six mois avant que le résultat ne soit rendu public. À quand la prochaine détection ?

Ciel observé depuis l’Atlantique Sud au moment de la détection de l'événement GW150914. La « banane » colorée est la région du ciel qui contient probablement la source du signal. © LIGO/VIRGO

Montage superposant le trou noir final issu de l'événement

Du côté de Virgo, on espère que le détecteur AdVirgo rejoindra GW150914 à une carte de l’Europe. On peut voir qu’il a rapidement ses deux collègues LIGO dans le réseau mondial de une taille similaire à l’Islande. détecteurs interférométriques d’ondes gravitationnelles qui devrait s’agrandir dans les prochaines années : vers 2018 avec le détecteur japonais KAGRA et peut-être plus tard avec un possible troisième détecteur LIGO situé en Inde.

ÉLÉMENTAÍRE

page 59

Pour en savoir plus sur GW150914 : * Article publié dans Physical Review Letters (en anglais) : http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.116.061102 * Communiqué de presse du CNRS et ressources associées (dossier de presse, petit film de cinq minutes) : http://www2.cnrs.fr/presse/communique/4409.htm


Analyse Le boson... Une longue route... Les analyses de physique des particules sont complexes et variées mais elles suivent toutes un chemin similaire. En amont, un accélérateur prépare de grandes quantités de particules qui s’entrechoquent au centre de détecteurs qui enregistrent leur passage. L'énergie de la collision est telle qu'il est possible d'en convertir une partie en masse, sous la forme de nouvelles particules. Le résultat d'une collision entre deux protons peut ainsi donner lieu à des particules déjà bien connues, légères (par exemple celles contenues dans les gerbes initiées par des quarks et des antiquarks up et down) ou lourdes (comme un boson Z ou un quark top). Elle peut aussi aboutir à la création de particules encore inconnues, comme le boson H avant 2012. En effet, si une interaction entre particules obéit à des lois de probabilité précises, la Nature « pioche » au hasard lors de chaque collision parmi toutes les combinaisons possibles, un peu comme lors d’un tirage du loto.

Parmi toutes les collisions Combien de collisions a-t-on par jour au LHC ? Un petit calcul donne une idée du nombre : on a 20 × 106 croisements de faisceau par seconde, on sait qu'en moyenne, un croisement donne lieu à 15 interactions, mais le LHC ne tourne pas en permanence, et son cycle utile (temps réellement utilisé pour faire des collisions) est d'environ 30 %. Mettant tous ces chiffres ensemble, on atteint une estimation de 8 × 1012 collisions par jour.

© Patrick Roudeau

Si elles sont créées, les particules lourdes ne sont pas aisées à identifier, car elles se désintègrent très rapidement dans des particules plus légères selon des probabilités très variables. Ainsi, le boson H récemment découvert, devrait _ se désintégrer le plus souvent en bb (58 % des cas), en W+W- (22 %) ou encore en ZZ (3 %). Il ne suffit donc pas de produire de nouvelles particules (on estime qu'au LHC à 8 TeV, on produisait 10 000 bosons H par jour, soit une dizaine par minute), mais il faut encore repérer, parmi toutes les collisions (environ 8x1012 par jour), celles où cette particule a été produite, et s'est désintégrée d'une façon identifiable dans le détecteur. Et même en procédant de la sorte, on gardera inévitablement d'autres événements, où la particule recherchée n'a pas été produite, mais qui partagent les mêmes caractéristiques intéressantes – on parle de bruit de fond, par opposition au signal constitué par les événements contenant le phénomène recherché.

Raisonnons sur les résonances Nous cherchons des particules lourdes, qui vont se désintégrer très rapidement en plusieurs particules plus légères. Il faut donc enregistrer des évènements contenant ces particules légères, « remonter » leurs trajectoires et vérifier qu'elles semblent bien issues d'un même point de désintégration – l’endroit où la particule lourde s’est désintégrée. Mais comment savoir si ces particules légères proviennent bien de la particule que nous cherchons ?

Masse invariante Si on connaît toutes les impulsions et les énergies d'un ensemble de particules, on peut considérer la somme de leurs impulsions ainsi que la somme de leurs énergies, et calculer la masse invariante correspondante : m2inv c4 = (∑Ei)2 -

Une manière de procéder consiste à calculer la masse invariante associée à ces particules. Si elles sont bien le produit de la désintégration d'une particule lourde, cette dernière doit avoir une masse égale à cette masse invariante, par conservation de l'énergie et de l'impulsion. Imaginons donc que nous cherchons à voir si les données amassées contiennent des événements où le boson H a été brièvement produit au cours de la collision, avant qu'il ne se désintègre en deux photons. On va s'intéresser à tous les événements contenant deux photons énergétiques, et les trier en fonction

→ 2 2 (∑p ) c i

page 60

où c est la vitesse de la lumière. Cette équation montre que la notion de masse invariante étend la relation d'Einstein entre masse, impulsion et énergie au cas de plusieurs particules.

ÉLÉMENTAÍRE


dans une botte de foin DR

de leur masse invariante. Sur l'histogramme ainsi tracé, on s'attendrait à repérer un pic étroit au-dessus du bruit de fond. Ce pic est situé à la valeur de la masse de la particule intermédiaire, le boson H, qui s'est désintégrée en deux photons.

En triant les événements contenant deux photons en fonction de la masse invariante de ces derniers, on peut construire un histogramme où se superposent deux contributions : un pic (signal) correspondant à une particule instable qui s'est désintégrée en deux photons, et une autre contribution (bruit de fond) dépendant peu de la masse invariante et correspondant à des processus ayant engendré deux photons sans lien avec la particule instable responsable du pic.

En pratique, plusieurs effets contribuent à transformer ce pic en une bosse, plus ou moins large. Tout d'abord, la résolution du détecteur pour la reconstruction des trajectoires, des énergies et des impulsions n'est pas parfaite, ce qui à tendance à « étaler » le pic. Plus fondamentalement, le boson H n'est pas une particule stable et son apparition et sa désintégration sont régies par les lois de la mécanique quantique. Notre connaissance de la masse exacte de cette particule intermédiaire ne peut être parfaite, et elle pourra prendre des valeurs dans un domaine d'autant plus large que la particule se désintègre rapidement, en vertu du principe d'incertitude d'Heisenberg. Principe d’incertitude d’Heisenberg

ÉLÉMENTAÍRE

page 61

La mécanique quantique nous apprend que la précision de la mesure de certaines quantités est liée de façon fondamentale à celle obtenue pour d'autres quantités décrivant le même système. Ainsi, mieux on connaît la position d’une particule et moins sa vitesse peut être mesurée avec précision, et vice-versa. De même, l'énergie d’une particule peut varier d’une quantité ΔE pendant un temps Δt à condition que ces deux paramètres vérifient l'équation ΔE × Δt ≥ & /2 où & est la constante de Planck. Cette relation associe une grande (petite) variation d'énergie à un petit (grand) intervalle de temps. Appliquée au cas d’une particule massive, cette loi nous dit que sa masse invariante peut varier dans un domaine d'autant plus grand (ΔE élevé) que la particule en question est instable (durée de vie Δt petite).


Analyse Le boson... DR

L’histogramme présente donc un pic étalé. La position du pic nous informe sur la masse du boson H, sa largeur sur le temps de vie de cette particule, tandis que sa hauteur nous indiquera la facilité avec laquelle ce boson H est produit dans les collisions et se désintègre pour donner les deux photons que nous avons sélectionnés.

© CERN

Cette question n'est pas limitée au cas d'un boson H se désintégrant en deux photons, et on peut appliquer la même méthode pour toute particule instable. Au démarrage du La fonction exponentielle décrit l'évolution en temps d'un ensemble de particules LHC, une des premières tâches a consisté instables – dont le nombre décroît au cours du temps et qui n'est gouvernée que par un à «  retrouver  » des particules instables seul paramètre : la durée de vie tau de la particule. Ce comportement se traduit par un connues en observant, par exemple, pic lorsqu'on trace l’histogramme de la masse invariante des produits de désintégration ; ce pic est d'autant plus large que la durée de vie de la particule instable est brève. les événements contenant deux muons énergétiques, et en regardant les pics qui apparaissent dans les histogrammes de masse invariante de ces muons. On a pu ainsi identifier très rapidement à ATLAS et CMS une vaste gamme de particules, certaines composites (par exemple, le J/ψ formé d'une paire de quarks charmeanticharme, dont la masse vaut environ 3,1 GeV/c2), d'autres élémentaires (comme le boson Z de l'interaction faible de masse 91 GeV/c2).

Les différentes résonances se désintégrant en paires µ+ µ−, vues par l'expérience CMS. En abscisse, la masse invariante de la paire de muons et en ordonnée le nombre d'événements observés. Chaque pic correspond à une résonance bien connue.

Dans le voisinage de chacun de ces pics, la courbe ressemble beaucoup à ce qu'on peut observer dans certains systèmes mécaniques lorsqu'ils entrent en résonance. On parle donc souvent de résonances pour désigner les particules lourdes intermédiaires qui sont identifiées par des pics dans les histogrammes de masse invariante.

DR

page 62

Résonance dans les systèmes mécaniques Le phénomène de résonance peut se produire quand un système qui oscille autour d'une position d'équilibre (par exemple un pendule ou un ressort) est soumis à une force extérieure qui varie au fil du temps. La résonance proprement dite apparaît lorsque la fréquence de variation de la force est égale à celle de l'oscillation propre du système. Cette fréquence propre dépend des caractéristiques du système. L'amplitude du mouvement augmente alors avec le temps et devient en théorie infinie. Dans la pratique, des phénomènes dissipatifs (par exemple, des frottements) font perdre de l'énergie au système et empêchent une telle divergence. Mais le résultat peut néanmoins être impressionnant comme l'illustre l’effondrement, en 1940, du pont sur le goulet de Tacoma (Etats-Unis), quand le vent est entré en résonance avec une des fréquences propres du pont. Lorsqu'on augmente la fréquence d'excitation, l'oscillation du système est d'abord faible, puis elle croît en intensité, atteint son maximum à la fréquence propre du système, avant de redescendre, selon une courbe très proche des histogrammes de masse invariante décrits dans le texte.

L'effondrement du pont de Tacoma (Etats-Unis), le 7 novembre 1940.

ÉLÉMENTAÍRE


dans une botte de foin Pic et pic et histogramme

Jets QCD Lors des collisions entre deux protons au LHC, il est extrêmement fréquent que des quarks ou des gluons qu'ils contiennent interagissent sous l'effet de l'interaction forte (ou QCD), pour produire des quarks ou des gluons très énergétiques. Ceux-ci perdent leur énergie en émettant de nombreux gluons qui donnent naissance à des paires quark-antiquark. Les particules élémentaires ainsi émises, d'énergie plus faible, sont confinées par l'interaction forte dans des hadrons (contenant trois quarks, ou un quark et un antiquark, ainsi que des gluons), tous émis dans un cône avec un axe orienté dans la direction du quark ou du gluon initial. De telles gerbes de hadrons sont appelés jets QCD, et constituent une fraction importante des bruits de fond au LHC.

Pour rechercher le boson H, on ne va pas obligatoirement utiliser un mode de désintégration abondant car _ le bruit de fond peut être rédhibitoire. C’est par exemple le cas du canal bb , notamment parce que la masse reconstruite à partir des particules mesurées est peu précise. De plus, le signal recherché ne peut pas être facilement distingué d'un bruit de fond extrêmement large dû aux événements « jets QCD ». Ainsi, un des modes favoris des physiciens pour trouver notre boson H vient de sa désintégration en deux photons dont le taux n’est pourtant que de 0,23 % : en effet, il « suffit » de trouver deux photons très énergétiques dont les trajectoires se coupent à proximité du point d'interaction pour mesurer leur masse invariante de façon très précise. Mais de nombreux autres processus peuvent générer des paires de photons très énergétiques qui « ressemblent » à la désintégration du boson H cherchée. Il faut donc trier les événements selon des critères de sélection (ou coupures) stricts, de façon à éliminer la plupart des événements de bruit de fond sans perdre trop d'événements de signal.

Une collision enregistrée par ATLAS avec deux jets QCD, représentés par les cones en rouge, et rassemblant les trajectoires de nombreux hadrons (les lignes jaunes et orange issues du point de collision).

ÉLÉMENTAÍRE

page 63

La création de deux jets QCD lors d'une collision e+ e−, via l'émission de quarks et de gluons. L'annihilation des deux particules initiales donne lieu à l'émission d'un photon, converti en un quark et un antiquark énergétiques. Ces derniers rayonnent des gluons (représentés par des ressorts rouges) qui vont eux-même émettre des quarks et des antiquarks moins énergétiques. Parfois ces gluons vont interagir entre eux ou se convertir fugacement en une paire quark-antiquark (boucle verte). Les quarks et antiquarks finissent par se combiner en particules composites, les hadrons, qui forment des jets orientés dans la direction du quark et de l'antiquark initiaux.

© ATLAS CERN

DR


Analyse Le boson... Désintégration du boson H en deux photons Comme le boson H interagit avec des particules proportionnellement à leur masse, on pourrait croire qu'il ne pourra jamais avoir d'interaction (et encore moins se désintégrer) en des photons de masse nulle. Mais ce serait oublier la mécanique quantique, qui permet au boson H de se désintégrer temporairement en une paire top-antitop, laquelle peut ensuite s'annihiler en deux photons. Ce processus est impossible en mécanique classique, car la paire top-antitop est trop lourde pour être un produit de désintégration final (il faudrait une énergie de 2 × 173 GeV/c2 pour produire une telle paire alors que la désintégration du H ne peut fournir que 125 GeV). Mais il est autorisé en mécanique quantique, car cette paire n'est qu'une étape intermédiaire, transitoire, du processus. Le processus H → γγ bien que très peu probable, n'est donc pas interdit ! La brève vie d'un boson H au LHC. Sur ce diagramme de Feynman, le temps s'écoule de la gauche vers la droite. Lors d'une collision entre protons, deux gluons (g) issus chacun d'un proton peuvent brièvement créer une paire de quarks top-antitop, qui se convertit en un boson H brièvement. Celui-ci se propage puis se désintègre, par exemple en une autre paire de quarks top-antitop, qui se convertit en une paire de photons (γ) finalement observés. Ce processus n'est que l'une des nombreuses possibilités offertes par le Modèle Standard pour créer et laisser se désintégrer un boson H. Trier les événements Les événements contenant un boson H qui se désintègre en deux photons sont sélectionnés par différents filtres en cascade qui utilisent de plus en plus d’informations à mesure que le nombre d’événements à trier diminue. Le filtre de premier niveau, le plus rapide, est basé sur des signaux issus de l’électronique des détecteurs. Il exige deux dépôts d’énergie transverse assez élevés dans le calorimètre électromagnétique. Lorsque le boson H se désintègre en deux photons, leur énergie transverse reste voisine de la moitié de la masse du boson alors que l’énergie longitudinale est très dispersée. Ceci provient du fait que le boson H est produit avec des énergies très variables d’un événement à l’autre le long de la direction des faisceaux alors que son mouvement transverse est plus contraint. Les filtres suivants utilisent des fermes d’ordinateurs qui traitent des informations plus détaillées afin de décider si l’événement doit finalement être retenu pour analyse. Si l’on considère la recherche effectuée par la collaboration ATLAS pour ce canal, environ 140 000 événements dont la masse du système formé par les deux photons est supérieure à 100 GeV et inférieure à 160 GeV ont été sélectionnés dans les données 2010-2012 – sur plusieurs milliards d’événements enregistrés, eux-mêmes issus des dizaines de millions de croisements de faisceaux qui se produisent chaque seconde dans les détecteurs. Ces candidats doivent au final satisfaire à d’autres critères pour diminuer plus encore le bruit de fond et améliorer la précision des mesures de l’énergie et de la direction des deux photons. Les dépôts d’énergie dans les différentes cellules du calorimètre électromagnétique pour les deux gerbes doivent être compatibles à ce qui est attendu pour des photons. Le seuil sur l’énergie transverse est de 40 GeV pour celui d’énergie la plus grande et de 30 GeV pour le second. Afin de diminuer la contamination par des photons produits dans des jets QCD, on demande que chaque photon soit isolé, c’est-à-dire qu’il y ait peu d’énergie transportée par d’autres particules proches (dans le détecteur). On va enfin sélectionner le point de collision des deux protons dont sont issus les photons parmi la vingtaine de collisions qui ont lieu en moyenne sur quelques centimètres lors de chaque croisement de deux paquets de protons. Grâce à une procédure complexe utilisant un réseau de neurones, on peut localiser le bon point de collision avec une précision meilleure que 0,3 mm dans 75 % des cas.

page 64

Pour déterminer l'efficacité de ces coupures, on les teste d'abord sur des ensembles d'événements « de synthèse », issus de simulation sur ordinateur (on parle de simulations Monte-Carlo). Ces événements ont des caractéristiques proches des événements réels et on connaît toutes leurs propriétés à l’avance – en particulier on sait s’ils contiennent ou non la désintégation recherchée.

ÉLÉMENTAÍRE


dans une botte de foin © Julien Serreau

Mais même avec ces coupures, il est impossible de se débarrasser de la totalité du bruit de fond : dans le canal photon-photon, en dépit des coupures, il est encore environ 100 fois plus élevé que le signal. Il faut donc faire preuve de patience, et accumuler suffisamment de données pour déterminer si le nombre d'événements observés est compatible avec la seule présence du bruit de fond attendu ou s'il faut lui ajouter un signal. Le maître mot ici est « suffisamment ». Chaque événement est un phénomène aléatoire. Si on sait combien d'évènements de chaque type est attendu « en moyenne » pendant une durée donnée (par exemple, un an de fonctionnement du LHC), des fluctuations statistiques peuvent pousser vers le haut ou vers le bas le nombre d'événements mesurés. Il peut donc arriver différentes mésaventures au physicien parcourant sa botte de foin. Dans certains cas, le signal existe bel et bien, mais il est tellement discret qu'il est noyé par le bruit de fond et ira se cacher dans les barres d'erreur des mesures. Dans d'autres cas, on verra un écart important des données par rapport à la valeur moyenne attendue, mais ce n'est qu'une fluctuation statistique du bruit de fond et non un véritable signal. Dans un cas comme dans l'autre, il faut réduire les incertitudes de mesure, ce qui est possible en accumulant plus de données, en améliorant la compréhension du bruit de fond et en modifiant les coupures pour mieux sélectionner le signal.

Énergies transverse et longitudinale Dans des collisions entre deux faisceaux, on fait souvent la distinction entre axe longitudinal (le long de deux faisceaux) et plan transverse (perpendiculaire à l'axe des deux faisceaux). La mesure des impulsions des particules se fait généralement en référence à ces deux directions, en projetant l'impulsion sur l'axe longitudinal et le plan transverse. Au LHC, l'impulsion longitudinale des quarks et gluons qui interagissent au début d'une collision n'est pas bien connue : l'impulsion des protons est précisément déterminée, mais on ne peut pas savoir comment cette impulsion est partagée entre les différents constituants du proton (et donc entre ceux qui ont interagi et ceux qui sont restés spectateurs). En revanche, les impulsions des quarks et des gluons initiaux sont initialement alignées le long de l'axe du faisceau, de sorte que l'impulsion transverse est nulle avec une très bonne approximation. On peut mesurer de la même manière les impulsions longitudinale pL et transverse pT des particules émises, qui sont les projections de l'impulsion sur l'axe longitudinal et le plan transverse. On utilise ensuite la relation d'Einstein entre impulsion et énergie, tout en négligeant les masses des particules détectées (très petites par rapport aux énergies et impulsion en jeu), de sorte que EL=pL × c et ET=pT × c. © ATLAS CERN

ÉLÉMENTAÍRE

page 65

Projections de face et de côté d'un événement d'ATLAS susceptible d'être un boson H se désintégrant en deux photons (dépôts jaunes dans le calorimètre électromagnétique, invisibles dans le détecteur de traces chargées), accompagné de l'émission d'un jet QCD (en rouge). La vue du haut correspond à projection sur le plan transverse, tandis que sur la vue du bas, l'axe horizontal correspond à l'axe des faisceaux, autrement appelé axe longitudinal.


Analyse Le boson... Simulations Monte-Carlo Toutes les phases d’un événement au LHC (les collisions entre deux protons, l’interaction des particules ainsi générées avec les matériaux des détecteurs, les signaux issus de ces détecteurs et le traitement de ces signaux par les fermes d’ordinateurs situées auprès des détecteurs) sont simulées afin de créer de « faux événements », c'est-à-dire des enregistrements numériques aussi proches que possible des événements réels enregistrés par chaque expérience. Ces événements viennent de phénomènes quantiques, aléatoires, dont on peut simplement prédire la probabilité qu'ils ont de se produire. Ils sont donc simulés en procédant à de nombreux tirages de nombres aléatoires : les méthodes utilisées sont appelées Monte-Carlo. Les physiciens utilisent alors les mêmes programmes pour analyser les événements réels (issus des collisions enregistrées par les expériences) et les événements simulés. Afin d'être les plus réalistes possibles les simulations utilisent les connaissances les plus récentes (et notamment celles obtenues au LHC) pour générer les particules issues des collisions entre deux protons. La géométrie des différents détecteurs ainsi que les matériaux qui les constituent sont pris en compte pour évaluer les interactions des particules dans la matière et calculer les signaux engendrés dans chaque zone sensible de l'appareillage. Lors de chaque période de prise de données on s'assure, à partir d'échantillons appropriés, que le fonctionnement du détecteur est bien reproduit par sa simulation. Mais pourquoi Monte-Carlo ? Le nom remonte au projet Manhattan et à l'invention de la bombe atomique. En 1946, les deux physiciens John Von Neumann et Stanislaw Ulam travaillaient à Los Alamos (Etats-Unis) sur la manière dont différents matériaux pouvaient servir de protection à diverses radiations, et en particulier au flux de neutrons issus de l'explosion d'une bombe atomique. Les équations étant impossible à résoudre analytiquement, ils eurent recourt à des simulations d'« expériences » aléatoires pour estimer la probabilité qu'un neutron traverse un matériau donné (des simulations très rudimentaires, vu les moyens de calcul de l'époque !). Comme ce travail devait rester secret, leur collègue Nicholas Metropolis proposa le nom de code « Monte-Carlo » pour décrire cette idée, par référence aux casinos où l'oncle de Stanislas Ulam allait souvent perdre des sommes d'argent importantes. DR

John von Neumann (1903-1957) était un scientifique hongrois, puis américain, reconnu pour ses nombreuses contributions en mathématiques, physique, économie, informatique et statistique. Il a en particulier développé la théorie des opérateurs en mécanique quantique, l'analyse fonctionnelle en mathématiques, la théorie des jeux et la théorie des automates cellulaires... Il a également participé au projet Manhattan en résolvant plusieurs problèmes conceptuels et techniques difficiles (système de compression du cœur des bombes, dispositifs d'explosion). Il surprenait ses interlocuteurs par la rapidité de son esprit, sa capacité à résoudre quasi-instantanément des problèmes complexes et sa mémoire photographique. À la fin de sa vie, il travaillait sur les comparaisons pouvant être établies entre les fonctionnements du cerveau et des ordinateurs. DR

DR

Stanislaw Ulam (1909-1984) était un mathématicien polonais puis américain. Il a contribué à de nombreux aspects des mathématiques (topologie, théorie des nombres, théorie des graphes, théorème ergodique) et de la physique (physique nucléaire, phénomènes non-linéaires). Spécialiste de calculs hydrodynamiques dans le cadre du projet Manhattan, il est à l'origine avec Edward Teller du modèle Teller-Ulam à la base de toutes les armes thermonucléaires actuelles. Il a également proposé d'utiliser l'énergie nucléaire comme système de propulsion spatiale.

page 66

Nicholas Metropolis (1915-1999) a obtenu son doctorat en 1941 à l'Université de Chicago où il a été l'assistant d'E. Fermi. Recruté en 1943 pour travailler sur le projet Manhattan à Los Alamos, il dirigeait en 1948 l'équipe qui construisait MANIAC, un des premiers ordinateurs. En 1957, il retourna à Chicago où il a fondé l'Institut universitaire de recherche sur les ordinateurs. À partir de 1965, il est revenu à Los Alamos pour y passer le reste de sa carrière.

ÉLÉMENTAÍRE


© ATLAS CERN

dans une botte de foin

Comment a-t-on « vu » le boson H en 2012 par sa désintégration en deux photons ? La bosse du boson H est vue comme un (petit) pic au-dessus du bruit de fond dans le mode de désintégration en deux photons. Grâce à la masse invariante des deux photons, on peut identifier rapidement celle de la particule intermédiaire... autour de 126 GeV/c2. La largeur de la bosse est déterminée par les incertitudes sur les mesures des deux photons, la largeur intrinsèque de la résonance du boson H ayant ici une contribution négligeable.

J'ai cru voir un 'rominet... mais oui, j'ai bien vu un 'rominet ! Il y a donc de nombreuses étapes pour arriver à la découverte d'une nouvelle particule en présence de bruit de fond : © JPatrick Roudeau

• générer par méthodes de Monte Carlo des événements correspondant pour les uns aux bruits de fond et pour les autres au signal recherché, • simuler la manière dont ces événements seront détectés pour obtenir des données aussi réalistes que possible, • raffiner et optimiser les critères de sélection des événements pour éliminer le bruit de fond au profit du signal, • comparer le bruit de fond simulé avec le cas réel dans des situations où aucun signal n'est attendu, pour vérifier qu'on le comprend, • analyser les vraies données, • voir si un signal se détache du bruit de fond, • tester si ce signal est en accord avec celui espéré dans le modèle que l'on veut étudier ou bien s’il s’en différencie, indiquant alors la présence d’une physique nouvelle.

ÉLÉMENTAÍRE

page 67

La dernière étape n'est pas évidente. Il faut d'abord savoir si un signal se détache du bruit de fond. Comme chaque événement est aléatoire, on sait combien on attend « en moyenne » d'événements de bruit de fond, mais on sait aussi que des fluctuations statistiques vont intervenir de sorte que le nombre d'événements de bruit de fond réellement enregistrés pourra être


Analyse Le boson... un peu plus haut ou un peu plus bas. Si l'écart entre comportements attendu et observé se creuse, il ne faut pas (encore) crier à la découverte. En effet, au moins deux cas sont à envisager. Cas le moins intéressant : il n'y a pas de signal, mais le bruit de fond a été mal décrit dans les simulations, de sorte qu'on ne parvient pas à réconcilier les deux descriptions. On chasse ce genre d'erreurs en comparant les caractéristiques des bruits de fond simulé et réel dans des régions de contrôle, où on sait qu'aucun signal additionnel n'est présent. Cas le plus intéressant : le bruit de fond est globalement bien décrit, mais il faut lui ajouter « quelque chose » pour faire coller parfaitement données et modèle. Reste ensuite à vérifier si ce « quelque chose » est bien le signal recherché (le boson H, dans notre exemple) et pas autre chose (comme une particule inconnue, au-delà du Modèle Standard). On veut donc comparer deux possibilités : celle où le bruit de fond seul est responsable des événements enregistrés, et celle où une partie des événements provient d'un boson H. Pour ce faire, on va construire une quantité numérique, appelée test statistique, noté T, qui permet de comparer l'accord entre chacune des descriptions théoriques (bruit de fond seul ou bruit de fond + boson H) et les mesures expérimentales. T est conçu de façon à ce que des valeurs élevées indiquent un désaccord entre les mesures et l'hypothèse « bruit de fond seul ». Si le test est un bon discriminant entre les deux hypothèses, ces valeurs élevées correspondent simultanément à un bon accord entre les mesures et l'hypothèse « présence d'un boson H ».

Test statistique Un exemple de test statistique intervient dans la méthode des moindres carrés. On dispose de points expérimentaux (x1,y1 ± σ1), (x2,y2 ± σ2)... (xn,yn ± σn), que l'on veut décrire par une fonction y=f(x), par exemple, une droite f(x)=a x + b. Quel est le meilleur choix des coefficients a et b décrivant la fonction f ? On peut construire pour cela le test statistique Tf = ∑i (yi - f(xi))2/σi

Dans le canal de désintégration du boson H en deux photons, une accumulation des valeurs mesurées pour la masse des deux photons est attendue au voisinage de la masse du boson H – inconnue avant sa découverte car sa valeur exacte n’était pas prédite par le Modèle Standard. Imaginons ainsi qu'une bosse pointe le bout de son nez au-dessus de la courbe correspondant au bruit de fond. Pour déterminer s’il s’agit d’un signal réel, il faut estimer la probabilité p0 qu'en l’absence de boson H, une fluctuation statistique des mesures à l'intérieur de leurs barres d'erreur aboutisse à une valeur de T plus élevée que celle obtenue avec les données effectivement récoltées (hypothèse H0). Si p0 est petite, cela veut dire qu'on peut difficilement attribuer le désaccord entre les données et l'hypothèse « bruit de fond seul » à une mesure malchanceuse (une fluctuation statistique des données dans le « mauvais » sens), et que ce désaccord illustre probablement le fait que le bruit de fond ne suffit pas pour décrire les données. En revanche, une valeur grande de p0 n'est pas suffisante pour renforcer l'hypothèse « bruit de fond » : il se peut que cette mesure-ci ait donné une valeur basse pour le test statistique associé, même si l'hypothèse associée est erronée !

2

Pour chaque valeur des coefficients a et b, T mesure l'accord (ou le désaccord) entre la droite et les points expérimentaux. Le meilleur choix des paramètres a et b s'obtient en minimisant T par rapport à ces deux paramètres. Et la valeur de T pour ce meilleur choix quantifie l'accord entre les données et le modèle choisi : plus T est petit, meilleur est l'accord ! Dans ce cas précis, T ne permet pas de comparer différentes hypothèses (par exemple, entre une droite et une parabole), mais il n'est pas très difficile de créer des tests statistiques de ce type, par exemple en prenant la différence Tf - Tg (où f et g sont deux fonctions à comparer).

page 68

On peut calculer une quantité similaire, pA, à savoir la probabilité qu'une fluctuation statistique des mesures dans leurs barres d'erreur va aboutir àune valeur de T plus élevée que celle obtenue avec les mesures effectuées, en supposant cette fois que le boson H est bel et bien présent (deuxième hypothèse HA). Rappelons que T est construit de sorte qu'une valeur petite

ÉLÉMENTAÍRE


dans une botte de foin © L. Lyons

est en défaveur de l'hypothèse « il y a un boson H ». Si pA est grand (donc si 1-pA est petit), il devient difficile d'attribuer à la seule malchance le désaccord entre les données et l'hypothèse « boson H »... et on rejette cette hypothèse.

Si on se fixe des seuils α0 et αA pour rejeter les deux hypothèses « bruit de fond seul » et « boson H », on peut donc imaginer 4 cas différents. Dans la pratique, l'exclusion de l'hypothèse « bruit de fond » est décrétée dès α0 = 0,05. En revanche, la confirmation d'un signal (et donc d'une découverte) est beaucoup plus contrainte : on prend αA = 2,8×10-7 (soit une probabilité extrêmement faible, correspondant à 5 sigmas en unités « gaussiennes »). Cette différence de traitement vient de la crainte de la communauté des physiciens de se tromper quand il s'agit de lancer des annonces tonitruantes sur la découverte d'une nouvelle particule, alors que la remise en cause d'un modèle de bruit de fond est beaucoup moins sujette à controverse.

On aime convertir des probabilités en « nombre de sigmas » (σ) en utilisant la distribution en cloche, ou gaussienne. Prenons une grandeur aléatoire qui suit une telle distribution : des valeurs de plus en plus éloignées de la moyenne ont une probabilité de plus en plus faible de se produire.

Pour une distribution gaussienne, on a une probabilité de 68,3 % de tirer une valeur éloignée de moins de 1 sigma de la valeur centrale, et donc une probabilité de 31,7 % d'avoir une valeur éloignée à plus de 1 sigma.

ÉLÉMENTAÍRE

Comment bien discriminer deux hypothèses avec un test statistique ? On peut rencontrer plusieurs cas lorsqu'on étudie le test statistique T (noté t sur la figure ci-dessus) en présence de deux hypothèses différentes H0 (bruit de fond seul) et HA (bruit de fond + boson H). En bleu est représentée la distribution du test statistique T en supposant que l'hypothèse H0 (bruit de fond seul) est vraie. Quand une certaine valeur Tobs a été mesurée, on lui associe une valeur p0 correspondant à la probabilité d'observer une valeur plus grande que Tobs : cette valeur correspond à la région coloriée en bleu (correspondant à l'intégrale de la distribution depuis Tobs jusqu'à l'infini). En rouge est représentée la distribution du test statistique T en supposant que la seconde hypothèse HA (bruit de fond + boson H) est vraie. On peut là encore calculer une valeur pA (dans la pratique, on s'intéresse à 1-pA, représenté par la région coloriée en rouge). Dans le premier cas (a), le test statistique ne fait presque aucune différence entre les deux hypothèses, et il est impossible de conclure. Le troisième cas (c) est l'opposé extrême, où le test statistique permet de séparer à coup sûr les deux hypothèses. Le plus souvent, on se trouve dans le second cas (b). Dans ce cas, les deux hypothèses sont bien discriminées. Si les deux hypothèses sont bien discriminées par le test statistique T, les deux distributions sont bien séparées. Tobs en bon accord avec H0 aboutira à une valeur petite de 1-pA, Tobs en bon accord avec HA donnera lieu à une valeur petite de p0... de quoi rejeter une hypothèse en faveur de l'autre !

page 69

Unités gaussiennes


Analyse Le boson...

On traduit la compatibilité entre une hypothèse et les données comme l'écart entre la valeur mesurée et la moyenne de la distribution en cloche. Cet écart est mesuré en unité de la largeur de la courbe, ou sigma. Cela établit une correspondance entre nombre de sigmas et risque de se tromper : ainsi 1 sigma correspond à 31,7 %, 2 sigmas à 4,6 % et 5 sigmas à 5,7×10‑7 ! Noter que la probabilité de se tromper, qui correspond à 5 sigmas, vaut 2,8 × 10–7 dans le cas de la recherche d'un signal de particule nouvelle (page précédente) alors qu'ici elle est deux fois plus élevée. En effet, dans le premier cas, seule une fluctuation du bruit de fond vers le haut peut simuler un signal alors que, dans le second cas, les fluctuations vers le bas sont aussi admises. On trouve la fameuse courbe en cloche correspondant à une distribution gaussienne dans nos carnets de santé, sous la forme des courbes de croissance : à un âge donné (indiqué en abscisse), 63,2 % des enfants doivent avoir un poids qui se situe à l'intérieur de la bande à 1 sigma (pointillés verts), et 95,4 % d'entre eux dans la bande à deux sigmas (traits gris).

© Julien Serreau

Une fois la découverte confirmée, il ne reste « plus » qu'à utiliser les mesures déjà effectuées pour contraindre de plus en plus efficacement les paramètres du modèle : masse, modes de de désintégration... Après l'effervescence de la découverte de 2012 et les questions liées à la découverte et à l'identification du boson H, ce sont à présent les paramètres du boson qui sont le centre de l'analyse statistique.

Les petits ruisseaux font les grandes rivières

page 70

Nous venons de voir le principe de cette analyse pour un canal donné en prenant comme hypothèse à tester l'existence d'un boson H de masse donnée comme décrit par le Modèle Standard. La première complication vient du fait que cette masse n'est pas fixée dans le Modèle Standard : c'est un paramètre libre. Il a donc fallu faire des analyses distinctes pour chaque valeur possible de la masse du boson H, car les taux de production et de désintégration du boson H varient en fonction de sa masse. En particulier, certains modes de désintégrations en particules lourdes (par exemple topantitop) sont inaccessibles à un boson H trop léger, car il n'y a alors pas assez d'énergie (c'est-à-dire de masse) pour produire des particules très lourdes. D'autres sont complexes, car les produits de désintégration sont nombreux et/ou difficiles à identifier. Les physiciens travaillent d'arrachepied pour améliorer ces analyses, mais il leur arrive aussi d'avoir recours aux

ÉLÉMENTAÍRE


dans une botte de foin compétences d'informaticiens, par exemple sous la forme d'un concours, le Higgs boson machine-learning challenge.

De plus, l'annonce de l'existence d'une nouvelle particule comme le boson H est suffisamment importante pour qu'on la confirme de différentes manières, en particulier en diversifiant les canaux de mesures. D'abord, on peut ainsi vérifier que les propriétés de cette particule sont bien en accord avec le modèle dans tous les canaux : ainsi le Modèle Standard prédit les taux de désintégration du boson H en paires particule-antiparticule de façon précise, à la fois pour des fermions et les bosons. De plus, en combinant les données venant de plusieurs analyses, on augmente la taille de l'échantillon de mesure, ce qui diminue les risques d'annonce erronée liées à des fluctuations importantes (et trompeuses) des données, ou à des biais venant d'erreur dans les analyses (comme la mauvaise compréhension du fonctionnement du détecteur ou de la dynamique des processus de

© Julien Serreau

Higgs boson machine-learning challenge Le Higgs boson challenge est une compétition lancée en 2014, proposée aux experts en informatique et en mathématique qui travaillent sur les méthodes d'apprentissage automatisées. L'enjeu ? Concevoir de nouvelles méthodes d'analyse des données d'ATLAS, basées sur des techniques différentes de celles habituellement utilisées en physique des particules. Les chercheurs ont pu travailler sur des données d'ATLAS où l'extraction du signal n'était pas simple, à savoir H → ττ. Le prix ? 13 000 dollars. Près de 1 800 équipes ont planché pendant plusieurs mois sur le challenge... et trois prix ont récompensé les meilleures propositions. Certaines sont actuellement testées par les expérimentateurs d'ATLAS pour être intégrées dans les prochaines analyses de la collaboration.

© Patrick Roudeauu

Le boson H peut se désintégrer de multiples façons (paires de quarks, paires de bosons de jauge...). Il est possible de calculer les probabilités de désintégration dans ces différents modes dans le cadre du Modèle Standard. L'échelle est logarithmique (allant de l'unité jusqu'à 0,1 pour mille), et la somme sur tout les modes donne une probabilité totale de 1. Ces probabilités dépendent de la masse du boson H, qui est un paramètre libre du Modèle Standard et doit être mesuré expérimentalement.

ÉLÉMENTAÍRE

page 71

© CERN


Analyse Le boson... bruit de fond). C'est aussi ce qui fait l'intérêt de combiner les résultats venant des deux expériences ATLAS et CMS. Mais cette combinaison nécessite une compréhension fine des différentes analyses, et en particulier des corrélations qui peuvent exister entre les différentes analyses. Toutefois tous les canaux ne sont pas aussi facilement accessibles. En effet, certains sont très rares et n'offrent guère la possibilité d'acquérir une grande statistique, par exemple H → e+ e-. D'autres sont fréquents, mais certaines des particules produites ne sont pas facilement détectables : c'est le cas de H → τ+τ-, car le tau se désintègre rapidement en émettant un neutrino qui ne peut pas être détecté).

CMS Preliminary

12.9 fb-1 (13 TeV)

Data Fit model ± 1 s.d. ± 2 s.d.

40

J=0

© CMS

La quantité p0 utilisée pour distinguer les hypothèses « bruit de fond seul » et « bruit de fond accompagné d'un boson H de masse mH » : elle donne la probabilité qu'un simple bruit de fond ressemble plus que les données au signal recherché (la probabilité est indiquée sur l'axe de gauche, tandis qu'elle est convertie en « unités gaussiennes » sur l'axe de droite). Chaque couleur donne le résultat obtenu en exploitant les données disponibles jusqu'à une date donnée : plus le temps avance, plus la quantité de données est importante et meilleures sont les mesures. Lors des premiers résultats, on voyait plusieurs valeurs faibles de p0, pour différentes valeurs de mH, mais de façon trop peu marquée pour être significatif statistiquement. Puis p0 s'est creusé progressivement autour de 126 GeV au fur et à mesure de l'accumulation des données : il devient de plus en plus difficile d'attribuer l'observation du pic à une fluctuation statistique des données. Et au bout d'un certain temps, il ne reste plus qu'à admettre que seul un boson H peut expliquer les données... et annoncer la découverte !

Events / 20 GeV

© ATLAS CERN

Par exemple, la première annonce de découverte du boson H se basait sur la combinaison de deux modes (un seul n'étant pas suffisant pour passer le seuil des 5 sigmas) : H → γγ et H → ZZ. À – l'heure actuelle, on étudie aussi H → W+W–, H → τ+τ-, H → bb, H → Zγ... et on commence à regarder H → µ+µ-... Un joli cassetête pour combiner toutes ces informations et vérifier que les modes de production et de désintégration obéissent bien au Modèle Standard -- jusqu'à preuve du contraire, évidemment !

= 3.6fb

20

0

650

700

750

800

850

m

900

(GeV)

Les résultats présentés en août 2016 par CMS à ICHEP avec les données accumulées à 13 TeV. Le nombre d'évènements contenant deux photons d'une masse invariante donnée est représenté par les croix noires. La prédiction du Modèle Standard correspond à la courbe lisse en bleu, et en rouge est tracé le signal que causerait la fameuse résonance diphoton.

page 72

La brève carrière de la résonance diphoton ATLAS et CMS cherchent en permanence dans leur données des résonances inattendues correspondant à de nouvelles particules au-delà du Modèle Standard. En décembre 2015, lors d'un séminaire au CERN, ces collaborations ont annoncé toutes deux observer plus d’événements que prévu dans le cadre du Modèle Standard parmi les collisions donnant lieu à deux photons avec une masse invariante d’environ 750 GeV/c2. Ces résultats étaient basés sur les données accumulées à 13 TeV par le LHC lors de la première année du Run 2: ce lot d’évènements restait trop petit pour décider s'il s'agissait d'un véritable signal, ou d'une simple fluctuation statistique observée « par chance » à la même énergie par les deux collaborations. Cette coïncidence n'en restait pas moins intrigante et l'annonce n'a pas manqué de générer immédiatement une intense activité chez certains physiciens théoriciens : à l’été 2016, ils avaient écrit plus de 500 articles proposant des différents modèles pour expliquer cette possible « résonance diphoton » ! Pour en avoir le coeur net, il fallait accumuler plus de statistique. Début août 2016 à Chicago, lors de la grande conférence bisannuelle ICHEP, ATLAS et CMS ont présenté de nouvelles analyses portant sur un lot d’événements cinq fois plus large que l’année précédente et qui incluait des données enregistrées pour certaines à peine deux semaines avant le début de la conférence. Et, malheureusement, les évènements comportant deux photons se sont montrés cette fois en très bon accord avec le Modèle Standard, y compris dans la fameuse région autour 750 GeV/c2. Même si des analyses plus poussées doivent encore confirmer ces résultats, il semble que la gloire de la « résonance diphoton » aura été bien éphémère, illustrant combien la chasse aux résonances peut s'avérer frustrante et difficile !

ÉLÉMENTAÍRE


Accélérateur Le LHC : six ans et toutes ses dents ! Le grand collisionneur de hadrons du CERN, le LHC, est actuellement l’accélérateur de particules le plus puissant au monde. En fonctionnement depuis 2009, il a notamment permis aux expériences ATLAS et CMS de découvrir le boson H en 2012. Après une première campagne de prise de données réussie – le « Run 1 » –, le LHC a été arrêté début 2013 pour une période de maintenance prévue de longue date. Le LHC a ensuite redémarré en 2015 pour un Run 2 qui durera au moins deux ans, avant un nouvel arrêt de longue durée. Sur le plus long terme, le planning du LHC est assez bien établi jusqu’en 2022 environ, soit la fin du Run 3. Ensuite, les choses sont moins claires, même si un scénario d’exploitation se dessine pour la prochaine décennie.

De longue haleine

Planning du LHC • 1983 : premières études du LHC • 1994 : approbation du projet par le Conseil du CERN • 1998 : démarrage du génie civil • 2004 : début de l’installation du LHC • 2008 : démarrage du LHC, accident électrique, réparations • 2009 : redémarrage des collisions • 30 mars 2010 : premières collisions proton-proton (p-p) à 7 TeV • avril-octobre 2010 : prise de données p-p à 7 TeV • novembre-décembre 2010 : première prise de données avec des collisions entre ions de plomb (Pb) • mars-octobre 2011 : prise de données p-p à 7 TeV • novembre 2011 : nouvelle prise de données Pb-Pb • avril-décembre 2012 : prise de données p-p à 8 TeV • janvier-février 2013 : première prise de données avec des collisions entre ions plomb et des protons (Pb-p) • février 2013 : démarrage de la première maintenance de longue durée • début 2015 : retour des faisceaux dans le LHC • printemps 2015 : démarrage du Run 2 à 13 TeV • fin 2015 : arrêt technique • avril 2016 : redémarrage

Le LHC est un projet à très long terme puisque son étude a commencé il y a plus de trente ans, en 1983. Une décennie plus tard (1994), le collisionneur est approuvé par le CERN et les premiers travaux de génie civil démarrent en 1998. De 2004 à 2008, le collisionneur est peu à peu assemblé dans le tunnel de 27 km utilisé auparavant par le LEP. Retardé d’un an suite à un accident électrique survenu au niveau de liaisons entre aimants, le démarrage du LHC a lieu en 2009. Enfin, la prise de données pour la physique débute fin mars 2010 avec des collisions proton-proton à 7 TeV,

Le LEP

© CERN

ÉLÉMENTAÍRE

page 73

Évolutions prévues des performances du LHC jusqu'en… 2035 ! La courbe bleue montre l'augmentation, en échelle semi-logarithmique (axe vertical à la droite de l’image) de la luminosité intégrée (directement reliée à la quantité totale de données enregistrées) tandis que les points rouges indiquent les valeurs de la luminosité instantanée maximale – en échelle linéaire (axe vertical à la gauche de l’image). Les bandes grises correspondent aux longues périodes d'arrêt (« Long Shutdown » : LS) prévues pour les phases de maintenance et d'amélioration des détecteurs et du complexe accélérateur du CERN.

Le LEP (« Large ElectronPositron collider », grand collisionneur électron-positron) est un accélérateur du CERN qui a fonctionné de 1989 à 2000 et pour lequel a été construit le tunnel souterrain de 27 km qui abrite aujourd’hui le LHC. L'énergie des collisions a varié de 91 GeV (l'énergie correspondant à la masse du boson Z) à 209 GeV (étude des bosons W et recherche directe du boson H). Grâce à ses collisions entre électrons et positrons, des particules élémentaires (contrairement aux protons qui sont des particules composites formées de trois quarks), le LEP a permis de nombreuses mesures de précision, notamment dans le domaine de l’unification des interactions fondamentales électromagnétique et faible. Il a également permis d’exclure la possibilité que le boson H ait une masse inférieure à 114 GeV/c2 – une limite à peine 10 % inférieure à la masse effectivement mesurée en 2012 au LHC !


Le LHC : six ans... soit la moitié de l’énergie nominale de l’accélérateur. Environ un mois par an, le LHC produit des collisions entre ions de plomb ou proton-plomb. Pour que le LHC devienne réel, des progrès techniques ont été nécessaires dans de nombreux domaines, en particulier au niveau des aimants supraconducteurs (environ 9 000) qui guident les particules énergétiques tout au long de l’anneau. Le LHC est la machine de tous les records. • Des champs magnétiques parmi les plus intenses au monde et allant jusqu’à 8,3 teslas (soit environ 200 000 fois le champ magnétique terrestre), produits dans des aimants supraconducteurs.

© Nicolas Arnaud

• Le niveau de « vide » qui règne dans les tubes où circulent les particules atteint un cent-millième de milliardième de la pression atmosphérique (10–10-10–11 mbar), dix fois moins que la pression sur la Lune. • 48 km du tube à vide (24 km sur 27 pour chacun des deux faisceaux de particules) sont maintenus à 1,9 K, une température plus froide que celle de l’espace intersidéral. Le poids de l’ensemble des aimants du LHC ainsi refroidis est d’environ 36 000 tonnes, soit cinq fois le poids de la charpente métallique de la Tour Eiffel. • Le LHC a une consommation électrique de 120 MW, équivalente à celle d’une ville de 150 000 habitants. • Au total, l’énergie stockée dans les aimants atteindra les dix milliards de joules, soit l’équivalent d’un Airbus A380 bien chargé (poids de 500 tonnes) volant à 700 km/h. Quant à l’énergie des faisceaux, elle se compte en centaines de millions de joules. Ces niveaux extrêmement importants requièrent des systèmes de contrôle et de protection de l’accélérateur à la fois ultra-fiables et très performants. • Lors des collisions, des densités d’énergie colossales sont atteintes très localement : de l’ordre de 1024 (un million de milliards de milliards) joules par mètre carré – si l’énergie cinétique d’un proton au LHC n’est que de l’ordre du microjoule, sa taille est extrêmement faible : à peine un millionième de milliardième de mètre ! © CERN

En haut : photo d'une section d'un des nombreux aimants dipolaires du LHC utilisés pour courber les trajectoires des particules accélérées et les maintenir sur leur orbite idéale qui suit la circonférence du LHC (27 km).

• Le coût total du LHC est de l’ordre de 7 à 8 milliards d’euros, partagé entre le CERN et les 600 laboratoires environ qui contribuent à ce projet (ce montant inclut les salaires des personnels). Ces dépenses se sont étalées sur une longue période puisque le LHC a été approuvé en 1994, sa construction a commencé au début des années 2000 et la prise de données a vraiment démarré début 2010. Pour comparaison, le budget annuel du CERN est d’environ 800 millions d’euros. Pour l’essentiel, il est utilisé pour construire des accélérateurs – comme le LHC – et pour les faire fonctionner. Le CERN contribue également dans une proportion plus modeste aux détecteurs installés sur ces machines. page 74

En bas : vue en coupe d'un dipôle du LHC avec la description de ses principaux composants – l'objet photographié en haut correspond au disque central (sur fond rose) du schéma.

ÉLÉMENTAÍRE


et toutes ses dents ! Plus haut, plus fort, plus vite Le LHC a été dimensionné pour accélérer deux faisceaux de protons à une énergie de 7 TeV, afin de provoquer des collisions à 14 TeV. Suite à un accident électrique en 2008 qui a mis en lumière des limitations du système d’alimentation des aimants supraconducteurs, on a décidé de démarrer le LHC à une énergie inférieure : 3,5 TeV par faisceau en 2010 et 2011 (collisions à 7 TeV) puis 4 TeV par faisceau en 2012 (collisions à 8 TeV). Cette décision, qui a permis à la machine de fonctionner pendant près de trois ans sans problème majeur, a eu des répercussions quant à la physique étudiée. En effet, l’énergie des collisions limite les masses des particules qui peuvent être produites au LHC. De plus, certaines réactions intéressantes (par exemple associées à la production d’un boson H) sont plus rares car elles ont une probabilité d’occurrence qui augmente avec l’énergie. Comme nous le verrons dans la suite, l’un des objectifs principaux de l’arrêt

© CERN

Croisement des faisceaux de protons au point d’interaction 1 du LHC (détecteur ATLAS). Les deux « tubes » montrent la trajectoire des faisceaux (bleue dans un sens, rouge dans l’autre) sur 60 mètres de part et d'autre de la zone de collision ainsi que l'évolution de leur « enveloppe » (une mesure de la taille du faisceau) dans le plan transverse à leur direction de déplacement. Physiquement séparés sur presque toute la circonférence du LHC, les faisceaux sont rapprochés (jusqu’à se croiser) et violemment compressés (« l'épaisseur » des paquets passe d'environ 1 millimètre à 16 micromètres, soit entre trois fois et six fois plus fin qu’un cheveu) en arrivant au voisinage des détecteurs. Une fois le point de collision passé, ils sont séparés à nouveau et défocalisés. Le même cycle se reproduit à chaque traversée d’une zone expérimentale, soit près de 45 000 fois par seconde pour chaque paquet de particules au LHC. Ces changements de trajectoire et de forme du faisceau sont réalisés par des aimants extrêmement puissants, appelés dipôles et quadrupôles. © ATLAS CERN

ÉLÉMENTAÍRE

page 75

Schéma montrant la séquence d'aimants disposés sur près de 300 m d'un côté du point de collision de l'expérience ATLAS (appelé « IP1 » sur la gauche du dessin). Les lignes horizontales montrent les trajectoires des deux faisceaux (« beam 1 » et « beam 2 »), l'un entrant et l'autre sortant, et qui se rapprochent au voisinage du point de collisions. Les dipôles (quadrupôles) sont repérés par la lettre « D » (« Q »).


Le LHC : six ans... de longue durée 2013-2014 est le renforcement du système magnétique du LHC afin de redémarrer ensuite à plus haute énergie

Luminosité La luminosité est une grandeur qui caractérise les performances d’un collisionneur. En effet, le nombre de collisions par seconde entre les faisceaux est proportionnel à la luminosité instantanée de la machine – qui doit donc être la plus grande possible. Ce paramètre augmente avec le nombre de particules en circulation dans l'accélérateur et il est d'autant plus élevé que les faisceaux ont une faible taille transverse au point de collision – on dit qu’ils sont focalisés. La luminosité intégrée permet de calculer le nombre de collisions pendant une période de temps donnée. Elle prend en compte les périodes d’arrêt du collisionneur ainsi que les variations de la luminosité instantanée au cours du temps.

Deux grandeurs principales caractérisent une machine comme le LHC. L’une est l’énergie des collisions dont nous venons de parler ; l’autre est l’intensité avec laquelle ces collisions se produisent – la « luminosité » dans le jargon des physiciens. En fait, il y a deux types de luminosité : d’une part, la luminosité instantanée (L) qui est reliée au taux de collisions par seconde ; d’autre part, la luminosité intégrée (Ltot) qui mesure le nombre total de collisions produites par l’accélérateur sur une période donnée. Ltot dépend bien sûr de L, mais aussi du cycle utile de la machine : il vaut souvent mieux limiter la luminosité instantanée pour avoir un collisionneur plus stable et qui fonctionne plus régulièrement. La luminosité dépend du nombre de particules qui circulent dans les tubes à vide et de la « qualité » des croisements des faisceaux. Un accélérateur ne délivre pas un jet continu de particules à la manière d’un tuyau d’arrosage : les particules sont regroupées par paquets très denses et séparés par du vide – cette configuration est due au fait que l’accélération des particules est assurée par un champ électrique alternatif oscillant à très grande fréquence (400 MHz). À l’approche d’un point de collision, les paquets sont fortement focalisés par des systèmes électromagnétiques (équivalents aux lentilles convergentes utilisées en optique) afin de maximiser la probabilité qu’une ou plusieurs collisions entre particules aient lieu lors du croisement. Ensuite, les paquets sont « défocalisés » au-delà du point de collision. Les cycles « focalisation/défocalisation » s’enchaînent à chaque tour dans l’anneau de stockage.

Cycle utile En 2012, le LHC a eu un cycle utile de 36,5 % ce qui correspond à 73,2 jours de faisceaux stables pour la physique sur un total de 200,5 jours de fonctionnement. 22 % du temps a été passé à préparer les faisceaux et à les amener dans la configuration voulue pour la prise de données (« l’injection ») et 41,5 % à travailler sur l'accélérateur. Au LHC, la durée de vie des faisceaux est d’environ 10 h. C’est l’ordre de grandeur du temps pendant lequel les faisceaux de particules, une fois produits, circulent dans le collisionneur avant d’être « éjectés » (voir l'encadré sur les pertes de particules dans les faisceaux)..

• 2010 : le programme de physique démarre • 2011 : un signal encore peu visible pointe le bout du nez • juillet 2012 : on annonce la découverte du nouveau boson en utilisant les données accumulées jusqu’en juin 2012 • mars 2013 : l’analyse de l’ensemble des données 2010-2012 montre que la nouvelle particule est bien un boson H. page 76

Améliorations des performances du LHC Le collisionneur LHC est une machine gigantesque et extrêmement complexe dont aucune simulation, aussi détaillée et précise soit-elle, ne peut décrire exactement le comportement. Les équipes du CERN passent donc un temps considérable à mesurer et à comprendre le fonctionnement de cet accélérateur. À mesure que les connaissances s'accumulent, des liens apparaissent entre ces informations et permettent de définir des procédures qui améliorent le « pilotage » de la machine. On peut ainsi stocker plus de particules dans l'accélérateur et mieux contrôler leur trajectoire et leur énergie. Ces progrès se traduisent par une amélioration de la luminosité intégrée du LHC et donc du nombre de collisions enregistrées par les expériences.

De manière imagée, un collisionneur peut être vu comme une chaîne circulaire à laquelle des seaux sont accrochés à intervalles réguliers. Un paquet de particules correspond à un seau de protons, plus ou moins rempli à un instant donné. Pour des raisons techniques, le Run 1 s’est déroulé avec une configuration dans laquelle seul un seau sur deux était rempli : 1380 paquets sur les 2808 que peut accueillir la machine. Par contre, les paquets étaient 40 % plus fournis que ce qui avait été imaginé au départ : ils contenaient chacun 170 milliards de protons environ. Dans ces conditions de fonctionnement, la luminosité instantanée du LHC a atteint 80 % de l’objectif fixé lors de sa conception. Quant à Ltot, elle a augmenté chaque année à mesure que les performances du collisionneur s’amélioraient : gain d’un facteur 100 entre 2010 et 2011, puis encore d’un facteur 4 entre 2011 et 2012 ! Ces progrès se sont répercutés directement sur la recherche du boson H (voir article « Analyse ») :

ÉLÉMENTAÍRE


et toutes ses dents ! Reconstruction Un détecteur de physique des particules est un peu comme un appareil photo doté d’un très grand nombre de pixels (100 millions environ pour le détecteur ATLAS) et capable de prendre beaucoup de photos par seconde. Une photo, imprimée sur papier ou visible sur un écran d'ordinateur, est un assemblage de petits grains de couleurs différentes dont le cerveau a une vision globale et auquel il donne un sens : ici un arbre, là le ciel, etc. La reconstruction est l'équivalent de cette étape pour un événement de physique des particules. Menée à bien par une série d'ordinateurs (programmés par des cerveaux humains : l’honneur est sauf !), elle utilise toute l’information disponible dans le détecteur pour déterminer le nombre de particules produites à chaque événement ainsi que leurs caractéristiques (énergie, charge, trajectoire, nature).

© Nicolas Arnaud

Une illustration des progrès du LHC au cours du Run 1 (2010-2012) : chaque « tranche » montre la quantité de données enregistrées en une année, rapportée à la quantité totale de données enregistrées.

Si le collisionneur fonctionnait mieux avec des paquets moins nombreux mais plus remplis, cette situation n’était pourtant pas idéale pour les expériences puisqu’il y avait en moyenne une vingtaine de collisions proton-proton par croisement de paquets – on parle « d’empilement ». Plus il y a de collisions simultanées, plus il y a de « coups » enregistrés dans les détecteurs et plus la reconstruction des événements est difficile : imaginezvous essayer de déchiffrer un tirage photo fait de 20 clichés superposés ! Néanmoins, la précision des instruments de mesure et la qualité des algorithmes de traitement de données permettent d’attribuer correctement les dizaines de traces issues des nombreuses collisions qui se sont produites simultanément à des endroits différents de la zone d’interaction.

Objectifs des expériences du LHC

© ATLAS CERN

Quatre expériences principales sont installées sur le LHC : ALICE, ATLAS, CMS et LHCb. ATLAS et CMS sont des détecteurs généralistes capables de rechercher une grande variété de manifestations de la « nouvelle physique » encore inconnue – comme par exemple la production directe de nouvelles particules. Leur premier objectif était de découvrir le boson H (ou de démontrer qu’il n'existait pas) : il a été atteint à l'été 2012. ALICE et LHCb sont des expériences spécialisées, étudiant pour l’une le « plasma de quark-gluon » lors de collisions plombplomb ou plomb-proton spécifiques, et les désintégrations des mésons lourds B ou D pour l'autre. LHCb recherche également la nouvelle physique de manière complémentaire à ATLAS et CMS. Elle étudie des désintégrations extrêmement rares dans le cadre du Modèle Standard pour détecter les traces indirectes de l'existence de nouvelles particules.

Événement contenant une possible désintégration d’un boson Z0 en deux muons (traces jaunes en traits épais), « perdue » au milieu de 25 collisions proton-proton reconstruites par ATLAS et qui se sont produites simultanément lors du croisement de deux paquets de protons au cœur de ce détecteur.

ÉLÉMENTAÍRE

page 77

Si ATLAS et CMS pouvaient s’accommoder de ces conditions difficiles, c’était complètement impossible pour LHCb dont les objectifs sont différents de ceux des deux expériences généralistes du LHC. Pour fonctionner de manière optimale, ce détecteur a besoin d’une luminosité instantanée relativement faible et maintenue constante le plus longtemps possible pour enregistrer un maximum d’événements. Les équipes du LHC ont réussi à prendre en compte ces demandes a priori contradictoires en mettant en place un mécanisme de « nivellement de luminosité ».


Le LHC : six ans... En fonctionnement classique, la luminosité instantanée d’un collisionneur est la plus élevée au début de la prise de données, lorsque les deux faisceaux de particules sont « remplis » au maximum. Ensuite, les faisceaux perdent peu à peu des particules au fur et à mesure de leur parcours dans le tube à vide et la luminosité diminue. Ce phénomène de décroissance, commun à l’intensité des faisceaux et à la luminosité instantanée, est souvent décrit par un paramètre appelé temps de vie par analogie avec l’étude des isotopes radioactifs. Lors du Run 1, ce paramètre valait typiquement au moins dix heures, une preuve supplémentaire des bonnes performances de la machine.

Au LHC (et comme dans tous les accélérateurs), les faisceaux perdent peu à peu des particules. Ces phénomènes, limités au maximum par le système de contrôle en temps réel de l'accélérateur, se produisent en permanence, tout au long de la circonférence de l'anneau et plus particulièrement aux endroits où les faisceaux subissent des contraintes fortes : changement de direction, compression/ décompression du profil du faisceau avant/ après un point de collision, transition entre des aimants de types différents, interaction des particules avec les molécules de gaz résiduelles, etc. Qui dit particules perdues dit énergie dissipée dans le tube à vide. Or, de nombreux aimants du collisionneur sont supraconducteurs et donc refroidis à des températures très basses. Une hausse de leur température, même très limitée, pourrait conduire à une transition brusque de l'état supraconducteur à l'état classique. Les aimants deviennent alors résistants au passage du courant électrique et s'échauffent, avec des conséquences catastrophiques. Une mauvaise interconnexion électrique a provoqué un tel incident en 2008. Les dégâts causés alors ont occasionné un retard d’un an sur le planning du LHC. Pour éviter ces problèmes, un système très performant à trois niveaux, dit de « collimation des faisceaux » fait en sorte que moins de 0,01 % de l'énergie perdue se dépose sur les aimants. Des « collimateurs » et des absorbeurs placés dans des zones clefs de l'accélérateur sont chargés de stopper l’immense majorité des particules perdues. Si une perte de particules plus importante est détectée, les faisceaux sont automatiquement éliminés en moins d’un tour de LHC.

© CERN

© CERN

Copie d’un écran de contrôle du LHC montrant les évolutions différentes de la luminosité instantanée en fonction du temps pour les expériences ATLAS (en bleu) et CMS (en noir) d’une part, et LHCb (en rouge) d'autre part. Après une période sans prise de données de plus de cinq heures dont les raisons peuvent être variées (maintenance, réparations, difficultés d’injection et/ou de montée en énergie des particules, etc.), les faisceaux du LHC ont été remplis et amenés en configuration de collisions. À ce moment, les luminosités d’ATLAS et de CMS passent brusquement de zéro à une valeur maximum (en unité arbitraire), avant de décroître lentement au cours du temps. Par contre, la luminosité de LHCb augmente plus lentement avant de se stabiliser à une valeur constante, optimale pour ce détecteur et la physique qui y est étudiée – c’est le phénomène de « nivellement de luminosité » dont on parle dans la suite de l'article. Le pilotage fin des trajectoires des faisceaux permet de maintenir ce point de fonctionnement sur une très longue durée – ici plus de sept heures.

page 78

À gauche : photo d’un collimateur du LHC – essentiellement une « mâchoire » de 1 mètre de profondeur qui peut s'ouvrir ou se fermer autour du faisceau. À droite : l’intérieur d’un collimateur vu « comme si vous étiez le faisceau » ; l'ouverture la plus faible possible fait 2,1 mm de large.

ÉLÉMENTAÍRE


et toutes ses dents ! Cet effet de décroissance de la luminosité au cours du temps a été compensé dans LHCb en agissant sur la qualité des croisements de faisceaux : en gros, on commençait par agir sur les systèmes de focalisation pour décaler un peu les paquets afin qu’ils se « ratent » en partie lors de leur passage au point d’interaction pour ce détecteur. Et on optimisait peu à peu les collisions au fur et à mesure que les intensités des faisceaux diminuaient. Au final, la luminosité instantanée vue par LHCb était presque constante – et environ 50 % supérieure au cahier des charges établi lors de la conception du détecteur ! Le tout sans que les autres expériences ne soient perturbées : à peine sortis de la région d’interaction de LHCb, les faisceaux revenaient sur les trajectoires optimisées pour effectuer des collisions d’intensité maximale. © Julien Serreau

Ce nivellement de luminosité pour LHCb a parfaitement fonctionné. Cette procédure a également été adoptée par l’expérience ALICE et elle sera sans doute cruciale pour la période « haute luminosité » du LHC (le Run  3) où toutes les expériences devraient l’utiliser pour pouvoir supporter les conditions de fonctionnement extrêmes qui sont prévues. En effet, dans toutes ces situations, le cycle utile de l’accélérateur, la stabilité des conditions de prises de données et le contrôle Splice du flot de particules Le LHC compte 10 000 "splices", des connections supraconductrices entre aimants. traversant les détecteurs, sont plus importants que la valeur maximale de la luminosité instantanée. À quantités égales de données enregistrées, il vaut mieux que le taux de collisions soit « moyen » et constant au cours du temps, plutôt que trop fort au début de la séquence et trop faible à la fin. Le Run 1 a également apporté son lot de problèmes – attendus ou non. Certains ont été résolus définitivement tandis que des précautions ont été prises pour en éviter d’autres, ou pour limiter leur impact.

ÉLÉMENTAÍRE

© CERN

Photomontage montrant les travaux effectués sur les interconnexions entre les aimants supraconducteurs du LHC pour résoudre les problèmes d’échauffement observés sur certaines pièces, les « splices ». On a ajouté des plaques de cuivre destinées à renforcer la continuité électrique des connexions, et ainsi éviter un nouvel incident. La dernière interconnexion a été refermée le 18 juin 2014, marquant la fin du projet SMACC (« Superconducting Magnets And Circuits Consolidation »). page 79

• On peut citer par exemple des échauffements dans des sections du collisionneur, provoqués par des


Le LHC : six ans... défauts de conception ou d’installation de certaines pièces. On les traite en ajoutant des protections qui arrêtent ou détournent les radiations ou en améliorant l’assemblage de composants destinés à fonctionner sous vide.

Élimination des faisceaux du LHC Les faisceaux du LHC stockent une énergie très importante et circulent dans un tube à vide où la température est maintenue à quelques degrés du zéro absolu par un système supraconducteur très sensible. Lorsque l’un ou l’autre des faisceaux devient instable, le système automatisé qui contrôle le collisionneur le détecte grâce aux sondes qui mesurent les caractéristiques des paquets de particules tout au long de la circonférence du LHC. Quand des conditions prédéfinies sont identifiées (comme un taux de perte de particules très important), une procédure d’urgence se déclenche afin de se « débarrasser » des faisceaux. Une fois la décision prise, l’action est très rapide puisque les particules quittent le collisionneur en moins d’une révolution (soit un dix-millième de seconde environ). Dans le LHC, les particules sont réparties en paquets séparés d’une distance fixe, sauf dans une zone longue de plusieurs kilomètres qui ne contient aucun paquet. C'est cet espace libre qui est utilisé pour déclencher un aimant puissant et rapide dont l'action modifie de manière drastique la trajectoire des particules : celles-ci empruntent une « échappatoire », à la manière de voitures de Formule 1 incapables de prendre l’un des virages du circuit où elles courent. Elles traversent alors des systèmes magnétiques qui dilatent fortement la taille du faisceau afin de diminuer la densité d’énergie dissipée quand le faisceau termine sa course dans de grands cylindres de graphite et d'acier. Il y a un système équivalent pour chacun des deux faisceaux qui tournent en sens opposés dans le LHC.

• Une autre source de pertes de faisceaux provient de bouffées de radiations qui traversent des équipements électroniques et y génèrent des signaux parasites, interprétés par le système automatisé de contrôle du LHC comme l’indication que les faisceaux doivent être éliminés. Là aussi, la parade consiste soit à mettre un blindage devant l’électronique, soit à la déplacer dans une zone moins exposée. Le taux de ces pertes de faisceaux a ainsi diminué d’un facteur 4 entre 2011 et 2012 et devrait encore être divisé par 6 au cours du Run 2. • Une troisième catégorie de problèmes – peut-être la plus problématique pour le fonctionnement du LHC à plus haute énergie – est constituée par les événements « UFO ». Il s’agirait de particules de poussière d’une taille de l'ordre du micron qui se détachent des parois du tube à vide, interagissent avec un paquet de particules et brisent sa cohésion, le tout en quelques dizaines de microsecondes. Là encore, le système de protection du LHC décide de supprimer les faisceaux lorsqu’il détecte un événement violent de ce type. 35 « UFOs » ont été enregistrés en 2010-2011 et seulement 20 en 2012, grâce à une optimisation du système de contrôle du LHC – rendu plus tolérant pour ces événements tout en assurant la protection des composants de l’accélérateur. Cette action, qui se poursuivra au cours du Run 2, a été rendue possible par l’examen minutieux des caractéristiques de plus de 10 000 événements de type « UFO », suffisamment forts pour être enregistrés mais trop faibles pour déclencher la suppression des faisceaux.

De grandes espérances L’objectif principal de l’arrêt de maintenance 2013-2014 était de réparer les interconnexions des aimants (identifiées comme des composants à risque suite à l’accident de 2008) afin d’augmenter le courant qui les alimente et de produire des champs magnétiques suffisants pour guider des particules à une énergie de 6,5 TeV dans un premier temps, puis 7 TeV si aucune difficulté imprévue n’apparait. À ce programme se sont ajoutés le remplacement d’une vingtaine d’aimants (sur les plus de 9 000 qui composent le LHC), la consolidation d’éléments clefs de la machine, l’ajout de capteurs variés (qui fourniront des informations supplémentaires sur l’état du LHC) ainsi que des centaines de milliers de tests (électriques, d’étanchéité, etc.) tout le long de l’anneau. Ces opérations ont été groupées et ordonnées selon un planning précis puisqu’il faut environ un mois pour refroidir/réchauffer le collisionneur (divisé en huit secteurs indépendants) en suivant une séquence précise comportant trois grandes étapes. Les machines utilisées en amont du LHC pour accélérer peu à peu les particules (linac4, booster, PS et SPS) ont été remises en service l’une après l’autre au cours du second semestre 2014.

UFO « Unidentified Falling Object » : objet tombant non identifié, les mêmes initiales que « Unidentified Flying Object », l’acronyme anglo-saxon utilisé pour désigner les OVNIs.

page 80

Le LHC a donc démarré le Run 2 avec des collisions à 13 TeV ; un passage

ÉLÉMENTAÍRE


et toutes ses dents ! © Julien Serreau

© CERN

Le complexe accélérateur du CERN. Les protons du LHC sont produits au début de l'accélérateur linéaire (« linac ») 2 à partir d’une bouteille de gaz dihydrogène comprimé, puis accélérés dans une suite de machines circulaires (le Booster, le PS, puis le SPS) avant d’être injectés à 450 GeV dans le LHC où ils sont accélérés jusqu’à leur énergie nominale. Ce découpage de l’accélération en plusieurs phases successives est un peu l'équivalent de la mise sur orbite d’un vaisseau spatial à l’aide d’une fusée qui comporte plusieurs étages de propulsion qui fonctionnent l’un après l’autre. On voit que les différents anneaux du CERN alimentent également des installations de plus basse énergie (n-TOF, Isolde, Leir, AD, etc.) et le CNGS pour envoyer un faisceau de neutrinos vers le laboratoire souterrain italien du Gran Sasso.

© CERN

Observation au microscope d’une « macro particule » de quelques dizaines de microns trouvée lors du nettoyage à l'azote du corps d’un aimant utilisé lors de l’injection dans le LHC des protons en provenance du SPS et qui avait été retiré du collisionneur pour être remplacé. On pense que ces « macro particules » proviennent du revêtement en céramique qui tapisse l’intérieur des tubes à vide où circulent les particules et qu'elles pourraient être à l'origine des mystérieux événements « UFO » observés dans le LHC.

ultérieur à 14 TeV est possible, en fonction du comportement du système d’aimants. La machine est presque entièrement remplie puisque près de 2 300 paquets environ y circulent – l’intervalle entre deux croisements de paquets dans les détecteurs passe de 50 à 25 ns. Par contre, il n’y a plus que 115 milliards de protons par paquet. La luminosité instantanée devrait augmenter graduellement (pour au final doubler par rapport à sa valeur de 2012), notamment en focalisant encore plus le faisceau dans les régions d’interaction pour augmenter la densité de particules et donc la probabilité de collisions. On s’attend à ce que la luminosité intégrée évolue de la même manière puisque le cycle utile du LHC ne devrait pas beaucoup varier. L’empilement de collisions simultanées augmentera également, ce qui représente un défi supplémentaire pour ATLAS et CMS – tandis que LHCb et ALICE seront préservées de ces conditions par la procédure de nivellement de la luminosité déjà utilisée pendant le Run 1.

ÉLÉMENTAÍRE

page 81

Le second arrêt de longue durée, prévu pour 2018, servira à améliorer le complexe accélérateur situé en amont du LHC. La prise de données se poursuivra ensuite pendant environ trois ans (le Run 3), afin de fournir à ATLAS et CMS une luminosité intégrée totale 10 fois supérieure à celle


Le LHC : six ans... accumulée pendant le Run 1 – et à une énergie de 13 ou 14 TeV. L’objectif défini lors de la conception du LHC aura alors été atteint et on arrivera au troisième arrêt de longue durée, actuellement planifié pour 2021-2023.

Pleins feux sur la haute luminosité Ce sera une étape importante de l’exploitation du collisionneur, puisque les aimants qui réalisent la focalisation finale des faisceaux juste avant d’arriver aux quatre points d’interaction du LHC (où se trouvent les détecteurs) devront alors être remplacés. En effet, ils auront accumulé une dose de radiations suffisamment importante pour que leurs performances soient sévèrement dégradées. Soit on les remplacera par des dispositifs équivalents et on poursuivra la politique d’amélioration graduelle utilisée pour les Runs 2 et 3, soit on se lancera dans un programme d’amélioration plus vaste dont l’objectif sera d’augmenter la luminosité du LHC de manière importante. Des simulations indiquent un gain d’un facteur 3 sur la luminosité intégrée au bout d’une dizaine d’années d’exploitation dans la seconde hypothèse. La quantité de données enregistrées aurait alors décuplé par rapport à la fin du Run 3 – et serait donc 100 fois plus importante qu’actuellement. Par contre, l’énergie des collisions ne devrait pas augmenter dans cette phase.

© CERN

Ce scénario d’un « LHC haute luminosité » avec une énergie de collision maintenue à 14 TeV est encore loin d’être figé, mais il a la faveur du comité en charge de la stratégie européenne pour la physique des particules – un groupe de travail qui réunit les principaux laboratoires européens du domaine, dont le CERN, et les instituts de recherche qui travaillent dans ce domaine (en France le CNRS et le CEA). Ce comité a publié son dernier document en septembre 2013. Telle qu’elle est imaginée aujourd’hui, cette évolution nécessitera des interventions très importantes sur plus d’un kilomètre du LHC (remplacement de nombreux aimants, modification des systèmes de pilotage des faisceaux et de protection de l’accélérateur, etc.) ainsi qu’une activité soutenue en recherche-développement pour repousser une nouvelle fois les limites de la technologie. En juin 2016, le conseil du CERN a réaffirmé son soutien au plan de financement « LHC haute luminosité » jusqu’en 2025 et même au-delà… À suivre !

Un quadrupole supraconducteur d'un mètre de long, développé par des laboratoires américains et capable d'atteindre un champ magnétique de 13 teslas. Des technologies de ce type sont envisagées pour le LHC à haute luminosité.

page 82

Le logo du Projet LHC Haute luminosité, représentant une section du LHC.

ÉLÉMENTAÍRE


Découvertes La fabuleuse découverte... Fin 2009, le LHC a redémarré après plus d’un an d’arrêt pour réparer les aimants endommagés par l’accident de septembre 2008 (voir Élémentaire 7) et renforcer certains éléments de l’accélérateur. Les équipes en charge de la machine ont précautionneusement augmenté l’énergie de chaque faisceau de protons pour atteindre la valeur record de 3,5 TeV (puis 4 TeV en 2012), cette fois sans imprévu.

Les expériences ATLAS et CMS ont codécouvert le boson H. Dans cet article, nous allons prendre souvent le point de vue d'ATLAS pour illustrer différents aspects des analyses, mais ce n'est (évidemment) pas un jugement de valeur.

Enregistrer pour la première fois des collisions à ces énergies a ouvert de nouveaux horizons aux physiciens et apporté son lot de questions. Les détecteurs réagissent-ils comme prévu malgré les faisceaux intenses ? Les signatures des différentes particules sont-elles encore bien reconnaissables au milieu du bruit de fond ? Comment les processus déjà connus du Modèle Standard se comportent-ils ? Voit-on des signaux inattendus ? Une fois passée l’euphorie des premières collisions à 7 TeV, les équipes de chercheurs se sont attelées à l’étude des données. Ce travail de compréhension des événements, obligatoire pour exploiter pleinement le potentiel du LHC, est mené dans chaque collaboration au sein de groupes de travail, tous spécialisés dans un thème donné, allant du fonctionnement des détecteurs aux études de physique.

© Patrick Roudeau

Le but ? En premier lieu, traquer le boson H. C’est l’histoire de cette recherche au LHC que nous allons maintenant vous raconter, jusqu’à la découverte conjointe de cette particule par les expériences ATLAS et CMS en juillet 2012.

Derniers étapes

préparatifs

et

premières

Si vous avez lu nos précédents numéros, vous savez déjà qu’ATLAS et CMS sont des détecteurs gigantesques formés de nombreux éléments indépendants et complexes, les sous-détecteurs, qui doivent tous bien fonctionner pour que les données enregistrées soient exploitables. Par exemple, ATLAS a environ 100 millions de canaux électroniques. Surveiller ce meccano géant est un défi quotidien, relevé par les équipes « d’experts du détecteur ». Y a-t-il des zones « bruyantes » qui envoient en permanence des données (probablement faussées), ou au contraire des canaux d’électronique « morts » qui restent désespérément muets ?

© ATLAS CERN

Un exemple de la manière dont les canaux « bruyants » d'un détecteur peuvent perturber les mesures. L’histogramme ci-dessus montre la distribution de « l'énergie transverse manquante », une variable utilisée pour tester la possibilité qu’une ou plusieurs particules produites lors de la collision analysée aient traversé le détecteur ATLAS sans laisser aucune trace. On connaît de telles particules dans le Modèle Standard : les neutrinos. Mais d'autres particules encore inconnues, plus lourdes et prédites dans certains modèles de nouvelle physique, pourraient avoir le même comportement, par exemple celles formant la matière noire. Il est donc important de bien calculer l'énergie manquante de chaque événement (ce qui nécessite de mesurer avec précision l'énergie des particules visibles dans le détecteur). Comme le signal recherché va correspondre à de grandes valeurs de l'énergie manquante, il est important de vérifier que cette quantité est bien mesurée.

ÉLÉMENTAÍRE

page 83

Sur cette figure, on peut voir que l'histogramme bleu est peuplé jusqu’à la limite de l’axe horizontal (100 GeV) et sans doute au-delà. Cette « queue de distribution » disparaît lorsqu'on enlève les canaux bruyants pour obtenir l'histogramme gris. Une dernière correction (minime) permet d'obtenir l'histogramme mesuré sur les données « correctes », représenté par les points noirs. On voit qu'il est en très bon accord avec les prédictions de la simulation, représentées par l'histogramme en traits pointillés rouges – on peut remarquer que l'axe vertical est en échelle logarithmique : il y a un facteur d'environ un million entre les premiers points à gauche (peu d'énergie manquante) et les derniers à droite (grande énergie manquante).


La fabuleuse découverte... De tels problèmes sont suivis en direct par des algorithmes de contrôle et ce, même en l’absence de faisceaux, grâce aux rayons cosmiques et aux différentes procédures de calibration. Une conséquence positive du long arrêt du LHC pour réparation en 2008-2009 est que la plupart de ces points noirs identifiés ont pu être réparés avant le « vrai » démarrage en 2010.

La calibration d'un détecteur est une procédure qui est répétée régulièrement et qui a deux objectifs principaux. D'une part vérifier que tous les canaux électroniques fonctionnent et envoient des données exploitables. D'autre part mesurer la réponse de l’appareillage, afin de pouvoir remonter aux propriétés des particules qui l'ont traversé à partir des signaux enregistrés par ses capteurs.

© Julien Serreau

L’alignement des sous-détecteurs les uns par rapport aux autres a également été vérifié. En effet, les particules produites lors des collisions traversent fréquemment plusieurs couches de détection. Mesurer leurs propriétés et les identifier requiert donc de rassembler les données de ces différents systèmes et le moindre décalage spatial dégrade ce processus, appelé « reconstruction». Prenons comme exemple les électrons dont les trajectoires sont mesurées dans le trajectographe avant qu’ils ne déposent leur énergie dans le calorimètre électromagnétique. En étudiant l’accord entre les traces extrapolées dans le calorimètre et les dépôts d’énergie qui devraient leur être associés, on peut observer d’éventuelles incohérences et s’en servir pour mesurer le déplacement relatif entre ces deux appareillages. On introduit alors, dans les algorithmes d’analyse des données, les corrections nécessaires pour tenir compte des positions réelles des détecteurs, ce qui améliore la précision de la reconstruction des électrons.

© CERN

Une fois que tous les acteurs sont en place et savent leur texte, vient le moment de la « générale » : la redécouverte de la physique connue, en particulier l’étude des bosons médiateurs de l’interaction électrofaible (le

page 84

Quel est l'effet de l’alignement relatif entre le trajectographe et le calorimètre électromagnétique d’ATLAS ? Pour chaque électron reconstruit dans le détecteur, on peut calculer l'angle polaire de la trace chargée (c'est-à-dire l’angle que fait la trace par rapport à la direction des faisceaux) lorsqu'elle entre dans le calorimètre à partir des caractéristiques de sa trajectoire mesurées en amont dans le trajectographe. Cet angle peut être comparé à celui du dépôt d'énergie dans le calorimètre associé à cette particule. Dans un monde parfait, ces deux angles devraient être égaux et donc leur différence toujours égale à 0. En pratique, les incertitudes de mesure (tant au niveau du trajectographe que du calorimètre) font que cette différence fluctue autour de 0. C’est ce qu'on voit sur l’histogramme gris de la figure qui montre la distribution de cette différence d'angle (exprimée en unité arbitraire) obtenue pour des désintégrations simulées de boson W en paire électron-neutrino. Pour comparaison, les données reconstruites d’ATLAS sans l'alignement trajectographe-calorimètre sont présentées en rouge : l'histogramme est décalé vers la gauche (on dit qu'il est « biaisé ») et ses queues de distribution sont plus longues et asymétriques. Une fois les deux sous-détecteurs alignés, on obtient la distribution représentée par les triangles noirs qui gomme l'essentiel des défauts observés précédemment : l'histogramme est centré à 0, symétrique et sa résolution est comparable (bien qu’un peu moins bonne) aux prédictions de la simulation (points noirs).

ÉLÉMENTAÍRE


du LHC

© CERN

Coupe transverse du détecteur ATLAS montrant un événement reconstruit enregistré le 17 octobre 2010 vers 3 h du matin… Les zones colorées correspondent aux différentes parties d'ATLAS : du centre vers l’extérieur, le trajectographe en noir, puis le calorimètre électromagnétique en vert, le calorimètre hadronique en rouge, et enfin les détecteurs à muons en bleu. Chaque ligne colorée correspond à la trace d’une particule chargée reconstruite dans le trajectographe. La couleur de la trace renseigne sur l'énergie de la particule : les moins énergétiques sont en bleu et les plus énergétiques en orange et en rouge. Il y a donc deux traces énergétiques dans cet événement, presque rectilignes car moins sensibles au fort champ magnétique présent dans la partie centrale d'ATLAS et dirigé perpendiculairement au plan de la figure. On peut les extrapoler facilement jusqu’au calorimètre et, dans les deux cas, on trouve dans leur prolongement un fort dépôt d'énergie, représenté par les rectangles jaunes. Ces particules sont donc très probablement des électrons (ou positrons) très énergétiques qui peuvent chacun avoir été produits par la désintégration d'un boson W. Cet événement est donc un candidat « deux W » pour lequel les bosons se désintègrent en paires électron-neutrino. Les deux neutrinos ne sont pas détectés : la droite en pointillés montre la direction dans laquelle l'énergie manquante associée (notée ETmiss sur l’image) est « partie ». De manière plus rigoureuse : les deux neutrinos ont été émis dans des directions différentes et la ligne pointillée est la « somme » de ces deux directions, pondérée par les énergies respectives des deux neutrinos.

© ATLAS

W et le Z) et du quark top (très lourd, que seul le Tevatron à Fermilab, près de Chicago, avait jusqu'alors pu produire). Ces particules déjà connues sont observées pour la première fois dans une gamme d’énergie aussi élevée et leur mesure aux taux prévus par la théorie confirme que le Modèle Standard est toujours valable à 7 TeV. Ces résultats sont rendus publics à l’été 2010, notamment à la grande conférence internationale bisannuelle en physique des hautes énergies ICHEP qui a lieu à Paris cette année-là.

Les modèles les plus simples de la supersymétrie La supersymétrie est une famille de théories qui visent à étendre le Modèle Standard (en expliquant plus de phénomènes ou en résolvant des problèmes conceptuels) tout en conservant l'excellent accord entre prédictions et observations pour la physique testée sur accélérateurs jusqu'à ce jour. De la même manière que la relativité générale d'Einstein (1915) peut se voir comme une extension de la loi de la gravitation universelle de Newton (1687).

En parallèle, d’autres équipes recherchent des phénomènes nouveaux. Les attentes étaient ainsi très fortes du côté de la supersymétrie, dont les modèles les plus simples prévoyaient qu’une faible quantité de données enregistrées à 7 TeV serait suffisante pour mettre en évidence de nouvelles particules. Le boson H était également dans toutes les têtes avec, dans chaque expérience, des groupes de travail étudiant chacun de ses modes particuliers de désintégration – ou « signatures ».

Toutes les théories de nouvelle physique – « au-delà du Modèle Standard » – introduisent des paramètres supplémentaires et de nouvelles particules élémentaires, plus ou moins nombreux. Les modèles de supersymétrie les plus simples prédisent l'existence de particules qui pourraient être assez légères pour apparaître dans les collisions à 7 TeV. Leur non-observation au LHC dans les données enregistrées de 2010 à 2012 a invalidé complètement certains de ces modèles. Pour d’autres, les masses des nouvelles particules sont repoussées à des énergies (bien) plus élevées et leurs effets revus à la baisse.

Boson H, es-tu là ? Le boson H est un grand timide, presque un fantôme. Même si le champ (de Higgs) qui lui est associé est présent partout, en permanence, et interagit avec les particules élémentaires auxquelles il fournit une masse, le boson H n’est pas observable aussi facilement qu’un photon ou un électron. Pour confirmer son existence il faut d’abord le produire via des collisions énergétiques, puis observer sa désintégration (quasi-immédiate) en identifiant ses signatures caractéristiques.

ÉLÉMENTAÍRE

page 85

La quantité d’énergie à apporter n’est pas connue a priori : elle dépend de la masse du boson H qui n’est pas prédite par le Modèle Standard. Par contre, une fois cette masse fixée, on peut calculer l’effet de cette particule sur des processus physiques effectivement observés dans les collisionneurs.


La fabuleuse découverte... Et donc, a contrario, on peut obtenir des informations indirectes sur cette masse en comparant prédictions théoriques et mesures expérimentales dans des canaux où le boson H n’intervient pas directement. En pratique, on « ajuste » ce paramètre libre pour que l’accord théorie-expérience soit le meilleur possible. Ainsi, au démarrage du LHC, les contraintes fournies par l’étude de l’interaction électrofaible au LEP (le grand collisionneur électronpositron du CERN que le LHC a remplacé dans son tunnel de 27 km), au SLC (un collisionneur linéaire électron-positron situé au laboratoire SLAC en Californie et qui prenait des données à la même époque que le LEP) et au Tevatron privilégiaient un boson H dont la masse était entre 114 et 170 GeV/c2 (respectivement 120 et 180 fois celles du proton).

© Julien Serreau

L’accent a donc été mis sur les analyses sensibles dans cette gamme de masses. Ce point a son importance car le boson H a de nombreux canaux de désintégration possibles, plus ou moins probables selon sa masse. En effet, il privilégie les désintégrations vers les particules réelles les plus lourdes possibles – voir l’article « Analyse ». En particulier, les physiciens ont étudié les canaux où toutes les particules issues de la désintégration du boson H sont observables dans le détecteur. Cela permet une meilleure séparation entre le signal et le bruit de fond tout en mesurant la masse de la nouvelle particule. Évidemment, il faut également que les probabilités d’occurrence de ces modes soient suffisamment élevées pour qu’on les observe « rapidement » – en quelques années au plus. Les canaux prometteurs sont donc ceux en deux photons, ainsi que ceux en deux bosons Z se désintégrant par la suite chacun en deux leptons chargés électriquement (électrons ou muons). Ces désintégrations assez rares ont toutefois des signatures qui sont relativement faciles à identifier dans un collisionneur hadronique, mais elles ne représentent qu’une fraction limitée de l’ensemble des désintégrations possibles. Les propriétés de ces leptons et photons (tous très énergétiques) sont

© CERN

page 86

Quelles signatures utiliser pour chercher un boson H dont on ne connaît pas (encore) la masse ? Pour répondre à cette question, il faut calculer les probabilités des nombreux canaux de désintégration possibles dans le cadre du Modèle Standard, et ce pour chaque valeur de la masse. Ici, on a fixé l’énergie à 4 TeV par faisceau (soit 8 TeV dans le centre de masse, l'énergie de la prise de données de 2012). Les deux axes de ce graphique sont logarithmiques. À haute masse (au-delà de 160-180 GeV/c2 environ), le boson H se désintègre préférentiellement en deux bosons W+W– ou ZZ. En dessous, sa masse n'est pas assez élevée pour produire de telles paires de particules réelles (la masse du boson H est alors inférieure à deux fois celles des bosons électrofaibles) et d'autres canaux de désintégration deviennent importants. Dans tous les cas, la règle « priorité aux particules lourdes pouvant être produites par paire » est respectée. Une exception : le canal H → 2 photons (« gg »), en gris, pour lequel les particules filles sont de masse nulle ! Cette désintégration est possible grâce à un mécanisme purement quantique (voir « Analyse ») qui fait intervenir des quarks top intermédiaires – la particule élémentaire la_ plus lourde : l'honneur est sauf ! Les deux autres canaux importants du boson H sont : H → W+W– → 2 leptons chargés + 2 neutrinos (l+l–n n ), en bleu foncé, et H → ZZ → 4 leptons chargés (l+l–l+l–), en rouge. On peut voir sur le graphique que les probabilités d'occurrence de ces trois canaux augmentent autour de 120-130 GeV/c2. Enfin, il convient de noter que ces courbes étaient intéressantes tant que le boson H n'avait pas été découvert. Maintenant que sa masse est connue, seule la tranche verticale de ce graphique centrée à cette valeur (ligne verticale rouge) et ayant pour largeur l'incertitude sur la masse mesurée est utile !

ÉLÉMENTAÍRE


du LHC reconstruites avec une excellente précision dans des détecteurs spécifiques (le trajectographe, les calorimètres et les chambres à muons), conçus, tant dans ATLAS que dans CMS, de manière à optimiser la mesure de ces canaux. _ En revanche, le canal H → W+W− → l+l−nn , s’il est bien plus abondant que les deux précédents, pâtit de la présence, dans l’état final, de deux neutrinos qui sont indétectables et qui rendent très difficile la découverte de ce mode. De plus, la mesure de la masse du boson H via cette désintégration est beaucoup moins précise et souffre d’un bruit de fond plus élevé. Dans la pratique, les premières recherches du boson H ont porté sur toute la gamme des masses possibles, de 114 GeV/c2 à 1 TeV/c2 sans exception. En effet, on ne pouvait pas exclure a priori la possibilité que le Modèle Standard ne soit finalement pas correct (en fait, on l’espérait Masse invariante même !) et donc que le boson H soit différent de la particule attendue, voire absent. Au-delà de 200-250 GeV/c2, les canaux de La fameuse formule d’Einstein E0=mc2 relie l’énergie de désintégration dominants sont ceux donnant des paires de bosons repos d’une particule E0 à sa masse m. Cette relation est en fait un cas particulier d'une équation plus générale, valable W et Z. Les signatures recherchées sont celles _ qui incluent _ au également quand la particule est en mouvement et donc + − + − + − moins deux leptons détectables (W W → l l nn_, ZZ → l l qq , où _ qu'elle a une vitesse v non nulle. Plutôt que la vitesse, on qq est une paire quark-antiquark, et ZZ→ l+l−nn ), ce qui aide à → utilise l'impulsion p, une quantité vectorielle qui généralise → rejeter le bruit de fond. la quantité de mouvement de la mécanique classique m×v Les données recueillies par les détecteurs sont analysées quelques jours à peine après avoir été enregistrées. Elles viennent s’ajouter au lot de données global, lequel est réanalysé à chaque fois que la reconstruction des données est améliorée (calibrations, alignements, etc.). Périodiquement, les équipes de physiciens font le point en combinant les résultats des différents canaux de désintégration étudiés. Les histogrammes de masse invariante observés sont-ils en accord avec ceux attendus sans boson H ou bien un excès montre-t-il le bout de son nez dans un domaine de masse particulier ? Pour répondre à cette question de façon sûre, il faut avoir une bonne connaissance du bruit de fond, c’est-àdire des collisions dont la signature ressemble à celle du boson H mais qui ont une autre origine – voir « Analyse ». Le but est d’estimer précisément à la fois le nombre d’événements attendu et la manière dont ceux-ci se différencient selon plusieurs paramètres (énergie, géométrie, etc.), afin de séparer le signal du bruit de fond.

(mais qui reste une fonction de la masse et de la vitesse) et que l'on mesure directement dans les trajectographes des détecteurs de physique des particules. La nouvelle relation est → E2 = m2c4 + (p )2c2 que l’on peut réécrire 2

m

4

c La masse m est constante quelle que soit la vitesse de la particule : l’énergie E et la « longueur » du vecteur → impulsion p varient de manière couplée afin de toujours satisfaire l'égalité ci-dessus. Examinons le cas où la particule de masse m se désintègre → en N particules, chacune d’énergie Ei et d’impulsion p i (i=1,..,N). La formule précédente reste valable : (E 1 + E 2 + ... + E N) - (p 1 + p 2 + ... + p N) c 2

m=

2 2

4

c Mesurer les caractéristiques (énergie et impulsion) des particules filles permet donc de remonter à la masse de la particule mère qui les a produites en se désintégrant. On parle de « masse invariante », une quantité essentielle pour les analyses en physique des particules.

page 87

À ce stade, le travail quotidien du physicien peut sembler fastidieux mais il est essentiel. Et il demande de nombreuses qualités, notamment la patience et la prudence. Ainsi, il faut se méfier comme de la peste des fluctuations statistiques des données qui peuvent, pendant quelques semaines, faire apparaître dans un histogramme une « bosse » qui ressemble à un signal mais qui provient en fait d’un bruit de fond mal éliminé. Ainsi, en 2011, un petit excès d’événement est apparu autour de 240 GeV/c2 dans le canal H → ZZ → 4 leptons de l’expérience ATLAS. Ce pic a rapidement disparu avec l’accumulation progressive de nouvelles données et l’excitation associée

ÉLÉMENTAÍRE

=

2 2

E - ( p) c


La fabuleuse découverte... est retombée aussi vite qu’elle était apparue. Autre exemple, toujours dans ATLAS et illustré par le film « La Fièvre des particules » : dans une séquence qui fait sourire grâce au montage rythmé du film, deux physiciens théoriciens semblent « angoissés » par la perspective d’avoir un boson H à 140 GeV/c2, une masse qui, selon eux, serait le signe que notre Univers est le fruit du hasard, inexplicable, perdu parmi une multitude d’Univers parallèles avec chacun une physique différente. Et cette partie du film se termine par une annonce du CERN sur un possible excès d’événement à … 140 GeV/c2. En fait, une fluctuation du bruit de fond de plus : fausse alerte !

Le film « La Fièvre des particules » – titre original : « Particle Fever » – est un film documentaire américain sur le LHC. Il suit plusieurs personnages principaux (des physiciens théoriciens, des chercheurs de l'expérience ATLAS et l’un des responsables de l'accélérateur) depuis le démarrage interrompu du LHC en 2008 jusqu'à l'annonce de la découverte du boson H le 4 juillet 2012. Ce film, sorti en salle à l'automne 2014 est maintenant disponible en double DVD.

Ne rien trouver ce n’est pas rien !

© Julien Serreau

© Jupiter Films

Novembre 2011 : l’étude combinée des données enregistrées à 7 TeV par les expériences ATLAS et CMS est en accord avec les prédictions du Modèle Standard sans boson H dans une large gamme de masse allant de 141 à 476 GeV/c2. Dit autrement : s’il existe, le boson H doit avoir une masse soit inférieure à 141 GeV/c2, soit supérieure à 476 GeV/c2. Ce résultat, traditionnellement présenté sous forme d’un « graphique brésilien », marque une avancée importante. Grâce à l’énergie élevée des collisions qui permet d’obtenir une meilleure sensibilité à la présence du boson H, une grande partie des valeurs possibles pour la masse (inconnue) de cette particule a été exclue en analysant une quantité de données relativement modeste (deux fois moins qu’au Tevatron où l’énergie des collisions n’était « que » de 1,96 TeV). Il reste deux régions à explorer plus en détail : celle des basses masses (115-141 GeV/c2), privilégiée par les contraintes indirectes fournies par d’autres collisionneurs, et celle des très hautes masses, au-delà de 476 GeV/c2. Un mois plus tard, le Père Noël passe en avance au Conseil du CERN – constitué de représentants des pays membres du laboratoire. Grâce à des lots de données jusqu’à deux fois plus importants que ceux utilisés pour les résultats présentés le mois précédent, les deux expériences ATLAS et CMS annoncent avoir observé des excès d’événements (par rapport au niveau de bruit de fond) dans plusieurs canaux de désintégration (H → γγ, H → ZZ → 4l _ et H → W+W− → l+l−nn ) et à la même masse, autour de 126 GeV/c2. Pris isolément, aucun de ces excès n’est assez significatif pour prétendre au statut de découverte mais le fait qu’ils soient vus par les deux expériences, au même endroit et dans des analyses indépendantes, rend « [c]es indices prometteurs », comme le souligne le communiqué associé du CERN. La température monte alors très vite dans les laboratoires et les physiciens mettent les bouchées doubles, en attendant les premiers événements à 8 TeV, pour rendre leurs analyses encore plus performantes. Les méthodes s’affinent et une attention extrême est portée à l’approfondissement de la région à basse masse, soudain devenue très prometteuse.

Intervalles de masse exclus pour le boson H par les expériences du LEP (en rose), du Tevatron (en vert) et du LHC jusqu'à fin 2011 (en bleu).

page 88

© CERN

ÉLÉMENTAÍRE


du LHC © CERN

Ce « graphique brésilien » (en référence aux couleurs des deux bandes qui apparaissent sur la figure) résume de manière (très) condensée les résultats combinés de la recherche du boson H par les deux expériences ATLAS et CMS en novembre 2011. En abscisse, on trouve la gamme de masses possibles pour cette particule (rappel : à chaque valeur de la masse correspond une série d'analyses) et en ordonnée la limite supérieure (« à 95 % de niveau de confiance » pour les connaisseurs) que les physiciens ont pu mettre sur le rapport entre la section efficace de production mesurée du boson H et celle prédite par le Modèle Standard. En d'autres termes, à chaque masse on estime la probabilité d'occurrence du boson H dans les collisions du LHC, que l'on compare à la valeur prédite par le Modèle Standard. Comme cette particule n'a pas (encore) été observée au moment où ce graphique a été tracé, on calcule une limite supérieure sur cette probabilité, obtenue de telle manière qu'il y a 95 % de chance que le vrai rapport (probabilité d'occurrence)/(prédiction du Modèle Standard) soit plus faible que cette limite : ce sont les points noirs. La ligne rouge correspond à la valeur 1 du rapport de sections efficaces. En-dessous, la mesure est sensible au Modèle Standard à cette masse ; au-dessus, on ne peut pas conclure : il faut accumuler plus de données pour tester le Modèle Standard. Et la partie « carioca » du diagramme ? Patience, nous y arrivons… La courbe pointillée noire montre la limite attendue sur le rapport des sections efficaces à chaque masse potentielle du boson H. La connaissance précise des performances du détecteur et de la physique des collisions au LHC permet aux chercheurs d'estimer a priori la sensibilité de leurs mesures pour la quantité de données accumulées. Comme toujours en physique, les ingrédients entrant dans ce calcul complexe ont des incertitudes associées aux origines multiples (statistique, systématique, théorique). Le modèle utilisé ne peut donc pas se réduire à la courbe en pointillés : il faut faire varier ses paramètres à l’intérieur des incertitudes. La courbe devient donc une bande, colorée sur la figure. En fait, il y a deux bandes qui, sans entrer dans les détails, correspondent à différentes « amplitudes de variation » permises des paramètres du modèle : la bande verte – à « 1 sigma » – et la bande jaune – à « 2 sigmas ». Quand la courbe noire (les données) se trouve à l’intérieur des bandes, cela signifie que le modèle décrit bien les données et donc que la limite sur le rapport de sections efficaces est crédible. Ainsi, les deux informations combinées – rapport des sections efficaces en-dessous de la valeur critique 1 et accord entre les données et le bruit de fond attendu – permettent d'exclure une masse du boson H comprise entre 141 et 476 GeV/c2 : c’est la région hachurée en orange sur le diagramme qui vient largement compléter les régions hachurées vert pâle et bleu pâle, exclues au préalable sur d'autres collisionneurs. Restent donc la région à très haute masse (au-delà de 476 GeV/c2) et l'intervalle [114 GeV/c2 ; 141 GeV/c2] dont l'étude demande plus de données, ce qui sera possible en 2012. Pour conclure, on peut remarquer que les mesures ne montrent pas de déviation significative par rapport au Modèle Standard sur l'ensemble des valeurs de la masse du boson H testées.

Beaucoup et bien cachés ou très peu mais bien visibles ? Les deux s’il vous plaît !

Résonance et pic Dans un histogramme de masse invariante, les événements de signal correctement reconstruits ont tendance à s'accumuler autour de la valeur de la masse de la particule. Ils forment ainsi un « pic » dont la largeur dépend souvent – et c'est en particulier le cas pour le boson H – de la résolution des détecteurs utilisés pour reconstruire les propriétés des particules filles : plus les instruments sont performants et moins le pic est étalé. On parle aussi de résonance, pour des raisons (d'origine quantique) qui sont décrites dans l'article « Analyse » de ce numéro.

Dans le cas du canal en deux photons, le signal attendu doit être identifié au milieu d’une très grande quantité d’événements contenant une paire de photons énergétiques qui ne proviennent pas de la désintégration du boson H. Dans trois cas sur quatre environ, il s’agit de photons produits par interaction entre quarks. Et comme rien ne ressemble plus à un photon qu’un autre photon, il est impossible de s’en affranchir : on parle de bruit de fond « irréductible ». Par contre, la distribution de ces événements dans l’histogramme en masse invariante est très différente de celle du signal, un pic fin : on peut ainsi compter séparément le nombre de bosons H et le nombre d’événements de bruit de fond de ce type.

ÉLÉMENTAÍRE

page 89

Comme nous l’avons vu, les modes H → 2g et H → ZZ → 4 leptons chargés sont les modes privilégiés pour chercher un boson H de faible masse. Dans un histogramme en masse invariante, la nouvelle particule devrait apparaître sous la forme d’une résonance étroite au-dessus d’un bruit de fond régulier.


La fabuleuse découverte... Une autre source de bruit de fond provient d’événements qui contiennent des jets de particules et dont les traces laissées dans les détecteurs ressemblent à celles de photons. La fraction de ce type d’événements est réduite en appliquant des critères stricts sur la sélection de candidats-photons – des signatures observées dans le détecteur et que l’on doit décider de classer ou non comme photons. Des caractéristiques fines mesurées dans le calorimètre, comme la forme du dépôt énergétique ou l’isolation de ce dernier, sont différentes pour les « bons » et « mauvais » photons.

© ATLAS CERN

Séparer les « bons » photons des « mauvais » photons… Quelle signature un photon laisse-t-il dans un détecteur comme ATLAS ou CMS ? Comme il s’agit d'une particule électromagnétique neutre, il est absorbé dans le calorimètre, en général sans avoir interagi dans le trajectographe. La forme du dépôt d'énergie est caractéristique – en particulier elle est nette, bien électromagnétique – et sert donc à séparer photons réels et « faux photons » – d'autres particules dont les traces laissées dans le détecteur ressemblent à celles de vrais photons. Une autre variable communément utilisée est l'isolation qui mesure la quantité d’énergie déposée dans le volume du calorimètre autour du dépôt laissé par le candidat-photon. Les photons issus de la désintégration du boson H sont bien isolés : cette quantité d’énergie est faible. Au contraire, les photons du bruit de fond ont une isolation moins bonne, tout comme les faux photons. L’isolation est donc une variable importante pour la sélection du signal, comme le montre le graphique ci-contre. On y voit deux histogrammes d’isolation, l’un en blanc pour les photons directement issus de la collision (ce qui inclut les bons photons du canal H → γγ) et l’autre en bleu pour tous les candidats photons (vrais photons, bons ou mauvais, et faux photons mélangés). Ces deux histogrammes sont issus de simulations qui « collent » assez bien avec la réalité puisque la distribution mesurée par les vraies données (les points noirs) est raisonnablement en accord avec l’histogramme bleu. En notant que l’échelle verticale du graphique est logarithmique, on voit qu’en ne conservant par exemple que les candidats ayant une isolation inférieure à 5 GeV, on garde une large fraction des photons directs – les « bons » photons – tout en éliminant beaucoup de photons de bruit de fond et de faux photons – appelés collectivement «  mauvais » photons.

Position dans le calorimètre Dans ATLAS comme dans CMS et plus généralement dans de nombreux détecteurs installés sur collisionneur, le calorimètre électromagnétique est divisé en plusieurs grandes zones, notamment un « tonneau » cylindrique central et des « bouchons » aux extrémités. Pour des raisons « techniques » (encombrement, surface, accessibilité, support du détecteur) et « physiques » (taux d'événements très différents par exemple), ces régions sont souvent construites avec des technologies différentes. De même, le trajectographe, situé « en amont » du calorimètre sur le chemin des particules produites au point de collision, a une structure similaire. Ces différences influent sur les performances de ces détecteurs et donc sur la reconstruction globale des événements : il est donc logique de tenir compte de ces aspects géométriques dans l'analyse des données.

page 90

Une fois définies, les méthodes pour séparer au mieux les photons du signal du bruit de fond (vrais et faux photons mélangés), il reste une difficulté supplémentaire à prendre en compte : certains photons interagissent avec la matière des détecteurs qu’ils rencontrent entre le point de collision et le calorimètre. Ils se convertissent alors en une paire électron-positron, des particules chargées, qui laissent donc une trace dans le trajectographe et dont la forme du dépôt d’énergie final dans le calorimètre est particulière. La signature expérimentale de ces photons convertis est donc différente de celle des photons non-convertis mais on veut être capable de les identifier quand même, pour maximiser la quantité de signal dans les données sélectionnées. Pour y parvenir, et donc pour améliorer la sensibilité globale de l’analyse H → 2 photons, il s’avère qu’il vaut mieux séparer les événements contenant deux photons isolés en plusieurs catégories, selon que les photons sont ou non convertis (comme on vient de le voir), mais aussi par exemple selon leur position dans le calorimètre. Guidés par des simulations de l’ensemble

ÉLÉMENTAÍRE


du LHC de la chaîne d’analyse des données, les physiciens ont utilisé jusqu’à 10 lots différents de candidats H → γγ (mutuellement exclusifs). Dans chaque lot, les différents bruits de fond ont été étudiés en détail, en particulier la forme de leurs distributions en masse invariante.

© CERN

Voici deux lots parmi les dix lots différents de candidats H → γγ utilisés par ATLAS pour son analyse. Ils correspondent à la région centrale du calorimètre – où les mesures sont les plus précises. Mais, dans l'image de droite, au moins un des deux photons est converti (en paire e+e−) alors que les deux photons sont non-convertis à gauche. On voit que le nombre d'événements (relié à l'intervalle couvert par l'axe y) et la forme du bruit de fond sont différents sur les deux graphiques.

Le canal H → ZZ → 4 leptons chargés est souvent appelé « mode en or » car la contamination du signal par le bruit de fond est plus faible – mais il est aussi plus rare, comme le montre la figure du début de l’article qui compare les probabilités des principales désintégrations du boson H. Le bruit de fond irréductible provient d’événements où deux bosons Z sont produits indépendamment avant de se désintégrer chacun en une paire de leptons. Mais, là encore, l’histogramme de masse invariante calculé à partir des candidats 4-leptons permet de séparer les événements de signal (qui forment un pic autour de la masse du boson H) de ceux de bruit de fond dont la distribution ne présente aucune structure étroite de ce genre et dont la forme est bien connue.

ÉLÉMENTAÍRE

© CERN

page 91

Intéressons-nous un instant aux quatre leptons chargés – électrons, muons et leurs antiparticules – de l’état final du « mode en or » du boson H. Il s’agit en fait de deux paires de leptons, chacune issue de la désintégration d’un boson Z neutre. Les deux leptons doivent donc être de charges opposées (particuleantiparticule, pour respecter

Histogramme en masse invariante obtenu fin 2011 par la collaboration CMS pour l’étude de la désintégration H → ZZ → 4 leptons. Comme d'habitude, les points noirs montrent la répartition des masses des événements candidats sélectionnés dans les données (peu nombreux : une soixantaine au total) tandis que les barres verticales représentent les fluctuations attendues sur ces comptages. Les distributions violettes et vertes correspondent au bruit de fond, lequel ne présente pas de résonance. Les histogrammes jaune, orange et rouge montrent le signal attendu pour trois masses différentes du boson H : 140, 200 et 350 GeV/c2. À cette époque, aucun excès significatif n'était visible par rapport aux prédictions du bruit de fond seul.


La fabuleuse découverte... la conservation de la charge électrique) et de même « saveur », électronique ou muonique. Puisque les deux désintégrations des bosons Z sont indépendantes, il y a donc trois cas possibles : deux paires électronpositron, deux paires muon-antimuon et enfin une paire électron-positron plus une paire muon-antimuon. Et donc, comme expliqué plus haut dans l’article, la masse invariante de chaque paire de leptons devrait être compatible avec celle du boson Z qui vaut environ 91 GeV/c2. Or, pour un boson H « léger » dont la masse est inférieure à deux fois celle du boson Z, il est impossible de créer deux telles particules. Comment peut-on alors observer quand même ces événements pour un boson H dont la masse vaudrait, par exemple, 125 GeV/c2 ? Réponse : grâce à la mécanique quantique ! Dans ce cas, le boson H ne donne pas deux boson Z réels, mais un boson Z réel et un boson virtuel, noté Z* ! Et le Z* donnera en se désintégrant une paire lepton-antilepton de basse énergie. C’est une complication majeure car un lepton est d’autant plus difficile à détecter que son impulsion transverse est faible. En gardant l’exemple d’un boson H de masse 125 GeV/c2, les calculs montrent que voir le mode de désintégration en or demande de reconstruire électrons et muons à partir de 6-7 GeV/c d’impulsion transverse, ce qui impose des contraintes très fortes sur l’identification des leptons chargés.

Les trois états finaux possibles pour le mode H → ZZ → 4 leptons : une paire électronpositron et une paire muon-antimuon (à gauche), deux paires électron-positron (au milieu) et deux paires muon-antimuon (à droite).

© Élémentaire

Impulsion transverse L'impulsion est un vecteur défini dans l'encadré « Masse invariante » page 87. C'est un vecteur dans l'espace (à 3 dimensions) que l'on peut décomposer sous la forme d'une composante « longitudinale », parallèle à l'axe des faisceaux de protons du LHC au point de collision (1 dimension) et d'une composante « transverse », située dans le plan perpendiculaire à l'axe des faisceaux (2 dimensions). Avant la collision, les protons ont une impulsion entièrement longitudinale ; par contre, lorsqu'une interaction proton-proton intéressante se produit, les particules (légères) produites partent potentiellement dans toutes les directions et se retrouvent donc pour certaines avec une impulsion transverse importante : c'est en les détectant – ou pas – qu'on décide d'enregistrer ou de rejeter chaque événement.

page 92

© Nicolas Arnaud

Et plus son impulsion transverse est importante, plus une particule est facile à identifier puisqu'elle se démarque plus clairement du tout venant des particules de bruit de fond, produites en grandes quantités. Une dernière qualité de l'impulsion transverse : on peut lui appliquer une loi de conservation. La somme (vectorielle) des impulsions transverses des particules produites lors d'un événement doit être égale à la somme des impulsions transverses des constituants des protons qui sont entrés en collision. Or ces impulsions transverses « avant collision » sont (quasi-)nulles, et donc la somme des impulsions transverses « après collision » doit être nulle également. Faire ce calcul événement par événement permet de tester la qualité de la reconstruction des propriétés des particules – un bon détecteur d'énergie manquante a le moins de « trous » possibles par lesquels des particules pourraient passer inaperçues. On peut ainsi se rendre compte qu’une particule invisible pour le détecteur (par exemple un neutrino) a été produite lorsque la relation de conservation énoncée ci-dessus semble violée.

ÉLÉMENTAÍRE


du LHC Pour l’anecdote, on peut souligner que, comme la signature à quatre leptons chargés du mode en or est à la fois assez facile à identifier et rare, l’apparition de ces candidats était suivie en direct pendant l’enregistrement des données, via un système de comptage des événements en fonction de la masse invariante des leptons. L’impatience et l’excitation ont donc marqué l’année 2011, une période où la faible statistique disponible créait souvent des mirages provisoires dans cet histogramme.

Particules réelles et virtuelles

© CERN

Évolution de l’efficacité d'identification des électrons (en %, axe vertical), mesurée par l’expérience ATLAS en 2011, en fonction de l’impulsion transverse de la particule (en GeV, car convertie en énergie en la multipliant par la vitesse de la lumière). On peut observer que cette probabilité augmente de manière assez significative avec l'impulsion transverse. Les trois séries de points de couleur correspondent à des critères de sélection des candidats électrons plus ou moins stricts. En noir (« Loose »), un choix de critères « peu stricts » ; en rouge (« Medium »), des critères « moyens » ; enfin en bleu (« Tight »), des critères « très stricts ». Et, comme dans la vie, plus la sélection à l’entrée est forte et moins il y a de reçus. Et moins il y a de bruit de fond. Selon le type d’analyse effectué, on peut soit vouloir un échantillon très important de candidats électrons en acceptant une fraction assez importante de faux électrons – sélection noire –, soit préférer un échantillon moins fourni mais beaucoup plus pur – sélection bleue –, soit choisir une situation intermédiaire – sélection rouge. Dans tous les cas, la connaissance précise de l'efficacité d'identification des électrons est essentielle pour convertir le nombre d'événements observés dans les données en taux d'occurrence de la désintégration correspondante – par exemple H → ZZ → 2 paires électron-positron.

Et le boson H fut !

ÉLÉMENTAÍRE

page 93

En 2012, l’énergie des collisions proton-proton est passée de 7 à 8 TeV. Vue comme cela, la différence n’a pas l’air très significative mais elle correspond en fait à une augmentation assez importante du taux d’occurrence du boson H. Ce gain, combiné à la haute luminosité fournie par le LHC (une quantité proportionnelle au nombre d’événements enregistrés), a augmenté considérablement le potentiel de découverte du boson H en 2012, suite aux résultats prometteurs annoncés fin 2011. Conscients de l'enjeu, les équipes d’ATLAS et de CMS ont pris, pour la nouvelle année, plusieurs (bonnes) résolutions, notamment travailler plus et dormir moins. Les efforts

Commençons par clarifier le vocabulaire : une « particule réelle » est tout simplement une (vraie) particule, de masse M fixée et dont l’énergie et l’impulsion vérifient la formule d’Einstein discutée dans un encadré précédent de cet article. Une « particule virtuelle », elle, n'est pas une (vraie) particule : c'est un objet de nature purement quantique qui n'est pas observable directement et qui, l'espace d'un très court instant (correspondant à sa durée de vie), peut ne pas satisfaire la formule d'Einstein. C'est par exemple le cas des photons échangés entre deux particules chargées électriquement et qui interagissent sous l'effet de l'interaction électromagnétique. Cette liberté provient du principe d'incertitude d'Heisenberg, rappelé dans l'article « Analyse » de ce numéro. Traditionnellement, on ajoute une astérisque en exposant (Z*/Z) pour séparer particules virtuelles et particules réelles. Et pourquoi a-t-on besoin de faire appel aux particules virtuelles pour expliquer la désintégration d’un boson H léger en deux bosons Z ? Pour le comprendre, imaginons que l'on accroche un repère sur un boson H fraîchement produit par une collision proton-proton au LHC et que l'on observe la suite des événements depuis ce référentiel. Le boson H y est au repos, toute son énergie disponible est concentrée dans sa masse : Mc2. Lorsqu'il se désintègre en deux « particules Z », ceux-ci convertissent l'énergie disponible en (énergie de) masse puis le restant, en énergie (de mouvement). Si les deux bosons Z sont réels, ils ont au minimum besoin de l'énergie 2.mZ.c2 pour se matérialiser, ce qui est impossible puisque cette valeur excède l'énergie disponible Mc2< 2.mZ.c2. Donc, au moins l'un des bosons Z produits est virtuel : en toute rigueur, la réaction devrait s'écrire H → ZZ* → 4 leptons ou H → Z*Z* → 4 leptons. Si cette désintégration est possible, elle est quand même largement défavorisée  ; comme le montre la comparaison des probabilités de désintégration du boson H en début d'article, le taux d'événements H → 2 « bosons Z » décolle brusquement à la valeur de masse à partir de laquelle les deux bosons sont réels. Et il y a un creux juste avant, qui correspond au moment (vers 160 GeV/c2) où la paire de bosons W du canal H → 2 bosons W devient réelle et donc beaucoup plus probable.


La fabuleuse découverte... se concentrent sur les modes de découverte, H → γγ et H → ZZ → 4l, mais _ aussi sur le mode H → W+W− → l+l−nn .

© Patrick Roudeau

À la fin du printemps 2012, il devenait évident dans chaque expérience que les excès d’événements se confirmaient dans les deux modes de découverte. Si le résultat entrevu l’année précédente devenait chaque jour plus réel, il fallait encore le consolider pour pouvoir annoncer la découverte d’une nouvelle particule et mesurer sa masse en combinant les résultats des analyses individuelles. Un autre défi était d’apporter au moins des débuts de réponse à plusieurs questions portant sur la nature de cette particule. S’agitil bien d’une particule de la « famille boson H », une nouvelle classe de particules encore jamais observée et qui viendrait s’ajouter aux particules de matière (les fermions) et aux médiateurs des interactions fondamentales (les bosons) ? Ses propriétés sont-elles en accord avec les prédictions du Modèle Standard ? Dit autrement : la nouvelle particule est-elle le boson H du Modèle Standard ? Enfin : les excès observés dans les deux canaux de découverte sont-ils produits par la désintégration de la même particule ? Rien ne le garantit a priori : il faut le vérifier ! © CERN

4 juillet 2012 : le jour H(iggs) Le 22 juin 2012, le CERN annonce la tenue d’un séminaire scientifique le 4 juillet suivant pour « [faire] le point sur la recherche du [boson H] ». C’est le branlebas de combat, à la fois dans les équipes d’ATLAS et de CMS – il faut finaliser les analyses à temps – et au niveau de l’administration du CERN qui se prépare à recevoir des officiels et des journalistes du monde entier.

La queue pour rentrer dans le grand auditorium du CERN : une fois arrivé en haut à gauche de l'image, il faut encore compter une cinquantaine de mètres de marche dans un hall avant d'arriver à bon port.

La salle de conférence principale du CERN, le grand auditorium, a une capacité d’environ 500 places. Pour cet événement, son accès a dû être contrôlé en prévision de l’affluence attendue. Une fois les sièges des invités (officiels et hommes politiques, représentants des états membres, représentants des expériences, membres du Conseil du CERN, etc.) réservés, il a été décidé que les places restantes seraient attribuées par ordre d’arrivée. Résultat, des queues immenses se sont formées à partir de 3 h du matin devant l’Auditorium : certaines personnes ont même dormi dans les couloirs ! Et les journalistes du monde entier présents ont profité de ce spectacle dès l’aube, filmant et interviewant des personnes dans les files d’attente. Les portes de l’Auditorium se sont ouvertes à 7h30, permettant à environ trois cents heureux élus d’entrer dans la salle – certains, vaincus par la fatigue d’une longue nuit blanche, y ont fait la sieste ! Et pas question, pour des raisons de sécurité, de s’asseoir par terre ou de rester debout : des gardiens postés à l’entrée tenaient le compte exact des personnes à l’intérieur.

© CERN

On a donc refusé du monde ce jour-là au CERN. Heureusement, le colloque était retransmis dans de nombreuses autres salles de réunion sur place (certains l’ont même suivi depuis leur bureau) et dans des dizaines de pays, via internet. En particulier, les principaux laboratoires du domaine, y compris ceux situés aux Etats-Unis (où c’était le milieu de la nuit) ont retransmis cet événement. Les deux séminaires enchaînés (CMS puis ATLAS) ont également été très suivis du côté de Melbourne en Australie (horaire page 94

Le grand auditorium du CERN pendant le colloque du 4 juillet 2012. Au premier plan, on voit de gauche à droite, la porte-parole d'ATLAS Fabiola Gianotti, le directeur général du CERN Rolf Heuer et le porteparole de CMS Joe Incandela. Ils regardent sur le grand écran de l’auditorium les réactions enthousiastes des physiciens assemblés lors de la grande Conférence d'été à Melbourne en Australie et qui suivaient en direct l'annonce des résultats au CERN.

ÉLÉMENTAÍRE


du LHC

1800 1600

CMS Preliminary s = 7 TeV, L = 5.1 fb-1 s = 8 TeV, L = 5.3 fb-1

1400

S/B Weighted Data S+B Fit Bkg Fit Component ±1 σ ±2 σ

1200 1000

-1

s = 7 TeV, L = 5.05 fb ; s = 8 TeV, L = 5.26 fb-1

12

Data

10

Zγ ,ZZ

Z+X *

mH=126 GeV

8 6

800

4

600 400

2

200 0

CMS Preliminary

© CERN

S/B Weighted Events / (1.67 GeV)

2000

Events / 3 GeV

I think we have it

120

140

mγ γ (GeV)

0

80

100

120

140

160

180

m4l [GeV]

Résultats présentés par les collaborations ATLAS (figures du haut) et CMS (figures du bas) pendant le séminaire qui a eu lieu au CERN le 4 juillet 2012. À gauche sont données les distributions de masse invariante du canal deux photons et, à droite celles pour le mode à quatre leptons chargés. Dans les deux canaux, et pour chacune des deux expériences, un excès d'événements vers 125 GeV/c2 est bien visible.

plus favorable : fin d’après-midi) où se tenait l’édition 2012 de la série de conférences ICHEP, deux ans après celle de Paris où avait été présentée la redécouverte du Modèle Standard à 7 TeV.

ÉLÉMENTAÍRE

page 95

À 9 h, le directeur général du CERN Rolf Heuer a ouvert les débats par une brève introduction. Puis Joe Incandela, porte-parole de l’expérience CMS et Fabiola Gianotti, son homologue d’ATLAS, ont présenté pendant 45 minutes chacun les résultats obtenus par leurs collaborations respectives. Tous deux ont conclu leur exposé par l’annonce de l’observation d’une nouvelle particule à une masse voisine de 125 GeV/c2 et avec une significance suffisante pour employer le mot de « découverte ». Ces résultats ont été salués par des vivats en provenance de la salle qui faisaient plus penser à un événement sportif qu’à un colloque scientifique. Une fois les deux interventions terminées, le directeur du CERN a repris le micro ; sa conclusion, une phrase courte – « I think we have it », en français « je crois que nous l’avons » – a « officialisé » la découverte, déclenchant une nouvelle

Le CERN a une politique stricte en termes d’annonces de résultats scientifiques. Des règles ont ainsi été définies dès le démarrage du LHC pour encadrer la recherche du boson H, menées en parallèle par deux expériences concurrentes, mais dans une atmosphère de « saine émulation ». Les annonces d'éventuelles découvertes devaient être faites de manière concertée, au cours de colloques organisés par le CERN lui-même, afin de rester dans un cadre à l'éthique scientifique irréprochable. Dans les mois et les semaines qui ont précédé le 4 juillet 2012, les analyses se sont poursuivies en parallèle dans les deux collaborations, en maintenant un secret somme toute assez bien gardé et en évitant tout échange entre les équipes d’ATLAS et de CMS, afin d'éviter qu'elles ne s'influencent entre elles. La direction du CERN était fréquemment en contact avec les deux porte-paroles afin de se tenir informée de l'état d'avancement des différentes analyses. Ce n'est que le 3 juillet, la veille du colloque, que Rolf Heuer a réuni Joe Incandela et Fabiola Gianotti pour discuter l'ensemble des résultats « tout chauds ». Et c'est au directeur du CERN que revenait la décision d'annoncer ou non la découverte, en fonction de la robustesse des conclusions obtenues et de leur importance. Ainsi, jusqu'à la fin des deux exposés et parce que les derniers chiffres n'avaient été finalisés que pendant la nuit précédente, personne n'a parlé ouvertement de découverte. D'où la libération, mi-exutoire, mi-catharsis, qui a suivi les quelques mots « I think we have it », une phrase un peu équivalente au « Eagle has landed » d'Apollo XI en juillet (déjà !) 1969.


La fabuleuse découverte... salve nourrie d’applaudissements. Les directeurs généraux du CERN en poste au cours du quart de siècle pendant lequel le projet LHC a mûri, puis s’est développé avant de finalement prendre son envol, tous présents au CERN ce 4 juillet 2012, ont été acclamés, tout comme les personnes en charge de l’accélérateur LHC et certains des « pères fondateurs » de la « brisure de la symétrie électrofaible », la théorie à laquelle est associée le boson H : François Englert et Peter Higgs (qui recevront tous deux le Prix Nobel de Physique un an plus tard), ainsi que Carl Hagen et Gerald Guralnik. Interrogés après le colloque, tous les quatre feront part de leur surprise et de leur joie de voir que leurs travaux collent aussi bien avec la réalité.

© CERN

Rolf Heuer, directeur général du CERN (à gauche avec le micro) échangeant avec François Englert (au milieu), interviewé dans ce numéro d'Élémentaire, et Peter Higgs (à droite), deux des physiciens qui ont proposé en 1964 l'existence du « champ de Higgs » et de sa particule élémentaire associée, le boson H, pour améliorer une théorie alors en plein développement et qui allait devenir le Modèle Standard de la physique des particules.

Et ensuite ? Une fois terminées les festivités associées à l’annonce du 4 juillet 2012 au CERN, la vie scientifique a repris son cours « normal ». Dès le lendemain et jusqu’à la fin de l’année l’accélérateur LHC a fourni de nouvelles données que les physiciens ont analysées avec gourmandise ; leurs études se sont poursuivies pendant l’arrêt de maintenance de longue durée du LHC. En 2013, le CERN a ainsi pu annoncer que la « nouvelle © CERN particule » observée l’année précédente était bien « un boson H », mais pas encore « le » boson H du Modèle Standard. Ce dernier point prendra encore du temps car il nécessite de mesurer avec précision toutes les propriétés du boson découvert et de les comparer une par une aux prédictions théoriques – par contre, il suffira(it) d’une seule différence rigoureusement établie pour conclure que le boson H de la Nature n’est pas celui du Modèle Standard, et donc pour découvrir une nouvelle physique.

D’autres modes de désintégration du boson H ont en tout cas depuis, comme H → W+W− → l+l−νν _ été mis en évidence . Le canal H → τ+τ− a lui été « presque découvert » avec les données accumulées pendant le Run 1 car le signal observé a une La forêt de micros et de caméras entourant François Englert significance de 4,5 sigmas seulement, juste en deçà des 5 sigmas (assis au centre de la photo) et ses collègues théoriciens après « réglementaires » pour annoncer une découverte. Pour l’instant, le colloque du 4 juillet 2012 au CERN. les propriétés mesurées sont en bon accord avec le Modèle Standard et les petites différences observées çà et là ont tout l’air de © CERN n’être que des fluctuations statistiques du nombre d’événements de bruit de fond. Le Run 2 à 13 TeV (puis peut-être à 14 TeV) permettra d’améliorer la précision des résultats actuels et de continuer à étudier la ressemblance entre le boson H de 125 GeV/c2 et celui du Modèle Standard. Espérons qu’il réservera des surprises aux physiciens !

page 96

La conférence de presse qui a suivi le colloque du 4 juillet 2012 au CERN. De gauche à droite : Sergio Bertolucci (directeur de la physique au CERN), Fabiola Gianotti (porte-parole de la collaboration ATLAS), Rolf Heuer (directeur général du CERN), Joe Incandela (porte-parole de la collaboration CMS) et Steve Myers (responsable de l'accélérateur LHC).

ÉLÉMENTAÍRE


Théorie En attendant la Nouvelle Physique Le Modèle Standard ne suffit pas

© Julien Serreau

Champagne ! On a trouvé une nouvelle particule au CERN. Et plus on l'étudie, plus il semble que ce soit bien le boson H (ou boson de Higgs), la dernière pièce du Modèle Standard qui manquait à l'appel. Est-ce que cela veut dire que tout est fini, et que les physiciens ont tout compris sur le monde des particules élémentaires ? Les théoriciens ont eu le temps de réfléchir à ce scénario. En effet, les résultats du LEP dans les années 1990 indiquaient déjà que le Modèle Standard fonctionnait remarquablement bien dans le secteur de l'interaction faible... Cela rendait donc déjà crédible à l'époque la possibilité que seul ce boson H apparût dans la première moisson du LHC. Si les chercheurs sont bien sûr heureux d'avoir une « nouvelle » particule à étudier, ils ne sont pas parfaitement contents du Modèle Standard, car il ne répond pas à de nombreuses questions, expérimentales et théoriques. Du point de vue expérimental, les neutrinos constituent le premier domaine où le Modèle Standard « strict » fait défaut, car celui-ci suppose que les neutrinos aient une masse nulle. Or les nombreux résultats sur les oscillations de neutrinos montrent que les neutrinos, bien que très légers, sont massifs. Il n'est pas difficile d'étendre le Modèle Standard pour décrire de tels neutrinos, mais c'est au prix d'hypothèses supplémentaires ad hoc. Du point de vue théorique, le Modèle Standard décrit très bien les phénomènes observés expérimentalement. Mais il laisse en suspens de nombreuses questions auxquelles les théoriciens aimeraient pouvoir répondre. Pourquoi existe-t-il trois copies – on parle de familles – des mêmes particules (quarks et leptons) se différenciant seulement par leurs masses ? Pourquoi ces masses sont-elles si différentes, des neutrinos, presque sans masse, jusqu'au quark top, 350 000 fois plus lourd que l'électron ? Plus généralement, le Modèle Standard ne prédit pas les valeurs de sa vingtaine de paramètres... Pourquoi les charges électriques des leptons et des quarks peuvent-elles être exprimées en terme d'une même charge élémentaire ? Pourquoi a-t-il fallu construire un cadre commun pour décrire l'interaction électromagnétique et l'interaction faible, tandis que l'interaction forte peut être décrite indépendamment ? Enfin si on comprend dans le Modèle Standard l'existence d'antiparticules possédant la même masse (mais des nombres quantiques opposés, en particulier la charge électrique), on ne saisit pas l'origine du traitement différencié des particules et des antiparticules par l'interaction faible : si on a trouvé une très bonne concordance entre les différentes mesures de l'asymétrie particule-antiparticule dans ce cas, on ne sait toujours pas expliquer la valeur de cette asymétrie.

ÉLÉMENTAÍRE

page 97

D'autres problèmes interviennent lorsque l'on essaie de mettre en relation les physiques de l'infiniment petit et de l'infiniment grand. La structure actuelle de l'Univers (en galaxies, amas de galaxies, superamas de galaxies) ne peut pas s'expliquer si on applique les lois de la relativité générale à la matière observée autour de nous. En effet, il n'y a pas assez de masse visible pour que l'attraction gravitationnelle explique la cohésion et la dynamique de ces

Oscillations de neutrinos Les neutrinos existent en trois types (ou saveurs) différents, à savoir les neutrinos électron, mu et tau. Produits en abondance par différentes sources naturelles (réactions thermonucléaires dans les étoiles, supernovae, rayons cosmiques) et artificielles (centrales nucléaires), les neutrinos interagissent très peu avec la matière et parcourent donc de très longues distances sans être arrêtés. Au cours de ces pérégrinations, un neutrino d'une saveur donnée peut se transformer en un neutrino d'une autre saveur. Ce phénomène, appelé oscillation de neutrinos, est différent d'une désintégration (qui engendre plusieurs produits de désintégrations plus légers que la particule originelle). Il trouve son origine dans les très petites différences de masses entre neutrinos. Pour justifier l'existence de telles masses dans le cadre du Modèle Standard, il faut admettre l'existence de neutrinos supplémentaires, dits « droitiers », notés nR, qui n'interagissent avec aucune particule du Modèle Standard. Il s'agit d’une extension minimale, mais ad hoc, du Modèle Standard, puisque ces particules sont postulées pour expliquer la masse des neutrinos légers sans avoir jamais été observées directement.

© Julien Serreau


En attendant... galaxies et de ces amas. Un problème similaire apparaît lorsqu'on regarde l'évolution de l'Univers depuis le Big Bang. Un témoin des premiers âges de l'Univers, le rayonnement de fond cosmologique, a été mesuré très précisément par plusieurs satellites (COBE, WMAP, Planck). Ce rayonnement témoigne du fait que la matière n'était pas répartie de façon parfaitement homogène dans l'Univers primordial. Des petites surdensités ont attiré encore plus de matière à elles pour finalement former des galaxies et des amas de galaxies. Tout serait parfait... sauf que le scénario d'évolution le plus simple (et actuellement favorisé par les données) a besoin de beaucoup de matière pour créer ces structures par attraction gravitationnelle -- beaucoup plus que ce qui est observé ! On fait donc appel à une « matière noire », dont on ne connaît pas la nature, mais qui interagit essentiellement par le biais de la gravitation. Elle est invisible pour nos instruments, car elle n'intervient pas (ou très rarement) dans des réactions produisant des photons ou des neutrinos qui pourraient être détectés sur Terre après avoir parcouru de très longues distances. © Julien Serreau

© Élémentaire

Quelques échelles d'énergie connues, correspondant aux masses des particules du Modèle Standard, celles explorées dans les collisionneurs de particules ou atteintes par les rayons cosmiques... et celles plus élevées où de nouveaux phénomènes pourraient apparaître.

Un autre problème vient de la prépondérance de la matière autour de nous. Aux très hautes densités d'énergie mises en jeu après le Big Bang, on peut penser que l’Univers primordial était dans une configuration symétrique entre matière et antimatière, symétrie brisée au fil de l'évolution de l'Univers pour favoriser la première. Toutefois, l'asymétrie entre matière et antimatière observée aux échelles astrophysiques ne peut pas être expliquée en s'appuyant uniquement sur celle observée dans le Modèle Standard entre particules et antiparticules. Cela suggère que des phénomènes, encore inconnus aujourd'hui et dépassant le cadre du Modèle Standard, sont intervenus aux premiers instants de l'Univers pour faire pencher la balance en faveur de la matière.

© Julien Serreau

C'est loin, la Nouvelle physique ? page 98

Si le Modèle Standard ne résout pas tout, faut-il pour autant espérer trouver ce qu’il est aujourd’hui convenu d’appeler la « Nouvelle Physique » au coin

ÉLÉMENTAÍRE


la Nouvelle Physique de la rue ? Derrière cette question se cache celle de l'énergie à laquelle de nouveaux phénomènes peuvent se manifester  : on peut envisager cette échelle comme l'énergie à partir de laquelle on peut produire de nouvelles particules très massives, ou de manière équivalente comme la distance en deçà de laquelle on observera de nouveaux phénomènes si on sonde la matière suffisamment finement. Cette idée d'une nouvelle physique apparaissant en observant les détails les plus fins de la matière est aussi vieille... que la physique elle-même. Dans l'Antiquité grecque, Démocrite pensait qu'on pouvait découper la matière en atomes dont les propriétés étaient bien différentes de celles de la matière dont on les extrairait. À partir du 18e siècle (et jusqu'à nos jours), cette approche réductionniste de la matière a progressivement donné naissance à l'étude des molécules (la chimie), des atomes (la physique atomique), des noyaux (la physique nucléaire) et de leurs constituants (la physique des particules). Chaque niveau de détail correspond à des échelles d'énergie et de distance distinctes, et à chaque progrès, de la « nouvelle physique » est apparue, nécessitant des outils originaux pour comprendre les spectres des atomes, les désintégrations des noyaux, ou encore les propriétés des quarks.

DR

Mais il est encore plus intéressant de constater qu'une telle descente dans la matière s'est produite par paliers successifs, avec la constitution de disciplines scientifiques indépendantes. Ainsi, on a pu (et on peut toujours) faire de la chimie sans recourir à une analyse détaillée des neutrons et des protons au sein de chaque noyau, tout comme on peut faire de la physique atomique sans une description détaillée du comportement des quarks à l'intérieur du moindre proton venu. Dans chacun de ces paliers, on s'intéresse uniquement à la physique apparaissant à des échelles spécifiques, sans chercher à résoudre les objets à des distances plus petites. C'est une approche très générale en physique : une autre illustration vient de la mécanique, qui fournit une théorie très satisfaisante du comportement de solides ou de liquides en les traitant comme des milieux continus, alors qu'on sait pourtant qu'ils sont constitués de molécules. Si les échelles sont suffisamment différentes, on peut bâtir une description Les échelles de distance et d'énergie en jeu dans théorique effective qui ne prétend pas aboutir à une description totale de l'étude de la matière, et les disciplines associées. la Nature mais se concentre (plus modestement) sur les phénomènes se produisant aux échelles pertinentes du problème. Tout ce qui concerne la physique aux échelles plus petites se trouve rassemblé dans des paramètres effectifs, qui peuvent être mesurés, mais dont l’origine est à chercher dans une connaissance plus fine de la physique sous-jacente. On peut par exemple bâtir une théorie effective des noyaux atomiques, qui fait intervenir un « rayon moyen du proton ». Cette quantité peut être mesurée en physique nucléaire, mais elle ne peut être calculée que si on décrit correctement l'interaction forte entre les quarks et les gluons dans le proton, ce qui nécessite de recourir au Modèle Standard de la physique des particules.

ÉLÉMENTAÍRE

page 99

Comme leurs noms le suggèrent, ces théories effectives ne fonctionnent que dans un domaine limité. Les outils développés par la physique atomique


En attendant... commencent à perdre de leur pertinence, et à donner des prédictions en désaccord avec les mesures, lorsqu'on augmente les énergies en jeu... Les spectres atomiques d'émission et d'absorption seront décrits de façon satisfaisante (avec des échanges de photons dans le domaine du visible de l'ordre de l'électron-volt ou eV), mais pas l'interaction d'un atome avec des rayons X de très haute énergie (de l'ordre de quelques dizaines de keV). Dans cette chaîne de théories effectives successives, le Modèle Standard constitue le dernier niveau connu, mais cela ne veut évidemment pas dire qu'il est le dernier niveau « tout court ». Au vu des questions laissées sans réponse par le Modèle Standard, on s'attend à ce qu'il ne soit qu'une théorie effective de la théorie plus fondamentale contenant la fameuse Nouvelle Physique recherchée au LHC. Mais c'est une théorie effective diablement efficace ... et dont on ne sait toujours pas à partir de quelle échelle d'énergie elle cesse d'être valide.

Phénomène spécifique de la mécanique quantique Une particularité remarquable de tout système quantique est qu’il peut exister simultanément dans plusieurs états différents. On parle d’une superposition quantique d'états, à la manière d'un vecteur comportant plusieurs composantes. Ce phénomène n'a pas d'équivalent en mécanique classique. Il faut effectuer une mesure pour résoudre cette superposition et ramener le système à un seul état.

En effet, pour tous les processus qui ont été mesurés expérimentalement et qui sont calculables dans le Modèle Standard, on a trouvé un bon accord entre théorie et expérience... dans la limite des incertitudes. Ces résultats contraignent de façon notable l'échelle d’énergie à partir de laquelle la Nouvelle Physique se manifesterait. Elle peut apparaître de deux manières différentes. On peut d'une part produire des nouvelles paires particulesantiparticules si on fournit assez d'énergie lors d'une collision mais il faut atteindre une énergie assez élevée et produire ces paires en quantité suffisante pour pouvoir les identifier parmi les nombreux autres résultats possibles d'une collision au LHC. D'autre part, on peut aussi essayer de voir les effets de la Nouvelle Physique à des échelles d'énergie plus basses que la masse de ces nouvelles particules, par un phénomène spécifique de la mécanique quantique. Ces effets se superposent à ceux du Modèle Standard et engendrent de petites déviations des mesures par rapport aux attentes du Modèle Standard.

Dans le monde quantique et relativiste des particules élémentaires, vient s’ajouter à cela le fait que les états permis dans une superposition quantique peuvent faire intervenir des particules en nombre et en types arbitraires. La seule condition est que ces états soient accessibles par des interactions du Modèle Standard (conservation de la charge électrique, par exemple). Par exemple un photon peut exister sous sa forme « photon » et, simultanément, sous forme d’une paire électron-positron. Une conséquence remarquable est que bien que de charge nulle, le photon peut être dans un état contenant des particules chargées. Il peut donc interagir avec un autre photon... sensible à ces mêmes particules chargées. Cela aboutit à l’interaction de la lumière avec la lumière dans le vide, un phénomène (extrêmement rare) entièrement dû aux fluctuations quantiques du photon.

À l'heure actuelle, la combinaison de ces deux types d'information suggère que l'échelle d’énergie recherchée doit dépasser quelques TeV. Plus cette échelle sera élevée, plus il sera difficile de mettre en évidence la Nouvelle Physique. Une production directe de nouvelles particules sera toujours plus coûteuse en énergie. Des déviations par rapport au Modèle Standard pour des processus de plus basse énergie seront d'autant plus petites que l’échelle d’énergie de la Nouvelle Physique est élevée.

Au cours d'un processus, toute particule connue peut exister, par le biais de fluctuations quantiques, sous une forme faisant intervenir des particules de masses nettement plus élevées. Il peut s'agir de particules déjà connues, ou d'autres encore à découvrir. Une mesure précise des propriétés des particules connues peut donc mettre en évidence ces fluctuations quantiques dues à de la Nouvelle Physique.

Elle est pas belle, ma théorie ?

page 100

Après plusieurs décennies de tests du Modèle Standard et de recherche de Nouvelle Physique, il n'est pas surprenant que les physiciens théoriciens aient échafaudé de nombreuses extensions du Modèle Standard. Dans leur jargon, il s'agit de « modèles » – des scénarios possibles, permettant de résoudre certains problèmes spécifiques au prix d'hypothèses "gratuites", et sans avoir montré leur validité au-delà de la question qui a généré leur invention. Ces modèles s'opposent à la notion de « théorie », qui possède une structure relativement naturelle et un domaine de validité large, suite à une grande batterie de tests expérimentaux. Bien évidemment la frontière

ÉLÉMENTAÍRE


la Nouvelle Physique entre ces deux notions est floue. Le Modèle Standard a commencé sa carrière dans la première catégorie mais se situe à présent dans la seconde – une évolution qui explique son nom, désormais obsolète. Une classe de modèles particulièrement populaire depuis de nombreuses années est la supersymétrie. Dans cette approche, chaque particule du Modèle Standard se trouve associée à une partenaire supersymétrique. Si la supersymétrie était une symétrie effectivement réalisée dans notre univers, toutes deux devraient avoir la même masse. Or comme aucune particule supersymétrique n'a été observée à ce jour, il faut en conclure que la supersymétrie, si elle existe, est seulement une symétrie approchée, qui n'est pas valide aux énergies actuellement testées, mais peut-être à des énergies plus élevées.

DR

Dans les modèles supersymétriques allant au-delà du Modèle Standard, chaque particule connue se voit appariée à un partenaire, de masse nettement plus élevée : ainsi le quark u ~. est associé au squark u

Une telle (super)symétrie simplifierait beaucoup la structure de la théorie à haute énergie. En particulier, cette approche permet de justifier de façon plus satisfaisante la légèreté (toute relative) du boson H découvert en 2012 au CERN. Si on imagine que le Modèle Standard est valable jusqu'à l'échelle où la gravitation devient importante, appelée échelle de Planck, la valeur de la masse du boson H devrait être typiquement du même ordre... ce qui est faux par un facteur 1017 ! Il faut ainsi procéder à un équilibre très subtil des différents paramètres du Modèle Standard pour que plusieurs contributions s'éliminent et que l'on aboutisse à un boson H très léger. En présence de la supersymétrie, cette contrainte est très amoindrie, et le boson H peut être « léger » sans recourir à un ajustement trop fin des paramètres. De plus la supersymétrie fournit des particules lourdes interagissant peu avec leur environnement... de très bons candidats pour la matière noire !

Echelle de Planck L'échelle de Planck, proposée en 1889 par le physicien Max Planck, est une échelle d'énergie valant 1,22 × 1019 GeV au-delà de laquelle on pense que les effets quantiques de la gravité doivent être pris en compte pour décrire le monde de l'infiniment petit. L'échelle de distance associée est autour de 1,6 × 10–35 m. Ces échelles sont bâties en combinant trois grandeurs indispensables pour décrire les interactions fondamentales : la constante de gravitation G, la vitesse de la lumière c et la constante de Planck –h.

ÉLÉMENTAÍRE

page 101

La supersymétrie donne lieu à un autre phénomène intéressant pour les théoriciens. L'intensité de chaque interaction (forte, faible, électromagnétique) est décrite par une constante de couplage. En fait, ce nom est bien mal choisi, car cette « constante » voit sa valeur varier selon l'énergie du processus en jeu, d'une manière calculable et qui dépend de la théorie considérée. Dans le cadre du Modèle Standard, les différents couplages se croisent deux à deux sans converger vers une valeur unique pour une échelle donnée. En revanche, moyennant quelques hypothèses supplémentaires la supersymétrie aboutit au croisement simultané des trois courbes, une convergence qui suggère une unification des trois interactions à une échelle d'énergie de l'ordre de 1016 GeV. Si cette unification est séduisante, on peut se demander s'il est très raisonnable de supposer que rien de nouveau n'apparaîtra entre les quelques 103 GeV où apparaîtrait la supersymétrie et cette échelle d'unification 1013 fois plus élévée...


En attendant... DE

Malheureusement, du fait des très hautes énergies en jeu, il ne sera pas facile de tester la validité de cette hypothèse d'un tel « désert », et encore moins l'unification prédite dans le cadre de la supersymétrie.

Les constantes de couplage correspondant aux trois interactions voient leur valeur changer selon l'énergie du processus. Dans le Modèle Standard, les trois courbes ne se croisent pas, alors que dans des modèles supersymétriques, on peut parvenir à une unification des trois constantes à une échelle très élevée. Cela est provoqué par la présence de particules supersymétriques avec des masses de l'ordre du TeV, qui est responsable de l'inflexion des courbes dans la figure de droite.

Une autre extension du Modèle Standard consiste à se concentrer sur le nombre de dimensions. Si le Modèle Standard suppose un espace-temps qui combine une dimension temporelle et trois dimensions d'espace, on peut imaginer qu'il existe des dimensions supplémentaires. On imagine que de telles dimensions sont de nature spatiale (difficile d'imaginer ce que signifierait l'écoulement du temps dans un Univers avec deux dimensions temporelles distinctes...), mais seraient forcément très différentes de « nos » dimensions habituelles qui semblent s'étendre à l'infini. Les physiciens ont imaginé qu’elle s'enrouleraient sur elles-mêmes sur des distances extrêmement petites, ce qui expliquerait qu'elles aient échappé à nos efforts pour les identifier.

Comment de telles dimensions minuscules pourraient-elles se manifester ? Dans ces théories, on s'attend en fait à voir apparaître de nombreuses particules très lourdes. À chaque particule du Modèle Standard serait associée une série de particules (des « excitations de Kaluza-Klein ») de plus en plus massives : la différence de masse entre deux excitations successives serait constante, et d'autant plus importante que la dimension supplémentaire serait enroulée de manière compacte sur ellemême. On aurait pu imaginer que les trois générations du Modèle Standard fussent issues d'un mécanisme de ce genre – malheureusement, les écarts de masse entre les trois générations ne sont pas réguliers, et la taille des dimensions supplémentaires correspondantes aurait été bien trop grande pour qu’elles soient passées inaperçues jusqu'ici... Cela n'empêche pas de conserver cette idée et de chercher activement des particules très massives, témoins de dimensions supplémentaires.

© Stanley Deser, Université de Göttingen

© Julien Serreau

Le mathématicien allemand Theodor Kaluza (1885-1954) à gauche et le théoricien suédois Oscar Klein (1894-1977) à droite.

page 102

DR

Une illustration du concept de dimension supplémentaire repliée sur elle-même. Vue de loin, une corde est un objet unidimensionnel. Mais pour une fourmi de taille comparable à la section de cette corde, c’est un objet bidimensionnel. Pour percevoir la dimension supplémentaire de la corde, il faut être suffisamment petit − ce qui signifie, en physique des particules, avoir une énergie assez importante.

ÉLÉMENTAÍRE


la Nouvelle Physique Un dernier exemple d’extension possible consiste à imaginer des interactions additionnelles, des forces supplémentaires transmises par de nouvelles particules médiatrices. C'est le cas en particulier de modèles tentant de réunir interactions électromagnétique, faible et forte dans un cadre théorique unique, de manière analogue au Modèle Standard qui unifie les interactions électromagnétique et faible. Ces modèles dits de « grande unification » étendent la palette des interactions, générant souvent de nouvelles interactions entre quarks et leptons par l'échange de bosons très lourds, ce qui aboutit par exemple à rendre le proton instable. Le détecteur Super-Kamiokande situé au Japon a obtenu la limite la plus stricte sur ce processus : si le proton est instable, son temps de vie est d’au moins 1033 années, soit 1023 fois l’âge connu de notre Univers ! Cela a suffi à disqualifier les versions les plus simples de ces modèles, mais des versions plus sophistiquées sont encore possibles.

Rendre le proton instable Dans le Modèle Standard, seules sont autorisées les réactions qui vérifient un certain nombre de lois de conservation, par exemple la conservation de la charge électrique. De manière similaire, il faut conserver la différence entre le nombre de quarks et le nombre d’antiquarks (nombre baryonique), ainsi que la différence entre le nombre de leptons et d’antileptons (nombre leptonique). Les théories de grande unification ouvrent la possibilité de réactions ne respectant pas ces deux lois de –conservation, comme par exemple uu → de + causé par un boson très massif, ouvrant la voie à la désintégration du proton en un pion neutre et un positron.

Cette liste n'est pas limitative : on a aussi imaginé que certaines (ou toutes les) particules du Modèle Standard ne seraient pas élémentaires, mais composites, c’est-à-dire comportant une sous-structure, ou encore qu'il pourrait y avoir plusieurs particules similaires au boson H, ou encore qu'une quatrième génération de quarks et de leptons pouvait exister avec des masses de l'ordre du TeV... Certaines de ces idées sont mises en œuvre simultanément dans différents modèles qui tentent de répondre aux questions laissées en suspens. Dans la très grande majorité des cas, elles donnent des prédictions identiques au Modèle Standard dans le cas limite où toutes les échelles liées à la Nouvelle Physique (en particulier la masse des nouvelles particules) deviennent très grandes et tendent vers l'infini. Dès lors, si on observe des résultats en bon accord avec les prédictions du Modèle Standard (comme c'est le cas actuellement), cela contraint les déviations induites par des phénomènes de Nouvelle Physique à rester petites pour pouvoir se cacher dans les barres d'erreurs des mesures expérimentales et des prédictions théoriques. Les échelles de Nouvelle Physique sont ainsi poussées vers des valeurs de plus en plus élevées lorsque les mesures deviennent de plus en plus précises tout en restant en bon accord avec le Modèle Standard.

H : une contrainte en plus Il existe de nombreuses contraintes à satisfaire pour tous ces modèles. Ils doivent être en mesure de reproduire les mesures effectuées au LEP et au Tevatron sur les bosons W et Z de l'interaction faible. Il leur faut aussi satisfaire les mesures sur les transitions entre différents types de quarks, et les observations faites sur les oscillations de neutrinos. Mais plus récemment, une contrainte additionnelle s'est faite jour, venant du LHC, à savoir les propriétés du boson H lui-même.

ÉLÉMENTAÍRE

page 103

Le premier point est la simple existence d'un boson scalaire avec une masse proche de celle des bosons W et Z. Ainsi, certains modèles avaient été bâtis comme alternatives au Modèle Standard sans faire intervenir de boson scalaire, et se sont trouvés immédiatement disqualifiés. D'autres modèles, comme celui d'une quatrième génération de quarks et de leptons, pouvaient s'accommoder des mesures déjà effectuées à condition que tous les bosons H soient très massifs (de l'ordre du TeV), une possibilité mise à mal par les résultats du LHC.

© Jullien Serreau


En attendant...

© ATLAS and CMS

Mais les mesures effectuées sur le boson H peuvent être exploitées de manière plus quantitative. Dans le Modèle Standard, il existe des liens entre la masse du boson H et ses interactions avec les autres particules. Il est ainsi possible de prédire la probabilité de produire le boson H et de le voir se désintégrer par différents canaux en fonction des masses des différentes particules en jeu. Les incertitudes sur ces résultats sont encore assez substantielles, mais on voit déjà un bon accord entre les différentes mesures. En particulier, on a déterminé quelle place elles laissent à de possibles interactions entre le boson H et d’éventuelles nouvelles particules. L'espace disponible se restreint rapidement...

La comparaison entre différents canaux de désintégration du boson H selon les expériences ATLAS et CMS. À chaque fois, on compare la mesure par rapport aux attentes du Modèle Standard : la valeur 1 correspond à un parfait accord. Sur la figure de gauche, la bande verte représente à chaque fois la mesure, tandis que les trois lignes colorées représentent les différents types d'incertitudes. Sur la figure de droite, chaque barre rouge représente une mesure avec son incertiude, tandis que la bande verte correspond à une moyenne de l'ensemble des résultats. Dans les deux cas, on voit que l'ensemble des mesures est compatible avec le Modèle Standard, aux incertitudes expérimentales et théoriques près.

Recherche particule désespérement

page 104

Comme nous l'avons vu, il existe deux manières d'approcher le problème de la Nouvelle Physique, et cette complémentarité se retrouve parmi les expériences du LHC. Deux d'entre elles, ATLAS et CMS, sont particulièrement adaptées pour la recherche directe de nouvelles particules,

ÉLÉMENTAÍRE


© Patrick Roudeau

la Nouvelle Physique susceptibles d'apparaître dans un grand nombre de canaux de désintégration différents. Selon les cas, il est plus ou moins facile d'identifier les quelques événements de Nouvelle Physique parmi toutes les collisions effectuées au LHC. Cela dépend de la masse de ces nouvelles particules, de leurs affinités avec les particules du Modèle Standard, mais aussi de la ressemblance entre les canaux de désintégration de ces nouvelles particules avec des processus du Modèle Standard.

LQ1(ej) x2 LQ1(ej)+LQ1(νj) LQ2(μj) x2 LQ2(μj)+LQ2(νj) LQ3(νb) x2 LQ3(τb) x2 LQ3(τt) x2 LQ3(vt) x2 Single LQ1 (λ=1) Single LQ2 (λ=1)

gluino(3j) x2 1

2

3

4

TeV

RS Gravitons

RS1(jj), k=0.1

ADD (j+MET), nED=4, MD

RS1(γγ), k=0.1

ADD (ee,μμ), nED=4, MS

0

1

2

3

4

CMS Preliminary SSM Z'(jj)

3

TeV

4

Large Extra Dimensions

ADD (jj), nED=4, MS QBH, nED=6, MD=4 TeV NR BH, nED=6, MD=4 TeV QBH (jj), nED=4, MD=4 TeV Jet Extinction Scale String Scale (jj)

SSM Z'(bb)

0

SSM Z'(ee)+Z'(µµ) SSM W'(jj)

1

2

3

4

5

6

7

8

9

10

TeV

dijets, Λ+ LL/RR

SSM W'(lv) 0

1

2

3

4

5

TeV

dijets, Λ- LL/RR dimuons, Λ+ LLIM dimuons, Λ- LLIM

Excited Fermions

e* (M=Λ) μ* (M=Λ) q* (qg) q* (qγ) b*

dielectrons, Λ+ LLIM dielectrons, Λ- LLIM single e, Λ HnCM single μ, Λ HnCM

0

2

ADD (γγ), nED=4, MS

TeV

Heavy Gauge Bosons

SSM Z'(ττ)

1

ADD (γ+MET), nED=4, MD

RS1(ee,μμ), k=0.1

1

2

3

4

5

6

Compositeness

inclusive jets, Λ+ TeV

inclusive jets, ΛTeV 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

CMS Exotica Physics Group Summary – LHCP, 2016

Les bornes sur l'échelle de Nouvelle Physique pour différents types de modèles (hors supersymétrie), selon les expériences CMS (en haut) et ATLAS (en bas). Chaque bande indique la limite inférieure sur la masse des particules associées à un type spécifique de signal de Nouvelle Physique. Ainsi, le premier modèle d'interactions de contact considéré par ATLAS (graphique du bas, première bande verte depuis le haut) est compatible avec les mesures expérimentales seulement si son échelle est supérieure à 8 TeV.

page 105

Parmi les processus les plus convoités se trouve la désintégration du méson Bs – (état lié b s) en un muon et un anti-muon. Ce type de transition change la saveur, puisqu'on part d'un méson contenant deux quarks de types (saveurs) différents, pour arriver à un état sans quark,

ÉLÉMENTAÍRE

0

© ATLAS

A contrario, l'expérience LHCb se focalise sur des processus de plus basse énergie pour identifier des déviations par rapport aux attentes du Modèle Standard. Il s’agit de processus rares faisant intervenir le quark b. Ce choix n'est pas le fruit du hasard : des processus fréquents dans le cadre du Modèle Standard (l'arbre) ne seront que peu affectés par des contributions de Nouvelle Physique (la forêt cachée derrière !). Inversement, des processus rares dans le cadre du Modèle Standard peuvent être fortement affectés par des contributions de Nouvelle Physique.

coloron(4j) x2 gluino(jjb) x2

0

Voilà qui explique pourquoi l'absence de signal clair observé au LHC ne se traduit pas par des contraintes identiques pour tous les modèles de Nouvelle Physique. Si les particules parviennent à se dissimuler dans des canaux mal compris sur le plan du Modèle Standard, on parvient péniblement à exclure des particules en-dessous d'une fraction de TeV, tandis que les canaux les plus facilement identifiables parviennent à atteindre des échelles de la dizaine de TeV.

Multijet Resonances

coloron(jj) x2

Leptoquarks


© LHCb

En attendant la Nouvelle Physique et combinant un muon et un antimuon, donc sans saveur... Dans le cadre du Modèle Standard, ce type de transitions est très rare: sur un million de désintégrations du méson Bs, entre trois et quatre (en moyenne) se produiront en émettant un paire de muons. En revanche, il pouvait être très fortement augmenté dans différentes extensions. En particulier, certains modèles supersymétriques prédisaient des probabilités 100 voire 1 000 fois plus grandes pour ce processus. Mais les observations effectuées par LHCb (et CMS) montrent que cette désintégration se produit avec une fréquence en bon accord avec l'ordre de grandeur attendu dans le cadre du Modèle Standard, ce qui a permis d’exclure les modèles en question.

Cela signifie-t-il que Bs → μ+μ– a tué toute possibilité de Nouvelle Physique ? Pas vraiment. De nombreux modèles ne prévoient qu'une modification modeste de la probabilité Bs → μ+μ– vu par LHCb : il s'agit d'identifier, parmi tous les de cette désintégration, et la prédiction théorique tout événements enregistrés par LHCb, des collisions produisant deux comme la mesure expérimentale sont encore entachées de muons de signes opposés et de déterminer la masse de la particule suffisamment d'incertitudes pour qu'une telle contribution dont ils pourraient être issus. Un pic apparaît pour la masse du méson Bs (en tirets rouges) permettant de mesurer la probabilité restreinte de Nouvelle Physique reste envisageable. Mais là pour ce méson de se désintégrer en deux muons. On voit un encore, les possibilités se réduisent à mesure que la précision deuxième pic (en vert) correspondant au processus Bd → μ+μ–, des mesures augmente... LHCb s'intéressera à un processus plus rare et plus difficile à identifier avec la quantité de données très similaire, la désintégration Bd → μ+μ– (où le quark déjà accumulées. étrange est remplacé par un quark down dans le méson initial). Ce processus est légèrement plus rare que le précédent et exige d'avoir accumulé plus de données pour obtenir une mesure précise. On peut également regarder d'autres désintégrations faisant intervenir les mêmes quarks « habillés » de façon différente, comme B → K* m+m– ou Bs  → fm+m-. Les dernières mesures de LHCb indiquent des déviations intrigantes par rapport au Modèle – Standard pour ces processus... Diagrammes décrivant la désintégration Bs → μ+μ– dans le cas du Modèle Standard (à gauche) et – dans un modèle supersymétrique (à droite). Chacun part des constituants du méson Bs , envisageant de quoi susciter une curiosité différents états intermédiaires pour aboutir à une paire muon-antimuon. Ces diagrammes croissante des théoriciens et des nécessitent un grand nombre de particules virtuelles intermédiaires lourdes, que ce soit dans expérimentateurs ! le cas du Modèle Standard (bosons faibles W et Z, quark top) ou dans celui de contributions

supersymétriques lourds~H0 et A0, charginos χ superpartenaires des bosons W, Z et du ~ (bosons ~ photon, squark d et t ou sleptons l superpartenaires des quarks et des leptons).

page 106

Que nous dira le Run 2 du LHC, avec une énergie disponible deux fois plus importante ? Commenceronsnous à voir des indications de la physique au-delà du Modèle Standard, que ce soit sous la forme de nouvelles particules ou de déviations importantes par rapport à nos attentes ? En tout état de cause, les théoriciens attendent avec autant d'intérêt que les expérimentateurs les prochains résultats du LHC !

ÉLÉMENTAÍRE


La question qui tue ! D'où vient la masse... C’est un des grands acquis de la physique du XXe siècle : les propriétés des particules élémentaires et de leurs interactions sont, dans une large mesure, déterminées par des symétries sous-jacentes, tantôt manifestes et facilement identifiables dans la Nature, tantôt camouflées au point d’être méconnaissables. Qu’est-ce qu’une symétrie ? C’est une opération qui ne change pas les lois de la physique. Ces lois sont les mêmes à Milan et à Sidney : c’est la symétrie de translation. Un autre exemple, plus abstrait car ne correspondant pas à une opération réalisable en pratique : certaines des lois fondamentales de la physique sont invariantes par renversement du sens du temps.

DR

Les symétries – on parle aussi d’invariances – sont légion en physique, aux noms divers et variés : symétrie de rotation, de conjugaison de charge, La symétrie de réflexion par rapport à un axe de parité, d’isospin, symétrie chirale, etc. Elles sont un outil puissant pour donné, un exemple de symétrie parmi d'autres. le théoricien car elles permettent de classifier les théories pertinentes ou encore de mettre en relation des observations ou des phénomènes en apparence très différents. Par exemple, la longue portée des interactions électromagnétiques et la conservation de la charge électrique sont des conséquences d’une même symétrie. © Patrick Roudeau

Les symétries contraignent les lois physiques et leur expression mathématique. Il s’ensuit que certaines propriétés des particules élémentaires et de leurs interactions peuvent s’interpréter comme des conséquences directes de symétries sous-jacentes. L’exemple de l’électromagnétisme évoqué ci-dessus est typique : la symétrie dont il est question – qui répond au doux nom d’« invariance de jauge U(1) » – impose que le photon ait une masse strictement nulle. En effet, ajouter, dans les équations, un terme décrivant la masse d'un photon contrevient à cette symétrie.

Mais il est un autre mode d’action, plus subtil, des symétries sur les phénomènes physiques : il arrive que les équations décrivant certains phénomènes possèdent une symétrie donnée mais que © Julien Serreau les solutions de ces équations ne respectent pas cette même symétrie. Pour illustrer cette idée, imaginons un clou que l’on maintient à la verticale, la pointe posée sur une table horizontale et que l’on s’apprête à lâcher. Les lois de la physique – les équations – qui décrivent la chute du clou sont invariantes par rotation autour de son axe : elles ne dépendent pas de la direction dans lequel il tombera. Mais le clou tombe spontanément Dans l'état initial, à gauche, le clou est en équilibre instable et toutes les directions de chute sont également possibles : le système est invariant dans une direction donnée. La solution des équations – par rotation autour de l'axe du clou. Dans l'état final, à droite, le le clou qui tombe – n’est donc pas invariante sous ces clou est tombé dans une direction donnée (déterminée par les détails rotations. On parle d’une « brisure spontanée » de la microscopiques du système) et la symétrie de rotation est spontanément symétrie en question. brisée. Cette symétrie n’est plus explicitement apparente mais elle est

ÉLÉMENTAÍRE

toujours présente : elle garantit que toutes les autres directions de chute du clou (en pointillé) sont autant d’états finaux possibles, également probables et physiquement indiscernables (du point de vue du système qu'est le clou). page 107

Dans un tel cas, la symétrie des lois physiques n’est pas directement apparente dans les observations ; elle est camouflée. Cependant le phénomène de brisure spontanée de symétrie a des signatures bien précises, qui permettent de le mettre en lumière.


D'où vient la masse... À en perdre le nord ! L’exemple emblématique d'une brisure spontanée de symétrie est fourni par le ferromagnétisme, responsable de l’aimantation permanente des aiguilles des boussoles. Les atomes des systèmes magnétiques ont chacun un moment magnétique propre et sont comme des aimants élémentaires. Les lois physiques décrivant leurs interactions mutuelles restent les mêmes si on change les orientations de tous les aimants élémentaires de la même manière. Elles sont donc symétriques sous les rotations dites « globales », c’est-à-dire qui affectent tous les atomes du système de la même manière. À haute température, les différents aimants élémentaires ont des orientations aléatoires d’où il résulte que le système dans son ensemble a une aimantation moyenne nulle. Il en va tout autrement dans un système ferromagnétique en dessous de sa température de Curie (TC). La tendance naturelle qu’ont les moments magnétiques atomiques à s’aligner les uns avec les autres l’emporte sur l’agitation thermique qui tend à les désorienter. Il en résulte une aimantation moyenne macroscopique à l’échelle du système dans son ensemble : on a un aimant permanent.

Température de Curie (TC)

À basse température, un système ferromagnétique est dans une phase où la symétrie de rotation est spontanément brisée, les moments magnétiques individuels des atomes étant alignés les uns avec les autres, car cette configuration est préférée énergétiquement. Lorsqu’on chauffe un tel matériau, l'apport d'énergie thermique tend à désorienter aléatoirement ces aimants. Au-dessus d’une température critique, dite température de Curie, le désordre l'emporte et l'aimantation moyenne s'annule. Le système devient paramagnétique, c’est-à-dire qu’il peut être aimanté si on aligne de force les moments magnétiques individuels en appliquant un champ magnétique, mais qu’il ne présente aucune aimantation spontanée en l’absence d’un tel champ. Par exemple, la température de Curie du fer est de 1043 K, celle du nickel est de 627 K.

Mais cette aimantation définit une orientation donnée dans l’espace, choisie « spontanément » par le système alors qu’aucune direction n’était a priori privilégiée par les lois microscopiques sous-jacentes. Un corps ferromagnétique n’est donc pas invariant sous toutes les rotations ; il n’a pas le même degré de symétrie que les lois qui gouvernent sa dynamique. La symétrie de rotation globale est spontanément brisée.

© Élémentaire

Spontanément Le choix spontané de la direction de l'aimantation dans un système ferromagnétique n'est, en pratique, pas le fruit du hasard. Il est déterminé par les détails microscopiques de l'échantillon considéré, comme la présence de défauts ou d’impuretés. À strictement parler, la symétrie de rotation dont il est question dans le texte n'est qu’approximative. Elle est explicitement brisée par ces détails fins. Dans le cadre d’une description effective, comme celle décrite dans le texte, on néglige ces infimes corrections qui n'ont d’autre effet que de sélectionner une direction privilégiée dans l'espace mais qui n'affectent aucunement les caractéristiques générales du phénomène de brisure spontanée de symétrie.

page 108

Le régime amincissant des docteurs Nambu et Goldstone Qu’est ce que tout cela a à voir avec la question des masses des particules ? Un théorème dû à Y. Nambu et J. Goldstone stipule qu’une conséquence inévitable de la brisure spontanée d’une symétrie globale continue est l’existence d’une particule de masse nulle. Traduisons ce patois. Une

ÉLÉMENTAÍRE


des particules élémentaires ? symétrie est dite « globale » si elle est la même en tous les points d’espace et de temps. C’est, par exemple, le cas de la symétrie de rotation dans les matériaux ferromagnétiques, qui change les orientations de tous les moments magnétiques élémentaires de la même manière. Par opposition, on parle de symétrie « locale » quand il s’agit d’une transformation qui n’affecte pas tous les points d’espace (et de temps) de la même manière. L’adjectif « continu » quant à lui caractérise des transformations que l’on peut effectuer de proche en proche, de manière infinitésimale. C’est le cas d’une rotation mais ce n’est pas le cas du renversement du temps, pour lequel c’est tout ou rien. On parle alors d’une transformation ou d’une symétrie « discrète ». On peut comprendre l’essence du théorème de Nambu et Goldstone par des considérations énergétiques. Prenons l’exemple du matériau ferromagnétique décrit plus haut et supposons que l’énergie totale de celui-ci soit uniquement fonction de son aimantation moyenne. La symétrie de rotation nous indique que l’énergie ne dépend pas de l’orientation de l’aimantation dans l’espace. Au contraire, changer la valeur de l’aimantation a un coût énergétique non nul. Par exemple, on sait que l’état d’aimantation nulle n’est pas favorisé énergétiquement puisque le système, à suffisamment basse température, est aimanté.

Le point remarquable ici est qu’une bise aussi infime soit-elle suffise à produire un état excité du champ d’aimantation. Ceci est une particularité de l’état de symétrie brisée, où l’état fondamental correspond aux épis alignés les uns avec les autres. En effet, dans l’état non aimanté, par exemple à haute température, l’état fondamental correspond au cas où les épis sont complètement désalignés et les configurations du champ où les épis sont presque tous alignés les uns avec les autres ne sont possibles qu’au prix d’un grand apport en énergie (pour aligner les épis). Le lien avec la masse des particules ? Il trouve son origine dans la nature à la fois quantique et relativiste du monde

ÉLÉMENTAÍRE

Yochiro Nambu

Jeffrey Goldstone

© Julien Serreau

Dans les trois premiers exemples, on modifie l'orientation des moments magnétiques à partir de l'état fondamental dans la phase basse température, où ils sont tous alignés les uns avec les autres. Dans le premier cas, on tourne tous les aimants de la même manière. L'invariance par rotation garantit que l'état obtenu est physiquement équivalent au premier. Le coût énergétique (représenté par le thermomètre à droite) est donc nul. Dans le second cas, on change légèrement les orientations relatives des aimants élémentaires. Ceci n'est pas une symétrie et a donc un coût énergétique. Ce coût est d'autant plus faible que la désorientation relative des aimants est faible. Au contraire, changer l’orientation d’un seul aimant de manière significative, comme dans le troisième exemple a un coût énergétique conséquent. Enfin, dans le quatrième exemple, on montre que si l'on cherche à réaliser la même configuration que dans le deuxième cas à partir de la phase de haute température, il faut changer de manière significative l'orientation d’un grand nombre d’aimants élémentaires. Le coût énergétique est grand. page 109

Considérons maintenant l’ensemble des aimantations élémentaires des atomes qui, tels des épis de blé dans un décor champêtre estival sont, soit bien alignés les uns avec les autres par temps calme, soit orientés de façon complètement aléatoire quand souffle la tempête. Dans le cas du ferromagnétisme, on parle du « champ » d’aimantation. Dans l’état d’énergie minimale, c’est le calme plat : tous les « épis magnétiques » sont alignés les uns avec les autres. Quels sont les états excités (d’énergie non minimale) possibles du système ? Une douce bise sur notre champ, si douce soit-elle, désaligne légèrement certains épis par rapport aux autres, ce qui produit une configuration du champ d’énergie légèrement plus élevée que dans l’état fondamental (calme plat). Quand la bise se calme, on revient à l’état fondamental, d’énergie minimale.

DR

DR


D'où vient la masse... © Julien Serreau

subatomique. De même que les photons sont les excitations élémentaires du champ électromagnétique, toutes les particules élémentaires peuvent être vues comme les excitations de différents types de champs. Ainsi il existe un champ associé aux gluons, un champ associé aux électrons, etc. À l’inverse, à tout champ (quantique) est associée une particule de propriétés (masse, spin, etc.) en relation directe avec celles du champ. En particulier, la masse est directement proportionnelle à l’énergie minimale nécessaire pour produire une variation spatio-temporelle – une onde – du champ associé. Dans l’exemple ci-dessus un apport d’énergie (la douce bise d’été) aussi infime soit-il suffit à produire un état excité. La masse de la particule correspondante est donc nulle.

Particule, champ, masse En physique quantique, à toute particule est associée une onde d’un certain type. Par exemple, les ondes électromagnétiques, associées aux photons, décrivent les variations spatio-temporelles du champ électromagnétique. Contrairement aux ondes classiques, comme les vagues sur la mer, les ondes quantiques ont une amplitude (la hauteur des vagues) qui ne peut prendre que certaines valeurs bien précises, déterminées par les lois de la physique quantique. Le photon n'est autre que le quantum élémentaire des ondes de champ électromagnétique.

La soutenable légèreté des pions L’exemple le plus important de ce phénomène en physique des particules concerne le monde des hadrons, particules sensibles aux interactions fortes. Les pions π0, π+ et π– y tiennent une place particulière en ce qu’ils sont considérablement plus légers (mπ ~ 140 MeV/c2) que tous les autres (mhadron ~ 1 000 MeV/c2). En première approximation, on peut les considérer comme étant de masse nulle, ce qui s’explique par un phénomène de brisure spontanée de symétrie. – Les pions sont différents états liés de quarks u ou d et d’antiquarks u– et d – (par exemple, le π+ est un état u-d ). Comme tous les fermions, les quarks u et d, les plus légers, peuvent exister sous deux formes que l’on nomme « gauche » et « droite ». Si on néglige la faible masse de ces quarks, ces deux composantes sont totalement indépendantes l’une de l’autre : on peut chatouiller la première sans réveiller la seconde. C’est la symétrie « chirale », du mot grec signifiant « la main ». Spontanément brisée, elle implique l’existence de particules de masses nulles. Si l’on prend en compte maintenant les faibles masses des quarks u et d (dues au mécanisme de Brout, Englert et Higgs, décrit plus bas), la symétrie chirale n’est plus qu’approximative et, de sa brisure spontanée, résulte des « quasi-bosons » de Nambu-Goldstone qui, s’ils n’ont pas une masse exactement nulle, sont très légers en comparaison des autres hadrons.

De manière similaire, toute particule peut être vue comme le quantum des variations spatio-temporelles – des ondes – d’un certain champ. Il existe un champ correspondant aux électrons, un autre pour les neutrinos, les quarks, les gluons, etc. Comme pour tout système quantique, les niveaux d’énergie possibles d’un champ sont quantifiés : il faut un apport d’énergie minimal pour passer d’une valeur constante dans tout l'espace et pour tout temps (état fondamental) au premier état excité, qui correspond à un quantum élémentaire, c’est-à-dire à une particule. Cet apport minimal vaut mc2, où m est la masse de la particule associée et c est la vitesse de la lumière dans le vide. Pour des particules de masse nulle, un apport infinitésimal d'énergie suffit à exciter le système.

Et voilà ! C’est tout ? Tout ça pour expliquer la faible masse des pions au regards de leurs amis protons, neutrons et autres hadrons ? Non, rassurezvous. Ceci n’était qu’une mise en bouche. Le phénomène de brisure spontanée de symétrie nous réserve de bien plus importantes surprises si on considère le cas des symétries locales.

Localitude…

page 110

Si vous avez aimé l’épisode précédent, respirez un grand coup et éloignez les enfants car le prochain décoiffe. En effet, si la brisure spontanée d’une symétrie (continue) globale implique l’existence de particules de masses nulles, là où rien n’interdisait a priori une masse quelconque, la brisure d’une symétrie locale permet, elle, des masses non-nulles là où la même

ÉLÉMENTAÍRE


des particules élémentaires ? symétrie non-brisée eut forcé toutes les masses à être nulles. Et toc ! Commençons par le commencement… Le Modèle Standard des particules et des interactions élémentaires est fondé sur un ensemble de symétries locales, que l’on appelle encore symétries de « jauge ». Une conséquence remarquable de ce type de symétrie est l’existence de particules de masse nulle véhiculant les interactions, appelés bosons vecteurs, ou bosons de jauge, dont le photon est l’exemple emblématique. Mais attention, les bosons de jauge ne sont pas des bosons de Nambu-Goldstone. Ils sont de nature totalement différente. Pour comprendre leur origine, reprenons notre exemple du champ d’aimantation et imaginons que la symétrie de rotation soit maintenant locale, et dépende donc du point considéré : changer les orientations individuelles des épis magnétiques n’a, dans ce cas, aucune influence sur les propriétés physique du système. La notion d’orientation dans l’espace n’a donc plus de caractère absolu : le fait qu’un épi pointe vers le « haut » tandis que son voisin pointe vers la « gauche » ne signifie nullement qu’ils ne sont pas alignés mais simplement que les repères qui définissent le « haut » et la « gauche » sont différents pour ces deux épis. La symétrie locale (de jauge) nous dit que ceci est pure affaire de convention : on peut choisir des repères différents (on parle de « jauges ») pour chaque épi sans que cela n’ait aucune conséquence physique.

Symétrie locale, champ de jauge et bosons de jauge Une transformation « globale » affecte un système donné de la même manière en tous points et en tous temps. À l’inverse, une transformation « locale » peut être différente d’un point à l’autre et d’un temps à l’autre. Imaginons que chaque commune adopte une heure différente, comme cela a pu être le cas avant l’homogénéisation des heures sur le territoire national. Un système possède une symétrie locale si une telle transformation ne change pas les lois qui gouvernent son évolution. Le paradigme est donné par l’interaction électromagnétique entre particules chargées. L'état d’une telle particule peut être caractérisé, entre autres, par un vecteur dans un espace abstrait à deux dimensions (on parle de la « phase »). Les lois de l'électrodynamique sont inchangées si on change l'orientation de ce vecteur de façon différente en différents points d’espace et de temps. Cette symétrie locale porte le nom technique « d’invariance de jauge U(1) ». Dans toute théorie ayant une symétrie locale, il est nécessaire d’introduire un « agent » qui collecte l’information sur les différents choix de repères en chaque point d'espacetemps : c'est le champ de jauge, ou connexion. Dans notre exemple ci-dessus, l’annuaire des horaires de trains avant l’homogénéisation nationale des horaires jouait ce rôle. En physique quantique relativiste, les excitations du champ de jauge sont associées à des particules de masse nulle. Ce sont les photons pour l'électrodynamique.

Mais une fois un choix de repère effectué pour chaque épi, comment décider si deux d’entre eux sont vraiment alignés, pointant par exemple vers leurs « hauts » respectifs ? Il faut pour cela un agent qui accorde les jauges, c’est-à-dire qui connecte les informations sur les orientations relatives des repères en chaque épi. On l’appelle le « champ de connexion » ou encore « champ de jauge ». Si on suppose que la physique est locale, cet agent véhicule l’information d’un épi vers ses plus proches voisins et ainsi de suite, de proche en proche.

ÉLÉMENTAÍRE

Dans le cas d’une symétrie de rotation locale, on peut modifier les orientations individuelles des moments magnétiques sans changer l'énergie. La configuration 1, où les moments magnétiques sont de même taille mais orientés aléatoirement, est équivalente à une configuration où tous les moments magnétiques sont alignés les uns aux autres et ne coûte aucune énergie. Dans la configuration 2, on a aussi modifié les valeurs des moments magnétiques (la taille, ou « norme » des vecteurs). Ceci ne correspond à aucune symétrie et ne peut pas être compensé par un simple changement d'orientation des moments. Le coût énergétique de cette configuration est non nul.

page 111

Tout changement des orientations individuelles des épis revient à choisir différemment les repères locaux et peut être intégralement compensé par une modification appropriée du champ de jauge. Par hypothèse, un tel changement ne peut avoir aucune conséquence physique. Il s’ensuit que de tels changements de la configuration du champ de jauge n’affectent pas l’énergie du système. On en conclut, en appliquant le même raisonnement que dans l’exemple des bosons de NambuGoldstone, que les excitations (les ondes) du champ de jauge correspondent à des particules de masse nulle. Les photons et les gluons sont des exemples de ce type de particules nommées « bosons de jauge ».

© Julien Serreau


D'où vient la masse... La masse nulle des photons est à l’origine du fait que, dans le vide, les ondes lumineuses se déplacent toujours à la vitesse maximale permise par la théorie de la relativité restreinte ou encore du fait que l’interaction électromagnétique entre particules chargées soit de longue portée. Ces deux observations, a priori différentes, ont donc pour origine commune la symétrie de jauge des interactions électromagnétiques. En fait, les symétries de jauge n’impliquent pas seulement une masse nulle pour les bosons de jauge, mais elles contraignent fortement leurs interactions – aussi bien mutuelles qu’avec les autres particules comme les quarks ou les leptons – et elles garantissent la cohérence mathématique de la théorie. Elles sont donc un ingrédient crucial de l’édifice théorique du Modèle Standard.

Vitesse maximale La vitesse de déplacement v d’une particule relativiste de masse m et d’énergie E est donnée par la formule

où c est une vitesse limite indépassable. La vitesse v est nulle quand E = mc2 (particule au repos) et est d’autant plus proche de la vitesse limite c que E est grande. La vitesse d’une particule de masse nulle comme le photon ne dépend pas de son énergie et est toujours égale à la vitesse limite : v = c. C’est pourquoi c coïncide avec la vitesse de la lumière dans le vide, soit 299 792 458 m/s.

Le hic c’est que la courte portée des interactions faibles entre quarks et leptons montre que les bosons vecteurs correspondants, les W et le Z, sont massifs. Il serait facile d’inclure cette masse dans la théorie en renonçant à la symétrie de jauge associée, mais au prix de perdre la cohérence mathématique ! Il faut donc trouver le moyen de rendre ces bosons massifs sans toutefois affecter la symétrie de jauge des lois sous-jacentes. Voilà qui a tout l’air d’une brisure spontanée...

Longue portée En première approximation, l’interaction électromagnétique entre particules chargées peut être décrite comme l'échange d’un photon, le boson de jauge associé à cette interaction. La portée de l’interaction est alors inversement proportionnelle à la masse de la particule échangée. Le photon étant de masse nulle, l’interaction est de longue portée, en principe infinie, mais écrantée en pratique par la matière environnante.

Brout, Englert, Higgs : prendre du poids de manière efficace Continuons avec notre analogie champêtro-magnétique et considérons la brisure spontanée de la symétrie de rotation locale décrite ci-dessus. Comme dans le système ferromagnétique de la section précédente, dans la phase de symétrie brisée, nos épis sont tous alignés les uns avec les autres. Dans le cas présent, où la symétrie de rotation est locale, le qualificatif « alignés » n’a de sens que pour un choix donné des repères associés à chaque épi ou, de façon équivalente, pour une configuration particulière du champ de jauge.

Les interactions fortes, elles, sont de courte portée malgré le fait que le gluon soit, comme le photon, de masse nulle. Ceci tient à la nature fondamentalement différente des interactions électromagnétiques et fortes. En particulier, l’interaction forte entre hadrons ne peut pas être décrite, même approximativement, par l'échange d’un seul gluon.

Que devient le boson de Nambu-Goldstone dans ce cas ? Autrement dit, que se passe-t-il si notre légère bise d’été vient désaligner quelques épis par rapport aux autres ? Eh bien, du fait de la symétrie de jauge, ce type d’ondes du champ d’aimantation peut être intégralement compensé par une réorganisation du champ de jauge, c’est-à-dire par une redéfinition des repères associés à chaque épi. Il n’y a donc pas de boson de NambuGoldstone.

Quid des interactions faibles ? Il s'avère que celles-ci sont bien décrites par l'échange des bosons vecteurs correspondant, les W et le Z. La très courte portée de ces interactions amène à conclure que ces particules ont des masses de l’ordre de la centaine de GeV.

page 112

Cependant, si le coût énergétique de cette réorganisation du champ de jauge est indépendant de l’orientation des épis (par symétrie), il est en revanche sensible à leur taille, c’est-à-dire à la valeur des moments magnétiques (la norme des vecteurs associés). En fait, l’énergie d’excitation du champ de jauge – et, avec elle, la masse du boson de jauge – est proportionnelle à la valeur de l’aimantation du système. Dans la situation symétrique, celle-ci est nulle, comme nous l’avons vu plus haut. Mais si la symétrie est spontanément brisée, l’aimantation est non nulle et il s'avère que le boson de jauge devient massif !

ÉLÉMENTAÍRE


des particules élémentaires ? C’est ce phénomène de brisure spontanée d’une partie des symétries de jauge du Modèle Standard – on parle de la brisure de la symétrie électrofaible, imaginé et élaboré par différents physiciens dans les années 1960 et 70, qui permet de rendre compte de la masse des bosons W et Z sans pour autant remettre en question la cohérence mathématique de la théorie. Ce mécanisme a de nombreuses conséquences mesurables qui ont été testée avec grande précision dans les accélérateurs de particules. François Englert et Peter Higgs ont été récompensés par le prix Nobel 2013 pour cette idée. Pourquoi si tard ? Eh bien, pour réaliser cette brisure de symétrie, il faut l’analogue du champ d’aimantation dans notre exemple. Ceci ne correspond à rien de connu dans la Nature. Il a donc fallu supposer l’existence d’un tel champ et de la particule associée à ses excitations, tous deux nommés « de Higgs » par le théoricien S. Weinberg, nom qui est resté à la postérité.

© Julien Serreau

Les physiciens ont cherché cette particule pendant de nombreuses années dans les collisions de particules très énergétiques. Le boson récemment découvert au CERN lui ressemble de très près.

Des masses, des belles masses, il y en aura pour tout le monde ! Les symétries dont la brisure spontanée donne lieu aux masses des bosons W et Z ont des caractéristiques similaires à la symétrie chirale des interactions fortes, discutée plus haut. En particulier elles interdisent non seulement une masse aux bosons de jauge, mais aussi à tous les fermions, notamment aux quarks et aux leptons. En fait la seule masse permise est... celle du boson H. Cependant, quand la symétrie est spontanément brisée, non seulement les bosons de jauge correspondants acquièrent une masse, mais, avec eux, tous les fermions. C’est la raison pour laquelle on lit, et on entend souvent dire, que le mécanisme de Brout, Englert et Higgs permet de comprendre l’origine des masses de toutes les particules connues.

DR

Notons cependant que cette assertion ne concerne que les masses des particules élémentaires. Elle est erronée dans le cas des particules constituées de quarks : les hadrons (pions, protons, neutrons, etc.), dont la masse provient principalement de l’interaction forte entre leurs constituants. Cette distinction n’est pas anodine si on se rappelle que l’essentiel de la masse des objets de notre expérience quotidienne vient des noyaux atomiques, c’est-à-dire, in fine, des protons et des neutrons.

Masses des particules élémentaires (axe vertical logarithmique) classées par famille (1, 2 ou 3 sur l'axe horizontal).

ÉLÉMENTAÍRE

page 113

Enfin, de nombreuses questions concernant les masses des particules restent sans réponse à ce jour, comme les valeurs des masses et les énormes disparités entre les différentes familles de quarks et de leptons. Le mécanisme de Brout, Englert et Higgs permet de rendre compte de l’existence de masses non nulles dans une théorie mathématiquement cohérente mais n’explique pas tout, loin s’en faut. Par exemple, si l’origine de ces masses est aujourd’hui élucidée, le problème de hiérarchie – c’est-à-dire la question de la grande disparité des valeurs des masses des quarks et des leptons – est toujours

Valeurs disparates des masses des quarks et des leptons Les masses des quarks des différentes familles sont très différentes : de l'ordre de la dizaine de MeV/c2 pour les quarks up (u) et down (d) ; dix fois plus pour le quark étrange (s) ; environ 1 GeV/c2 pour le charme (c) et 4 GeV/c2 pour le bottom (b) ; enfin, quelques 170 GeV/c2 pour le quark top (t). Une hiérarchie similaire existe pour les leptons des différentes familles, de quelques meV/c2 pour les neutrinos jusqu'à 1,7 GeV/c2 pour le plus lourd, le tau. L'origine de cette énorme disparité est une question ouverte, connue sous le nom de « problème de hiérarchie ».


D'où vient la masse... d’actualité. Les masses des bosons de jauge et des fermions élémentaires générées par le mécanisme de Brout, Englert et Higgs étant directement proportionnelles à l’intensité de l’interaction entre ces particules et le boson H, la question de la hiérarchie consiste donc à comprendre l’origine des disparités entre les intensités d’interaction respectives correspondantes.

Supraconductivité L’utilité du mécanisme de Brout, Englert et Higgs ne se cantonne pas à la physique des hautes énergies. Il permet, par exemple, de rendre compte de certains aspects du phénomène de supraconductivité, découvert et théorisé des années plus tôt. À très basse température, certains matériaux conducteurs présentent un état où la symétrie de jauge de l'électromagnétisme est spontanément brisée. Le photon est alors effectivement massif au sein du milieu. Il faut donc une énergie non nulle pour y faire pénétrer un champ magnétique. Si on place un tel matériau dans un champ magnétique peu intense, les lignes de champ ne pourront y pénétrer (c’est l'effet Meissner, du nom de son découvreur). L'énergie nécessaire pour expulser le champ magnétique du matériau donne lieu à une force capable de contrer la gravité (pour un échantillon suffisamment léger) et au phénomène spectaculaire de lévitation magnétique.

Au-delà de plus loin… Tout comme la notion de symétrie s’est imposée au XXe siècle comme un élément clé en physique des particules et dans de nombreux domaines de la Physique, le concept de brisure spontanée de symétrie (globale ou locale) a joué un rôle majeur dans la compréhension de nombreux phénomènes, allant du ferromagnétisme à la physique des interactions fortes pour les symétries globales, de la théorie des interactions électrofaibles à la supraconductivité pour les symétries locales. De plus, le phénomène de brisure spontanée de symétrie est un élément essentiel de spéculations théoriques concernant aussi bien l’histoire de l’Univers primordial que la physique au-delà du Modèle Standard, qui ne sont d’ailleurs pas sans lien l’une avec l’autre. Il est probable que les symétries et leurs brisures nous réservent encore bien des surprises…

DR

Lévitation magnétique.

L’univers primordial Comme nous l'avons évoqué plus haut, lorsqu’on chauffe un corps ferromagnétique à suffisamment haute température, l'agitation thermique annule l'aimantation spontanée et la symétrie (globale) de rotation est restaurée. Par analogie, on s'attend à ce qu’à très haute température, la symétrie électrofaible soit, elle aussi, restaurée : les bosons W et Z sont alors de masse strictement nulle ainsi que tous les fermions (quarks et leptons) du Modèle Standard. C’est en effet ce que prévoit la théorie à une température de l'ordre de cent mille milliards de degrés, correspondant à une énergie thermique de 100 GeV, c’est-à-dire à une densité d'énergie de l'ordre de 10 milliards de GeV par fm3 : des conditions difficiles à réaliser en laboratoire (par comparaison la densité d'énergie au sein d’un proton est de l'ordre de 1 GeV par fm3) ! Mais on s'attend à ce que ces températures soient atteintes, et même très largement dépassées, à des époques reculées de l’histoire de l’Univers. Il existait alors une symétrie complète entre les interactions électromagnétiques et faibles, toutes de longue portée, dans un plasma de quarks et de leptons sans masse. À mesure que l’Univers s'est refroidi au cours de son expansion, ce plasma a subi une transition vers un état où la symétrie électrofaible est brisée, donnant lieu au monde des particules élémentaires qui nous est familier. Cette transition est analogue à la liquéfaction de la vapeur d'eau : le « gaz » correspond à la phase symétrique et la transition procède par la formation progressive de « gouttes », où la symétrie est brisée, qui croissent rapidement pour finalement emplir tout l'espace quand la température a suffisamment baissé.

page 114

Au-delà du Modèle Standard Le concept de brisure spontanée de symétrie sous-tend, par exemple, les théories dites de « grande unification », dans lesquelles on imagine que, non seulement les interactions électromagnétique et faible, mais aussi l'interaction forte, ne sont en fait que les diverses facettes d’une interaction plus fondamentale correspondant à un ensemble plus vaste de symétries. La différence observée entre ces interactions à nos échelles d’énergie serait le résultat d’une brisure spontanée.

ÉLÉMENTAÍRE


ICPACKOI ? Physique des particules, médias et internet Commençons cet article en enfonçant une porte ouverte : notre rapport à l’information a considérablement évolué ces dernières années. Avec le développement d’internet, des technologies mobiles et des médias sociaux, les nouvelles sont plus nombreuses, circulent plus vite et touchent de plus en plus de personnes. Aucun domaine n’échappe à cette tendance de fond ; la science fondamentale en général, et les résultats du CERN en particulier, ne font pas exception.

Internet Profitons-en pour rappeler que le « World Wide Web » (W3 ou plus simplement «  web  »), c'est-à-dire le système de navigation de page en page sur internet, a été inventé à la fin des années 1980 au CERN par Tim Berners-Lee, pour permettre un partage rapide et efficace de documents entre scientifiques – une idée ancienne et naturelle au sein de notre communauté.

Les expériences du LHC sont ainsi parmi les premières collaborations à avoir intégré à leurs organisations des équipes mixtes, composées de physiciens, de spécialistes en vulgarisation et de « communicants » qui diffusent les résultats scientifiques en direction du grand public. Elles sont présentes sur tous les grands réseaux sociaux d’internet, animent des blogs et proposent des interactions directes avec des chercheurs via des vidéoconférences régulières. Le CERN, ainsi que tous les grands laboratoires du domaine, ne sont pas en reste : chacun a son équipe, chargée d’annoncer et de mettre en valeur les nouveaux résultats scientifiques et les avancées technologiques qui permettront de réaliser les prochaines expériences. À cet égard, l’annonce, le 4 juillet 2012, de la découverte d’un nouveau boson massif – devenu au printemps 2013 « un » boson H et qui est à l’origine de l’attribution du prix Nobel de physique 2013 à François Englert et Peter Higgs – a marqué un tournant. En effet, à la couverture journalistique classique (presse, radio et télévision) est venue s’ajouter une diffusion via les médias sociaux. Par exemple, plus de cinq millions de personnes ont ainsi reçu (directement ou indirectement) le « gazouillis » (traduction française littérale du mot anglais « tweet ») envoyé par la collaboration CMS pour annoncer cet événement. Tandis que 65 000 internautes ont téléchargé le communiqué de presse associé, repris par des journalistes dans 6 600 articles de presse. Le compte Twitter® du CERN en anglais a près d’un million et demi de suiveurs … dont des artistes de variétés comme will.i.am !

will.i.a.m, le chanteur des Black Eyed Peas, "tweette" sur le CERN

page 115

Une traduction du message de gauche pourrait être la suivante : « Joyeux 4 juillet [jour de la fête nationale des Etats-Unis, ndt] pour tous les Américains… et joyeux jour de la particule de dieu à tous les fans de science… Bravos à tous les scientifiques du CERN ». L'expression « particule de dieu » pour désigner le boson H a fait son chemin dans les médias et le grand public bien que science et religion soient deux domaines complètement séparés. C'est le titre d’un livre de Leon Lederman, prix Nobel de physique 1988 pour avoir co-découvert le neutrino muonique. Pour la petite histoire (probablement un peu romancée), L. Lederman écrit dans son livre qu'il aurait aimé l'intituler « The goddam particle » (qu'on pourrait traduire en français par « La sacrée particule ») mais que c'est son éditeur qui a préféré « The god particle » (« La particule de dieu ») pour titre. Quant au message de droite, il est plus classique : « Après avoir visité le CERN je me suis demandé pourquoi nous [les Américains] n'avions pas de machine comme le LHC. En fait nous en avons eu une : le Tevatron à Fermilab [près de Chicago]. » Une dernière remarque qui n'est pas tout à fait juste puisque le LHC a précisément permis de découvrir le boson H qui avait échappé à tous les accélérateurs qui l'ont précédé – car ces machines n'avaient pas suffisamment d'énergie pour le produire. Mais c'est difficile d'être complet et précis en 140 caractères !

ÉLÉMENTAÍRE


© Montage Nikola Makovec

Physique des particules, médias et internet

© Patrick Roudeau

Exemples de la couverture par les médias traditionnels de la découverte du boson H au LHC en 2012. Visites virtuelles

© ATLAS

Ce sont des vidéoconférences organisées sur internet et qui permettent de « visiter » un lieu via son ordinateur tout en interagissant avec un ou plusieurs « guides » puisque la visite est en direct.

Les « visites virtuelles » sont un autre exemple des possibilités offertes par les nouveaux médias. ATLAS en propose depuis 2010 – en direction des « sept continents » puisqu’une connexion avec la base Amundsen-Scott, située en Antarctique (le point rouge visible tout en bas de la carte de gauche), a même été organisée. Ainsi, des classes ou des groupes d’amateurs qui n’auraient jamais eu l’occasion de visiter le CERN autrement peuvent « se promener » dans la salle de contrôle ATLAS et échanger dans leur langue maternelle avec des scientifiques. CMS fait également preuve de créativité dans ce domaine avec des visites guidées de la caverne contenant le détecteur : un ordinateur associé à une webcam (voire un simple smartphone) et une connexion wifi suffisent aujourd’hui pour organiser de tels événements, inimaginables il y a encore quelques années.

page 116

Les lycéens ne sont pas oubliés dans cette évolution. Le programme « Masterclasses internationales » a permis cette année – pour sa douzième édition – à plus de 13 000 lycéens de 46 pays de visiter près de 200 Origines des participants aux visites virtuelles organisées entre 2010 et avril 2014 par l'expérience laboratoires et de devenir, l’espace ATLAS. A gauche : une carte du monde entier ; à droite : un zoom sur l’Europe. d’une journée, des «  apprentis chercheurs » qui analysent de vraies données enregistrées par l’une des quatre expériences principales du LHC : ALICE, ATLAS, CMS et LHCb.

ÉLÉMENTAÍRE


Physique des particules, médias et internet © ATLAS/CERN

En règle générale, il est impossible d'accéder à l'endroit où un détecteur de physique des hautes énergies est installé, a fortiori quand il s'agit, comme au LHC, d'une caverne située à une centaine de mètres sous terre. En plus des « dangers visibles », similaires à ceux qu'on peut rencontrer sur un chantier, les puissants champs magnétiques utilisés pour mesurer les caractéristiques des particules produites lors des collisions et la radioactivité associée aux faisceaux de particules sont autant de « dangers invisibles » dont il faut se protéger. Ainsi, une visite guidée d’une caverne, réelle ou virtuelle, ne peut avoir lieu que si le détecteur est éteint, la circulation des faisceaux interrompue et la radioactivité résiduelle dissipée. Il faut suivre de nombreuses formations de sécurité (régulièrement renouvelées) pour travailler sur un détecteur et toute personne au contact d’un accélérateur de particules porte en permanence sur elle un dosimètre qui enregistre la dose de radioactivité reçue au cours du temps. La réglementation est drastique : la dose maximale permise est une faible fraction de la radioactivité naturelle à laquelle nous sommes tous exposés en permanence.

Présentation du détecteur ATLAS lors d’une visite virtuelle.

© Noemie Beni/CERN

Les médias sociaux et les nouveaux modes de communication (blogs, forums de discussion, etc.) ont donné au CERN et au LHC une audience bien supérieure à celles des expériences passées ; bien utilisés, ce sont des atouts majeurs pour parler de la science fondamentale et améliorer l’image, actuellement plutôt négative, que le grand public a du monde scientifique en général. Mais la situation actuelle n’a pas que des avantages : comment trier le flot d’informations que l’on reçoit en permanence ? Où trouver le temps de la réflexion alors que les nouvelles circulent de plus en plus rapidement et dans des formats toujours plus courts qui ne sont pas forcément compatibles avec la diffusion d’une information scientifique ? Et comment s’y retrouver entre les sites internet officiels et la multitude de sites privés qui commentent l’actualité des laboratoires et des expériences ? Si certains de ces sites sont animés par de vrais scientifiques aux qualités pédagogiques évidentes, d’autres relaient des informations non vérifiées ou partisanes.

Immersion au cœur du détecteur CMS ! Il est intéressant de souligner que les visites virtuelles peuvent permettre une découverte plus approfondie d'un appareillage puisque le guide, muni de son équipement multimédia léger, peut aller dans des endroits qui sont inaccessibles aux visiteurs « en chair et en os ». Les « neutrinos supraluminiques » de l'expérience OPERA.

ÉLÉMENTAÍRE

page 117

Un dernier problème est la fuite potentielle d’informations. En physique des particules, les analyses de données sont très complexes et prennent beaucoup de temps – des mois, parfois un an ou plus. De très nombreuses études sont menées en interne à chaque étape du processus : il faut définir la méthode, la valider, puis l’appliquer et enfin vérifier la cohérence des résultats obtenus. Et ce n’est qu’une fois les conclusions bien établies et acceptées par l’ensemble de la collaboration qu’elles deviennent publiques, via un article dans une revue scientifique (dûment contrôlé par un ou deux experts extérieurs avant que sa publication ne soit acceptée, après une ou plusieurs révisions du manuscrit original si nécessaire) et plusieurs présentations dans des conférences internationales. Maintenant qu’il est si facile de diffuser une information, que faire si des rumeurs sur un résultat potentiellement important mais pas encore suffisamment mature pour être annoncé apparaissent ? Cette question, toutes les expériences se la posent aujourd’hui en ayant en mémoire l’exemple des « neutrinos supraluminiques » de l’expérience OPERA [ou celui plus récent de l’expérience BICEP-2 – voir l'article suivant].

En septembre 2011, la collaboration OPERA (dont nous avons parlé à plusieurs reprises dans Elémentaire) a rendu public un résultat préliminaire inattendu. Les neutrinos semblaient voyager à une vitesse légèrement supérieure à celle de la lumière dans le vide, une limite absolue dans le cadre, abondamment testé depuis plus d'un siècle, de la théorie de la relativité. Il s'en est suivi un emballement médiatique qu'une communication parfois ambiguë n'a pas permis de maîtriser. Rapidement, ce résultat a été infirmé par l'expérience Icarus, voisine d'OPERA dans le laboratoire du Gran Sasso. Et, quelques mois plus tard, un problème technique a été identifié sur le détecteur OPERA. Une fois celui-ci résolu, la mesure de la vitesse des neutrinos par OPERA s'est révélée compatible avec celle de la lumière dans le vide.


Physique des particules, médias et internet De nombreux scientifiques sont bien conscients de ces écueils potentiels et s’efforcent d’expliquer leurs résultats de manière simple et scientifique tout en les replaçant dans leur contexte. Arrivent-ils toujours à faire passer les messages souhaités ? Pas forcément : il suffit de voir le nombre de médias dans lesquels le boson H est associé sans plus de précision à la « masse des particules » alors que le mécanisme de Brout-Englert-Higgs ne s’applique qu’aux particules élémentaires. En sciences comme ailleurs, un simple adjectif suffit parfois à changer complètement le sens d’une phrase ! Enfin, on peut noter que communication scientifique et vulgarisation scientifique ne font pas toujours bon ménage. La communication peut s’accompagner d’une exagération de l’importance des résultats obtenus ou d’une mise en avant de personnes, d’équipes ou d’institutions avec, en arrière-plan, la recherche de notoriété ou de crédits pour poursuivre des recherches. La vulgarisation, elle, se veut plus neutre et s’appuie sur l’idée que la recherche fondamentale telle qu’elle est – avec ses progrès, ses développements technologiques et ses doutes – est suffisamment riche pour intéresser le public curieux !

Le mécanisme de Brout-Englert-Higgs ne s'applique qu’aux particules élémentaires Un proton, formé de trois quarks (deux « u » et un « d »), pèse bien plus lourd que la somme des masses de ses constituants : c'est l'interaction forte qui est responsable de l'essentiel de la masse de cette particule composite.

Quelques liens de vulgarisation scientifique…

En français : • http://elementaire.lal.in2p3.fr • http://home.web.cern.ch/fr/about/updates • https://twitter.com/CERN_FR • http://w w w.in2p3.f r/physique_p our_tous/au lyce e/ introduction.htm

© CERN

• http://www.particuleselementaires.fr • http:///www.passeport2i.fr

Le CERN est évidemment présent sur la toile, avec de nombreuses ressources pédagogiques.

• http://www.physicsmasterclasses.org/index. php?cat=country&page=fr • http://www.sciencesalecole.org • http://www.sciencesaco.fr

© Julien Serreau

• http://experience-cern360.fr

En anglais : • http://preposterousuniverse.com/blog • http://profmattstrassler.com • http://www.interactions.org/cms • http://www.quantumdiaries.org • http://resonaances.blogspot.fr

page 118

• https://twitter.com/symmetrymag

ÉLÉMENTAÍRE


ICPACKOI ? BICEP-2 : la vraie-fausse découverte des ondes gravitationnelles primordiales Mars 2014 : lors d’un séminaire extraordinaire organisé à Harvard et retransmis en direct sur internet, la collaboration BICEP-2, en charge d’un télescope sensible dans la gamme des micro-ondes (fréquence de 150 GHz, soit une longueur d’onde de 2 mm) et situé au Pôle Sud, annonce avoir découvert la trace des « ondes gravitationnelles primordiales » dans la « polarisation du rayonnement de fond diffus cosmologique (CMB) ». Ce résultat a un fort retentissement dans la communauté scientifique et jusque dans le grand public. En effet, s’il est correct, il a des implications importantes pour notre compréhension des tous premiers instants après le Big-bang, notamment une période très courte pendant laquelle la taille de l’Univers augmente de manière démesurée : l’inflation. Mars 2015 : les collaborations Planck et BICEP-2 publient un article commun dont la conclusion est que les ondes gravitationnelles primordiales n’ont pas été découvertes et que le signal – réel – observé par BICEP-2 est généré par de la poussière présente dans notre Galaxie dont la trace se mêle au CMB dans les détecteurs. Voilà deux informations contradictoires : laquelle croire ? La seconde : un article paru dans une revue scientifique avec comité de lecture fait autorité sur une communication orale dont tous les détails ne sont pas publics et qui n’a pas encore subi « l’épreuve du feu » de la communauté scientifique. Pour mieux comprendre ce qui s’est passé, revenons sur cette saga qui a agité pendant une année l’ensemble des cosmologues, théoriciens comme expérimentateurs.

© ESA

La carte du CMB publiée par Planck en 2013. L'ensemble du ciel est projeté sur cette image dont l'équateur correspond au plan galactique. La couleur de chaque pixel donne une information sur l'énergie (proportionnelle à la température mesurée) des photons du CMB provenant de la direction correspondante : les couleurs chaudes (froides) indiquent une température légèrement supérieure (inférieure) à la température moyenne du CMB, 2,7 K environ. Ce rayonnement est presque isotrope avec des fluctuations relatives de température de l'ordre de quelques centièmes de pourcent au plus.

Un fond diffus très précis Le rayonnement de fond diffus cosmologique « CMB » a été libéré au moment où l’Univers est devenu transparent, 380 000 ans à peine après le Big-bang. Plusieurs générations d’expériences (notamment les satellites COBE, WMAP puis Planck, mais aussi des ballons-sondes et des télescopes Le moment où l’Univers est devenu transparent

ÉLÉMENTAÍRE

page 119

Immédiatement après le Big-bang, l’Univers était composé d’une « soupe » très énergétique de photons, d'électrons et de baryons – des assemblages de trois quarks. Dans ce plasma, les photons interagissaient continuellement avec les particules chargées et ne pouvaient donc parcourir aucune distance significative avant d'être diffusés : l’Univers était opaque. L'expansion de l’Univers a peu à peu refroidi ce plasma jusqu'à permettre la formation pérenne d’atomes d’hydrogène, neutres, stables et qui n'étaient plus détruits par l’agitation thermique à peine créés. Au moment de cette recombinaison les photons présents n'ont plus trouvé de particules chargées avec lesquelles interagir et ont donc pu se propager librement : l’Univers était devenu transparent.


BICEP-2 : la vraie-fausse découverte des ondes gravitationnelles primordiales au sol) l’ont étudié depuis sa découverte accidentelle au milieu des années 1960 par Penzias et Wilson. À mesure que les instruments progressaient, des informations de plus en plus précises ont été extraites de ces photons, émis alors que l’Univers était 1 100 fois plus chaud qu’aujourd’hui et refroidis ensuite jusqu’à une température équivalente de 2,7 K par 13,7 milliards d’années d’expansion. Le Modèle Cosmologique Standard s’est peu à peu imposé au cours des deux dernières décennies comme la théorie qui rend le mieux compte des observations accumulées sur le contenu (en matière, en énergie, etc.) de l’Univers et de son évolution. Les premiers résultats cosmologiques du satellite Planck sur le CMB, les plus précis à ce jour, l’ont notamment conforté.

Les premiers résultats cosmologiques du satellite Planck Le satellite Planck a fonctionné pendant deux ans et demi environ au cours desquels il a observé plus de cinq fois l'ensemble du ciel. L'extraction du CMB des données de Planck est une opération complexe qui nécessite en particulier d’identifier, de mesurer et de soustraire les bruits de fond qui se superposent au signal cherché (poussières, sources ponctuelles, etc.). Planck a donc d'abord publié les résultats de son travail de compréhension de ces bruits de fond avant de révéler « sa » carte du CMB au printemps 2013, basée sur environ la moitié des données récoltées. Ces résultats ont amélioré les mesures des paramètres du Modèle Cosmologique Standard, notamment les densités des différents composants de l’Univers : matière ordinaire (5 % du total), matière noire (26 %) et énergie noire (69 %). Ils ont été complétés depuis par l'analyse de l'ensemble des données de Planck.

page 120

© ESA

À partir de la carte du CMB – par exemple celle obtenue par Planck en 2013 – on calcule le spectre de puissance des variations de température du CMB, c’est-à-dire la manière dont les énergies des photons du CMB varient en fonction de l’angle qui les sépare dans le ciel. Pour chaque distance angulaire, de très nombreuses paires de pixels de la carte du CMB sont à prendre en compte pour calculer ces corrélations. Ce spectre contient beaucoup d’informations sur l’Univers : géométrie, densité, composition, évolution des fluctuations locales de densité de l’Univers primordial – des zones qui concentraient un peu plus de matière que leurs voisines et qui ont ensuite grossi sous l’effet de la gravitation pour donner les grandes structures d’aujourd’hui. Mais le CMB n’a pas révélé tous ses secrets avec ces mesures : d’autres phénomènes y ont laissé leur empreinte, en particulier au niveau de sa polarisation.

Spectre de puissance des variations de température du CMB publié par la collaboration Planck en 2013. L'axe des abscisses montre l'échelle angulaire – décroissante de gauche à droite ; le diamètre de la Lune dans le ciel est environ 0,5° – tandis que l'axe des ordonnées représente le « niveau de variabilité » de la température à chaque échelle angulaire. La variation de température est maximale autour de 1° et on distingue au moins quatre autres pics de tailles différentes à des plus petites échelles angulaires. Ces motifs forment une « photographie » de l'Univers primordial au moment de l'émission du CMB que les scientifiques savent décrypter. La position des pics renseigne ainsi sur la géométrie de l'Univers (reliée à sa densité, de l'ordre de quelques protons par mètre cube) tandis que leurs hauteurs, absolues et relatives, donnent des informations sur le contenu de l’Univers en terme de matière et d'énergie.

ÉLÉMENTAÍRE


BICEP-2 : la vraie-fausse découverte des ondes gravitationnelles primordiales © Sky and Telescope

Polarisation La lumière est une onde électromagnétique. Contrairement aux ondes mécaniques qui ont besoin d’un milieu matériel pour se propager (par exemple une vague à la surface de la mer), les ondes électromagnétiques se propagent également dans le vide, à vitesse constante – la fameuse « vitesse de la lumière » dont la valeur est 299 792,458 km/s. Une onde électromagnétique est composée de deux champs vectoriels qui varient en fonction du temps et des coordonnées d'espace : le champ électrique et le champ magnétique. La polarisation décrit l'orientation de ces vecteurs. Si chaque onde électromagnétique a une polarisation bien définie, la lumière que l'on reçoit est la superposition de très nombreuses ondes. Si leur source est incohérente (par exemple une ampoule électrique), les ondes ont des polarisations aléatoires qui s'annulent en moyenne : la lumière reçue nous apparaît alors comme non polarisée. Il peut également arriver que le mode de production de cette lumière ait une certaine cohérence, qui se traduit par une polarisation non nulle – par exemple, la lumière naturelle, après réflexion sur un miroir, est polarisée. C’est le cas du CMB qui possède une polarisation résiduelle, faible mais riche en informations sur les phénomènes physiques qui lui ont donné naissance et qui trouvent leur origine dans les tout premiers instants de l’Univers – notamment la présence potentielle d'ondes gravitationnelles primordiales associées à l’inflation.

Formes caractéristiques des modes de polarisation « E » (en bleu à gauche) et « B » (en rouge, à droite) : les traits montrent l'évolution spatiale de l'orientation de la polarisation dans une direction donnée. Les modes « E » ressemblent à des astérisques ou à des boucles, ils ne sont pas modifiés par une réflexion dans un miroir. Par contre, les modes « B » forment des genres de spirales qui tournent dans un sens ou dans l’autre.

Le signal de polarisation du CMB est très faible : de l’ordre de quelques microkelvins – pour comparaison, les fluctuations de température de ce rayonnement vont jusqu’à quelques centaines de microkelvins, pour une température moyenne de 2,7 K. Et ce n’est pas tout ; la polarisation du CMB a deux composantes, mathématiquement bien distinctes : les modes « E », produits par des fluctuations de densité et dominants ; et les modes « B », beaucoup plus faibles mais qui pourraient contenir l’empreinte des ondes gravitationnelles primordiales, reflets de l’inflation. Les modes E ont été observés dès 2002 par l’expérience DASI, un télescope installé au Pôle Sud. Quant aux modes B, toutes les recherches jusqu’à l’annonce de BICEP-2 avaient été négatives et seules des « limites supérieures » – le signal laissé par les ondes gravitationnelles primordiales, s’il existe, est plus faible que telle ou telle valeur, fonction de la sensibilité de l’expérience qui l’a cherché – avaient été obtenues.

Ondes gravitationnelles

Inflation L’inflation cosmique est une période extrêmement brève et précoce de l’Univers durant laquelle celui-ci aurait subi une expansion exponentiellement rapide. Ce mécanisme permet en particulier d'expliquer pourquoi le CMB est aussi uniforme, y compris lorsqu'on compare des régions du ciel éloignées qui n’auraient normalement jamais dû être en contact si on se base sur le taux d'expansion de l’Univers sans période d’inflation – la vitesse de la lumière est également une vitesse limite pour la transmission d’informations entre deux points donnés de l’Univers. L'hypothèse de l’inflation cosmique fait des prédictions précises concernant les fluctuations de température du CMB qui ont toutes été observées à ce jour. L'étude du CMB a donc renforcé le poids de l’inflation dans les théories actuelles de la cosmologie même s’il manque encore une preuve directe de l'existence de ce phénomène extraordinaire, sans aucun équivalent en physique.

ÉLÉMENTAÍRE

page 121

On peut noter que l’inflation serait produite par un « champ scalaire », appartenant à la même classe d'objets mathématiques que le champ de Brout-Englert-Higgs dont la particule élémentaire associée, le boson H, a été découverte au LHC en 2012.

Prédites par la relativité générale, les ondes gravitationnelles sont des fluctuations de l'espace-temps causées par des masses accélérées, qui se déplacent à des vitesses proches de celle de la lumière. Elles sont au champ de gravitation ce que les ondes électromagnétiques sont au champ idoine. Il en existe de très nombreux types dont les fréquences d'oscillation caractéristiques vont de l’inverse de l'âge de l’Univers (les ondes gravitationnelles primordiales) jusqu'à plusieurs kHz. Les détecteurs terrestres d’ondes gravitationnelles cherchent des signaux de fréquence supérieure à quelques dizaines de Hz, émis en particulier lors de « cataclysmes cosmiques » : supernova, coalescence de deux astres compacts (étoiles à neutrons ou trous noirs) en orbite l’un autour de l'autre, etc. Les détecteurs avancés LIGO, premiers représentants de la seconde génération de ces instruments, ont pris leurs premières données fin 2015 et début 2016 : ils ont découvert deux signaux d'ondes gravitationnelles, bien différents des ondes primordiales recherchées par BICEP-2 (voir Détection).


BICEP-2 : la vraie-fausse découverte des ondes gravitationnelles primordiales © Patrick Roudeau

BICEP-2 sort ses muscles L’instrument BICEP-2 (« Background Imaging of Cosmic Extragalactic Polarization », en français « Imagerie d’Arrière-Plan de la Polarisation Cosmique Extragalactique ») est un télescope de 26 cm d’ouverture installé au Pôle Sud, l’un des endroits du globe où le ciel est le plus transparent. Ses 250 paires de bolomètres (des détecteurs de chaleur extrêmement sensibles) étudient la polarisation du CMB dans une bande de fréquence centrée à 150 GHz, proche du pic d’émission de ce rayonnement. BICEP-2 observe environ 1 % du ciel dans une direction choisie pour sa faible contamination en poussières, car cette dernière a le mauvais goût de produire un signal qui ressemble aux modes B de la polarisation du CMB – nous y reviendrons dans la suite de l’article…

© Bicepkeck

© BICEP-2

En comparaison, le satellite Planck a un miroir beaucoup plus grand (1,5 m) qui lui permet d’observer en quelques mois l’ensemble du ciel depuis l’espace. Mais il a seulement 16 paires de bolomètres sensibles à la polarisation (de conception plus ancienne et donc moins performants que ceux de BICEP-2) qui, par contre, prennent des données dans quatre bandes de fréquence (100, 143, 217 et 353 GHz respectivement). Difficile donc d’imaginer deux expériences plus différentes : Planck a pour lui sa couverture complète et multi-bandes du ciel CMB, idéale pour contrôler et soustraire les bruits de fond qui perturbent la mesure des signaux cosmologiques, tandis que BICEP-2 a fait le pari d’une observation ciblée d’une petite région du ciel sans savoir vraiment si ses mesures extrêmement précises ne seraient pas polluées par des contributions extérieures, en particulier en provenance de À gauche, schéma du télescope BICEP-2 ; à droite : coucher de soleil sur l'instrument. la poussière galactique.

page 122

L'instrument BICEP-2 est installé dans le cornet de gauche du « Laboratoire du Secteur Sombre » (en anglais « Dark Sector Laboratory »), situé à un peu plus d'un kilomètre du Pôle Sud.

Le 17 mars 2014, la collaboration BICEP-2 annonce avoir mesuré un signal du mode B d’ondes gravitationnelles primordiales, cinq fois plus faible que le mode E produit par les fluctuations de densité de matière de l’Univers primordial, mais suffisamment net pour ne pas être un artefact dû à une fluctuation du bruit de fond – un signal « à 7 sigmas » dans le jargon de la physique des particules où une découverte correspond à « 5 sigmas ». Ces données apportent des informations sur le mécanisme d’inflation, notamment l’énergie considérable (mille milliards de fois celle atteinte au LHC lors des collisions proton-proton) associée.

ÉLÉMENTAÍRE


BICEP-2 : la vraie-fausse découverte des ondes gravitationnelles primordiales La poussière fait de la résistance Si la qualité de la mesure de BICEP-2 fait consensus dans la communauté scientifique, l’interprétation du signal observé fait par contre rapidement débat. En particulier, BICEP-2 s’est basé sur des données partielles de la collaboration Planck pour « nettoyer » son signal de la contribution de la poussière galactique qui produit de la lumière polarisée. Si cette dernière a été sous-estimée, il en reste dans le signal potentiel d’ondes gravitationnelles primordiales, lequel perd alors tout ou partie de sa pertinence.

Le ciel observé par Planck à neuf fréquences différentes. Les trois images du haut ont été produites par l'instrument « basses fréquences » et les six autres par l'instrument « hautes fréquences », conçu en particulier pour l'étude du CMB. Selon la gamme de fréquences, les proportions entre le « signal CMB » et les autres composantes astrophysiques varient. La tranche centrale, visible sur toutes les images, correspond à l'empreinte laissée par le plan galactique riche en poussières ; elle doit être soustraite pour obtenir la carte du CMB.

Tous les signaux observés sur Terre en provenance du cosmos sont soumis aux mêmes aléas : des contributions parasites « d’avant-plan » peuvent les brouiller, voire se faire passer pour eux. Pour éviter toute confusion, il faut trouver un moyen de mesurer ces bruits de fond, puis de les soustraire aux données. C’est pour cela par exemple que Planck a observé l’ensemble du ciel à neuf fréquences différentes. On voit à l’œil que l’aspect du ciel varie fortement en fonction des contributions dominantes dans chaque bande de fréquence – le CMB est dominant autour de 100 GHz. À l’automne 2014, Planck publie finalement son étude de la poussière polarisée dans la galaxie. Le résultat, est mi-figue mi-raisin. La région observée par BICEP-2 – et délimitée par le contour noir – a une contamination en poussière intermédiaire, susceptible de produire un signal de mode B équivalent à celui observé. Pour trancher définitivement cette controverse, les collaborations BICEP-2 et Planck doivent réaliser une analyse conjointe de leurs données – en science comme ailleurs, l’union fait souvent la force !

© ESA © PLANCK

ÉLÉMENTAÍRE

page 123

Mesure par la collaboration Planck de la contamination en poussière des différentes zones du ciel austral (vu depuis le Pôle Sud). Comme l’indique le code couleur en-dessous, plus la couleur affichée est chaude et plus la contamination en poussière de la zone considérée est importante. Le contour noir montre la région du ciel observée par BICEP-2.


BICEP-2 : la vraie-fausse découverte des ondes gravitationnelles primordiales

© Julien Serreau

1965ApJ...142..419P

Planck et BICEP-2 passent le balai La publication conjointe paraît début mars 2015. Ses conclusions sont sans équivoque : une signature claire de poussière et aucune trace des ondes gravitationnelles primordiales… À la place, on obtient une nouvelle limite supérieure sur le niveau de ces ondes (un peu moins contraignante que d’autres déjà existantes car les données analysées contiennent un embryon de signal, peut-être réel, peut-être une fluctuation de bruit de fond). Le résultat annoncé par BICEP-2 seul un an auparavant est donc complètement réfuté. Quels enseignements tirer de ces événements ? Qu’une possible découverte doit toujours être vérifiée dans ses moindres détails avant d’être rendue publique. Qu’il faut anticiper les retombées que son annonce pourrait avoir dans les médias – et donc auprès du grand public –, surtout si elle est reliée à des thèmes porteurs capables de générer de l’intérêt et de l’audience. Que la science en général avance à son propre rythme et qu’il n’est pas sain de lui demander des résultats rapides – « publish or perish » comme disent les Anglo-Saxons. Chacun à son niveau – expérimentateurs, théoriciens, journalistes, médiateurs scientifiques – doit garder la tête froide et éviter de contribuer à l’emballement d’une machine qui devient bien vite incontrôlable. La science fondamentale a une réputation – justifiée – de crédibilité. Plusieurs affaires comme celle de BICEP-2 (ou des neutrinos supraluminiques d’OPERA, voir l’article précédent), pourraient à terme nuire à ces domaines de recherche.

© ESA

Vue d'artiste du satellite Planck

Pour rester dans le domaine du CMB, on peut rappeler pour conclure que l’article original de Penzias & Wilson publié en 1965 (il y a donc cinquante ans) et annonçant la découverte de ce rayonnement était sobrement intitulé : « Mesure d’un excès de température d’antenne à 4 080 MHz » – difficile de faire moins vendeur ! Et ce sont le temps et les avancées scientifiques qui ont démontré la réalité et l’importance de cette découverte, pas la manière dont elle avait été mise en avant à l’époque.

page 124

Le titre original de l'article de Penzias et Wilson en 1965, qui a lancé l'aventure de la mesure du CMB

ÉLÉMENTAÍRE


ICPACKOI ? É1, é2, é3 L’étude des neutrinos est particulièrement difficile car ces particules élémentaires interagissent très faiblement avec la matière. Cependant, depuis l’hypothèse de leur existence, formulée par le théoricien Wolfgang Pauli en 1930, et l’observation de leur interaction avec la matière en 1956, plusieurs de leurs propriétés sont maintenant connues. Nous allons décrire la mesure récente de l’une d’entre elles et indiquer celles qui restent à déterminer.

© General Electric Co.

Il existe trois espèces (ou saveurs) de neutrinos appelées neutrino-électron (νe), -muon (νμ) et –tau (ντ) qui correspondent à trois particules différentes. Ces noms leur ont été attribués en vertu de la manière dont ils interagissent avec la matière sous l’effet de l’interaction faible, la seule interaction à laquelle ils sont sensibles. Par exemple, lors d’une collision, un νe peut créer un électron (e) alors qu’il ne produit jamais un muon (m) ni un tau (t). Il en va de même pour νμ et ντ qui ne peuvent produire qu’un μ ou un τ respectivement. La seconde espèce de neutrinos (-muon) a été détectée en 1962 et la dernière (-tau) en 2000.

Frederik Reines (à gauche) et Clyde L. Cowan Jr. auprès des équipements utilisés lors de leur première tentative d’observation d’antineutrinos à Hanford (État de Washington) en 1953. La détection définitive sera effectuée trois ans plus tard à Savannah River (États-Unis).

La première saveur de neutrinos a été observée par leur interaction dans un détecteur placé à proximité d’une centrale nucléaire, dont le cœur est une source abondante d’antineutrinos-électron (–νe ). À chaque neutrino on associe une antiparticule et, de fait, ce sont des antineutrinos qui sont émis principalement par les centrales nucléaires lors de la désintégration bêta de produits de fission. En fonction des processus étudiés, des neutrinos ou des antineutrinos sont créés. Si l’on observe des réactions impliquant un neutrino, on peut prédire celles auxquelles contribue un antineutrino ; il suffit le plus souvent de changer le signe des charges électriques des particules en jeu dans la réaction. Cependant, une différence plus subtile peut exister entre neutrinos et antineutrinos portant le nom de « violation de CP ». Elle fait partie des comportements encore mal connus des neutrinos.

Super-KamiokaNDE Cette expérience a succédé à KamiokaNDE et KamiokaNDE II, de dimensions plus réduites mais fonctionnant sur le même principe, toutes trois situées à 1000 m de profondeur sur le site de la compagnie « Kamioka mining and smelting » près de la ville de Hida, où se trouve une ancienne mine de zinc et de plomb. Les lettres finales, NDE, signifient : Nucleon Decay Experiment car ces expériences ont été construites à l’origine pour rechercher la désintégration du proton. Actuellement elles signifient plutôt : Neutrino Detection Experiment.

Les oscillations des neutrinos En 1998, les physiciens de l’expérience Super-KamiokaNDE, au Japon, ont observé qu’une partie des νμ, créés lors de l’entrée de rayons cosmiques dans la haute atmosphère disparaissent et que ce phénomène dépend de la distance entre leur lieu de production et le détecteur. Aucune disparition n’est observée pour les νe produits par les mêmes rayons cosmiques.

ÉLÉMENTAÍRE

page 125

Vue de la cuve (40 mètres de profondeur et de diamètre) de l’expérience SuperKamiokaNDE, remplie de 50 000 tonnes d’eau et dont les parois sont tapissées de 13 000 photomultiplicateurs de grande taille (50 centimètres de diamètre). Ces détecteurs recueillent, en particulier, la lumière créée par effet Cerenkov par des muons ou bien des électrons générés, respectivement, lors de la collision de νe ou de νm venant de l’extérieur avec des molécules d’eau du réservoir. Les propriétés du détecteur permettent de séparer les deux saveurs (électron ou muon) de particules et font qu’il est peu sensible aux τ. © SuperKamiokaNDE


É1, é2, é3 © Patrick Roudeau

© SuperKamiokaNDE

Les flèches indiquent les directions d'arrivée (isotropes) de rayons cosmiques au niveau de la haute atmosphère terrestre. Ils interagissent alors avec les molécules de l'air et génèrent des gerbes de particules, pour la plupart instables, qui créent à leur tour des νe et des νμ, (environ un νe pour deux νμ). Certains de ces neutrinos, « atmosphériques », interagissent ensuite dans le détecteur Super-KamiokaNDE (SK) en y produisant, respectivement, un électron ou bien un muon. Le détecteur peut distinguer ces deux particules. Il mesure également leur direction ce qui constitue une bonne estimation de celle du neutrino incident. La distance parcourue par les neutrinos entre les endroits où ils ont été créés puis détectés varie en fonction de l’angle (Θ) entre la direction d'arrivée et le zénith. Elle est minimale à la verticale du détecteur (Θ=0°, cos(Θ)=1) et maximale (Θ=180°, cos(Θ)=-1) pour les neutrinos arrivant à l'opposé du détecteur, après avoir traversé toute la Terre.

Ces deux figures illustrent le phénomène d'oscillation des neutrinos mesuré par l'expérience Super-KamiokaNDE. Les mesures (points noirs avec les barres représentant les incertitudes) correspondent aux nombres d'électrons (à gauche) et de muons (à droite) issus d’interactions de neutrinos enregistrés par le détecteur. Les carrés hachurés en bleu indiquent ce qui est attendu en l'absence d'oscillation entre neutrinos de différentes saveurs. Pour les électrons, mesures et prédictions sont en accord ; il n'y a donc pas d'oscillation. Par contre, un grand désaccord est visible pour les muons, pour des angles supérieurs à 80° (ce qui correspond à cos(zenith angle)<0,2). Il peut être expliqué en envisageant la transformation d’une partie des νμ en ντ (non détectés) et en ajustant les paramètres correspondants (traits rouges).

Ces résultats peuvent être expliqués si l’on suppose que les neutrinos ont des masses, qu’elles sont différentes et que chaque neutrino d’une saveur donnée (-électron, -muon ou –tau) est la superposition de trois états, désignés par ν1, ν2, ν3 dont les masses, notées respectivement m1, m2, m3, sont bien définies. Réciproquement, chaque neutrino ν1, ν2, ν3 est la superposition de νe, νm et ντ. Le passage entre les deux descriptions est illustré sur la figure ci-après, dans le cas de deux saveurs. Il s’agit d’une rotation dans un espace abstrait (des saveurs). Un seul paramètre (l’angle α sur la figure) est alors nécessaire pour passer de ν1,2 à νe,μ et inversement. Sur ce dessin, chaque flèche (vecteur) représente un état possible de neutrino. Dans le cas où il n'y a que deux saveurs (νe et νμ) on introduit les états ν1 et ν2 qui ont des masses bien définies. Ces paires d'états sont représentées par des vecteurs orthogonaux pour illustrer le fait que νe et νμ, de même que ν1 et ν2, n'ont pas de propriété commune. Supposons que l'on produise un νe lors d’une collision (flèche jaune). L'amplitude de l'onde associée (que nous supposons égale à l'unité) peut être projetée sur les directions associées à ν1 et ν2 dont les amplitudes valent, respectivement cos(α) et –sin(α). Les proportions de ν1 et de ν2 dans le neutrino νe initial sont respectivement égales à cos2(α) et sin2(α). Un seul paramètre, noté ici α, est suffisant pour passer de l'une à l'autre des deux descriptions.

page 126

Masses bien définies La masse des neutrinos provient de leur interaction avec le boson H ou bien avec d'autres particules encore inconnues. Les états correspondants, notés ν1, ν2, ν3, sont différents de ceux qui sont créés par interaction faible (νe, νμ, ντ). Ces derniers n'existent qu'à l'instant de leur création ou bien de leur interaction alors que les ν1, ν2, ν3 peuvent se propager dans l'espace-temps en restant inchangés.

ÉLÉMENTAÍRE


É1, é2, é3 Avec trois saveurs, on passe de un à quatre paramètres libres et, tout comme pour α, leurs valeurs ne sont pas prédites par la théorie ; il faut les mesurer. Trois de ces paramètres déterminent, par exemple, les proportions de ν1, ν2, ν3 dans νe, νμ , et ντ, à l’instant où ils sont produits, et le quatrième concerne une différence subtile possible entre neutrinos et antineutrinos (violation de CP). Le mécanisme d’oscillation est d’origine purement quantique et peut s’expliquer en faisant appel au caractère ondulatoire de la matière. L’onde associée à une particule se propage dans le vide en oscillant à une fréquence qui est déterminée par l’énergie de la particule. Lorsqu’un neutrino se déplace dans le vide, les ondes associées aux neutrinos ν1,2,3, qui ont des masses différentes – et donc des énergies différentes – oscillent dans le temps à des fréquences différentes. Ainsi, les proportions de ν1,2,3 dans le neutrino produit au départ, varient en fonction de la distance parcourue. Comme chacun des neutrinos ν1,2,3 est lui-même la superposition des saveurs νe,μ,τ, un neutrino qui a été produit sous la forme d’une saveur donnée, devient la superposition des trois saveurs au cours de son trajet. Par exemple, ayant produit uniquement des νμ on peut observer, au bout d’un certain parcours, qu’une partie d’entre eux a disparu et que les neutrinos manquants apparaissent sous la forme de νe et de ντ. Dans le cas de SuperKamiokaNDE, il faut supposer qu'une partie des νμ s'est transformée en ντ pendant leur (long) chemin à travers la Terre.

ÉLÉMENTAÍRE

Proportion (calculée) des différentes saveurs de neutrinos en fonction de la distance entre la source et leur détection. Au départ on n'a produit que des νμ (courbe verte) d'énergie voisine de 750 MeV. Au bout de 300 km, les ντ dominent (courbe rouge). On note une composante de νe (courbe bleue) qui croît progressivement et devient d'importance similaire aux deux autres au bout de 8 000 km. Les paramètres utilisés dans ce calcul sont réalistes pour l'expérience T2K (Tokai to Kamioka) qui se poursuit actuellement. Les neutrinos (essentiellement des νμ) sont produits dans le complexe J-PARC situé à Tokai et envoyés vers le détecteur Super-KamiokaNDE, déjà mentionné, situé à 300 km à l'ouest. Un premier détecteur, installé à quelques centaines de mètres de la source, permet de mesurer le flux, l'énergie, la direction et la composition du faisceau de neutrinos. En 2013 une trentaine d’interactions de νe ont été mesurées dans SuperK alors que cinq seulement étaient attendues en l'absence d'oscillation, issues principalement de la contamination initiale en νe du faisceau de νμ. T2K mesure également la disparition importante des νμ. Sur la figure, la composition attendue du faisceau de neutrinos a aussi été évaluée pour une distance de 5 000 km entre la source et le détecteur. page 127

Ce phénomène est appelé l’oscillation des neutrinos car il est périodique, un peu comme les battements entre des ondes de fréquences différentes. Il dépend de la distance parcourue, de l’énergie des neutrinos et de la différence entre les carrés des masses des deux neutrinos. Une explication plus complète de ce phénomène est disponible dans le numéro 5 d’Élémentaire.

Les neutrinos n'étant sensibles qu'à l'interaction faible on ne peut produire ou détecter que des neutrinos ayant une saveur donnée. Dans cet exemple, un νμ est produit et on détecte un ντ en observant un τ qui est créé lors de l'interaction du neutrino dans le détecteur. Le νμ est la superposition, dans des proportions fixées par la Nature, d'états ν1, ν2 et ν3, dont les masses sont légèrement différentes. Leurs ondes correspondantes ont ainsi des fréquences différentes et, après un parcours donné, les proportions d'états ν1, ν2 et ν3 ne sont plus les mêmes qu'au départ. Ceci conduit à l'apparition, au niveau de la détection, d'une certaine quantité de ντ et de νe qui correspond à la disparition de νμ.


É1, é2, é3 Le prix Nobel de physique 2015 a été attribué à Takaaki Kajita et à Arthur B. McDonald « pour la découverte des oscillations des neutrinos qui montre que les neutrinos sont massifs ». DR

Takaaki Kajita Né en 1959, il est professeur à l’université de Tokyo et membre de la collaboration Super KamiokaNDE. Il a obtenu son doctorat en recherchant la désintégration du proton dans l'expérience KamiokaNDE, un modèle réduit de l'expérience actuelle. Les interactions de neutrinos atmosphériques étant un bruit de fond important au signal qu’il recherchait, il a développé une méthode d’analyse des données permettant de mieux les étudier et notamment de distinguer les interactions de νμ et de νe dans le détecteur. Il a alors mesuré, en 1988, que, si le nombre d’interactions de νe était bien conforme aux prévisions, celui des νμ n'était que 65 % de la valeur attendue. Ce résultat, qui a surpris l'ensemble de la communauté, a été confirmé par plusieurs expériences alors que d'autres, moins précises cependant, n'observaient pas de disparition des νμ. T. Kajita poursuivit son étude sur SuperKamiokaNDE dont la taille permettait de faire des mesures plus précises. Son observation initiale fut confirmée et l'étude du taux de disparition des νμ, en fonction de la distance qu’ils parcourent avant d’interagir dans l'eau du détecteur, permit de comprendre ce phénomène en termes de transformation d’une partie des νμ en ντ. Arthur B. McDonald Né en 1943, professeur émérite à l’université de Queen (Kingston, Ontario, Canada), il a une formation de physicien nucléaire. Il devient en 1989 directeur du Sudbury National Observatory, créé en 1984 afin de comprendre le « problème des neutrinos solaires ». La mise en évidence de ce « problème » vient de l’observation, dès 1968, par R.J. Davis d’un manque de deux νe sur trois en provenance du Soleil par rapport aux modèles de réactions thermonucléaires solaires. R.J. Davis fut lauréat du prix Nobel de physique en 2002, conjointement avec M. Koshiba de la collaboration KamiokaNDE. Cette dernière a également observé un déficit de νe solaires et mesuré d’autres phénomènes induits par des neutrinos. L'expérience SNO vient d’une proposition faite en 1984 par le physicien Herbert Chen, consistant à utiliser deux réactions différentes, mises en œuvre dans un même détecteur. L'une est sensible uniquement aux νe et l'autre aux trois saveurs de neutrinos, de manière égale. H. Chen décède prématurément en 1987 avant que ne démarre la construction de SNO. A.B. McDonald lui succède comme porte-parole de la partie nord-américaine de la collaboration. SNO a mesuré le même déficit en νe que les expériences précédentes et a montré que le nombre total de neutrinos solaires est en bon accord avec la valeur attendue. Une partie des νe se sont donc transformés en νμ ou bien en ντ.

DR

Que sait-on des neutrinos ? Peut-être commencez-vous à apprécier la subtilité du phénomène d’oscillation… qui dépend d’un grand nombre de paramètres : trois masses de neutrinos, trois quantités qui donnent les proportions de ν1,2,3 dans νe,μ,τ, et une dernière qui traduirait une différence peu intuitive entre neutrinos et antineutrinos (violation de CP). Afin de pouvoir mesurer l’ensemble de ces paramètres, pour lesquels le Modèle Standard ne fournit aucune prédiction, les physiciens disposent d’une gamme d’ingrédients avec lesquels ils peuvent « jouer » : la saveur du neutrino produit, son énergie, la distance entre son lieu de production et le détecteur et enfin la saveur du neutrino détecté après son parcours.

© Julien Serreau

page 128

En combinant différentes observations, on a pu établir que deux neutrinos ont des masses carrées très voisines, m22 - m21 ≈ 7,6 10-5 eV2/c4, alors que la

ÉLÉMENTAÍRE


É1, é2, é3 différence avec la troisième espèce est plus notable, m23 - m21 ≈ m23 - m22 ≈ ± 2,4 10-3 eV2/c4, c'est-à-dire trente fois plus grande. On peut remarquer que l’on ne sait pas encore si le ν3 est le plus lourd ou le plus léger parmi les trois neutrinos ni quelles sont les valeurs absolues des masses des neutrinos et non les différences de masses. On peut cependant affirmer que ces dernières sont très petites si on les compare aux masses des autres particules élémentaires. À partir d’autres expériences, dont les plus contraignantes viennent de l’observation du rayonnement de fond diffus cosmologique (CMB) émis 380 000 années après le Big-Bang, on a mis des limites sur la somme de ces masses : m1 + m2 + m3 < 0,4 eV/c2. En comparant cette valeur à la masse de l’électron (511 000 eV/c2), on constate que les neutrinos sont au moins un million de fois plus légers.

Proportions typiques de νe, νμ et νt dans ν1, ν2 et ν3.

En plus des masses des neutrinos il faut déterminer les proportions d’un neutrino d’une saveur donnée dans les neutrinos ν1,2,3 ayant des masses bien définies. L’observation des oscillations des νμ produits dans les rayons cosmiques et celle des νe venant du Soleil a permis de mesurer deux des paramètres déterminant ces proportions. On sait, par exemple, qu’il y a à peu près autant de νμ et de νt. dans le ν3 et quasiment pas de νe . De même, le ν2 contient des proportions similaires des neutrinos des trois saveurs. Il restait à connaitre la valeur du troisième paramètre qui, en pratique, fixe la proportion de νe dans le ν3. Pour cela il faut disposer de sources intenses de νe, ou bien, ce qui revient au même pour ce type de mesure, d’antineutrinosélectron (–νe).

Tant qu’il y aura des centrales nucléaires

ÉLÉMENTAÍRE

page 129

Les centrales nucléaires peuvent être utilisées pour ces mesures – sont émis chaque seconde par un réacteur de 1 GWe. puisqu’environ 1021 ν e – L’énergie des νe est basse et se répartit suivant une gamme assez large, limitée – dont l’énergie est supérieure à 2 MeV peuvent être vers 7 MeV. Seuls les ν e détectés par les appareillages actuels. En conséquence du phénomène d’oscillation, le nombre de –νe varie en fonction de la distance du détecteur à la source suivant deux fréquences qui correspondent aux deux valeurs des différences entre masses carrées, déjà connues. L’importance de ces effets dépend des proportions de νe dans les ν1,2,3. En tenant compte des propriétés déjà établies des neutrinos, on a déterminé les positions qui devaient permettre d’observer au mieux certaines de ces proportions. Avec un appareillage situé à quelques dizaines de kilomètres (expérience KAMLAND, au Japon) – Variation attendue de la proportion de ν e détectés en fonction de la on a ainsi pu mesurer les mêmes caractéristiques que distance entre le réacteur nucléaire et le détecteur (courbe noire). Le celles qui déterminent le comportement des neutrinos signal est modulé selon deux périodes : la courbe bleue résulte de la solaires. Avec des détecteurs situés environ 30 fois plus différence de masses |m23- m21| ~ |m23- m22| et la courbe rouge de la près des centrales on attend le premier maximum de différence |m22- m21|. Par contre l’amplitude des oscillations dépend 2 2 2 2 de la proportion du νe dans les ν1,2,3. Les positions des détecteurs l’oscillation due à m 3 - m 1 ≈ m 3 - m 2 et dont l’importance des expériences Daya Bay et KamLAND sont indiquées. On peut dépend de la proportion de νe dans le ν3, le paramètre noter que l’effet recherché à Daya Bay est maximal mais qu’il reste recherché. Des expériences antérieures (Chooz en France d’amplitude faible. et Palo Verde aux USA), qui n’ont pas observé de signal

© KamLAND

GWe  : cette unité correspond à une puissance électrique de 1 gigawatt. Chaque réacteur des sites de Daya Bay et de Ling Ao évoqués ici a une puissance de cet ordre.


É1, é2, é3 d’oscillation, ont conclu que l’effet attendu devait être inférieur à 10 % et de nouveaux dispositifs ont été construits afin de diminuer les incertitudes des mesures pour qu’un signal, faible a priori, puisse être détecté.

Combien de νe dans un ν3 ? La meilleure sensibilité au paramètre manquant nécessite de faire des observations à deux kilomètres environ des centrales. Des expériences plus performantes ont alors été spécialement conçues en France (Double Chooz), en Corée du Sud (RENO) et en Chine (Daya Bay). Toutes ont – mais les physiciens de la collaboration Daya mesuré une disparition de ν e Bay (qui regroupe des participants venant de Chine (60 %), des USA (33 %), de Russie (4 %) ainsi que de Tchéquie et du Chili) ont les premiers franchi le niveau de précision habituellement utilisé pour affirmer que l’on a fait une découverte (environ une possibilité sur un million de se tromper , soit « 5 sigmas »). Ces trois expériences internationales utilisent le même principe pour effectuer leurs mesures. Des cœurs de centrales –. nucléaires (dont le nombre varie de deux à six) fournissent la source des ν e Au cours de leur trajet entre la source et le détecteur, apparaissent des – ), si bien que le nombre des ν – antineutrinos issus d’autres saveurs (–νm et ν τ e diminue (ce nombre est mesuré après avoir corrigé des effets géométriques qui dépendent de l’éloignement du détecteur par rapport à la source). Comme il n’est pas aisé de calculer de manière très précise la quantité de –νe produits car elle dépend de l’état du combustible dans la centrale, certains détecteurs (dits proches) sont placés au voisinage des cœurs afin de mesurer directement ce nombre. D’autres détecteurs, identiques aux précédents, mais nettement plus éloignés, enregistrent une éventuelle diminution du nombre de –νe attendus en l’absence d’oscillations.

© Daya Bay Experiment

Description schématique du site de l'expérience «  Daya-Bay  ». Six centrales nucléaires (D1,2 = Daya Bay 1,2 et L1,4 = Ling Ao 1-4) dont la puissance est voisine de 1 GWe chacune sont utilisées – comme sources des νe. Plusieurs détecteurs (AD1-6) reliés par des tunnels (traits noirs) – mesurent les interactions de νe. Certains sont proches des centrales (AD1-3) et d’autres plus lointains (AD4-6).

– émis par la centrale inteDans chacun d’eux, une infime fraction des ν e ragissent dans un volume cylindrique contenant 20 tonnes de scintillateur liquide avec 0,1 % (en poids) de gadolinium (Gd) suivant la réaction : –ν + p → e+ + n e – dépasse 1,80 MeV (ce qui correspond qui n’est possible que si l’énergie du ν e à la différence entre les masses de l’état final, me++mn = 940,07 MeV/c2, et celle de l’état initial mp = 938,27 MeV/c2).

L’état du combustible

page 130

Le combustible présent dans le cœur d’une centrale nucléaire évolue au cours du temps car une partie des noyaux 235 d' 92 U qu’il contient se brisent et donnent des noyaux plus légers, eux-mêmes radioactifs. L'abondance d'émetteurs de – νe varie donc en permanence au cours du fonctionnement (et de l’arrêt) du réacteur.

– interagissent par jour dans un tel détecteur situé à 100 Typiquement, 6 000 ν e mètres du réacteur nucléaire (cette valeur est à diviser par 100 si le détecteur est situé à un kilomètre). Le positron émis dans la réaction s’annihile quasi instantanément avec un électron atomique, produisant deux photons qui sont détectés. D’autre part, le neutron, après un parcours voisin d’un cm dans le milieu, va créer, lors d’une collision avec un noyau de gadolinium (Gd), un isotope instable de cet élément qui, à son tour, se désintègre en redonnant le noyau initial ainsi qu’un ou plusieurs photons qui sont mesurés. La signature d’une interaction de –νe est ainsi assurée par la coïncidence entre le signal (rapide) issu du positron et celui (retardé de 30 microsecondes en moyenne) venant du neutron. Une attention particulière a été apportée à la diminution du bruit de fond et à sa mesure. Le milieu actif de chaque

ÉLÉMENTAÍRE


É1, é2, é3 détecteur est entouré d’un second volume dans lequel le scintillateur liquide est dépourvu de Gd. Il permet la détection des photons issus de la capture du positron ou du neutron s’ils se matérialisent à l’extérieur du volume interne. Par contre, les captures de neutrons, dans cette seconde région libèrent beaucoup moins d’énergie que celles ayant lieu avec le Gd et sont éliminées en mettant un seuil approprié sur l’énergie du(des) photon(s). Le volume dans lequel sont mesurées les – est donc parfaitement défini. Les deux enceintes interactions des ν e décrites ci-dessus sont entourées d’un troisième milieu constitué d’huile minérale non scintillante afin de protéger la partie interne contre des photons de haute énergie venant de l’extérieur. Ces photons y sont absorbés mais, le milieu n’étant pas scintillant, ils ne créent pas de lumière détectable. Les trois milieux sont contenus dans des enceintes acryliques transparentes et la lumière, émise dans le milieu scintillant par les différentes particules qui y interagissent, est recueillie par une série de photomultiplicateurs qui mesurent son intensité et l’instant auquel elle est détectée.

Principe de la détection des νe à Daya Bay. – Lors de la collision d’un νe avec un proton, un neutron et un positron sont émis. Le positron s'annihile, très rapidement avec un électron atomique. Deux photons sont alors émis dont l'énergie totale, mesurée par l'appareillage, est égale à celle du positron augmentée de la masse de l'électron. Le neutron parcourt une plus grande distance et, au bout d'un centimètre en moyenne (ce qui correspond à un délai de l'ordre de 30 ms par rapport au signal du positron), il est capturé par un noyau de Gd qui va ensuite se désexciter en émettant un photon qui est détecté.

© Daya Bay Experiment

Plusieurs de ces détecteurs (leur nombre varie de deux à quatre)

Représentation schématique des trois enceintes de l'expérience Daya Bay. La plus interne contient 20 tonnes de scintillateur liquide avec du gadolinium. La seconde est uniquement remplie de 20 tonnes de scintillateur liquide. Ces deux volumes sont définis par des cylindres en matériaux acryliques. L'enceinte extérieure, en acier, contient 40 tonnes d’huile minérale et est équipée de photomultiplicateurs qui mesurent la lumière produite par les particules.

sont disposés dans une même piscine instrumentée. L’eau entourant les détecteurs constitue un barrage efficace contre les neutrons et des éléments radioactifs, comme le radon, présents dans l’environnement.

Radon : gaz radioactif présent dans l'atmosphère, il est issu de la désintégration de l'uranium et du radium et représente environ 30 %, en moyenne, de l'exposition à la radioactivité naturelle. La concentration en radon est plus élevée dans les régions granitiques et volcaniques.

ÉLÉMENTAÍRE

page 131

Les muons issus du rayonnement cosmique sont aussi une source importante de bruit de fond car, après avoir interagi dans le milieu environnant l’expérience, ils peuvent être accompagnés de neutrons. L’installation


É1, é2, é3 de l’ensemble des détecteurs dans des tunnels creusés dans un massif montagneux permet de diminuer le taux de muons. Ceux restants sont mesurés par plusieurs types de détecteurs et leur contribution résiduelle, très faible parmi les événements retenus, est connue avec précision.

Calibration : la détection de l’interaction – d’un νe nécessite la mesure de l’énergie du positron et de celle libérée lors de la capture du neutron. Ceci est obtenu en utilisant des photomultiplicateurs qui transforment un signal lumineux en une charge électrique traitée par des circuits électroniques et informatiques. Afin d’établir la correspondance entre l’énergie déposée dans le détecteur et la valeur mesurée, différents dispositifs sont utilisés et notamment des sources radioactives de rayons gammas d’énergie connue. Des LED (Light Emitting Diodes) permettent de mesurer le temps qui s’écoule entre l’émission et la détection des signaux lumineux. Ces dispositifs ainsi que de nombreux autres sont également utilisés pour surveiller en permanence le fonctionnement des détecteurs.

L’utilisation de plusieurs détecteurs de neutrinos identiques permet de vérifier qu’ils fournissent des résultats compatibles et d’observer d’éventuels dysfonctionnements. Différents dispositifs de calibration permettent de contrôler en permanence le comportement des appareils et d’assurer une réponse uniforme sur un grand intervalle de temps. En effet, même si les détecteurs de Daya Bay sont de grande taille, il faut plusieurs mois de mesures pour enregistrer au moins 10 000 interactions dans les plus lointains d’entre eux ce qui correspond à une précision de 1 % sur ce nombre. Une telle précision est nécessaire car la diminution du contenu en – ν e entre les détecteurs proches des centrales et ceux qui sont lointains est inférieure à 10 %. En 2012 l’expérience Daya Bay a annoncé la mesure du paramètre recherché. Ce résultat correspond à un contenu de νe dans le ν3 égal à environ 2 % (2,3 ± 0,2 % pour être précis). Cette valeur est faible si on la compare au contenu de νe dans le ν1 (~70 %) ou de νe dans le ν2 (~30 %) qui avaient été mesurés précédemment. Les résultats de Double-Chooz et de Reno, publiés ensuite, sont en accord avec ceux de Daya Bay.

© Daya Bay Experiment

É1, é2, é3 et maintenant ?

Ensemble de deux détecteurs de Daya Bay immergés dans une piscine emplie d’eau afin de les protéger contre la radioactivité ambiante. L’ensemble est recouvert de détecteurs de muons (visibles en haut à gauche) pendant la période de prise de données.

La mesure de Daya Bay est d’une grande importance pour la suite des études sur les neutrinos car elle montre que la proportion de νe, dans le ν3, bien que faible, est mesurable. Outre son importance intrinsèque, cette valeur est aussi importante pour savoir s’il est envisageable d’observer expérimentalement des nuances subtiles de comportement entre neutrinos et antineutrinos (violation de CP). La mesure de Daya Bay indique qu’une telle étude est bel et bien réalisable. Pour cela de nouvelles expériences doivent être conçues afin d’être les plus adaptées à ces études, compte tenu des connaissances actuelles. Afin de compléter le tableau des paramètres qui décrivent les propriétés des trois neutrinos, il restera à déterminer le signe de la différence entre les carrés des masses du ν3 et des ν1 et ν2, elles-mêmes très voisines. À suivre !

Vue de l’intérieur d’un détecteur. Sur les parois de la cuve extérieure en acier, de nombreux photomultiplicateurs sont positionnés afin de mesurer le signal de scintillation. On peut distinguer les parois (transparentes) des deux cylindres qui limitent les différentes zones du milieu utilisé pour les mesures. page 132

© Daya Bay Experiment

ÉLÉMENTAÍRE


ICPACKOI ? Tétraquarks et Pentaquarks Comme vous le savez sans doute, les quarks et les antiquarks sont des constituants élémentaires de la matière privés de liberté. Seules des particules qui associent plusieurs de ces constituants, liés par des gluons, sont observées dans la Nature. Les plus simples de ces combinaisons, les mésons, sont formées d’un quark et d’un antiquark. Il y a aussi les baryons contenant trois quarks (ou trois antiquarks pour les antibaryons). Dans de telles constructions, l’assemblage dont la masse est la plus faible, est une particule stable vis-à-vis de l’interaction forte. Il existe également des états excités (appelés résonances, voir la rubrique « Analyse » dans ce numéro) formés à partir des mêmes constituants élémentaires, mais dont les masses sont plus élevées et qui sont instables vis-à-vis de cette même interaction.

Privés de liberté

© DR

Contrairement au photon, à l’électron ou aux neutrinos qui sont des particules élémentaires pouvant circuler librement dans le vide, les quarks et les gluons restent confinés, à cause de l’interaction forte, dans des particules composites dont la taille est de l’ordre de 10-15 m.

Distribution de la masse d’un système formé de deux pions de charges opposées. La courbe rouge correspond à la résonance appelée ρ0 et la courbe hachurée à du bruit de fond dans lequel les deux pions sont émis de manière indépendante.

Deux exemples de particules résultant de la liaison entre un quark up et un antiquark down. La combinaison la plus légère est le pion chargé dont la masse est voisine de 140 MeV/c2. Le rho chargé a une masse plus élevée et se désintègre par interaction forte en deux pions (r+ → π+ π0). Le ressort qui relie le quark et l'antiquark illustre le fait que l’interaction forte est transmise par échange de gluons entre les deux constituants élémentaires.

© Julien Serreau

États excités

ÉLÉMENTAÍRE

page 133

L’interaction forte entre un quark et un antiquark peut être attractive et permet la création de particules composites (les mésons). Les masses de ces particules dépendent du type du quark et de l’antiquark qui les constituent ainsi que d’autres propriétés. Par exemple, les deux constituants peuvent être animés d’un mouvement de rotation autour d’un axe commun. La mécanique quantique implique que l'énergie associée à cette rotation varie de manière discontinue lorsque l'on augmente ce mouvement et les masses des états correspondants sont de plus en plus élevées. Si l'état de plus faible masse est stable vis-à-vis de l’interaction forte, les autres ont de plus en plus de possibilités pour se désintégrer lorsque leur masse augmente. Cette instabilité se traduit par le fait que la masse de ces particules se répartit suivant une distribution dite de Breit-Wigner dont la largeur est d’autant plus grande que la durée de vie de la particule est faible. Ces particules instables sont appelées des résonances et seuls les premiers états excités peuvent être observés expérimentalement.


Tétraquarks et Pentaquarks Stable vis-à-vis de l’interaction forte Une particule est instable vis à vis de l’interaction forte si elle peut se désintégrer en d’autres particules sous l’effet de cette force. Cela ne peut avoir lieu que si la somme des masses des particules produites est inférieure à celle de la particule initiale. Cette condition est nécessaire mais n’est pas suffisante car d’autres règles, issues des propriétés (nombres quantiques) des particules initiale et finales, doivent être vérifiées. Par exemple la désintégration ρ0→ π0 π+ π- est interdite bien que la charge électrique soit conservée et que la masse du ρ0 (770 MeV/c2) soit supérieure à trois fois celle du pion (140 MeV/c2). Il peut paraître paradoxal a priori que des mésons, constitués de matière et d’antimatière soient des constructions stables vis-à-vis de l’interaction forte. Cela se produit si leurs masses sont trop faibles pour pouvoir donner naissance à d’autres mésons. Cette condition est toujours vérifiée dans le cas des mésons les plus légers qui se désintègrent par interaction faible ou électromagnétique. Par exemple, la désintégration π+ → m+ νμ est induite par l’interaction faible tandis que π0 → γγ est une transition électromagnétique. Ainsi, il n'existe pas dans la nature de méson qui soit vraiment stable vis-à-vis de toutes les interactions du Modèle Standard. Pour les baryons, la situation est différente. Comme ils ne contiennent que des quarks, ces derniers ne peuvent pas s'annihiler avec des antiquarks. Il faut invoquer une interaction au-delà du Modèle Standard c'est-à-dire jamais observée jusqu’ici, pour permettre au proton (le baryon le plus léger) de se désintégrer. Le proton est donc, dans la limite de nos connaissances, considéré comme stable. La limite expérimentale sur sa durée de vie est d’ailleurs de l’ordre de 1032 années (soit dix mille milliards de milliards de fois l’âge de l’Univers). Quand il est isolé, le neutron, légèrement plus lourd que le proton, peut se désintégrer par interaction faible en p e- – ne avec une durée de vie de 880 secondes. Notons que, dans un noyau atomique, un neutron peut être stable : pour que sa désintégration ait lieu il faut qu’il existe un autre noyau, dont la charge soit augmentée d’une unité, contenant le même nombre de nucléons et dont la masse (augmentée de celle de l'électron) soit inférieure à celle du noyau de départ ; c’est par exemple le cas de la désintégration du carbone-14 : Au sein d’un noyau atomique, il est également possible qu’un proton se transforme en n e+ ne à condition, également, que la masse du noyau initial soit supérieure à celle du noyau final, augmentée de celle de l’électron. Ensemble des mésons les plus légers. Le quark et l’antiquark qui les constituent sont indiqués en haut et à gauche (par exemple, le méson D- est un état lié entre le quark down (d) et l'antiquark charmé (–c )). Les mésons stables vis-à-vis de l’interaction forte sont représentés en rouge. Sur la diagonale on trouve les mésons formés à partir d’un quark et d’un antiquark de même type (ou saveur). Ces deux constituants peuvent s'annihiler mais la désintégration, par interaction forte, entraine nécessairement la création de nouvelles paires quark-antiquark qui vont se lier pour former à nouveau des mésons. En pratique, seules sont possibles, par interaction forte, les désintégrations des particules (représentées en bleu) dont la masse est supérieure à trois fois celle d’un pion. Dans ce tableau, la représentation des π0, η et–η’ a été simplifiée car ces particules sont en réalité des mélanges de paires u–u, dd et s–s. Elles ne sont donc pas uniquement formées d’une seule saveur de quark comme cela est indiqué.

Il est important de noter que lors de la désintégration d’un méson par interaction forte, les quarks présents dans la particule initiale se retrouvent dans les particules finales car les gluons ne peuvent pas changer la saveur d’un quark. Il existe cependant une exception dans le cas où le quark et l’antiquark de départ sont de même saveur. Ils peuvent alors s’annihiler en gluons qui à leur tour se transforment en paires quark-antiquark d’un type éventuellement différent.

page 134

Lors d’une collision au LHC, les particules chargées mesurées par les appareillages sont pour 95 % des mésons et environ 5 % des protons. Les mésons ainsi détectés correspondent aux états les plus légers que l’on peut former avec les quarks up, down et étrange. Ceux contenant un quark plus

ÉLÉMENTAÍRE


Tétraquarks et Pentaquarks © LHCb

Sur ce graphique, les lignes représentent les traces de particules chargées reconstruites dans l'expérience LHCb à partir d’une collision entre deux protons (tout à gauche). La majorité de ces traces correspondent à des pions. Les deux traces en violet, issues d’un point situé à une quinzaine de millimètres de la collision, proviennent de la désintégration d’un méson beau en deux muons.

lourd (charme ou beauté) ont une durée de vie très courte, voisine de 1 picoseconde, et se désintègrent, par interaction faible, en mésons formés de quarks plus légers. Quant au top, il se désintègre (en moins de 10-24 s), le plus souvent en un quark beau, avant d’avoir pu former un méson ou un baryon.

Désintégration d’un méson par interaction forte

Représentation très schématique de la désintégration en deux pions, par interaction forte, d’un méson, appelé ρ+, formé d’un quark up et d’un antiquark down (a). En (b), un gluon qui lie les constituants de départ donne naissance à une paire quark-antiquark down. Les quarks se réarrangent (c) de manière à former deux systèmes quark-antiquark dont la masse est la plus faible possible (ici des pions : π+ et π0). Ces deux systèmes sont moins liés entre eux que le quark et l'antiquark initiaux et se séparent (d). Les flèches vertes indiquent que le quark et l'antiquark de départ se retrouvent dans les deux pions créés. Une telle désintégration n'est possible que si la masse de la particule de départ est supérieure à deux fois la masse d’un pion m(π+) ≈ m(π0).

Le concept de quarks fut proposé par Murray Gell-Mann et George Zweig en 1964 pour expliquer la structure des mésons et des baryons connus à l’époque, ainsi que certains aspects de leurs désintégrations. À l'époque, l’existence de systèmes contenant un plus grand nombre de quarks et d’antiquarks avait été envisagée. Cependant jusqu’à ces dernières années, aucune combinaison de ce type, qualifiée d’exotique, n’avait été observée, à la grande surprise des théoriciens. En effet, plus le nombre de quarks formant une particule est élevé et plus il existe de possibilités pour les combiner.

Belle ouvre le bal En 2003, la collaboration Belle, opérant sur l’usine à B du laboratoire KEK, construit à Tsukuba au Japon, découvre une particule un peu bizarre, le X(3872)0, en étudiant les désintégrations de mésons beaux. La transition X(3872)0 → J/Ψ π+ π- est reconstruite, puis c’est au tour de – X(3872)0 → D0 D0* d’être observée. Le méson J/Ψ étant un état lié entre un quark et un antiquark charmés (c–c ) et le méson D0 contenant un

ÉLÉMENTAÍRE

Représentation très schématique d’un mode de désintégration possible, par interaction forte, pour un méson (J/ψ) formé d’une paire quark-antiquark de même saveur, ici le charme (a). En (b), le quark et l'antiquark se sont annihilés en gluons qui à leur tour donnent naissance à des paires quark-antiquark légères et de même saveur (c). Les différents constituants se réarrangent pour former les mésons les plus légers (d) que l'on peut ensuite mesurer dans les appareillages. Si la masse du méson initial est suffisante pour que les quarks de départ puissent se retrouver dans les mésons finaux, alors le mécanisme de désintégration précédent, illustré pour le ρ+, a lieu également et est le plus abondant.

page 135

Expérimentalement, ces résonances sont recherchées en mesurant les directions et les énergies de leurs produits de désintégration ce qui permet de calculer la masse de la particule initiale (voir la rubrique « Analyse » et l’encadré « résolution expérimentale » page suivante).


Tétraquarks et Pentaquarks quark charmé, les mesures précédentes impliquent que le X(3872)0 contient un quark et un antiquark charmés. Cependant certains théoriciens trouvent que sa masse n’est pas en accord avec les valeurs attendues pour un tel système s’il était formé uniquement d’une paire c–c. D’autre part, sa largeur (< 1,2 MeV/c2) est anormalement étroite car, dans ce domaine de masse, les particules observées jusqu’ici ont toutes plusieurs dizaines de MeV de largeur.

© BELLE

Les mesures précédentes impliquent Lorsqu’une particule se désintègre par interaction forte en produisant des particules contenant pour certaines des quarks lourds (charmés ou beaux), ces quarks lourds sont nécessairement présents dans la particule de départ. En effet les gluons, qui assurent la liaison entre les constituants d’une particule, créent fugitivement et en permanence des paires quark-antiquark en son sein mais cela ne concerne que les quarks les plus légers (up, down et étrange). Les masses des quarks lourds sont trop élevées par rapport à l’énergie emmagasinée par les gluons pour qu’ils puissent être créés « spontanément ».

Signal du X(3872)0 mesuré par la collaboration Belle, en 2003. Une accumulation d'événements est observée lorsque la masse du système J/Ψ π+ π- est voisine de 3870 MeV/c2 (1 GeV = 1000 MeV). La largeur du signal est compatible avec la résolution expérimentale si bien qu’il n'est pas possible de mesurer la largeur de la résonance qui correspond au X(3872)0.

Masse des quarks Comme les quarks restent confinés au sein de particules composites par des forces très intenses, mesurer leurs masses est particulièrement difficile, surtout pour les plus légers d’entre eux. Les masses des quarks up, down et étrange sont obtenues en utilisant la théorie de l’interaction forte qui permet de relier la masse des particules observées à celles des quarks qu’elles contiennent. Par exemple il a été établi que le carré de la masse du pion est proportionnel à la somme des masses des quarks up et down. Le coefficient de proportionnalité peut être calculé en utilisant de puissants ordinateurs qui permettent de simuler la dynamique de constituants élémentaires soumis à l’interaction forte. Des résultats récents donnent :

Résolution expérimentale

m(up) = (2,17 ± 0,11) MeV/c2, m(down) = (4,84 ± 0,14) MeV/c2 et m(étrange) = (96 ± 2) MeV/c2

En relativité restreinte, le carré de la masse d’une particule est égal à la différence entre les carrés de son énergie et de son impulsion. Expérimentalement, l’impulsion d’une particule chargée est obtenue en mesurant la courbure de sa trajectoire dans un champ magnétique dont la valeur est connue. En connaissant la valeur de la masse de la particule en question (par exemple s’il s'agit d’un pion) on peut calculer son énergie. La masse reconstruite du système J/Ψ π+ π- est alors égale à :

On peut ainsi remarquer que la masse des quarks dans un proton (2 up et 1 down) ne représente qu’environ 1 % de la masse totale, due en quasi-totalité à l’énergie de liaison issue des gluons (eux-mêmes de masse nulle). Les masses des quarks lourds excèdent l’énergie emmagasinée par les gluons (typiquement quelques centaines de MeV) et valent : m(charme) = (1 275 ± 25) MeV/c2, m(beauté) = (4 180 ± 30) MeV/c2 et m(top) = (173210 ± 870) MeV/c2. Formé uniquement d’une paire c–c De même qu’il est possible de calculer les niveaux d'énergie que peut occuper un électron dans un atome, on peut estimer ceux d’un système formé par un quark et un antiquark charmés. Cela revient à calculer les masses de ces différents états qui correspondent à des modes de vibration et de rotation différents du système. Ces calculs sont plus difficiles et moins précis que dans le cas atomique car ils concernent l’interaction forte au lieu de l’interaction électromagnétique. Des modèles sont alors utilisés et les paramètres dont ils dépendent sont contraints à partir des mesures des masses des états les plus faciles à identifier.

m2 (J|ψ π+ π-)c4 = [E(J|ψ) + E(π+) + E(π-)]2 →

– [ p (J|ψ) + p (π+)+ p (π-)]2c2. Elle diffère de la masse exacte car les mesures des impulsions et des directions des différentes particules ne sont pas parfaites. La masse reconstruite du système J/Ψ π+ π- est étalée suivant une distribution qui est due à deux effets : la largeur de la résonance et la dispersion des mesures des trajectoires autour de leurs valeurs exactes. page 136

L’existence du X(3872)0 a été confirmée par de nombreuses expériences. Plusieurs hypothèses ont été émises pour expliquer ces observations. Le – « X » pourrait être un état lié entre un D0 et un D0* (on parle alors d’une

ÉLÉMENTAÍRE


Tétraquarks et Pentaquarks « molécule », comme en physique atomique). En effet sa masse est très proche de la somme des masses de ces deux particules. Le « X » pourrait aussi résulter de l’association d’un diquark et d’un antidiquark : un état tétraquark. D’autres possibilités sont également évoquées mais nous ne pouvons toutes les énumérer ici.

Diquark Si l’on associe deux quarks, deux antiquarks ou bien un quark et un antiquark, la théorie de l'interaction forte prédit l'existence de deux systèmes liés (interaction attractive). L'un correspond à la formation d’un méson, système associant un quark et un antiquark dans lequel l’interaction forte est confinée à l'intérieur du méson. L’autre, appelé diquark, consiste en l'association de deux quarks et se comporte, vis-àvis de l’interaction forte, comme un antiquark (l'antidiquark qui correspond à l'association de deux antiquarks est similaire à un quark). Un diquark et un antidiquark, dans de telles configurations, interagissent d'une manière similaire à un antiquark et un quark. L'énergie de liaison entre les constituants dans ces diquarks (ou antidiquarks) est, selon certaines estimations, seulement deux fois plus faible que celle entre un quark et un antiquark dans un méson.

Le X(3872)0 pourrait être un état lié entre un méson D0 et un antiméson – – D*0 (ou bien un méson D*0 et un antiméson D0) comme cela est illustré sur le schéma de gauche. La liaison entre les deux particules (beaucoup moins intense que celle unissant les quarks à l'intérieur d'un diquark) est assurée par l'équivalent, pour l’interaction forte, de forces de Van der Waals. Dans l'exemple de droite, les deux quarks et les deux antiquarks s'associent pour former respectivement un diquark et un antidiquark. Ces deux objets se lient également par interaction forte.

Forces de Van der Waals Ces forces diffèrent des liaisons chimiques où des électrons sont mis en commun entre atomes pour former des molécules. Elles sont à courte portée car la force correspondante varie en d–7 où d représente la distance entre les deux objets en interaction (par comparaison, la force entre deux charges électriques varie en d–2).

Pour trancher entre ces différentes possibilités il faut mesurer le plus possible de propriétés de la particule X(3872)0 et les comparer à des modèles simplifiés de l'interaction forte décrivant ces différentes configurations. Cette exploration est en cours et, pour l’instant, il est difficile de trancher.

Zorro est arrivé

ÉLÉMENTAÍRE

page 137

Distribution de la masse Ψ'π±, obtenue par la collaboration Belle. L’histogramme en bleu représente le bruit de fond qui ne provient pas de désintégrations de mésons B. Une accumulation d'événements est observée aux alentours de 4430 MeV/c2. La courbe régulière, en dessous du signal, représente une évaluation simplifiée du bruit de fond.

© BELLE

L’observation d’une nouvelle particule, le Z(4430)± par la collaboration Belle, en 2008, va permettre d’affirmer que des états tétraquarks ont été réellement détectés. En effet, contrairement au X(3872)0 qui est neutre et pour lequel l’hypothèse qu’il soit un simple état lié c–c ne peut pas encore être totalement écartée, le fait que le Z(4430)± soit une particule chargée implique, comme nous allons le voir, la présence de quarks supplémentaires dans sa structure.


Tétraquarks et Pentaquarks Belle a étudié la désintégration de mésons beaux suivant la réaction B → Ψ’π± K et observé une résonance : Z(4430)± → Ψ’π± ayant une largeur d’environ 50 MeV. La particule Ψ' est un méson neutre composé d’une paire quarkantiquark charmés. Comme le Z(4430)± est chargé, il contient nécessairement un quark et un antiquark supplémentaires que l’on retrouve dans le π±. Cette nouvelle particule semble ainsi faite de deux quarks et de deux antiquarks : elle est donc exotique.

Représentation schématique de la production du Z(4430)– lors de la désintégration d'un méson B0 qui est un état lié entre un quark down et un antiquark beau. Ce dernier se désintègre par interaction faible en antiquark charmé et le W+, qui transmet cette interaction, se transforme à son tour en un quark charmé et un antiquark étrange. Le quark down contenu initialement dans le B0 ne participe pas réellement à la réaction ; on dit qu’il est « spectateur ». Les quarks et antiquarks créés lors de la transformation de l'antiquark beau sont émis avec des énergies et dans des directions différentes. Ils interagissent par interaction forte avec l'ensemble des quarks, antiquarks et gluons présents. Lors de ces interactions, une paire quark-antiquark up peut être créée. Le quark up peut alors s'associer avec l'antiquark étrange pour former un méson K+, stable vis-à-vis de l'interaction forte. L'ensemble des deux quarks et des deux antiquarks restants peut également s’associer pour former fugitivement (durant 3×10–24 s environ) l'état Z(4430)–.

En 2009, la collaboration BaBar a étudié dans des conditions similaires le même domaine de physique que Belle et a recherché le Z(4430)±, mais n’a pas vu de signal significatif. Cependant les distributions de masse Ψ’π± obtenues par les deux collaborations sont très similaires. Pour être convaincu de l’existence du Z(4430)±, l’analyse de plus de données était donc nécessaire.

Comparaison entre les distributions de masse mesurées par Belle et BaBar en utilisant les mêmes critères de sélection que ceux de Belle. Il n'apparait pas de signal clair pour BaBar alors que l'accumulation est « nette » aux environs de 4430 MeV/c2 (trait vertical en tirets rouges) chez Belle. En tenant compte des fluctuations statistiques, dont les valeurs sont indiquées par les traits verticaux situés de part et d'autre de chaque point de mesure, les deux distributions sont en fait très semblables.

page 138

En 2013, Belle a publié une analyse contenant environ 20 % d’événements en plus et en utilisant une méthode d’analyse similaire à celle de BaBar, c’est-à-dire plus élaborée que celle employée en 2008 et qui permet de mieux décrire l’ensemble des événements, outre ceux attribués au Z(4430)±.

ÉLÉMENTAÍRE


Tétraquarks et Pentaquarks La présence de la particule exotique est confirmée mais ses caractéristiques ont notablement varié : sa masse a augmenté de 50 MeV/c2 et sa largeur est passée à 200 MeV/c2 !

© LHCb

© BELLE

En avril 2014, la collaboration LHCb apporte la réponse finale : avec un échantillon 10 fois plus grand que l’ensemble des données utilisées par les expériences Belle et BaBar, LHCb démontre que l’accumulation d’événements aux alentours de 4430 MeV/c2 provient bien d’une résonance. Les paramètres du Z(4430) sont compatibles avec les derniers résultats de Belle et plus précis. La masse est égale à (4475 ± 26) MeV/c2 et la largeur vaut (172 ± 35) MeV/c2. De tels résultats sont également en accord avec les mesures de BaBar qui n’observait pas l’état étroit proposé initialement par Belle, mais pouvait s’accommoder d’une résonance large. Distribution du carré de la masse de la paire Ψ'π±. Les disques pleins noirs représentent les données. L'histogramme rouge est le résultat de l'ajustement avec un Z(4430)± et l'histogramme marron est obtenu sans cette particule. Les autres histogrammes colorés représentent les différents bruit de fond considérés et les points bleus, en bas, montrent la forme du signal du Z(4430)±. Cette dernière distribution présente un maximum vers m2Ψ'π=19,6 GeV2/c4 ce qui correspond environ au carré de la masse du Z(4430)±.

Avec le recul, on peut dire que Belle a pu affirmer l’existence de cet état avec beaucoup de chance et en utilisant une analyse « rudimentaire ». Le signal très « clair » de 2008 s’avèrera être beaucoup plus large et plus difficile à mesurer, sept ans plus tard, une fois plus de données accumulées. Il s’agit de la première observation d’une particule qui ne peut pas être formée uniquement par une paire quark-antiquark.

D’autres candidats tétraquarks Outre la détermination de la masse et de la largeur, la mesure d’autres propriétés du Z(4430)± par LHCb permet d’exclure que ce soit un état lié de type molécule, comme cela avait été évoqué, pour le X(3872)0. D’autre part, la mesure de la production du X(3872)0 au LHC, par la collaboration CMS, dans des réactions autres que la désintégration de mésons beaux, défavorise aussi l’interprétation du X(3872)0 en termes de molécule.

ÉLÉMENTAÍRE

page 139

L’association d’un diquark et d’un antidiquark permettrait par contre d’expliquer les mesures actuelles. Si elle s’avère être l’interprétation correcte, l’ensemble des prédictions de ce modèle doivent être également vérifiées. En particulier, si l’on change la saveur (u, d ou s) des quarks légers dans les

Distribution de la masse Ψ’π± obtenue par Belle en 2013. Les courbes bleue et rouge représentent, respectivement, les meilleurs ajustements des prédictions aux données avec et sans la contribution du Z(4430).

Le résultat de l’ajustement Ayant mesuré, par exemple, comment des événements sont distribués en fonction de leur masse, on recherche la présence d’un signal nouveau en comparant la distribution mesurée avec celle qui est attendue. Cette dernière distribution est calculée en incluant l'ensemble des désintégrations connues et des bruits de fond qui peuvent contribuer aux événements sélectionnés et en simulant les effets liés à l'appareillage et aux critères de sélection appliqués. S’il apparait un désaccord significatif entre les mesures (points noirs) et ces prévisions (courbe marron), on ajoute aux prévisions précédentes une (voire plusieurs) résonances dont les paramètres (masse, largeur, taux) sont ajustés (courbe rouge).


Tétraquarks et Pentaquarks

Illustration de la désintégration du Z(4430)+ en ψ'π+. Le Z(4430)+ est représenté par l'association entre un diquark et un antidiquark. L'ensemble des quarks de départ se retrouve dans les particules finales, ce qui implique un réarrangement des quarks et des antiquarks lors de la phase de désintégration.

© BESIII

combinaisons à quatre quarks précédentes, on prévoit l’existence de partenaires neutres et étranges des Z(4430)±, ainsi que des partenaires chargés et étranges du X(3872)0. De fait, en 2013, de nouveaux états ont été identifiés à Pékin par la collaboration BESIII et à KEK, par Belle. Ils s’ajoutent à de nombreux autres, en particulier les états dits « Y », dont plusieurs ont été découverts par BaBar. Cependant nous ne pouvons décrire ici l’ensemble de cette zoologie qui reste un sujet d’intense activité pour de nombreux physiciens.

Distribution de la masse de la paire J/ψπ± dans la réaction e+e– → J/ψ π+π- analysée par la collaboration BESIII. Un signal est visible à une masse voisine de 3900 MeV/c2 avec une largeur de 50 MeV/c2.

Les baryons font aussi dans l’exotisme

Ces nouvelles particules se désintègrent en J/Ψ p ce qui implique qu’elles contiennent quatre quarks et un antiquark, d’où l’appellation – de pentaquarks (si l’on part d’un antibaryon, L b, il se désintègre en K+ et un pentaquark qui se transforme à son tour en J/Ψ –p ).

© LHCb

Représentation schématique de la production d’un pentaquark lors de la désintégration d’un baryon beau qui est un état lié entre trois quarks (beau, up et down). Le mécanisme de production du pentaquark (P+) est similaire à celui invoqué précédemment pour le tétraquark lors de la désintégration d’un méson beau.

Mais les baryons ne sont pas en reste. En étudiant la désintégration de baryons beaux Λb → J/Ψ p K–, la collaboration LHCb a observé en 2015 deux résonances qui ne peuvent pas être simplement des états liés de trois quarks.

page 140

Distribution de la masse de la paire J/ψ p mesurée par LHCb en analysant des désintégrations de baryons contenant un quark beau. Les différents histogrammes, au bas de la figure, correspondent aux composantes qui ont été incluses (points rouges) pour expliquer les mesures (carrés noirs). Les deux signaux de pentaquarks sont indiqués par les pics hachurés. On peut noter que l'accord n'est pas parfait entre les mesures et l'estimation actuelle dans la région entre 4,5 et 4,7 GeV/c2 ce qui laisse présager de futurs progrès dans la compréhension des désintégrations étudiées.

ÉLÉMENTAÍRE


Tétraquarks et Pentaquarks Un de ces états, dont la masse vaut (4450 ± 3) MeV/c2, est étroit (sa largeur est égale à (40 ± 20) MeV/c2) et nettement visible. L’autre, de masse plus faible (4380 ± 30) MeV/c2, est large : (200 ± 100) MeV/c2. Il est détectable uniquement en utilisant une analyse détaillée de la désintégration du Λb, en particulier en prenant en compte les nombreuses résonances qui se désintègrent en pK–. Le même modèle de diquarks, présenté pour expliquer la structure et les propriétés des tétraquarks, peut être utilisé pour décrire les pentaquarks et les baryons « classiques ». Dans un baryon, formé de trois quarks, on peut envisager que deux quarks s’associent pour former un diquark. Ce dernier, qui se comporte comme un antiquark vis-à-vis de l’interaction forte, se lie ensuite au troisième quark. Dans cette description, toutes les possibilités d’associer deux quarks en un diquark doivent être envisagées. Les pentaquarks observés par LHCb sont, dans ce modèle, des états liés entre un antiquark et deux diquarks ce qui les rend équivalents à des antibaryons du point de vue de l’interaction forte. Il est également possible d’interpréter ces états en utilisant l’approche moléculaire en ayant noté, par exemple, que la masse de l’état étroit est proche de la somme des masses de deux résonances connues, contenant un quark charmé, notées Σc et D*0.

La suite ?

Illustration de l’utilisation de diquarks pour décrire la structure du proton ainsi que des pentaquarks observés par LHCb. Sur la figure, seules certaines associations ont été illustrées. En pratique, toutes les associations (comme, par exemple, ud pour le proton) doivent être considérées.

Des résonances formées de quatre et cinq constituants élémentaires semblent maintenant établies. On prévoit que leur nombre est bien plus élevé que celui des particules « classiques » connues (mésons et baryons). Dans le passé, l’association entre un quark et un antiquark avait permis de décrire l’ensemble des mésons. Les baryons étaient le résultat de l’association de trois quarks. Il reste à découvrir la structure qui est à même d’expliquer les tétra et pentaquarks. L’invocation des diquarks comme sous-structures dont les propriétés sont voisines des antiquarks semble être une voie prometteuse. On peut remarquer que les seuls états de plus de trois quarks observés jusqu'à présent sont des états charmés. Cela peut être dû à un biais expérimental car, contrairement aux quarks légers, il est plus facile de suivre le cheminement d’un quark lourd lors du processus allant de la création à la désintégration d’un état multiquark. Cela peut également être dû à des raisons plus fondamentales qui empêchent la liaison entre constituants dans le cas de « multiquarks » légers. Pour l’instant, des calculs d’états tétra et pentaquarks, directement à partir de la théorie de l’interaction forte, restent trop complexes même pour les ordinateurs les plus performants. Il convient donc de souligner le fait que l’on ne dispose pas d’une théorie simple des résonances, et que l’on doit avoir recours à des hypothèses simplifiées pour faire des prédictions, qui sont pour l’instant nécessairement approximatives.

ÉLÉMENTAÍRE

page 141

Notons pour terminer que l’on n’attend pas de tétra et pentaquarks stables vis-à-vis de l’interaction forte, comme c’était le cas pour les mésons et les baryons les plus légers ; il s’agit de particules instables et difficiles à observer. Ces nouveaux états sont donc assez particuliers et beaucoup de leurs propriétés restent à découvrir.

Description d’un état pentaquark comme état lié, de type molécule, entre un baryon charmé et un antiméson charmé.



ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro1

Revue d’information scientifique

De l’atome...

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 2

Revue d’information scientifique

Le neutron

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Les rayons

Numéro 3

Revue d’information scientifique

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 4

Revue d’information scientifique

La couleur...

Solstice d’été 2006

cosmiques

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 5

Revue d’information scientifique

Les neutrinos

Solstice d’hiver 2006

e-

De l’infiniment petit à l’infiniment grand

Numéro 7

Revue d’information scientifique

Solstice d’été 2009

Quand l’Univers...

...fait boum !

u

De l’infiniment petit à l’infiniment grand

Numéro 6

Revue d’information scientifique

Le Modèle

d

u p

Standard

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 8

Revue d’information scientifique

En route pour...

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

... l'au-delà

Numéro 9

Revue d’information scientifique

Les premiers...

Équinoxe d'automne 2016

ÉLÉMENTAÍRE

n

u

Équinoxe d'automne 2010

...des particules

Équinoxe d’été 2007

νe W

d d

ÉLÉMENTAÍRE Équinoxe de printemps 2008

...au noyau

Équinoxe d’automne 2005

Équinoxe du Printemps 2005

. . ?.. 7 !! ro.. ue p 6 mé rev ir nu tte .. vo ier i ce er? em quo tact r P ur on Po us c No

de ! de les iso cu ép arti el p uv es no e d Un ntur ve l'a

...résultats du LHC



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.