N8_

Page 1

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 8

Revue d’information scientifique

Équinoxe d'automne 2010

En route pour...

e e d les ! d iso cu ép arti r ie s p ern e de d Le ntur ve l'a

... l'au-delà


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

«Déjà fini ?» Voilà la question qui occupait la rédaction d’Élémentaire alors que nous mettions la dernière main aux articles. En effet, après avoir passé les précédents numéros à vous exposer ce que nous pensons savoir de la matière à ses échelles les plus fines, et à vous montrer à quel point cette image est cohérente, nous abordons aujourd’hui les frontières mêmes de ce savoir : sommesnous arrivés aux limites de notre compréhension ? Y a-t-il quelque chose au-delà du Modèle Standard qui a fourni une description si complète des expériences menées jusqu’à présent ? Qu’allons-nous trouver au LHC : le seul boson de Higgs couronnant et achevant le Modèle Standard ? Ou une grande variété de phénomènes nouveaux et inconnus ? Il existe de nombreux arguments théoriques, et certaines indications expérimentales, qui permettent d’affirmer que le Modèle Standard n’est pas la fin de l’histoire. Mais une fois passée cette constatation, lorsque les énergies mises en jeu augmentent encore, comment les lois de la Nature vont-elles s’écarter de nos connaissances lentement acquises au fil des décennies ?

Dans ce numéro, nous allons donc aborder ce qui échappe à notre vision actuelle des particules élémentaires et pourrait se manifester au LHC. Dans l’Apéritif, nous mettons en lumière les limites du Modèle Standard, un édifice très élaboré dont la construction vous est rappelée dans Histoire. Et pour aller au-delà ? Différentes alternatives pour étendre le Modèle Standard et résoudre certaines questions qu’il laisse en suspens sont décrites dans Théorie. Bien souvent, ces extensions prévoient l’apparition au LHC de nouvelles particules, que l’on identifiera sous la forme de résonances (Analyse), parfois associées à la production de muons, identifiés à l’aide de chambres décrites dans Détection. Bien évidemment, outre les dernières nouvelles commentées dans ICPACKOI, nous racontons en détail le (re)démarrage du LHC dans la rubrique homonyme, et nous vous faisons partager dans Découverte les impressions de plu-

sieurs physiciens sur leurs attentes. Au LHC, les collisions ont repris en abondance et à des énergies très élevées, ce qui requiert une électronique de grande qualité pour enregistrer les données. Comme le raconte Retombées, les progrès faits dans ce domaine ont pu être exploités hors du cadre de la physique des constituants élémentaires de la matière. De même, la quantité de données enregistrées nécessite une capacité de traitement informatique très importante, obtenue en reliant des ordinateurs répartis dans le monde entier : c’est le principe de la grille de calcul, expliqué dans la rubrique Centre. Au-delà du LHC, nous aborderons aussi quelques perspectives pour l’avenir, en évoquant d’autres manières de mettre en évidence de la Nouvelle Physique par des processus très rares (Expérience), et en décrivant différents projets d’accélérateurs prolongeant l’aventure du LHC (Accélérateurs). Enfin, la Question qui tue touchera un sujet pour le moins essentiel dans cette quête de Nouvelle Physique : «Qu’est-ce qu’une théorie fondamentale ?» «Déjà fini ?» C’était bien la question qui occupait nos esprits alors que nous finissions ce numéro, qui sera le dernier de ce cycle d’Élémentaire. Au fil de ces années, nous avons couvert une vaste portion des sujets qui nous tenaient à cœur, alors que notre revue avait pour fil rouge et pour objectif le démarrage du LHC. Maintenant que ce dernier accumule des données que des milliers de physiciens étudient en détail, une nouvelle ère s’ouvre. Qui sait ? D’ici quelques années, peut-être consacrerons-nous un nouveau cycle d’Élémentaire aux découvertes, attendues ou inattendues, du LHC. Mais d’ici là, nous aimerions remercier tous ceux qui ont participé durant ces années à la conception, à l’écriture et au financement de cette revue. Mais plus encore, nous vous remercions, vous les lecteurs de cette revue, qui nous ont incités à poursuivre jusqu’au bout cette aventure par votre soutien amical et vos courriers enthousiastes. Nous espérons sincèrement que vous avez pris autant de plaisir à suivre l’épopée de la physique des constituants élémentaires de la matière que nous en avons eu à vous la raconter.

Revue d’information publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Sébastien Descotes-Genon Rédaction : N. Arnaud, S. Descotes-Genon, L. Iconomidou-Fayard, P. Roudeau, J.-A. Scarpaci, M.-H. Schune, J. Serreau. Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec. Ont participé à ce numéro : E. Baracchini, D. Bernard, D. Breton, A. Cazes, G. Grosdidier, M. Ridel, C. Rimbault , A.Specka, C. de la Taille, A. Variola. Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/ Imprimeur : Imprimerie LouisJean, Gap. Numéro ISSN : 1774-4563


Apéritif p. 4 Et après ?

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Histoire p. 6

Accélérateurs p. 40 Les accélérateurs de particules du

Interview p. 13

Découvertes p. 50 Impressions au démarrage du LHC

Une théorie presque trop parfaite... le Modèle Standard

futur

Pierre Binétruy

Centre de recherche p. 17 La grille de calcul

Expérience p. 21

Théorie p. 56

Un au-delà bien difficile à CERNer

La question qui tue p. 72 Qu’est-ce qu’une théorie fondamentale ?

Deux expériences où on espère bien ne pas rien voir

Détection p. 27 Trouver de la physique nouvelle avec les muons

Le LHC p. 62

Retombées p. 31

ICPACKOI p. 67

Les gadgets du LHC chez vous !

Analyse p. 35 La distribution de Breit-Wigner

Le redémarrage réussi du LHC

Deux muons, sinon rien L’expérience de St Thomas

Achat au numéro : faites votre demande de numéros sur le

serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Prix au numéro (port inclus) : 3 euros, chèque libellé à l’ordre de «AGENT COMPTABLE SECONDAIRE DU CNRS». Contact : elementaire@lal.in2p3.fr


Apéritif Et après ? Élaboré dans les années 1960 et 1970, le Modèle Standard est le cadre théorique qui décrit les particules élémentaires connues actuellement ainsi que leurs interactions. Moyennant l’introduction d’un certain nombre de paramètres déterminés par des expériences, il donne une description cohérente et unifiée des phénomènes aux échelles subnucléaires (c’està-dire à des distances inférieures à 10 -15 m). Comme nous l’avons vu dans les numéros précédents d’Élémentaire, qui dit petites échelles dit grandes énergies. C’est pourquoi le Modèle Standard s’appuie d’une part sur la physique quantique (petites échelles) et d’autre part sur la relativité restreinte d’Einstein (grandes énergies). C’est aussi la raison pour laquelle il a été exploré en procédant à des collisions à des énergies de plus en plus élevées (jusqu’à quelques centaines de GeV). Ainsi que nous l’avons vu dans le numéro 6, les ingrédients essentiels de ce cocktail réussi sont : ● six quarks et six leptons (ainsi que leurs antiparticules), regroupés en trois familles de plus en plus massives, aux propriétés semblables ; ● trois interactions (électromagnétique, faible et forte), décrites par l’échange de particules médiatrices (respectivement le photon, les bosons W+, W-, Z0 et les gluons) ; ● enfin, le boson de Higgs, dont la présence reflète le mécanisme qui donne des masses aux particules dans le Modèle Standard. C’est la seule particule qui n’a pas encore été observée (elle sera traquée au LHC), mais sa masse est déjà fortement contrainte par les mesures indirectes menées dans les expériences antérieures.

L'analyse des données du Tevatron a permis d'exclure certaines valeurs de la masse du boson de Higgs (zone verte), en comparant ces mesures (ligne continue) avec les prédictions du Modèle Standard (ligne pointillée). La région déjà exclue par les expériences LEP, qui s'étend jusqu'à une masse de 114 GeV, est indiquée en violet.

Si le Modèle Standard est si efficace, pourquoi les physiciens s’échinentils à imaginer des extensions ou des alternatives à cette théorie ? Tout d’abord, un élément central de la théorie, le boson de Higgs, reste encore à découvrir. Mais quand bien même nous découvririons au LHC ce boson là où les physiciens l’attendent, ce ne pourrait être la fin de l’histoire. On sait qu’il doit y avoir des phénomènes au-delà du Modèle Standard. En effet, le Modèle Standard n’est certainement pas une « théorie du tout », en premier lieu parce que l’expérience nous montre déjà certaines de ses limitations. L’asymétrie entre matière et antimatière présente dans le Modèle Standard s’avère nettement insuffisante pour expliquer la prédominance de la matière observée dans l’Univers. Le Modèle ne comporte aucune particule lourde et interagissant faiblement capable de constituer la matière noire, dont la présence dans le cosmos et l’influence gravitationnelle semblent indispensables pour expliquer le mouvement des étoiles dans les galaxies et la formation des grandes structures comme les amas de galaxies. Par ailleurs, la masse très faible (mais non nulle) des neutrinos connus peut être comprise en invoquant l’existence d’autres neutrinos, très massifs. Enfin, le Modèle Standard ne prend en compte que trois des quatre interactions fondamentales connues : la gravité manque à l’appel. Aux échelles d’énergie atteintes par les accélérateurs de particules, son effet page 4

Mesures indirectes Le boson de Higgs est l’artisan de l’unification entre les interactions faible et électromagnétique dans le Modèle Standard, et il fournit leur masses à toutes les particules. La masse du boson de Higgs est un paramètre déterminant dans les prédictions du Modèle Standard pour les processus faisant intervenir des bosons W+, W- et Z0 véhiculant l’interaction faible. Or ces processus ont été mesurés avec une très grande précision au LEP (CERN) et au SLC (Stanford), ce qui permet de contraindre indirectement la masse du boson de Higgs avant même de l’avoir mesuré... s’il existe bel et bien !

Pourquoi aller plus loin ?

ÉLÉMENTAÍRE


Et après ? est heureusement négligeable par rapport aux trois autres interactions. Mais on ne peut pas toujours la laisser complètement à l’écart, en particulier lorsqu’on s’intéresse aux premiers instants de l’Univers. Enfin, le Modèle Standard est défini par un nombre conséquent de paramètres (19 !) dont les valeurs ont été précisément déterminées par diverses expériences : on ne sait toutefois pas les prédire, ni expliquer leurs ordres de grandeur, parfois très différents. C’est le cas en particulier pour les masses des particules (le quark top est environ 350 000 fois plus lourd que l’électron). Dans le Modèle Standard, elles sont dues aux propriétés du boson de Higgs, sans que l’on puisse expliquer pourquoi certaines particules interagissent plus que d’autres avec lui, et deviennent de la sorte plus massives.

Pour télécharger cette affiche (en français, en anglais, en allemand ou en russe !), allez sur http://quarks. lal.in2p3.fr/afficheComposants/.

Les théoriciens ont imaginé de nombreuses extensions ou modifications du Modèle Standard pour répondre à certaines de ces questions. Une bonne partie des efforts se concentre sur le boson de Higgs et l’unification des interactions faible et électromagnétique. En effet, les propriétés du boson de Higgs dans le Modèle Standard dépendent fortement de ce qu’on peut imaginer sur la physique aux énergies plus élevées... Un autre axe est l’unification des interactions à plus haute énergie, et l’explication de la structure en familles du Modèle Standard. Au fil des années, ces axes de recherche ont engendré une pléthore de modèles, de plus en plus contraints par les mesures expérimentales, toujours en très bon accord avec le Modèle Standard. Comment les départager ? Puisque la plupart de ces modèles tentent d’expliquer l’unification des interactions faibles et électromagnétiques, ou les masses des particules les plus lourdes, comme le top, ils prédisent généralement de nouveaux phénomènes, de la Nouvelle Physique, lorsqu’on procède à des collisions aux énergies de l’ordre du TeV... Voilà qui explique les décisions prises lors de la conception et de la mise au point du LHC afin de lui permettre d'enregistrer des données dans ce domaine d’énergie probablement riche en surprises.

ÉLÉMENTAÍRE

page 5

Alors, bientôt des nouvelles de l’au-delà (du Modèle Standard) ?


Histoire Une théorie presque trop parfaite Le Modèle Standard : un nom mal choisi ! Le Modèle Standard est la théorie qui, actuellement, décrit les particules élémentaires et leurs interactions. Pour mieux comprendre ce qu’il représente pour les physiciens, commençons par ouvrir le Dictionnaire Larousse en trois volumes pour vérifier le sens de quelques mots. Une « théorie » (du grec theôria, méditation, étude) est un « ensemble de règles, de lois systématiquement organisées, qui servent de base à une science et qui donnent l’explication d’un grand nombre de faits ». La définition de « modèle » (du latin modulus, mesure) est la suivante : « toute structure formalisée utilisée pour rendre compte d’un ensemble de phénomènes qui possèdent entre eux certaines relations ». Un modèle est donc plus spécialisé et moins complexe qu’une théorie. Enfin, « standard » (de l’anglais standard, type, étalon, mot lui-même dérivé de l’ancien français estandard, étendard) signifie : « qui est conforme à une norme de fabrication, à un modèle, à un type ». Un modèle scientifique est donc une représentation de la réalité basée sur un ensemble de règles, par exemple la manière dont deux charges électriques s’attirent ou se repoussent selon qu’elles sont opposées ou de même signe. En appliquant ces principes, on obtient des prédictions qu’on peut ensuite tester au moyen d’expériences. Une fois qu’un modèle a démontré sa capacité à décrire un grand nombre de situations, il prend du galon et accède au rang de théorie. C’est ce qui s’est passé pour le Modèle Standard, construit à partir de différents éléments qui ont été associés de manière à former un tout cohérent et dont les paramètres ont été choisis pour « coller » avec la réalité. Parmi les nombreux modèles en compétition dans les années 1970, il a été le seul à passer une vaste batterie de tests expérimentaux. S’il a conservé son nom initial de « modèle », des majuscules sont venues souligner le fait qu’il était en fait une théorie à part entière.

Exemple d'évolution d'un autre "Modèle Standard" : on constate qu'il manque toujours quelque chose !

F1

F2

m2

r 2 F1 = F2 = G m1 x m 2 r

On attend également d’une théorie qu’elle soit « simple » : il est hors de question de devoir lui ajouter de nouvelles règles chaque fois qu’une observation prend en défaut l’une de ses prédictions. Cet argument, presque de nature esthétique, est justifié en pratique : à partir de quelques principes généraux convenablement utilisés, une théorie doit permettre

Loi de la gravitation universelle page 6

m1

L’adjectif « standard » n’est pas non plus anodin. On a un Modèle Standard comme on avait autrefois une loi de la gravitation « universelle », c’està-dire s’appliquant sans distinction à tous les corps massifs. Le Modèle Standard – dont la construction pièce par pièce, fruit des efforts conjugués de théoriciens et d’expérimentateurs, s’étale sur trois décennies – est une des plus grandes réussites de la physique du XXe siècle. Sa capacité à décrire avec précision la Nature et à passer tous les tests imaginés depuis près de 40 ans a fait le vide autour de lui. Actuellement, il n’existe pas de théorie décrivant mieux les résultats expérimentaux et il est donc « standard » d’utiliser son formalisme et ses concepts dans toute étude portant sur les particules et leurs propriétés.

ÉLÉMENTAÍRE


...le Modèle Standard de comprendre un grand nombre de phénomènes, souvent distincts en apparence. L’exemple typique d’une théorie qui apporte à la fois progrès dans la connaissance et simplification des concepts est celui de la loi de la gravitation universelle, publiée en 1687 par Newton. Une seule formule explique à la fois la chute des corps sur Terre et le mouvement des astres dans le ciel. Dans ce dernier domaine, elle remplace les modèles hérités de Ptolémée, vieux de plus de 1000 ans, et qui imaginent que les corps célestes se déplacent sur des sphères rigides, elles-mêmes en mouvement sur d’autres sphères, etc. Mais le Modèle Standard n’explique pas tout, comme nous le verrons plus bas. Toute théorie a vocation à être remplacée un jour par une autre qui étendra son domaine de validité – ainsi la relativité générale d’Einstein (1915) s’est avérée meilleure que la loi de la gravitation universelle. Si le Modèle Standard est valable à « basse énergie », c’est-à-dire pour les énergies atteintes par toutes les expériences qui ont précédé le LHC, ses règles de calculs et les hypothèses associées donnent des résultats absurdes à plus haute énergie. Il est donc clair pour les scientifiques qu’il ne s’agit « que » d’une théorie effective, c’est-à-dire une version simplifiée d’une autre théorie, plus générale et encore inconnue. Le problème est que le Modèle Standard est aujourd’hui presque trop performant : quel que soit le test auquel on le soumet, il donne des résultats en accord avec les mesures ! En tout cas dans la limite des incertitudes théoriques et expérimentales… Actuellement les physiciens n’ont donc pas de certitude sur la direction à suivre pour obtenir des désaccords avec la théorie. Les deux voies possibles – augmenter l’énergie des collisions pour voir apparaître des effets nouveaux ou réaliser des mesures de précision à des énergies fixées – sont donc explorées méthodiquement et exhaustivement. La question de savoir ce qu’il y a au-delà du Modèle Standard est tellement importante en physique des particules qu’on a donné un nom générique à ces lois de la Nature encore inconnues : la « Nouvelle Physique » sera peut-être découverte au LHC. Pour le moment, en l’absence de « challengers » dignes de ce nom, le Modèle Standard règne sans partage sur la physique des particules, et ce depuis les années 1960-1970.

De Ptolémée à Einstein en passant par Copernic, Képler et Newton : quelques étapes sur le chemin de la loi de la gravitation.

Le Modèle Standard ne s’est pas construit en un jour Le Modèle Standard est le résultat d’une avancée continue des connaissances qui a vu les physiciens des particules explorer toujours plus profondément la matière tout au long du XXe siècle. En effet, 103 ans séparent la découverte de l’électron (1897) de celle de la douzième et dernière particule élémentaire, le neutrino-tau (2000). Dans l’intervalle, expériences et découvertes se sont succédé, préparant l’émergence du Modèle Standard, ou permettant de le tester très précisément. La dénomination « Modèle Standard » (majuscules incluses) pour page 7

ÉLÉMENTAÍRE

Usain Bolt court tellement vite qu'il n'est pas à la bonne page. Règne sans partage Pour plus de détails, nous invitons le lecteur à se reporter au 6eme numéro d’Élémentaire, tout entier consacré au Modèle Standard.


Une théorie presque trop parfaite Situations contraires à l'intuition en relativité restreinte : ● le lien entre espace et temps, lequel perd du même coup son caractère immuable. Plus une particule se déplace rapidement, plus la différence entre son « temps propre » (c’est-à-dire le temps mesuré dans un référentiel accroché à la particule et pour lequel elle est au repos) et le temps mesuré dans un référentiel où elle est en mouvement (par exemple par la montre d’un physicien étudiant cette particule) est importante. Tout comme l’espace, le temps devient relatif et l’observateur a l’impression que celui-ci a ralenti pour la particule. Ainsi, sans la relativité, on ne comprendrait pas comment les muons produits dans les hautes couches de l’atmosphère lors des interactions entre molécules et rayons cosmiques arrivent sur terre puisque leur durée de vie n’est que de 2,2 microsecondes : s'ils étaient capables de se déplacer à la vitesse de la lumière, ils ne devraient parcourir en moyenne que 660 mètres avant de se désintégrer ! Pourtant on les observe plusieurs dizaines de kilomètres après leur création, preuve que leur durée de vie – fixée à 2,2 microsecondes pour leur temps propre – s’est allongée pour les horloges situées au sol. Ce phénomène, inexistant en mécanique classique, est dû à l’énergie élevée des muons qui rend ces particules relativistes, c’est-à-dire sensibles aux effets propres de la relativité. En pratique, il faut aller très vite pour observer cette propriété : l’effet atteint 1% (10%) pour une vitesse de 0,14 (0,44) fois celle de la lumière, soit à peu près 42 000 km/h (131 000 km/h). Un muon avec une énergie de 1 GeV se déplace à 99,4% de la vitesse de la lumière. la notion de vitesse indépassable (celle de la lumière dans le vide). Dans la vie courante, les vitesses s’additionnent : si vous courez à 35 km/h dans un train qui roule à 300 km/h, un observateur immobile à un passage à niveau vous verra passer à 335 km/h ou 265 km/h selon que vous courez ou non dans le même sens que le train. La relativité restreinte nous apprend que la vraie loi de « composition des vitesses » est différente. Pour des vitesses « faibles » devant celle de la lumière (désolés pour le TGV et Usain Bolt …) l’addition des vitesses est une très bonne approximation de la réalité, toujours suffisante en pratique. Par contre, la formule n’est plus correcte quand on considère des particules « relativistes », c’est-à-dire dont les vitesses sont très proches de celles de la lumière. Ainsi, un photon (de masse nulle et donc voyageant à la vitesse de la lumière) se déplace à la même vitesse pour tous les observateurs, qu’ils soient au repos ou en mouvement par rapport à lui ! ●

désigner l’ensemble formé par la théorie électrofaible (ou « Modèle de Weinberg-Glashow-Salam ») et la théorie de l’interaction forte (ou « Chromodynamique Quantique ») s’est développée dans la seconde moitié des années 1970 et est très vite devenue universelle. Les fondements du Modèle Standard sont la relativité restreinte et la mécanique quantique. Ces deux théories décrivent des situations contraires à l’intuition qui font néanmoins partie intégrante du monde de l’infiniment petit et de l’infiniment rapide. C’est en les combinant que notre compréhension de la structure de la matière s’est progressivement affinée. Ainsi, il aura fallu attendre près de vingt ans pour que le concept de photon, introduit par Einstein en 1905 pour expliquer l’effet photoélectrique, devienne une réalité suite à l’expérience de Compton en 1922. De même, le neutrino est inventé par Pauli en 1930 pour expliquer des résultats incompréhensibles avec les seules particules connues à

page 8

L'effet photoélectrique Lorsqu’on éclaire une plaque de métal avec un rayonnement ultraviolet intense, on parvient à en éjecter des électrons. D’après la théorie ondulatoire de la lumière, seule l’intensité de l’onde électromagnétique détermine la quantité d’électrons ainsi émis et leur vitesse initiale. En effet, l’énergie d’une onde ne devrait dépendre que de son intensité. Expérimentalement, il s’avéra que les électrons étaient produits seulement si la fréquence du rayonnement dépassait un certain seuil. Au-dessus, des électrons étaient toujours éjectés, même pour une lumière de très faible intensité ! Pour expliquer ce résultat, Einstein reprend en 1905 une hypothèse proposée par Planck quelques années plus tôt : une onde électromagnétique est composée d’une multitude de quanta lumineux, les photons, qui portent une énergie bien précise et proportionnelle à la fréquence de cette onde. Lors de l’effet photoélectrique, chaque photon interagit individuellement avec les électrons de la plaque métallique. Un rayonnement de forte intensité mais de basse fréquence contiendra beaucoup de photons peu énergétiques : chacun d’entre eux sera trop faible pour arracher un électron du métal. Inversement, une lumière de basse intensité mais de haute fréquence contiendra moins de photons, mais chacun portera assez d’énergie pour éjecter au moins un électron.

ÉLÉMENTAÍRE


...le Modèle Standard Situations contraires à l'intuition en mécanique quantique : ● la quantification de certains phénomènes Par exemple, les électrons d’un atome sont organisés en couches distinctes. À chaque couche est associée une énergie bien précise, commune à tous les électrons qui l’occupent. Plus la couche est éloignée du noyau, plus le « niveau d’énergie » correspondant est élevé. Un atome au repos s’organise de manière à ce que son énergie soit la plus faible possible, ce qui explique pourquoi les électrons commencent par remplir les couches les plus internes ; ils ne passent à une nouvelle couche que lorsque la précédente est complète – « saturée ». Un atome est dans un état « excité » lorsqu’un électron au-moins s’est déplacé de sa couche « habituelle » vers une couche plus externe ; il revient rapidement à son état « fondamental » en émettant un photon dont l’énergie est égale à la différence de niveau d’énergie entre la couche externe et la couche « habituelle » que l’électron réintègre lors de ce processus. Ces différences d’énergie sont donc également quantifiées. le fait que les particules élémentaires soient ponctuelles L’électron ou les quarks ont des propriétés physiques bien déterminées – une masse, des charges non nulles pour certaines interactions, etc. – mais ces particules nous apparaissent expérimentalement comme sans dimension et donc sans structure interne. ●

la dualité onde-corpuscule chez les particules. Selon la manière dont on l’étudie, la lumière nous apparaît soit comme une onde, soit comme un ensemble de corpuscules. Elle est en fait constituée d’une multitude de particules élémentaires, les photons, qui sont des objets subtils dont les caractéristiques empruntent à la fois aux ondes et aux corpuscules. Une propriété fondamentale est que leur énergie E est inversement proportionnelle à la longueur d’onde de la lumière λ : E = hc / λ où h et c sont respectivement la constante de Planck et la vitesse de la lumière dans le vide. Encore plus surprenant pour notre intuition « classique », les particules de matière (électrons et quarks) montrent également cette dualité. ●

l’impossibilité de mesurer l’état d’un système (par exemple une particule) avec une précision arbitraire. Il s’agit d’un effet purement quantique qui n’a pas d’équivalent en physique classique. On peut démontrer que le produit des incertitudes sur la position et la vitesse d’une particule est toujours plus grand qu’une certaine valeur – non nulle – et ce quelle que soit la manière dont on effectue la mesure. Cette inégalité montre également que plus on connaît précisément l’une des quantités (par exemple la position de la particule), plus l’information sur l’autre (ici sa vitesse) est pauvre ! ●

l’époque, l’électron et le proton. Ce neutrino interagit si faiblement avec la matière qu’il est alors indétectable ; ce n’est qu’en 1956 qu’il sera observé auprès du réacteur nucléaire de Savannah Bay aux États-Unis. Les outils utilisés pour étudier la matière ont également évolué. Les tubes de Crookes ont été remplacés par les accélérateurs tandis que les sources de particules, toujours plus énergétiques, se sont diversifiées : les éléments radioactifs naturels ont laissé la place aux rayons cosmiques, puis aux faisceaux artificiels créés par les scientifiques pour produire des collisions au centre de leurs détecteurs. Ces derniers ont également changé du tout au tout : alors qu’au début du siècle dernier ils tenaient sur une table et ne nécessitaient que le travail d’une petite équipe, ce sont aujourd’hui des colosses de haute technologie dont les dimensions se comptent en dizaines de mètres et le poids en milliers de tonnes. Des centaines, voire des milliers de personnes font partie des collaborations qui les exploitent ; l’essentiel de l’analyse des résultats fait appel à des ordinateurs, toujours plus nombreux et puissants – voir « Centre ».

Des photons de longueur d’onde donnée (c’est-à-dire une lumière monochromatique) sont envoyés sur une feuille de matière. Expérimentalement, on observe que certains d’entre eux entrent en collision avec des électrons des atomes et se comportent donc comme des corpuscules. Lors d’un tel choc, un photon perd une partie de son énergie (cédée à l’électron) et sa trajectoire est déviée. Le changement de direction est relié à l’énergie perdue et donc à l’augmentation mesurable de longueur d’onde de la lumière diffusée. Cette expérience, dite de Compton, a validé expérimentalement le concept de photon – jusqu’à sa réalisation, certains physiciens pensaient que le photon n’était qu’un artifice de calcul sans existence concrète – et a valu à son auteur le prix Nobel de physique en 1927.

ÉLÉMENTAÍRE

page 9

Les progrès théoriques ont accompagné chacune de ces avancées expérimentales : si le Modèle Standard simplifie la description de la matière – douze particules élémentaires sensibles à trois interactions – sa mise en


Une théorie presque trop parfaite Schéma d’un tube de Crookes. Si la différence de tension entre les deux plaques métalliques est suffisante, le champ électrique ainsi créé agit sur les quelques ions positifs naturellement présents dans l’air. Attirés par la cathode, ils entrent en collision avec des molécules de gaz et leur arrachent des électrons. D’autres électrons sont produits lorsque les ions interagissent finalement avec la cathode ; chargés négativement, ils voyagent tous en ligne droite vers l’anode et sont accélérés lors de leur déplacement. Ainsi, il se met en place une circulation continue d’électrons de la cathode vers l’anode comme si le circuit était « fermé » par un « vrai » fil. Avec les générateurs disponibles à la fin du XIXe siècle, le phénomène, visible par fluorescence (propriété de certaines molécules qui réémettent de la lumière juste après avoir absorbé de l’énergie lumineuse) est le plus spectaculaire lorsque la pression à l’intérieur est comprise entre 5×10-8 et 10-6 fois la pression atmosphérique. Au-dessus de cet intervalle, les molécules d’air sont trop nombreuses et empêchent les ions d’accélérer suffisamment puisque ces derniers subissent des collisions en permanence ; endessous, l’ionisation de l’air résiduel ne se produit plus.

Les bosons médiateurs Ils véhiculent les forces d’une particule à l’autre, leur permettant ainsi d’agir à distance. Les bosons médiateurs de la force électromagnétique (le photon) et des interactions faible (le W et le Z) et forte (les gluons) ont tous été observés expérimentalement, au contraire du graviton censé transmettre la gravitation.

équations est beaucoup plus difficile. Elle a nécessité le développement de nombreux outils mathématiques complexes qui ont permis de contrôler la validité de la théorie puis de développer et d’exploiter ses prédictions. Parmi les idées clefs qui sont au cœur du Modèle Standard, on peut citer la notion de bosons médiateurs ou encore le concept d’antimatière.

DR

Le Modèle Standard : une success story scientifique

Cliché de la chambre à brouillard d’Anderson (1932) montrant le passage d’une particule de masse similaire à celle de l’électron mais de charge électrique opposée : le positron. Ce fut la première particule d'antimatière détectée.

Une première réussite du Modèle Standard – en fait l’avancée décisive qui lui a conféré le statut et le rayonnement qu’il connaît aujourd’hui – est l’unification de l’électromagnétisme et de l’interaction faible. Ces deux forces, extrêmement différentes à basse énergie, ont en fait une origine commune. Les manifestations de cette parenté, visible à plus haute énergie, ont effectivement été observées dans les détecteurs, d’abord par - et LEP la chambre à bulles Gargamelle, puis par les collisionneurs SppS et enfin dans de nombreuses autres expériences de physique des hautes énergies. Les douze fermions du Modèle Standard sont rangés en trois familles contenant chacune deux quarks, un lepton chargé (e, μ, τ) et son neutrino associé, neutre. Si la première famille suffit pour fabriquer la matière ordinaire (les quarks u et d sont les constituants du proton et

page 10

Le concept d’antimatière À chaque particule est associée son antiparticule, à la fois très proche (seules quelques caractéristiques, par exemple le signe de sa charge électrique, séparent une particule de son antiparticule) et très différente (l’antimatière est quasiment absente de notre monde alors que le modèle actuel de Big-bang suppose qu’elle a été créée en quantité équivalente à la matière dans les premiers instants de l’Univers). Si on fournit une énergie suffisante, il est possible de créer des paires particule-antiparticule. L’étude comparée de la matière et de l’antimatière est un sujet qui passionne toujours les chercheurs 80 ans après que l’antiélectron (ou positron) a été prédit puis découvert parmi des rayons cosmiques. Le corps humain est naturellement un peu radioactif car certains isotopes des éléments chimiques qui le constituent – par exemple le 14C utilisé en archéologie pour effectuer des datations – ne sont pas stables. 50% de cette radioactivité provient de la désintégration du potassium-40 (présent dans les os) en calcium-40. Lors de cette réaction, un neutron du noyau donne un proton, un électron et … un antineutrino, une particule d’antimatière ! Ces événements se produisent environ 4000 fois par seconde chez une personne de 70 kg.

ÉLÉMENTAÍRE


...le Modèle Standard Un nombre à virgule Le nombre de neutrinos « de type Modèle Standard » est un paramètre dont la valeur est choisie de manière à reproduire « au mieux » les données expérimentales. Cette procédure, appelée ajustement, a un sens bien précis en mathématiques et donne un résultat « sec », indépendant de l’interprétation qui en sera faite ensuite. Comme il ne se restreint pas aux nombres entiers, cet ajustement fournit « naturellement » un nombre à virgule ainsi qu’une « erreur », reflet des incertitudes des mesures et du choix particulier de modèle utilisé pour l’ajustement. Dans le cas du nombre de neutrinos, le résultat du LEP, 2,9841 ± 0,0083, est par exemple très proche de trois et très loin de deux ou de quatre. Les données favorisent donc clairement trois neutrinos de type « Modèle Standard ».

L’identification des quarks comme constituants élémentaires des hadrons (les particules sensibles à l’interaction forte) a permis de mettre de l’ordre dans un « zoo » composé de centaines de particules différentes, découvertes dans les rayons cosmiques ou les accélérateurs, et dont les propriétés n’avaient pas d’explication satisfaisante. Enfin, plus récemment, la vérification détaillée du bien fondé de la classification des six quarks en trois familles a valu le Prix Nobel de Physique 2008 à deux théoriciens japonais qui avaient proposé ce scénario en 1973. Ils s’ajoutent aux très nombreux physiciens qui ont également reçu cette récompense depuis 1965 pour leurs contributions à l’élaboration du Modèle Standard et à sa confirmation expérimentale.

Toute théorie a ses limites Chaque médaille a son revers et le Modèle Standard n’échappe pas à la règle. Pour résumer la situation actuelle, les scientifiques ont un peu l’impression d’être face à un très bon élève qui récite avec exactitude la leçon demandée, quelle que soit la matière sur laquelle on l’interroge. Comme dans la vie de tous les jours, un tel comportement est très satisfaisant mais peut parfois agacer. En effet, comme toute théorie, le Modèle Standard a ses limites. En premier lieu, c’est une théorie effective qui ne peut pas être valable à toutes les échelles d’énergie – au-delà d’une certaine limite, ses équations donnent des résultats manifestement erronés. Ensuite, il

ÉLÉMENTAÍRE

Comparaison entre les mesures combinées (points rouges) des quatre expériences du LEP (ALEPH, DELPHI, L3 et OPAL) et les courbes attendues selon le nombre de neutrinos « du type Modèle Standard » : 2 (rouge), 3 (vert), 4 (rouge à nouveau). Ce résultat, basé sur le comptage du nombre de bosons Z0 (particules médiatrices de l’interaction faible, la seule force qui agit sur les neutrinos) produits en fonction de l’énergie des collisions, confirme qu’il n’y a que trois neutrinos de ce type. Dans le jargon de la physique des particules, un neutrino « du type Modèle Standard » a une masse inférieure à la moitié de celle du boson Z (afin que la réaction Z → νν- soit possible) et est sensible à l’interaction faible telle qu’elle est décrite dans cette théorie. Un très bon élève Par exemple, la valeur d’un paramètre spécifique du muon, appelé « moment magnétique dipolaire anormal » (ouf !), noté aμ et qui décrit le comportement de cette particule dans un champ magnétique, est calculable avec une très grande précision dans le cadre du Modèle Standard. Le résultat obtenu coïncide presque parfaitement avec les mesures expérimentales. Expérimentalement : aμexp = (11659208,9±6,3) × 10−10 Prédiction du Modèle Standard (SM) : aμSM = (11659183,4±4,9) × 10−10 Cette situation est exceptionnelle mais elle illustre bien les capacités de prédiction du Modèle Standard ainsi que le fait que cette théorie a pour l’instant passé tous les tests expérimentaux qui lui ont été proposés. Le Modèle Standard nous apparaît aujourd’hui valable jusqu’à des énergies de l’ordre du TeV, soit un niveau d’énergie bien supérieur à la physique atomique (~1 eV) ou à la physique nucléaire (~ 1 MeV). page 11

du neutron ; on doit leur ajouter l’électron pour former des atomes et un neutrino pour décrire certaines désintégrations radioactives), les particules des autres familles ont également été observées. Les tests du Modèle Standard jusqu’à plusieurs dizaines de GeV d’énergie sont maintenant si précis qu’ils permettent non seulement de vérifier ses prédictions mais également de s’assurer que la théorie n’a pas besoin de particule élémentaire supplémentaire pour fonctionner. Ainsi, le nombre de neutrinos de type « Modèle Standard » a pu être déterminé expérimentalement par les expériences LEP au CERN et SLC au SLAC : le résultat, un nombre à virgule, puisqu'il s'agit d'une mesure, est très proche de trois, la valeur entière attendue !


Une théorie presque trop parfaite

© CERN

Montage de la chambre Gargamelle au CERN. Cet appareillage a permis de mesurer un aspect très particulier de l'interaction faible qui a été un élément essentiel pour établir l'unification des interactions faible et électromagnétique.

ne décrit pas tous les phénomènes associés à la physique des particules et à la cosmologie, en particulier pas la matière noire ni l’énergie noire (voir Élémentaire 7) ou encore les masses des neutrinos. De plus, il n’est pas capable d’expliquer pourquoi notre Univers est principalement constitué de matière alors que l’on suppose que matière et antimatière ont été créées en quantité égale lors du Big-bang. Enfin, la gravitation, décrite par la relativité générale, et qui gouverne l’Univers aux grandes échelles de distance, ne peut actuellement pas être « adaptée » au monde quantique décrit par le Modèle Standard.

© CERN

Si les physiciens sont bien conscients des défauts de cette théorie, ils n’ont pas encore trouvé la manière de les surmonter. Faute de piste convaincante, ils explorent toutes les possibilités à leur disposition avec l’espoir que le bel édifice du Modèle Standard finira par craquer. Pour le moment, toutes ces attentes ont été déçues mais la situation pourrait rapidement changer avec le démarrage du LHC au CERN. Après quelques années de prise de données on saura si la seule pièce encore manquante du Modèle Standard, le boson de Higgs, existe. Il faut espérer que les collisions permettront également d’observer des manifestations de Nouvelle Physique qui guideront les chercheurs vers une nouvelle théorie qui deviendra alors encore plus « standard » que l’actuelle. Quelle qu’elle soit, elle devra incorporer le Modèle Standard en reproduisant tous ses succès.

page 12

Collision proton-antiproton enregistrée - en 1982. Ces études ont permis au SppS la découverte des bosons W et Z.

ÉLÉMENTAÍRE


Interview Pierre Binétruy Qu’est-ce qui vous a amené à faire de la physique ? J.-L. Robert

Qu’est-ce qui m’a amené à faire de la physique ? Un de mes premiers souvenirs à l’école, c’est que je demandais à tout le monde : « Qu’est-ce que c’est, la physique ? » Et personne ne réussissait à me répondre de façon simple. On arrivait bien à m’expliquer les sciences naturelles, la chimie... Je me rappelle m’être beaucoup posé de questions sur ce truc sur lequel je n’arrivais pas à mettre la main. C’est probablement cela qui m’a amené à faire de la physique ! Et si je me suis orienté vers la physique des particules, c’est peut-être parce que je comprenais mieux les questions qui se posaient, en allant vers le plus fondamental, vers ce qui pourrait être un jour le plus élémentaire. J’étais attiré par une physique «réductrice», tentant de décomposer les phénomènes en parties plus simples, davantage que par une physique de la «complexité», mettant en jeu un grand nombre d’éléments ensemble.

Pierre Binétruy lors de son interview au laboratoire APC (Astroparticules et Cosmologie, CNRS/CEA/Obs. de Paris/Univ. Paris 7) en juillet 2010. Grande unification À la suite des succès remportés par l’unification des interactions électromagnétique et faible dans le cadre du Modèle Standard, les théories de grande unification ont été proposées dans les années 1970 pour décrire les trois interactions agissant au niveau subatomique (interactions électromagnétique, faible et forte) comme trois aspects d’une seule et même interaction. Cette unification ne serait visible qu’à des énergies extrêmement élevées (voir Théorie).

Pour vous, qu’est-ce qu’une particule ? Ça, c’est une colle... En tant que théoricien, j’ai probablement plus de difficultés à répondre à cette question. Pour moi une particule, c’est un objet ponctuel et fondamental, dont on n’a pas encore identifié qu’il était formé de sous-constituants. C’est une notion qui évolue au fil du temps. Aujourd’hui, l’électron est une particule pour moi, mais dans dix ou vingt ans ? Les particules d’aujourd’hui ne sont pas nécessairement les particules de demain !

Inflation Ce concept a été inventé pour expliquer la très grande homogénéité de l’Univers primordial, indiquée par les mesures des satellites COBE et WMAP. Il s’agirait d’une phase d’expansion extrêmement rapide (exponentielle) de l’Univers, qu’on situe généralement entre 10 -36 et 10-32 seconde après le Big Bang, alors que les interactions fondamentales commencent à acquérir leur individualité. On pense que le phénomène d’inflation est lié à cette différenciation progressive des forces fondamentales, ce qui le relie aux discussions sur les extensions du Modèle Standard en physique des particules (voir Théorie, Élémentaire 7).

Y a-t-il des moments de votre vie professionnelle qui vous ont marqué ?

Plus récemment, j’ai assisté à l’apparition de la discipline des astroparticules et d’une cosmologie quantitative. On a par exemple connu un afflux de données concernant le fond diffus cosmologique, et on a pu montrer qu’il suivait une loi de corps noir, que ses inhomogénéités étaient en accord avec la théorie de l’inflation. Cette étude quantitative de la cosmologie a constitué un changement qui était en gestation depuis longtemps, mais qui s’est manifesté assez soudainement, et de façon presque surprenante tellement l’accord entre les modèles et les données est bon.

ÉLÉMENTAÍRE

page 13

D’abord, lorsque j’ai fait ma thèse au CERN. C’était l’époque où la notion de grande unification émergeait. Les gens s’étaient rendu compte que le Modèle Standard était probablement la théorie qui décrivait correctement les interactions électromagnétique et faible, et on assistait à l’avènement des théories de jauge comme description des interactions fondamentales. C’était une époque très enthousiasmante, où les théoriciens avançaient vite, en proposant beaucoup de modèles, dont rétrospectivement seulement quelques-uns ont survécu. Ce qui m’a aussi marqué, c’est que les physiciens commençaient à appliquer ces théories à la cosmologie, avec la naissance du concept d’inflation. C’est aussi ce que j’ai étudié lorsque j’ai fait un post-doctorat à Berkeley.

Le fond diffus cosmologique Le fond diffus cosmologique micro-onde ou CMB est constitué de photons issus de l’Univers primordial. Ceux-ci portent la marque de la dernière interaction qu’ils ont connue, juste avant la recombinaison des électrons et des noyaux atomiques, 380 000 ans après le Big-bang (voir Découverte, Élémentaire 7).


Pierre Binétruy Je dirais que ces deux époques témoignent aussi de mon propre parcours. Avec les théories de jauge, on pouvait concevoir une vision de l’Univers basée sur des concepts de la physique des particules � une vision que n’ont pas immédiatement approuvée les astrophysiciens qui travaillaient depuis longtemps sur le sujet, ce qui a engendré de nombreuses controverses, par exemple au sujet de la densité d’énergie de l’Univers...

Théories de jauge Les théories de jauge constituent le cadre conceptuel apte à décrire les interactions forte, faible et électromagnétique via l’échange de particules médiatrices (respectivement gluons, bosons W± et Z0, photon). Dans les années 1960-70, on montra que ces théories permettaient de faire des prédictions quantitatives (au prix de manipulations mathématiques peu intuitives), ce qui constitua un premier pas essentiel dans la construction du Modèle Standard (voir Théorie, Élémentaire 6).

Je suis convaincu que l’une des grandes questions pour ce siècle consiste à placer la gravitation dans ce paysage. On peut toujours imaginer des trous noirs au LHC, mais si on veut comprendre cette question, il vaut sûrement mieux se tourner vers la cosmologie. Après tout, le moteur de l’Univers, c’est la gravité ! Comme je suis arrivé au moment où la grande unification était proposée, il ne restait «plus que» la gravité à ajouter à notre vision de la physique des particules, et donc il semblait naturel de s’intéresser à ces questions par le biais de la cosmologie.

Avez-vous des regrets ? Par exemple, je regrette que le SSC n’ait pas été construit dans les années 80-90. Il s’agissait d’un accélérateur similaire au LHC, mais à une énergie encore plus élevée, jusqu’à 20 TeV par faisceau. Les Américains avaient dépensé des sommes importantes d’argent pour cette machine avant de décider de tout arrêter, en partie pour des questions de management, en partie pour des questions politiques. Je me demande encore comment la physique aurait évolué si cet accélérateur avait été construit... On ne serait certainement pas en train de se poser les mêmes questions aujourd’hui. Le SSC (Super Collisionneur Supraconducteur) était un projet d’accélérateur au Texas, qui devait être le plus grand et le plus énergétique collisionneur au monde, dépassant les performances actuelles du LHC. L’anneau devait faire 87 kilomètres de circonférence, avec un énergie de 20 TeV par faisceau de protons. Commencé en 1983, le projet fut annulé en 1993, alors que des travaux importants de construction avaient commencé depuis deux ans. Les coûts de construction du SSC auraient été nettement plus élevés que ceux du LHC, du fait de la taille plus petite de ce dernier ainsi que de l’infrastructure existant au CERN et héritée du LEP.

D’abord, la confirmation que le Higgs existe bien avec les propriétés prédites par le Modèle Standard. On devrait le savoir bientôt. Mais j’espère qu’on va aller au-delà. Est-ce que l’on va voir des particules supersymétriques telles qu’on les attend ? Peut-être, peut-être pas. Je continue à penser que la supersymétrie est une idée extrêmement intéressante. Selon Guido Altarelli, un physicien théoricien du CERN, «plus le Modèle Standard a l’air standard, plus on peut croire à la supersymétrie». En effet, la supersymétrie permet de maîtriser très efficacement les fluctuations quantiques de Nouvelle Physique et de conserver à basse énergie une apparence très proche de celle du Modèle Standard. Mais de là à ce que la supersymétrie se manifeste comme le prédisent les modèles supersymétriques les plus simples, j’ai quelques doutes. Ces doutes viennent des contraintes issues de la physique de la saveur. Ce sont des contraintes très fortes, même pour les modèles supersymétriques qui ressemblent fortement au Modèle Standard à basse énergie.

page 14

Physique de la saveur Domaine de la physique des particules consacré à l'étude des transitions entre les différentes familles de quarks et de leptons.

Pour vous, que va apporter le LHC ?

Je n’ai pas envie de parier maintenant sur la forme exacte de la Nouvelle Physique, car on devrait avoir les réponses assez rapidement. Il y a dix

ÉLÉMENTAÍRE


Pierre Binétruy ou quinze ans, cela pouvait être intéressant de spéculer, car à l’époque il fallait décider des extensions du Modèle Standard sur lesquelles il valait la peine de travailler pour préparer le terrain au LHC.

Comment voyez-vous l’avenir de la discipline ? Si on ne trouve pas de Higgs, cela remet en question non seulement notre compréhension du Modèle Standard, mais aussi notre vision cosmologique de l’Univers issue de la physique des particules. En effet, celle-ci s’appuie sur l’existence de particules similaires au Higgs pour expliquer l’histoire de l’Univers, en particulier l’inflation et l’énergie noire. Pierre Binetruy a effectué une thèse au Laboratoire d'Annecy-Le-Vieux de Physique des Particules (LAPP) et au CERN sur les théories de grande unification et sur la chromodynamique quantique, au début des années 80. Il a travaillé à Berkeley et au Laboratoire de Physique Théorique d'Orsay, avant de devenir professeur à l'Université Paris-7 (Denis Diderot). Il est depuis 2005 le directeur du laboratoire AstroParticules et Cosmologie (APC).

Si on trouve le Higgs, on conforte évidemment ces deux images. Le scénario pessimiste consisterait en la découverte d’un boson de Higgs, mais rien de plus, ni nouvelle particule, ni déviation notable du Modèle Standard. Dans ce cas-là, les indications sur la Nouvelle Physique devraient être cherchées ailleurs, par exemple par le biais de tests de la gravité. Le scénario optimiste correspond évidemment à l’observation de phénomènes nouveaux au LHC, des particules ou des déviations par rapport aux prédictions, en conjonction avec des indications cosmologiques, par exemple sur les ondes gravitationnelles. Je pense que c’est le scénario le plus probable. Dans le passé récent, notre vision de la physique des particules et de l’Univers a remporté des succès notables : on a confirmé les Modèles Standard en physique des particules et en cosmologie, ce qui n’avait rien d’évident a priori ! Cela semble indiquer qu’il y a une connexion profonde entre ces deux domaines. Peut-être que la Nature va partir à 90 degrés et nous montrer que ce n’est finalement pas le cas, mais cela me semble quand même le futur le plus crédible.

Quel est votre rêve de physicien ? J’aimerais bien «voir» la coalescence de trous noirs super massifs, par le biais d’ondes gravitationnelles. On touche les limites de la connaissance. Les trous noirs sont des singularités de l’espace-temps... Et avoir deux de ces singularités qui se réunissent pour n’en former qu’une seule, c’est quelque chose qui est à la frontière de notre compréhension. Sans oublier que ces trous noirs sont des singularités plus accessibles, et plus faciles à comprendre, qu’une autre singularité, celle du Big-bang. C’est probablement pour cela qu’une telle observation constitue un de mes rêves de physicien.

Simulation de la collision entre deux trous noirs.

La recherche, c’est à la fois une passion et un métier. Il est important d’être enthousiaste, mais il faut aussi se donner les moyens techniques de suivre ses envies. C’est un domaine où il faut savoir écouter ses propres envies : il y a suffisamment de choses intéressantes à faire, et on est beaucoup

ÉLÉMENTAÍRE

page 15

Que souhaiteriez-vous dire à ceux qui se lancent dans la recherche ?


Pierre Binétruy plus efficace quand on étudie quelque chose qu’on aime. Mais j’ai aussi vu un certain nombre de personnes qui n’avaient pas acquis toutes les capacités techniques pour mener à bien les projets qui les intéressaient. C’est par exemple les outils de calcul pour les théoriciens, les techniques instrumentales pour les expérimentateurs... Or sans cette habileté technique, on se cantonne au côté le plus frustrant de la recherche, en dépensant beaucoup de temps et d’énergie sur des problèmes, et on passe à côté du plaisir de la découverte.

Y a-t-il une question à laquelle vous auriez aimé répondre ? Pierre Binétruy donnant une conférence grand public sur "les dimensions supplémentaires".

«Comment voyez-vous la relation des chercheurs avec le grand public ?» Cela fait partie de notre rôle de physicien d’expliquer ce que nous faisons à un public aussi large que possible. C’est un exercice très formateur � et parfois déformateur � pour nous, de reformuler les questions qui nous intéressent dans un langage qui n’est pas le langage technique du physicien, même si ce dernier est souvent nécessaire pour traiter complètement ces questions. C’est parfois aussi un exercice déformateur, car à force de faire cette traduction, on pousse parfois les analogies au-delà de leur domaine de validité, et on les emploie à tort dans un contexte scientifique. Mais c’est aussi très utile pour le public de mieux saisir comment nous appréhendons certaines questions très abstraites, par exemple le concept de dimensions supplémentaires. Lors de conférences de vulgarisation, les gens sont souvent sidérés quand je leur parle d’espaces à dix dimensions, parce qu’ils pensent que je «vois» un tel espace. Une fois que j’ai commencé à leur décrire ma vision à l’aide de petits dessins illustratifs, ils peuvent mieux comprendre sur quoi la compréhension des chercheurs s’appuie.

Le domaine des astroparticules est à l'interface entre l'étude de l'infiniment grand et de l'infiniment petit, entre physique des particules et astrophysique. Le laboratoire APC a été conçu pour rassembler les différentes communautés (expérimentateurs, observateurs et théoriciens) impliquées dans ce domaine. Il a été créé en 2005 à l'occasion de la refondation de l'Université Paris 7 sur le campus de ParisRive Gauche, avec les laboratoires MPQ (Matériaux et Phénomènes Quantiques) et MSC (Matières et Systèmes Complexes). L'APC rassemble 75 chercheurs permanents, et plus de soixante ingénieurs, techniciens et administratifs. En incluant les personnels non permanents (doctorants, boursiers postdoctoraux, visiteurs étrangers), ce sont quelques 200 personnes qui forment cette nouvelle structure pilotée, outre l'Université Paris Diderot, par le CNRS (représenté par trois de ses Instituts : principalement l'IN2P3, mais aussi l'INSU et l'INP), le CEA (DSM/IRFU) et l'Observatoire de Paris.

page 16

Il ne faut pas non plus se contenter de décrire les résultats de la recherche, mais aussi parler de la manière dont cette activité scientifique se mène. Je pense que beaucoup de personnes sont intéressées aussi par l’évolution des idées, les démarches personnelles, comment ça se passe dans un laboratoire... C’est aussi le rôle des laboratoires et des chercheurs de communiquer cet aspect-là de la recherche, qui va au-delà de la description historique d’une succession de découvertes. Je pense que nous avons tous notre rôle à jouer dans ce travail d’explication, qui constitue un lien essentiel entre les chercheurs et la société.

ÉLÉMENTAÍRE


Centre de recherche La grille de calcul En sciences comme dans la vie de tous les jours Paul Fort, 1872-1960 , est un poète français auteur en particulier il y a des modes. Ce sont des idées, des concepts de « Ballades Françaises ». Voici un extrait de « La Ronde autour du ou des points de vue qu’il faut connaître ou dont monde » : il faut au moins avoir entendu parler pour ne pas (…) paraître dépassé. Parfois, ces nouvelles approches Si toutes les filles du monde voulaient s’ donner la main, disparaissent aussi soudainement qu’elles sont tout autour de la mer, elles pourraient faire une ronde. apparues. Dans d’autres cas elles se révèlent Si tous les gars du monde voulaient bien êtr’ marins, ils f ’raient avec leurs barques un joli pont sur l’onde. plus solides, résistent à l’examen critique des Alors on pourrait faire une ronde autour du monde, autour du monde, utilisateurs et se développent. Souvent considérés si tous les gars du monde voulaient s’ donner la main. au départ comme de la science-fiction, de tels (…) projets finissent par trouver leur place dans la science tout court. C’est par exemple le cas de la grille de calcul, une idée née il y a une quinzaine d’années environ et qui fédère aujourd’hui de nombreuses initiatives de par le monde. Bien que ce mode d’organisation soit par définition « décentralisé » – comme nous le verrons dans la suite – il est devenu incontournable dans les expériences actuelles et il a toute sa place dans notre rubrique récurrente « Centre ».

Pourquoi la grille ? De l’idée à la réalisation Si on voulait parodier le poète Paul Fort (1872-1960), l’idée de la grille de calcul pourrait se résumer en une phrase : « si tous les ordinateurs du monde voulaient s’donner le câble Ethernet »… Le mot « grille » est la traduction directe du terme anglais « grid » qui est utilisé pour désigner le réseau électrique. Pour avoir du courant, il suffit d’utiliser une connexion standard, la prise électrique, et de la raccorder au secteur. La puissance obtenue permet de réaliser toutes sortes d’activités sans avoir besoin de se soucier de sa provenance ni de la manière dont elle a été fabriquée. C’est avec cette analogie en tête que les chercheurs américains Ian Foster (laboratoire national d’Argonne dans l’Illinois) et Carl Kesselman (Université de Californie du Sud) présentent le concept de grille de calcul en septembre 1997 lors d’un séminaire, puis l’année suivante dans un livre. Un utilisateur de ressources informatiques doit pouvoir se relier à ce nouveau réseau, lui demander d’exécuter un programme et récupérer ensuite les résultats sans avoir à se préoccuper de la manière dont sa requête a été prise en compte ni de l’endroit du monde où se trouve l’ordinateur qui a accompli cette tâche. Accéder à la puissance informatique devrait être aussi simple que d’utiliser la puissance électrique. Ian Foster et Carl Kesselman, inventeurs du concept de grille de calcul.

ÉLÉMENTAÍRE

page 17

Les scientifiques sont friands de grilles de calcul, quel que soit leur domaine de recherche : simulation du cœur du Soleil, séquençage de protéines ou de gènes, recherche de signaux d’origine extra-terrestre noyés dans un fort bruit de fond aléatoire, etc. Convenablement programmées, ces recherches peuvent en général être parallélisées, c’est-à-dire décomposées en un grand nombre de petites tâches. Si ces dernières peuvent être exécutées indépendamment les unes des autres, chacune est confiée à un ordinateur différent et elles sont ainsi réalisées presque simultanément et très rapidement. Tant que le projet reste limité, un centre de calcul unique peut disposer de suffisamment de machines pour le mener


La grille de calcul Super-calculateur Un super-calculateur est un ordinateur dont les ressources – en particulier la puissance de calcul – sont exploitées jusqu’aux limites de la technologie. Avec les développements continus de l’informatique, un super-calculateur d’aujourd’hui donnera l’ordinateur « standard » de demain. En effet, depuis les années 1960, la plupart des avancées qui ont permis de pousser toujours plus loin les performances des super-ordinateurs (microprocesseurs, parallélisation du calcul, etc.) ont ensuite migré vers les machines grand public. Depuis 1993, un classement – le « Top 500 », http://www.top500.org – recense les cinq cents plus rapides super-calculateurs du monde. Publié deux fois par an (en juin et novembre), il est basé sur les résultats de tests pointus auxquels tous les ordinateurs candidats sont soumis de manière uniforme. Le podium actuel de cette compétition est dominé par des super-ordinateurs américains aux noms plutôt exotiques … 1) Le Cray « Jaguar » du laboratoire national d’Oak Ridge (Tennessee). Ce super-calculateur a récemment bénéficié d’un budget supplémentaire du plan de relance américain ce qui lui a permis de prendre la tête du classement. 2) L’IBM « Roadrunner » du laboratoire national de Los Alamos (Nouveau-Mexique). 3) Le Cray « Kraken » de l’institut national pour les sciences informatiques de l’université du Tennessee. Chacune de ces machines consomme plusieurs mégawatts (soit, toutes les deux heures, l’équivalent de l’énergie électrique utilisée en une année par une famille française moyenne), occupent des centaines de mètres carrés et fonctionnent avec un système d’exploitation de type Linux. Elles sont utilisées par des scientifiques et des ingénieurs de nombreux domaines : étude du climat au niveau mondial, sûreté nucléaire, mise au point de moteurs, physique des matériaux, physique théorique, avionique, etc.

©ORNL/ANL/NICS

à bien. Au-delà d’un certain seuil, il faut accéder à plus de ressources et c’est là que la grille trouve son intérêt. Ce mode de fonctionnement est particulièrement bien adapté à la physique des particules : si les programmes sont en général gourmands en temps de calcul, ils traitent les collisions enregistrées par les détecteurs une par une et de manière indépendante. Mutualiser les ressources informatiques (processeurs, mémoires, capacités de stockage, etc.) a plusieurs avantages. D’abord les ordinateurs qui font partie de la grille sont utilisés de manière plus soutenue puisque de nombreuses personnes en plus de leurs propriétaires peuvent les faire travailler : il y a moins de machines « inoccupées ». Ensuite, les participants de la grille ont à leur disposition une puissance de calcul bien supérieure à celle de l’installation locale sur laquelle ils ont l’habitude d’exécuter leurs programmes. De plus, un tel système est souvent plus rentable qu’un super-calculateur car les ordinateurs « classiques » disponibles dans le commerce sont produits en grande série et ont donc un prix d’achat global nettement inférieur à celui d’une machine unique et très sophistiquée. Le surcoût associé à la mise en place et à la gestion du réseau d’ordinateurs est minime par rapport à l’écart de prix. Enfin, une grille de calcul ne tombe presque jamais complètement en panne : si un centre de calcul connaît des problèmes, d’autres prennent le relais et la transition a le plus souvent un impact modéré sur les utilisateurs de ces ressources. Bref, pour peu qu’une application ne nécessite pas une architecture particulière que seul un super-ordinateur unique pourrait lui offrir, l’exécuter via une grille de calcul offre de nombreux avantages. Il faut cependant souligner que les grilles nécessitent

Si le jaguar est un mammifère carnivore bien connu dont l’habitat tropical englobe l’Amérique centrale et une large partie de l’Amérique du sud, les deux autres symboles qui complètent le podium du « Top 500 » le sont peut-être un peu moins. Le « Roadrunner » est un oiseau du sud-ouest des États-Unis, plus apte à la course qu’au vol, rendu fameux sous le nom de « Bip Bip » dans une série de dessins animés. Quant au « Kraken », c’est une créature fantastique de la mythologie scandinave capable de couler de gros navires.

© CC-IN2P3

page 18

Le Centre de Calcul de l’Institut National de Physique Nucléaire et de Physique des Particules (« CC-IN2P3 » ) est installé depuis 1986 sur le domaine scientifique de la Doua à la limite entre Lyon et Villeurbanne. Il fournit tous les services informatiques nécessaires à « l’analyse et à l’interprétation des processus fondamentaux de la physique subatomique ». Ses utilisateurs (plus de 2500 personnes appartenant à une cinquantaine d’expériences) viennent également de l’astrophysique et, plus récemment, de la biologie.

ÉLÉMENTAÍRE


La grille de calcul Architecture particulière Les simulations de « QCD sur réseau » (c’està-dire l’étude numérique de l’interaction forte entre quarks dont les équations ne sont pas solubles de manière exacte) sont des exemples de problèmes informatiques de physique des particules qui peuvent difficilement se passer des super-calculateurs. Si la décomposition de ces programmes en une multitude de sous-tâches distinctes est possible, celles-ci échangent malgré tout des informations en permanence. Les différents processeurs qui les exécutent en parallèle doivent donc être regroupés au sein d’un même ordinateur (avec un réseau d’interconnexions très rapide et sophistiqué) capable de gérer efficacement le flot de données nécessaires au progrès global de la simulation.

une forte concentration de main-d’œuvre, nécessaire pour assurer la maintenance et la mise à jour du système. Les grilles de calcul sont basées sur cinq grands principes. • Le partage des ressources : comme nous l’avons vu auparavant, de nombreux ordinateurs mettent en commun leurs ressources pour une communauté d’utilisateurs. • L’abolition de la distance : grâce aux connexions à très haute vitesse, les échanges de données entre machines très éloignées géographiquement (par exemple un ordinateur à Paris et un autre à Los Angeles) sont très rapides. • La sécurité des communications : les connexions doivent être sécurisées pour éviter qu’un tiers ne les pirate ou qu’un problème sur un ordinateur du réseau ne se propage aux autres. Les outils de protection informatique tels que les certificats et les pare-feux sont à la base du fonctionnement d’une grille de calcul. • La gestion des ressources : les tâches à exécuter sont réparties de manière équilibrée sur les machines disponibles selon les priorités accordées à chaque groupe d’utilisateurs et la disponibilité des données qui doivent être traitées. Ainsi, l’ensemble de la communauté bénéficie des ressources de la grille. Cette organisation est revue périodiquement par ses gestionnaires et son fonctionnement est contrôlé de manière automatique par des logiciels spécifiques. • L’interopérabilité : les grilles de calcul doivent être compatibles entre elles. Une application conçue pour une grille doit pouvoir fonctionner sur une autre. Cela suppose un choix concerté (mais souple) de normes communes entre les différentes communautés d’utilisateurs.

Disponibilité des données Le volume élevé de données produites par et pour le LHC – qu’il s’agisse des informations enregistrées par les détecteurs ou des simulations détaillées de collisions sur ordinateur – est tel que seules quelques copies seront disponibles. La plupart des centres de calcul ne stockeront qu’une partie des données et la grille devra donc « savoir » où aller « pêcher » les événements sélectionnés par un utilisateur.

© CERN

En informatique on distingue souvent le hardware (les ordinateurs euxmêmes) du software (les logiciels qui sont utilisés sur ces machines). Sur les grilles, il existe un niveau intermédiaire – appelé le middleware – qui peut être vu comme la boîte à outils permettant aux utilisateurs d’accéder aux ressources de la grille indépendamment du matériel particulier qu’ils utilisent. Ce concept recouvre en fait un grand nombre de tâches et d’outils complexes dont le développement a pris de nombreuses années. Par exemple, il faut tenir à jour les demandes de temps de calcul provenant des utilisateurs ; attribuer les tâches en attente à des ordinateurs en fonction de la disponibilité des machines et des règles de gestion internes à la communauté ; réviser périodiquement la liste des ordinateurs en panne ou avec des problèmes ; récupérer les résultats des tâches exécutées et les mettre à la disposition des utilisateurs ; décider quoi faire si les résultats ne reviennent pas dans un temps donné ou si la même tâche, exécutée sur deux machines différentes pour contrôle, donne des résultats différents ; etc.

Une vue d’artiste des technologies de grille de calcul.

Une application rêvée : le LHC

ÉLÉMENTAÍRE

page 19

On pourrait penser que les expériences LHC ont été créées pour justifier le concept de grille de calcul ! En effet, les volumes de données associés et les besoins en ressources informatiques sont tels qu’aucun centre de calcul existant ne pourrait les absorber en totalité. Chaque année le LHC produira envi-


La grille de calcul ron dix pétaoctets de données. Si elles étaient stockées sur des CD-ROMs du commerce, elles représenteraient une pile d’environ 20 kilomètres de haut ! Après les avoir enregistrées, il faudra les traiter et les analyser ce qui nécessitera l’équivalent de plus de 10 000 ordinateurs actuels. Il faut ajouter à ces volumes faramineux les collisions générées par ordinateur pour simuler les détecteurs et comprendre leur fonctionnement. Enfin, les données du LHC seront étudiées en parallèle par des centaines de physiciens qui les passeront en revue de nombreuses fois.

Pétaoctet En informatique, l’octet est l’unité de mesure de la quantité de données. Un octet est un « mot » composé de huit chiffres binaires (« 0 » ou « 1 »), par exemple 10010001. Un pétaoctet correspond à un million de milliards (1015) d’octets.

C’est pour toutes ces raisons que le CERN et l’ensemble des instituts participant au LHC sont très impliqués dans les projets de grille depuis une dizaine d’années. La collaboration actuelle, la WLCG (« Worldwide LHC Computing Grid ») regroupe plus de 270 centres dans 34 pays et elle n’a cessé de progresser en attendant le démarrage de l’accélérateur. Ainsi, pendant l’été 2009, des records de transfert de données ont été battus. ATLAS a par exemple réussi à maintenir pendant des semaines un débit équivalent à plusieurs CDs par seconde entre les centres produisant ces données simulées et ceux où elles étaient analysées. Cette situation devrait correspondre à celle rencontrée lorsque le LHC sera en fonctionnement nominal : de grandes quantités de données produites pendant de longues durées. Sans la grille de calcul, le LHC n’aurait jamais eu la capacité d’analyser toutes ses données de manière satisfaisante. Réciproquement, une part non négligeable des développements récents de la grille sont directement ou indirectement dus au LHC. La collaboration grille de calculLHC bénéficie donc aux deux parties.

© H. Kérec

Pile de CD de 20km = un an de données du LHC

Concorde 15km

page 20

Regarder les pages internet indiquant où ses programmes tournent sur la grille de calcul du LHC permet de s’évader quelques instants de son bureau et de faire un peu de tourisme virtuel. Les sites référencés sur cette copie d’écran se trouvent par exemple au CERN, en Allemagne (« GRIDKA », près de Karlsruhe), en Angleterre (« RAL », au sud d’Oxford), en Hollande (« NIKHEF » proche d’Amsterdam), ou au CC-IN2P3 à Lyon.

Exemple de l’activité de la grille de calcul européenne EGEE (« Enabling Grids for E-sciencE», un projet fédérant plus de 70 institutions dans 27 pays et visant à construire une grille de recherche partagée par de nombreuses disciplines) enregistrée le vendredi 8 janvier 2010 à 18h43 heure française. Chaque disque coloré sur la carte indique l’emplacement d’un centre participant à EGEE ; ils sont d’autant plus grands que le nombre de programmes pris en charge est élevé (la surface est en fait proportionnelle au logarithme du nombre de programmes pour éviter que les disques des centres les plus productifs ne masquent complètement ceux des voisins). En violet on peut voir la fraction de tâches planifiées et en vert la fraction de celles qui sont en train de tourner sur les ordinateurs du centre. Les lignes rendent compte des transferts de données entre centres de calcul. Une ligne violette indique un programme soumis via un site et dont l’exécution est planifiée sur un autre ; une ligne jaune indique une tâche qui s’est terminée avec succès et dont les résultats sont renvoyés vers le centre d’où elle a été envoyée.

ÉLÉMENTAÍRE


Expérience Deux expériences... D’après un des rédacteurs d’Élémentaire, mycologue averti, la recherche de signes de physique au-delà du Modèle Standard s’apparente à la cueillette des cèpes. Pour trouver des cèpes, il faut se placer dans des conditions favorables : ces champignons vivent en symbiose avec certaines espèces d’arbres (chênes, hêtres, châtaigniers …), il est donc préférable de choisir une forêt où ceux-ci abondent. Afin d’optimiser la chance d’une bonne cueillette, il faut également préférer la période où les feuilles ne sont pas encore tombées afin de ne pas risquer de passer à côté des quelques champignons qui seraient enfouis sous des centaines – voire des milliers – de feuilles de même couleur. Pour la physique des particules, les choses sont un peu similaires... Dans le cadre du Modèle Standard, certaines réactions surviennent avec une fréquence extrêmement faible, à cause de lois incorporées dans cette théorie qui rendent très petite la probabilité de ces processus. Ces réactions sont alors un lieu idéal d’étude car, lorsque on s’attend à ne presque rien mesurer, la présence d’un phénomène nouveau peut apparaître « facilement » lors de l’analyse. C’est une recette éprouvée qui consiste à étudier les modes très rares dans le cadre du Modèle Standard afin de chercher des événements inattendus. © PSI

Nous pouvons donc détailler la recette suivante, tout en poursuivant notre métaphore de la cueillette des cèpes : Institut Paul Scherrer Situé à Villingen et construit sur les deux rives de l’Aar, PSI est le plus grand centre suisse pour les sciences physiques et l’ingénierie. Portant le nom du physicien Paul Scherrer, il a ouvert ses portes en 1988. Ce centre exploite un parc d’accélérateurs où l’on produit des faisceaux intenses de muons, de neutrons et de rayons X. Ces trois types de faisceaux sont destinés à des études sur la structure de la matière, sur le développement de nouvelles technologies pour un approvisionnement durable en énergie et sur l’environnement. Dans le domaine de la santé, PSI possède un centre de protonthérapie ou l’on traite des patients souffrant de certains types de cancers. L’Institut emploie environ 1300 personnes de façon permanente et il est financé par la Confédération Helvétique. Tous les ans, approximativement deux mille scientifiques du monde entier rejoignent le site du PSI pour y effectuer leurs expériences auprès de ces faisceaux.

il faut d’abord choisir un processus dont la probabilité prévue dans le Modèle Standard est extrêmement faible ; ● cette réaction ne doit pas pouvoir être imitée par d’autres mécanismes connus susceptibles d’induire en erreur l’observateur, ou alors à des niveaux contrôlables par celui-ci (pas de feuilles mortes gênantes) ; ● différentes extensions du Modèle Standard doivent augmenter le taux d’occurrence de cette réaction de façon très importante (repérer les arbres auprès desquels les cèpes aiment à pousser) ; ● il faut avoir le faisceau de particules adéquat capable de produire la réaction recherchée (des conditions météorologiques propices à l’apparition des cèpes) ; ● enfin, il reste à construire un détecteur adapté (et donc se munir du panier, des chaussures de marche… bref, de tout l’attirail du parfait cueilleur de champignons !). ●

ÉLÉMENTAÍRE

page 21

Cette méthode va de pair avec les recherches directes de nouvelle physique, à travers la détection de particules inconnues aux collisionneurs ou dans les réactions induites par des rayons cosmiques. Plusieurs expériences se lancent dans cette direction ; nous en présenterons deux dans la suite : MEG et NA62. Pour la cueillette des cèpes nous vous laisserons tenter votre chance vous-même!


Deux expériences où on espère MEG : des muons, des électrons et des photons

Conservation du nombre leptonique Les trois familles de leptons diffèrent par un nombre quantique, le nombre leptonique. La première famille, constituée de l’électron et du neutrino électronique possède un nombre leptonique «électronique» (noté Le). De même, on attribue à la seconde famille un nombre «muonique » noté Lμ , et à la troisième un nombre « tauonique », noté Lτ . À l’intérieur d’une famille, les particules et leurs antiparticules possèdent des nombres leptoniques opposés. La conservation de chaque saveur implique qu’une interaction ne peut pas la modifier: par exemple la désintégration du muon (Lμ=+1) donne un électron (Le=+1) accompagné d’un antineutrino électronique (Le=-1) et d’un neutrino muonique (Lμ=+1). Ainsi avant et après la désintégration du muon, les divers nombres leptoniques mis en jeu restent les mêmes. Le Modèle Standard prédit par ailleurs que la quantité L=Le+Lμ+Lτ, appelée nombre leptonique global, est invariante : ceci implique que la différence entre les nombres totaux de leptons et d’antileptons ne varie pas dans le temps.

Et de fait, pendant de nombreuses années, rien n’est venu troubler la croyance des physiciens en ce principe. Toutes les observations étaient conformes aux prédictions du Modèle Standard jusqu’à l’observation des oscillations de neutrinos en 1998. Le neutrino d’une famille donnée peut ainsi, pendant son vol, se changer en un neutrino d’une autre famille renvoyant aux oubliettes le vieux principe précédent. Lors de ce processus, le nombre leptonique est forcément modifié ! Le même mécanisme qui conduit à un changement observable de nature des neutrinos pourrait aussi intervenir pour les leptons chargés. Alors, pourquoi ne pas essayer de vérifier si le nombre leptonique est bien conservé dans les désintégrations des muons, par exemple ? C’est justement l’objectif de MEG qui cherche à mesurer la désintégration des μ+ en positron et photon (μ+ —> e+ γ) , d’où son nom (MEG=Muon en Electron Gamma). Le taux de cette désintégration est prédit par le Modèle Standard au niveau de 10-55, ce qui est bien trop rare pour pouvoir être détecté expérimentalement. Des modèles supersymétriques, des théories dites « grand unifiées » ou des théories impliquant des dimensions supplémentaires suggèrent cependant que la violation du nombre leptonique pourrait être renforcée dans la Nature : dans certains cas le rapport d’embranchement du μ+ en positron et photon serait de l’ordre de 10-13 (soit 42 ordres de grandeur plus grand que celui prédit par le Modèle Standard !), une valeur minuscule mais qui peut être mesurée expérimentalement. L’expérience MEG utilise le faisceau d’anti-muons le plus intense au monde. Ces μ+ sont de basse énergie, ils arrivent par groupes (appelés « paquets »)

page 22

Rapport d’embranchement Une particule instable a généralement plusieurs modes de désintégration possibles, certains fréquents, d’autres plus rares. Le rapport d’embranchement d’un canal de désintégration mesure la probabilité avec laquelle ce mode survient. Ainsi le mode le plus fréquent pour la désintégration du muon est μ+ —> e+ -νμ νe (qui avoisine les 100%), mais il peut parfois se désintégrer en μ+ —> e+ ν- μ νe e+ e-, avec un rapport de branchement d’environ 3×10-5. Ainsi quelques fois sur cent mille, le muon se désintègre en émettant une paire électronpositron en plus du trio habituel.

L’expérience MEG (Muon to Electron Gamma) est installée auprès du cyclotron de l’Institut Paul Scherrer en Suisse. Son but est de sonder la validité de l’un des fondements du Modèle Standard, la conservation du nombre leptonique. Suivant ce principe, seules sont autorisées les réactions entre leptons d’une même famille leptonique : ainsi on peut avoir γ —> e+e- , γ —> μ+μ- mais pas γ —> e+μ-. Si une interaction fait intervenir plusieurs familles de leptons, il faut que les nombres leptoniques des différentes familles restent les mêmes avant et après cette interaction. Dans le cadre du Modèle Standard, les processus ne respectant pas ce principe ont une probabilité si faible de se produire qu’il ne seront jamais observables.

Paul Scherrer (1890-1969) est né à Herisau en Suisse. Il a fait ses études à Zurich puis à Göttingen en Allemagne. Il s’est spécialisé d’abord en physique atomique et plus précisément en cristallographie. Il a en particulier développé une technique d’étude de la structure cristalline connue depuis comme méthode de Debye-Scherrer. Dans les années 1930, il s’est tourné vers la physique nucléaire et il est devenu le président de la commission suisse de l’énergie atomique. Il a exercé comme professeur à l’ETH de Zurich où il a dirigé le département de physique expérimentale. En 1954, il a fortement contribué à la fondation du CERN.

ÉLÉMENTAÍRE


bien ne pas rien voir ! de 30 millions chaque seconde et sont arrêtés dans une feuille qui est placée au milieu des détecteurs. La mesure de l’énergie des photons est effectuée en collectant la lumière de scintillation que ceux-ci induisent en interagissant avec le xénon liquide contenu dans un réservoir cryogénique de 900 litres. Les positrons sont analysés par le spectromètre COBRA (pour COnstant-Bending-RAdius), constitué d’un aimant supraconducteur et de chambres à dérive. Des scintillateurs spécifiques mesurent le temps d’arrivée des particules. La particularité de ce spectromètre est de dévier les traces chargées hors du détecteur très vite après la mesure, de façon à minimiser une éventuelle superposition avec l’événement suivant. La probabilité d’une telle superposition est en effet loin d’être négligeable en raison du grand nombre d’anti-muons contenus dans chaque paquet du faisceau. L’énergie du positron, celle du

support

trous

feuille source

La feuille source de MEG Les anti-muons incidents arrivent à proximité du détecteur avec une énergie de 29 MeV qui, par la suite, est réduite pendant leur transport par des systèmes magnétiques jusqu’au milieu des détecteurs. Là, ils heurtent une mince feuille de polyéthylène de 200 micromètres d’épaisseur. À cause de leur très faible énergie, les anti-muons sont stoppés et se désintègrent au repos. Nous sommes très loin des muons (ou anti-muons) de haute énergie peuplant les rayons cosmiques ou produits au LHC qui sont encore présents après plusieurs mètres de fer ! La minceur de cette feuille (voir Détection) et sa faible densité sont indispensables afin que les particules issues de la désintégration n’interagissent pas trop avec le matériau. Aussi, les électrons qui ont une masse beaucoup plus faible que celle des muons, la traversent avec peu de chances de perdre de l’énergie. Ainsi leurs caractéristiques initiales (énergie, direction) sont préservées et peuvent être mesurées lorsque les particules émergent de cette feuille. La feuille-source est circulaire et sa surface est percée de quelques trous qui sont utilisés pour contrôler le niveau de bruit de fond : en effet, les traces reconstruites des positrons détectés ne doivent pas provenir des trous, puisqu’en ces emplacements, aucun muon n’a pu s’arrêter.

ÉLÉMENTAÍRE

page 23

Vue schématique des détecteurs de MEG Les anti-muons de très basse énergie arrivent de gauche et s’arrêtent dans la feuille de polyéthylène au centre du dispositif. L’anti-muon au repos se désintègre(rait) en positron et photon partant dans des directions opposées. Le positron est dévié par le champ magnétique solénoïdal et son impulsion est mesurée par le spectromètre COBRA. Le photon est absorbé par le xénon liquide qui permet la mesure de son énergie. Le calorimètre à xénon liquide occupe la partie supérieure du détecteur tandis que les chambres à dérive de COBRA sont placées à son opposé. En séparant le calorimètre des autres détecteurs on permet aux photons de ne pas traverser de grandes quantités de matière avant d’arriver au calorimètre, ce qui pourrait modifier leur énergie initiale et leur direction. Cette disposition implique qu’on ne tienne compte que d’une partie du nombre total des désintégrations : celles pour lesquelles les photons partent vers « le haut » (le calorimètre) et les positrons vers « le bas » (le spectromètre). En tenant compte de l’acceptance des détecteurs, seules environ 10% des désintégrations seront détectées.


Deux expériences où on espère photon, les temps d’arrivée de ces deux particules ainsi que leur angle de séparation sont les variables qui permettent de reconstruire le signal et de reconnaître les «faux» candidats qui proviennent d’autres processus donnant lieu à des configurations similaires dans les détecteurs. Ainsi on arrive à distinguer le vrai du faux.

Distinguer le vrai du faux Tous les événements détectés par MEG et contenant un photon et un positron ne proviennent certainement pas de la désintégration recherchée (μ+ —>e+γ). Le muon se désintègre aussi en des états finaux qui peuvent simuler ce mode soit tout seuls soit quand ils sont accidentellement superposés. On sépare alors le vrai du faux sur des critères cinématiques : dans le cas du mode recherché μ->eγ, le muon se désintègre au repos et par conséquent, l’électron et le photon sont émis à l’opposé l’un de l’autre et au même instant (chacun emportant une énergie d'environ 53 MeV). Ce n’est pas le cas de μ+ —>e+veν- μ g (le photon et l’électron ne sont pas alors dos-à-dos) ni des événements superposés (les particules sont séparées dans le temps).

γ

e+

signal

µ e+

+

–ν µ

µ

νe γ –ν µ

+

µ γ

νe

}

bruits de fond

© MEG

+

Vue transverse des détecteurs MEG. On voit au centre la feuille de polypropylène qui assure l’arrêt des muons. Dans la partie basse, on voit les chambres à dérive.

NA62 : un amour de kaon

Schéma des désintégrations du signal et des bruits de fond qui peuvent lui ressembler.

page 24

e+

MEG a enregistré jusqu’à présent une petite dizaine de candidats. Ces événements sont compatibles avec le bruit de fond attendu, provenant des désintégrations μ+ —> e+ νμ νe γ et de μ+ —> e+ ν- μ νe (superposé accidentellement avec un photon). L’expérience a annoncé un résultat préliminaire, basé sur deux mois seulement de prise de données: comme aucun signal n’a été observé, le rapport d’embranchement de μ+ —> e+ γ doit être inférieur à 1,5x10-11 (avec un niveau de confiance de 90%). Ce résultat ne permet pas encore de sonder de nouveaux modèles. Mais MEG veille : la collaboration continue à enregistrer des données et a entrepris des améliorations de l’appareillage capables d’augmenter sa sensibilité : le remplacement des cartes électroniques de lecture par des modèles plus rapides permettra d’obtenir une meilleure résolution en temps. On pourra alors être plus strict sur la coïncidence entre les temps d’arrivée de l’électron et du photon et rejeter une partie plus importante des événements de bruit de fond de superposition accidentelle.

NA62 s’intéresse à une désintégration bien particulière du méson K+ (qui contient un quark u et un antiquark -s), à savoir K+ —> π+ν ν (les neutrinos peuvent appartenir à une quelconque des trois saveurs), qui est l’une des plus rares désintégrations jamais observées, avec un rapport d’embranchement de 10-10. C’est un nombre petit mais nettement plus grand que les 10-55 prévus, pour MEG, dans le cadre du Modèle Standard ! En pratique, cette désintégration est particulièrement difficile à mettre en évidence, non seulement du fait de sa rareté, mais aussi en raison de sa signature expérimentale. Il s’agit d’identifier dans un faisceau de kaons l’apparition d’un unique pion chargé, étant donné que la paire de neu-

ÉLÉMENTAÍRE


bien ne pas rien voir !

Mais pourquoi s’échiner sur une telle désintégration ? Tout comme pour MEG, cette désintégration rare est particulièrement sensible à des processus situés au-delà du Modèle Standard. En outre, la prédiction du Modèle Standard pour ce mode de désintégration est particulièrement précise (mieux que 10%) : les incertitudes théoriques liées à l’interaction forte peuvent être contrôlées grâce aux mesures effectuées sur d’autres canaux de désintégrations du kaon. Enfin, elle fournit des informations intéressantes sur les différences matière-antimatière, complémentaires de celles déjà acquises en étudiant d’autres mésons contenant un quark s ou un quark b. Son rapport d’embranchement augmentera plus ou moins en présence de nouvelle physique, selon le modèle choisi. Ainsi, une mesure précise de ce canal de désintégration pourra contraindre des théories au delà du Modèle Standard.

© CERN

trinos échappe à toute mesure. Une simplicité bien trompeuse, puisque de nombreuses autres désintégrations du kaon, bien plus fréquentes, peuvent imiter un tel signal : en effet si le kaon se désintègre en un pion chargé accompagné d’autres particules, et que ces dernières ne sont pas mesurées, l’évènement ressemble en tout point au K+ —> π+ν ν- tant convoité. Il faut donc s’armer de patience et d’astuce pour séparer le bon grain de l’ivraie.

Cette figure représente les évènements potentiellement intéressants sélectionnés par les différentes expériences menées à BNL (carrés, ronds, triangles) en fonction de l’énergie cinétique et de la distance entre l'émission et la désintégration du pion. Les chiffres 1 et 2 désignent deux périodes d'enregistrement de données par ces expériences. On voit que l’essentiel des évènements se concentre dans la zone centrale, où le bruit de fond est important. Les deux régions carrées sont des zones où le bruit de fond est quasiment nul, et où se situent les sept évènements utilisés pour mesurer la probabilité de la désintégration K+ —> π+νν.

NA62 n’est pas la première expérience à vouloir cueillir ce cèpe. La collaboration E949 et son prédécesseur E787 du Brookhaven National Laboratory - Le (BNL) ont observé sept événements dus à la désintégration K+ —> π+ν ν. rapport d’embranchement calculé pour ce mode à partir de ces sept événements est extrêmement faible : à peine plus que 10-10, ou plus exactement (1,73 ± 1,1) × 10–10. On remarquera que les incertitudes sont encore très grandes, au point que ce rapport de branchement pourrait être compatible avec zéro ! La technique expérimentale adoptée par E787 et E949 est la suivante : un faisceau de kaons chargés de basse énergie (710 MeV) est envoyé- sur une cible de fibres scintillantes qui les arrêtent. La signature expérimentale de la désintégration de ces kaons est la détection d’un unique pion chargé puisque le neutrino et l’anti-neutrino émis ne sont pas observables. Afin d’être certaines que seul un tel pion a été émis, les collaborations E787 et E949 ont construit un appareillage à la fois extrêmement hermétique (pour être sûrs de ne pas « rater » de particules) et aussi extrêmement sensible aux photons afin de pouvoir affirmer que la particule chargée détectée n’est pas accompagnée de particules neutres telles que les p0, qui se désintègrent en deux photons. Par ailleurs, contrairement à ce qui est fait dans la plupart des expériences de physique des particules, toute la chaîne de désintégration du pion chargé est détectée.

Le logo de l’expérience NA62. Il y figure un diagramme, dit «pingouin», qui représente le processus responsable de la - On peut voir désintégration K+ —> π+νν. que l’ombre du logo est en fait le sigle «NA48», qui est le nom de l’expérience qui a précédé NA62 dans l’étude des désintégrations rares des kaons.

ÉLÉMENTAÍRE

page 25

Les incertitudes statistiques sur le rapport d’embranchement mesuré sont encore très élevées et une nouvelle génération d’expérience devrait avoir lieu avec la deuxième phase de l’expérience NA62, qui a été approuvée par le conseil de recherche du CERN en 2008. NA62 utilise un faisceau de kaons chargés, et a connu une première période de quatre mois et demi de prise de données en 2007 et 2008 pour étudier certaines désintégrations des kaons. Dans sa deuxième phase, à venir, l’expérience espère enregistrer en deux


Deux expériences... Une vue d’ensemble de l’expérience NA62. Le faisceau passe d’abord dans le CEDAR pour garantir qu’il s’agit bien de kaons, dont les caractéristiques cinématiques (impulsion, coordonnées) sont analysées par 3 détecteurs de traces en silicium (GTK). Les kaons se désintègrent ensuite. Un spectromètre magnétique intégrant des détecteurs de traces (STRAW) mesure les mêmes caractéristiques cinématiques pour les particules chargées issues de la désintégration. Les pions et les muons sont distingués par imagerie Cerenkov (RICH). Un calorimètre (LKR) et des détecteurs de muons (MUV) complètent l’analyse des particules émises, ce qui permet d’identifier et de rejeter les désintégrations de kaons engendrant des photons et/ou des muons.

ans environ 80 désintégrations K+ —> π+νν- si le rapport d’embranchement de cette désintégration est celui prédit par le Modèle Standard, qui est égal à (0,85± 0,07)×10-10, avec un nombre d’événements de bruit de fond environ 10 fois plus petit que le signal recherché.

Effet Cerenkov Une particule qui pénètre dans un milieu peut avoir une vitesse supérieure à celle de la lumière dans ce même milieu. Dans ces conditions, les particules chargées émettent de la lumière par effet Cerenkov (du nom du physicien russe qui l’a découvert, prix Nobel de physique en 1958). Il s’agit d’une onde de choc, semblable au « bang » d’un avion qui passe le mur du son. Les photons sont émis suivant un cône dont l’axe suit la trajectoire de la particule, l'angle d'ouverture du cône permet alors d'identifier cette particule. Le CEDAR est un détecteur Cerenkov de type particulier permettant d’identifier les particules dans un faisceau.

La stratégie de cette future expérience est différente de celle des expériences de BNL. Ici, les kaons chargés (et donc également les pions chargés) ont une grande énergie et c’est le pion qui sera détecté (et non pas toute la chaîne de désintégration) car le pion énergétique met un temps plus long à se désintégrer. Les kaons chargés initiaux sont identifiés dans le CEDAR en utilisant l’effet Cerenkov. Les produits de désintégration des kaons (pions, électrons, muons, photons) doivent être séparés avec soin, ce qui permettra une élimination extrêmement performante des canaux contenant des photons (seul un photon sur 100 millions passera à travers les mailles du filet) qui sont une source de bruit de fond importante.

L’expérience NA48, mère de l’expérience NA62, dans un hall expérimental du CERN. Dans le tube bleu les kaons se désintègrent et le détecteur est situé au fond de l'image.

- NA62 sera en mesure d’étudier Outre K+ —> π+ν ν, d’autres désintégrations très rares du méson K, avec l’espoir d’y voir des signes de nouvelle physique, comme des processus ne respectant pas la conservation de la saveur leptonique... Nos ramasseurs de champignons vont avoir de quoi faire à l’ombre des châtaigniers du CERN !

page 26

© CERN

La période de recherche et de développement pour les sous-détecteurs s’achève. La construction des différentes parties de l’expérience est à présent entamée. NA62 compte près de deux cents collaborateurs provenant de plus d’une vingtaine d’instituts, situés en Belgique, en Bulgarie, en Allemagne, en Slovaquie, en Suisse, en Grande-Bretagne, en Russie, au Mexique, au Canada et aux États-Unis.

ÉLÉMENTAÍRE


Détection Trouver de la physique nouvelle Les muons sont des particules élémentaires au même titre que l’électron ou les quarks. Ce sont ainsi des révélateurs de la structure intime de la matière et leur détection peut indiquer la présence d’autres particules plus lourdes, éventuellement nouvelles. Pour cette raison, les expériences ATLAS et CMS au LHC ont développé des systèmes impressionnants afin de les détecter. En utilisant des méthodes différentes, que nous allons préciser, toutes deux exploitent la capacité des muons à traverser beaucoup de matière sans être trop perturbés, contrairement aux autres types de particules.

Les muons Date de découverte : 1936. Lieu de découverte : le Pike’s peak dans le Colorado. Découvreurs : Carl David Anderson et Seth Neddermeyer, du Caltech (California institute of technology), en étudiant les rayons cosmiques avec une chambre à brouillard. Masse : 207 fois plus lourd que l’électron. Charge électrique : égale à celle de l’électron. Temps de vie au repos : 2,2 μs. Il se désintègre en neutrino-mu, électron et antineutrinoélectron. Un muon de 1 GeV parcourt plus de 6 km en moyenne, dans le vide, avant de se désintégrer. Collègues : avec l’électron et le tau il fait partie des leptons chargés qui sont des particules élémentaires. Famille : il appartient à la seconde famille de constituants élémentaires avec les quarks charmé et étrange, et le neutrino-mu. Signe particulier : il est sensible à l’interaction faible mais immunisé contre l’interaction forte. Sur Terre : il est émis dans la Nature lors de la désintégration de pions, produits par interaction des rayons cosmiques avec l’atmosphère, et peut parvenir au sol. Le flux correspondant est aux alentours de 200 muons/m2/s, orientés principalement de haut en bas. Il participe ainsi à environ 15 % de la radioactivité naturelle.

Le muon : un passe-ferraille Toute particule chargée interagit principalement avec la matière environnante par interaction électromagnétique. Lors de son parcours, un muon de quelques GeV d’énergie arrache des électrons aux atomes situés à proximité : on dit qu’il ionise le milieu. Les électrons ainsi libérés sont de très basse énergie et permettent, si on les détecte − par exemple avec des chambres à fils ou d’autres dispositifs similaires − de reconstruire la trajectoire du muon. Il est également « discret » : comparé à des photons ou à des électrons d’énergie similaire, il n’engendre pas de gerbe électromagnétique. Il diffère aussi du proton et du pion car, étant un lepton, il n’a pas d’interaction forte avec les noyaux. Prenons un exemple : si l’on imagine un mur de fer de 1 m d’épaisseur sur lequel on envoie des particules de différente nature, au bout de 2 cm la majorité des photons et des électrons ont interagi créant des gerbes qui seront totalement absorbées après une quarantaine de centimètres. Pour les pions ou les protons la quantité de fer doit être multipliée par dix pour un résultat similaire. Ainsi, à la sortie du mur, il se peut que plusieurs particules de basse énergie émergent dans des directions qui sont très différentes de celles de la particule initiale. Quant aux muons, ils traversent le fer quasiment sans perturbation. L’énergie qu’ils perdent pour ioniser le milieu, voisine de 2 MeV/(g cm-2), est relativement constante et assez faible. Au bout de 1 m de fer, leur énergie a diminué de 1,6 GeV environ. Ces quelques considérations simples sont mises en pratique pour distinguer les muons parmi toutes les particules produites : leur faire traverser une quantité importante de matière et vérifier que leur trajectoire est peu perturbée après cette opération. La figure sur la page suivante montre, dans le cas du détecteur CMS, les différences de comportement entre les particules mentionnées cidessus. Ces résultats ne sont valables que si l’énergie des muons est supérieure à quelques GeV afin qu’ils puissent traverser complètement le milieu absorbant, ce qui est le cas de ceux auxquels on s’intéresse au LHC.

Mur de fer Nous prenons le fer comme exemple car c’est un matériau dense et ses propriétés magnétiques font qu’il est souvent utilisé comme culasse d’aimant. MeV/(g cm-2) Dans cette unité, communément utilisée pour calculer l’énergie perdue par un muon qui ionise un milieu, la valeur obtenue est peu dépendante de la nature du milieu traversé et vaut environ 2 MeV/(g cm-2). Si on la multiplie par la masse volumique du milieu, environ 8 g/cm3 pour le fer, on obtient l’énergie perdue par centimètre parcouru soit 16 MeV/cm.

Les expériences du LHC utilisent le muon comme un messager signalant la présence de particules plus lourdes connues et, on l’espère, inconnues. Ainsi les quarks top et beau émettent des muons dans 10 % des cas lors de leur désintégration par interaction faible et peuvent être identifiés à leur tour. De même, les bosons vecteurs de l’interaction faible ont des transitions du type : W+→μ+νμ, W-→μ-ν- μ et Z0→μ+μ-. Certains canaux de désintégration du boson de Higgs (H0) passent aussi par des muons comme par exemple: H0→μ+μ-μ+μ- ou encore

ÉLÉMENTAÍRE

page 27

Les bons et les mauvais muons


Trouver de la physique nouvelle s

Trois caractéristiques peuvent donc être utilisées pour distinguer les muons « intéressants » : ils traversent une grande quantité de matière en étant peu perturbés, ils ont une énergie minimale de quelques GeV et ils sont isolés des particules environnantes. Nous allons voir comment, dans la pratique, la première caractéristique est mise en œuvre dans les expériences ATLAS et CMS au LHC car elle conditionne la géométrie des deux détecteurs. La seconde est satisfaite en ne gardant que les événements ayant un candidat muon dont l’énergie est supérieure à un seuil ajustable. Cette sélection se fait en temps réel lors de l’écriture des informations sur un support magnétique. Quant au critère d’isolation nécessitant la reconstruction complète des trajectoires et des énergies des particules produites lors de la collision, il est appliqué lors de l’analyse finale des événements enregistrés.

La mesure des muons dans CMS

© CERN

Comme son nom l’indique, l’expérience Compact Muon Solenoid (CMS) accorde une importance particulière aux muons. Nous avons vu qu’une grande quantité de matière est nécessaire pour séparer les muons des autres particules. Afin que le détecteur ait une taille raisonnable, le choix a été fait de réduire au maximum les dimensions de la partie la plus interne qui assure la reconstruction des trajectoires des particules chargées. Ceci a nécessité l’emploi d’appareillages donnant des mesures très précises et l’utilisation d’un champ magnétique très élevé pour courber les page 28

Principe de l’identification des muons dans le détecteur CMS. Lorsque les muons ont une énergie supérieure à quelques GeV ils peuvent traverser l’ensemble des détecteurs alors que les autres particules restent à l’intérieur du solénoïde. La mesure précise de leur trajectoire à l’extérieur de l’aimant, par des chambres spécialement conçues, permet de retrouver leur trace parmi celles des autres particules chargées émises lors de la collision.

H0→μ+μ-e+e-. Ces derniers exemples concernent des particules lourdes (leur masse est environ 100 fois celle du proton). Les muons produits dans ce cas ont le plus souvent une énergie assez élevée et ils sont isolés des autres particules émises lors de la collision qui sont rassemblées dans des jets. Un critère d’isolation, construit à partir des directions et des énergies des particules, permet de rechercher ces muons « intéressants » parmi tous les événements enregistrés. En effet, il existe aussi de nombreux muons provenant de la désintégration de particules plus légères comme les pions et les kaons. Les muons ainsi produits, considérés comme du bruit de fond, sont de basse énergie et restent confinés dans des jets. © CERN

Isolés La notion d’isolation des muons est illustrée sur cet événement simulé par la collaboration CMS. Dans une collision entre deux protons initiaux, au LHC, deux particules supersymétriques, encore hypothétiques, sont produites puis se désintègrent. Les faisceaux sont perpendiculaires au plan de la figure et se rencontrent en son centre. Les muons (en jaune) issus de la désintégration de ces nouveaux objets sont clairement isolés par rapport aux autres particules produites. On remarque que ces dernières ne sont pas émises uniformément dans l’espace mais se rassemblent suivant ce que l’on appelle des jets (Jet1, Jet2). Il s’agit là d’une caractéristique des collisions à haute énergie. La direction et l’énergie de ces jets correspondent à celles des quarks qui sont à leur origine. Les jets eux-mêmes sont isolés l’un de l’autre. Les lignes pointillées ~ représentent les directions de deux particules ~0 ) neutres qui traversent supersymétriques (χ 1 tout le détecteur sans y interagir. La présence de telles particules, issues de la désintégration des particules supersymétriques initiales, est cependant détectable car l’énergie et l’impulsion reconstruites par l’appareillage seront inférieures aux valeurs attendues. On verra ainsi qu’une partie de l’événement manque à l’appel. Si leur existence est mise en évidence, ce type de particules pourrait expliquer (toute ou partie de) la matière noire présente dans l’Univers.

ÉLÉMENTAÍRE


Détection avec les muons Resistive Plate Chambers (RPC) Lorsqu’une particule ionisante traverse la chambre, elle crée une avalanche d’électrons dans le gaz situé entre les deux plaques de bakélite qui sont portées à une différence de potentiel voisine de 10 kV. Comme ces plaques sont isolantes (ou résistives), le champ électrique est perturbé uniquement au voisinage de la trace et, ailleurs, le détecteur reste sensible pour détecter d’autres particules éventuelles. L’épaisseur des plaques ainsi que de la couche de gaz sont de 2 mm. L’avalanche induit un signal électrique sur une électrode qui est divisée en zones de manière à repérer la position du passage de la particule, dans la direction perpendiculaire à celle des zones.

Déclencher la saisie des données Au LHC, les protons entrent en collision à une fréquence de 40 MHz. Dans la plupart des cas peu de particules sont créées et les événements correspondants n’ont pas d’intérêt pour les physiciens qui recherchent préférentiellement ceux pour lesquels des particules massives sont produites. Afin de minimiser la quantité d’informations enregistrée, un tri est réalisé pour sélectionner les événements intéressants. Cette opération s’effectue en combinant les informations issues de différents appareillages qui ont des temps de réponse variés. Les détecteurs les plus rapides, comme les RPC, permettent d’effectuer un premier choix au bout de quelques nanosecondes.

ÉLÉMENTAÍRE

page 29

Une coupe schématique de CMS est représentée page précédente. Hormis les muons, les particules créées lors de la collision sont arrêtées avant de pénétrer dans le spectromètre situé à l’extérieur de la bobine. Celui-ci est constitué de stations qui sont insérées entre les plaques de fer de la culasse de l’aimant. Chaque station comporte deux types de détecteurs. Le premier est formé de Resistive Plate Chambers (RPC) qui ont une résolution limitée sur la position du muon (~8 mm) mais une très bonne résolution temporelle (1,3 ns). Cette dernière information est utilisée pour déclencher la saisie des données de CMS lorsqu’un muon énergétique est détecté. Le second type est formé de chambres qui ont, par contre, une très bonne résolution spatiale (~200 μm). Dans la région centrale, des tubes à dérive (DT) sont utilisés (voir Élémentaire 5, rubrique « Détection ») alors qu’à l’avant et à l’arrière Vue d’une des stations de chambres à muons plade l’expérience, où le flux de particules est plus intense, cées à l’avant et à l’arrière des Cathod Strip Chambers (CSC) sont employées. du détecteur CMS. Chaque muon traverse successivement quatre stations qui fournissent 14 mesures chacune. Sa trajectoire est ainsi mesurée de manière très précise par le détecteur interne de traces puis par le spectromètre à muons que nous venons de décrire. Comme nous l’avons expliqué, le muon est peu perturbé lors de la traversée de la matière et l’on sait calculer l’énergie qu’il perd par ionisation à tout instant. On peut donc vérifier la compatibilité entre les trajectoires mesurées par les deux systèmes ce qui permet de retrouver le muon parmi les nombreuses traces de particules émises lors de la collision. Afin que la précision obtenue au niveau d’une chambre soit aussi valable pour l’ensemble du détecteur il faut contrôler en permanence les positions des différents modules car plusieurs phénomènes peuvent les perturber (température, mouvements du sol, contraintes mécaniques,…). Pour cela, un système optique sophistiqué suit en continu les positions des différentes chambres. L’ensemble développé par CMS est conçu pour mesurer dans 95 à 99 % des cas tout muon d’énergie supérieure à 10 GeV émis à l’extérieur d’un cône de 10° par rapport à l’axe des faisceaux.

© CERN

trajectoires sur une courte distance. Le solénoïde supraconducteur de CMS, parcouru par un courant de 20 kA, crée un champ de 4 T dans un volume de 6 m de diamètre et 12,5 m de longueur.

Résolution temporelle Les détecteurs sont sensibles au passage d’une particule sur un intervalle de temps souvent bien supérieur à celui mis par la particule pour les traverser. Ce dernier est typiquement de 0,03 ns pour un détecteur de 1 cm d’épaisseur. L’instant de passage de la particule est mesuré avec une précision (ou résolution temporelle) qui dépend du type de détecteur utilisé ainsi que de l’électronique associée. Les RPC et les scintillateurs sont actuellement les plus performants avec des valeurs allant de 0,1 à 1 ns. Une des tâches des expérimentateurs est de synchroniser en temps l’ensemble des parties de leur appareillage afin de pouvoir retrouver les mesures des particules issues d’une même collision. L’instant de la collision est connu avec une grande précision grâce à un signal fourni aux expériences par l’accélérateur LHC. Ainsi on peut synchroniser en temps les détecteurs avec le passage des protons. Les paquets se croisent toutes les 25 ns au centre de chaque appareillage.


Trouver de la physique nouvelle s

© CERN

Toroïdes supraconducteurs Il s’agit d’anneaux qui sont placés à l’extérieur d’ATLAS. Les plus grands, au nombre de huit, font 25 m de long et leur bobinage supraconducteur est parcouru par un courant de 20 000 A. Les lignes du champ magnétique de 4 T forment un tore entourant l’expérience. D’autres bobines, plus petites sont installées à l’avant et à l’arrière d’ATLAS.

La collaboration ATLAS (A Toroidal Lhc ApparatuS) a fait un autre choix pour identifier les muons. La culasse de l’aimant n’est pas équipée de chambres, comme dans CMS. Par contre un ensemble de détecteurs spécialement consacré à la mesure des trajectoires des muons est construit au-delà du fer. Il comporte des toroïdes supraconducteurs, qui créent un champ magnétique intense, et des chambres mesurant précisément les positions des muons. Après leur passage dans le fer, les muons circulent dans l’air sans aucune perturbation ce qui permet d’obtenir des mesures précises de leurs propriétés (position, direction, énergie) dans cette zone. De même que pour CMS, la trajectoire reconstruite à l’extérieur du solénoïde est associée à celle mesurée dans le détecteur interne. Le gigantisme de l’expérience ATLAS provient du choix de mesurer les muons dans l’air, à l’extérieur de l’aimant central. Des chambres formées de couches de tubes à dérive (Monitored Drift Tubes ou MDT) mesurent la position des particules qui les traversent avec une précision voisine de 80 μm. Chaque chambre est formée de 8 couches dans la partie centrale du détecteur et de 6 couches dans les parties avant et arrière. Au total 370 000 tubes ont été assemblés dans 14 sites répartis de par le monde et positionnés avec une extrême précision. Des outils d’assemblage et de contrôle ont été mis au point pour assurer l’uniformité de la construction des chambres. Un système optique vérifie en permanence leur position si bien que leur alignement est assuré avec une précision voisine de 10 μm. Ceci est impressionnant pour des modules de plusieurs mètres de long. De même que dans CMS, d’autres dispositifs permettent d’avoir une bonne résolution temporelle (~1,5 ns) et sont utilisés dans le déclenchement de l’expérience. Il s’agit également de chambres de type RPC pour la partie centrale et de chambres à fils minces pour les autres régions. La détection des muons de haute énergie est une priorité au LHC. Elle a conditionné la conception des expériences ATLAS et CMS qui ont adopté deux solutions différentes : le gigantisme pour l’une et la compacité pour l’autre. Des performances similaires sont attendues pour détecter et mesurer les trajectoires des muons avec ces deux concepts. Espérons que la nouvelle physique tombera des mus !

page 30

Sur la gauche on voit une des extrémités du détecteur central d’ATLAS. Sur la droite se trouve une des « roues » équipée de chambres à muons. Entre les deux, le cryostat contenant des toroïdes, placé à cette extrémité, est descendu vers sa position finale. Il s’agit d’un objet de 13 m de diamètre et pesant 240 tonnes. Il ne faut pas confondre ce dispositif avec les grands toroïdes installés dans la partie centrale du détecteur.

© CERN

© CERN

Plans de tubes à dérive, formant une chambre d’ATLAS, dont la position relative est en cours de contrôle.

La mesure des muons dans ATLAS

Vue de la partie centrale du détecteur ATLAS. Le spectromètre à muons est formé de huit toroïdes supraconducteurs au milieu desquels sont disposés des modules regroupant les chambres à muons (MDT et RPC).

ÉLÉMENTAÍRE


Retombées Les gadgets du LHC chez vous Électronique de lecture : par ce terme on désigne l’ensemble des composants électroniques qui récupèrent et traitent le signal délivré par le détecteur. Ce traitement comprend d’habitude l’amplification, la mise en forme et la numérisation du signal électrique initial. Des tâches de sélection, suivant des critères programmables, peuvent être intégrées. Certains principes définissent les caractéristiques générales de l’électronique de lecture : elle doit travailler rapidement (on attend typiquement une réponse avant quelque millionièmes de seconde pour prendre une décision sur la particule qui a généré ce courant), ne pas ajouter de bruit au signal issu du détecteur, ne pas dissiper trop de chaleur et de ne pas prendre beaucoup de place.

À quoi sert le Higgs dans la vie de tous les jours ? Voilà une question qui tue ! La recherche scientifique nécessite des investissements conséquents et demande beaucoup de temps. En terme d’application immédiate, la situation varie avec la discipline : en médecine par exemple, la recherche est chère et longue mais elle débouche le plus souvent sur un produit disponible pour tous (médicament, vaccin, etc.). Peut-on faire profiter la société de nos avancées dans la compréhension des particules élémentaires ? Le lecteur fidèle et attentif de notre revue a déjà son idée sur cette question. La découverte de la radioactivité par exemple, dont l’intérêt quotidien était bien flou au début, a conduit à la construction des centrales de production de courant électrique et au traitement des maladies. La constitution d’équipes de recherche internationales, qui ont besoin d'une communication rapide et ouverte, a donné lieu à la mise au point du web, qui aujourd’hui fait partie de notre quotidien. De même, la construction des expériences du LHC destinées à la recherche du Higgs a conduit au développement d’une technologie de pointe, qui a été exploitée par la suite par des entreprises ou d’autres équipes scientifiques. Nous présentons dans cette rubrique quelques exemples de ces transferts de connaissances, parmi les nombreux existants.

Mettez ATLAS dans votre oscilloscope de table !

ÉLÉMENTAÍRE

Oscilloscope METRIX OX 7104-C

La puce MATACQ page 31

Une jolie histoire, qui débute en 1992 : à cette époque les électroniciens commencent à réfléchir sur les circuits intégrés nécessaires au fonctionnement du calorimètre à argon liquide du détecteur ATLAS au CERN, en s'inspirant de leur expertise sur les expériences précédentes : en particulier le détecteur H1 à Hambourg et l’électronique pour la lecture de son calorimètre. Le contexte d’ATLAS est bien plus exigeant mais l’objectif est atteint dès 1998 par les ingénieurs du CNRS et du CEA. Une mémoire de très haute précision et insensible aux radiations occupe ainsi actuellement les 1700 cartes de lecture du signal sur les calorimètres d’ATLAS ! Ces mémoires stockent 600 000 signaux mesurés tous les 25 ns, ce qui correspond à 24 mille milliards de mesures par seconde ! Heureusement, seuls les échantillons sélectionnés par la logique du déclenchement d’ATLAS sont par la suite retenus, minimisant ainsi la puissance consommée. Puis se pose le problème de réaliser de nouveaux circuits, préservant la précision déjà obtenue, tout en gagnant plusieurs ordres de grandeur sur la fréquence d’échantillonnage, objectif très ambitieux à l’époque. Les compétences de cette équipe ne sont pas passées inaperçues auprès des entreprises privées spécialisées dans les technologies de pointe. Une collaboration se met alors en place entre le CNRS, le CEA et l’une de ces entreprises, intéressée par des mesures précises et rapides. Elle a abouti à la construction d’un oscilloscope haut de gamme, encore plus rapide (1 milliard d’échantillons par seconde !) et commercialisé depuis sous la forme d’appareils portables ou appareils de table (eh oui...).


Les gadgets du LHC chez vous Mais l’histoire de ces mémoires ne s’arrête pas là. Une puce encore plus puissante, la puce MATACQ, sert à l'expérience DEMIN du CEA, précurseur du futur laser Mégajoule, et différentes versions de la carte MATACQ, de plus en plus évoluées, équiperont par la suite les détecteurs du LHC, ainsi que d'autres expériences de physique... Cette carte sera également commercialisée avec succès par une grande société italienne. Une autre puce, SAM, a été conçue en 2005 pour le grand télescope gamma HESS-2 en fin de construction en Namibie. Suite à quelques modifications de cette mémoire analogique et au design d’une nouvelle carte, nos collègues ont obtenu des mesures de temps d’une précision de quelques picosecondes sur des impulsions ultra-rapides. Un produit dérivé très intéressant est le WAVECATCHER : une petite boîte qui peut se brancher comme une clé USB sur votre ordinateur portable et le transformer en un oscilloscope très précis et hyper-rapide. De plus, les petits frères du circuit SAM sont déjà en train d’ouvrir de nouveaux champs de développement.

Module USB WAVE CATCHER Bas-bruit : les signaux générés dans un détecteur par une particule sont souvent très faibles. Pour pouvoir les utiliser il faut les amplifier tout en n’ajoutant pas de bruit ce qui affecterait les informations qu’ils véhiculent.

Du Maroc en Italie, en passant par l'Alsace !

ASIC ou circuit intégré pour une utilisation spécifique est, comme son nom l’indique, un circuit de microélectronique remplissant plusieurs tâches et conçu pour répondre à des besoins précis. Dans le cas de MAROC ce circuit reçoit des signaux (32 ou 64) venant d’un photomultiplicateur à anodes multiples. Comme chaque voie électronique peut avoir un comportement différent, leurs performances sont égalisées. Les signaux sont ensuite formatés ce qui permet de mesurer le nombre de photons qui les a induits et de sélectionner l’événement concerné. Le circuit permet aussi la numérisation des informations.

© KEK

page 32

Tomographie des volcans L’étude de la structure de cônes volcaniques à l’aide des muons cosmiques a été développée au Japon au début des années 2000. Le principe de la mesure est le même que pour les pyramides. La direction des muons est mesurée par des plans de scintillateurs séparés de un mètre environ ce qui donne une précision angulaire voisine de 10 mrad, soit une incertitude de 10 m à 1 km de distance. Comme la surface des détecteurs est jusqu’ici relativement faible, voisine de 1 m2, et compte tenu du spectre en énergie et en direction des muons cosmiques, seule l’exploration du sommet du volcan sur quelques centaines de mètres est possible. En effet il est nécessaire d’enregistrer un nombre minimal de muons, pendant une durée de temps raisonnable (1 mois), pour pouvoir détecter des différences avec les flux attendus.

La représentation des informations issues des appareillages sous la forme « d’images » en quatre dimensions (espace et temps) est au cœur des expériences de physique des particules. La recherche « d’images » toujours plus fines, plus précises et plus rapides, a été le moteur de l’amélioration des détecteurs au long des dernières décennies. La finesse des « images » est d’autant plus grande que, pour un volume donné, le nombre de capteurs augmente. La situation est similaire à celle obtenue par l’accroissement du nombre de pixels dans les appareils photo numériques. Les progrès dans les détecteurs ont pour une grande part été basés sur les développements de l’électronique de lecture, très compacte et placée au plus près de la source des signaux. Ces avancées reposent sur les progrès de la microélectronique qui permettent d’intégrer des millions de transistors sur quelques millimètres carrés. Les spécialités d’électronique à bas-bruit ont ainsi été utilisées pour traiter en parallèle des millions de canaux de lecture en améliorant par làmême les performances de nombreux appareillages en physique des particules et en cosmologie. Ces détecteurs innovants et leurs ASICs (Application Specific Integrated Circuit) de lecture trouvent d’autres applications comme l’imagerie médicale ou celle des matériaux, voire plus exotiques comme la tomographie des volcans ou des pyramides !

Radiographie du volcan Iwodake (Japon) obtenue avec des muons cosmiques. La zone plus claire correspond à une colonne de lave liquide située dans un conduit de 160 m de diamètre.

ÉLÉMENTAÍRE


Les gadgets du LHC chez vous Tomographie des pyramides : Comme nous l’avons vu dans la rubrique « Détection», les muons perdent régulièrement de l’énergie en traversant la matière. Ces particules, créées dans l’atmosphère par les rayons cosmiques, peuvent ainsi être utilisées pour rechercher la présence de cavités ou bien des différences de densité au sein de grandes accumulations de matière, comme des volcans ou des pyramides, qui ne peuvent pas être sondées par d’autres méthodes. Pour cela il suffit de compter les muons arrivant dans un détecteur, et suivant une direction donnée, après avoir traversé le milieu à explorer. Si une cavité est présente dans la direction sondée on mesurera un excès de muons par rapport aux directions voisines. Comme un muon perd environ 500 GeV par kilomètre de roche parcouru, seuls les muons de haute énergie peuvent émerger après un trajet de quelques centaines de mètres. De tels candidats sont assez peu abondants puisque le spectre en énergie (E) des muons atmosphériques décroît comme E-2,7. Une recherche de cavités dans la pyramide de Khefren, près du Caire, par cette méthode a été mise en œuvre à la fin des années 60 par une équipe américano-égyptienne dirigée par Luis Alvarez chercheur à l’Université de Californie (Berkeley) et prix Nobel de physique pour ses travaux sur la chambre à bulles. La position et la direction des muons étaient mesurées par deux chambres à étincelles séparées de 70 cm et couvrant une surface de 4 m2. Le détecteur était installé dans une cavité (la seule connue dans cette pyramide) située à la base et au centre de l’édifice. En comparant les nombres de muons observés dans différentes directions à ceux attendus en tenant compte de la géométrie de la pyramide, les chercheurs ont conclu qu’il n’y avait pas de grande chambre funéraire supplémentaire. Pour l’anecdote on notera que l’équipe d’Alvarez avait transporté un blindage d’une trentaine de tonnes de fer pour éliminer les muons de trop basse énergie arrivant au niveau de leur détecteur, et susceptibles de créer du bruit de fond. Une exploration similaire a débuté depuis 2008 auprès de la Pyramide du Soleil à Teotihuacan par une équipe mexicaine qui a remplacé les chambres à étincelles par des chambres à fils plus modernes et a abandonné le blindage qui s’est avéré ne pas être nécessaire. Il semble que des problèmes techniques (ruptures de fils) ralentissent l’enregistrement des données.

© Farm4

À titre d’exemple, il a fallu concevoir pour l’expérience OPERA située dans le tunnel du Gran Sasso en Italie, de grands plans de scintillateurs (des dizaines de mètres carrés) destinés à mesurer les particules chargées créées lors des interactions des neutrinos. Ces plans émettent des photons qui sont transformés en signaux électriques par des photomultiplicateurs multi-anodes, qui permettent de traiter simultanément 64 fibres scintillantes. La lecture des 3000 photomultiplicateurs a nécessité un ASIC, baptisé OPERA_ROC (ROC sont les initiales de Read Out Chip ou circuit de lecture) qui permet de reconstruire le nombre de photons ainsi que leur temps d’arrivée. Installés depuis 2003, ces circuits ont permis à l’expérience OPERA d’identifier tout récemment un premier candidat d’apparition de neutrino tau parmi les neutrinos mu envoyés depuis le CERN (voir rubrique ICPACKOI).

ÉLÉMENTAÍRE

page 33

Détecteur cylindrique développé par l’équipe de R. Schwitters. On voit une des trois couches de scintillateurs ainsi que les fibres optiques qui transmettent la lumière aux photomultiplicateurs.

La pyramide du Soleil à Téotihuacan (Mexique). Une équipe de l’Université du Texas (Austin) dirigée par Roy Schwitters (qui fut notamment directeur du laboratoire abritant le défunt accélérateur SSC, précurseur malheureux du LHC) va installer plusieurs détecteurs d’un type un peu différent auprès d’une pyramide à La Milpa (Bélize). Chaque détecteur est formé d’un cylindre en aluminium (de 1,8 m de diamètre et 4 m de longueur) installé verticalement dans un puits creusé au voisinage du site à explorer. Sur la paroi de chaque cylindre sont placées trois couches de bandes scintillantes (de 3 cm de largeur et 1 cm d’épaisseur). L’axe des bandes est dirigé suivant celui du cylindre pour l’une et à ± 30° pour les deux autres. Un muon traversant le cylindre crée de la lumière dans six bandes situées dans les six couches. La lumière produite dans les bandes est transmise à des photomultiplicateurs par des fibres optiques. Chaque photomultiplicateur lit 64 canaux. On peut ainsi mesurer deux points sur la trajectoire du muon et connaître sa direction. Une fois qu'on a collecté un nombre suffisant de muons qui ont traversé la pyramide, on peut reconstruire en partie sa géométrie à partir des variations de flux des particules enregistrées.


Retombées Les gadgets du LHC chez vous Luminomètre C’est un appareil qui permet de connaître le nombre de collisions produites lors du croisement des faisceaux dans un collisionneur. Il s’agit d’une information très importante (la luminosité) que les expériences utilisent pour calculer les probabilités des différentes réactions qu’elles mesurent.

Loin de limiter sa carrière à OPERA, cet ASIC a été utilisé par le groupe de biologie du laboratoire de recherches subatomiques de Strasbourg pour concevoir une caméra à fibres scintillantes qui aide les chirurgiens lors de l’exérèse des tumeurs cancéreuses. Il a ensuite été repris par l’expérience ATLAS au CERN pour fabriquer un luminomètre, utilisant le même type de photomultiplicateurs. La nouvelle version d’ASIC conçue à cette occasion est beaucoup plus puissante. Intégrant davantage de fonctionnalités, elle est appelée MAROC (pour Multi-Anode ReadOut Chip : circuit de lecture pour plusieurs anodes). Ce circuit est aussi utilisé par l’expérience Double CHOOZ qui étudie les oscillations de neutrinos, et par des groupes italiens développant de nouveaux détecteurs d’imagerie médicale par émission de positrons. Enfin une application récente, par des chercheurs italiens de Naples, concerne la représentation en trois dimensions des cheminées volcaniques en utilisant les muons cosmiques. Grâce à de tels détecteurs il est possible de prédire le risque d’une prochaine éruption. Un exemplaire de ce détecteur est en cours de déploiement autour du Vésuve.

© OPERA

Ainsi, ce circuit initialement conçu pour la physique des neutrinos, a eu un destin bien plus vaste et diversifié allant de la médecine nucléaire à Strasbourg aux volcans près de Naples.

À gauche : installation médicale pour surveillance péri-opératoire. Ci-dessous : le « tricot » de fibres scintillantes est le détecteur qui est posé sous le patient (à droite). Une injection de traceur radioactif, permet la fixation des molécules sur des cellules spécifiques. Le signal recueilli par le « tricot » est traité par les circuits électroniques et transformé en image ce qui permet aux chirurgiens de vérifier l’ablation totale des nodules suspects avec une grande précision.

page 34

En haut la photo d'un plan de scintillateurs de l’expérience OPERA. Chaque scintillateur a 7 m de longueur et 26 mm de largeur. Une fibre optique transmet à un photomultiplicateur multi-anodes la lumière créée dans le scintillateur par le passage d’une particule ionisante. Ces fibres sont dirigées vers une barrette de lecture (photo cidessus), portant les circuits OPERA-ROC. Chaque circuit mesure 3mm × 1mm et traite les signaux issus de 32 voies. La boîte noire correspond au photomultiplicateur.

ÉLÉMENTAÍRE


Analyse La distribution de Breit-Wigner Peut-être lisez-vous cette revue en prenant votre café ou chocolat au lait du matin ? Si, avec la cuillère, vous le remuez d’avant en arrière, d’un mouvement très lent ou très rapide, le liquide bouge peu. Avec un peu d’entraînement, vous pourrez trouver la bonne fréquence qui vous permettra d’inonder la table et d’annoncer triomphalement : « Chéri(e) j’ai enfin mis mon bol en résonance !»... « Très bien, maintenant tu peux nettoyer et n’oublie pas de commander un nouveau numéro d’Élémentaire ! » Figure 1

Le phénomène de résonance se produit lorsqu’un système qui peut osciller autour d’une position d’équilibre (par exemple un pendule, un ressort, le liquide contenu dans le bol), est soumis à une force extérieure variable. Ce phénomène a lieu lorsque la fréquence de variation de la force est égale à celle de l’oscillation propre du système. L’amplitude du mouvement augmente alors avec le temps et devient en théorie infinie. Dans la pratique, des phénomènes dissipatifs empêchent une telle divergence mais le résultat peut néanmoins être impressionnant comme l’illustre l’effondrement, en 1940, du pont sur le goulet de Tacoma. En régime stationnaire, le système oscille à la fréquence imposée par la force externe et doit recevoir de l’énergie pour établir le mouvement et compenser les pertes. La valeur de cette énergie varie en fonction de la fréquence de la force externe. Nous l’avons représentée sur la figure 1 pour différentes valeurs du paramètre d’amortissement qui caractérise l’importance des phénomènes dissipatifs. L’énergie est maximale, mais pas infinie, lorsque la fréquence d'excitation est égale à la fréquence propre du système. La largeur de la distribution mesurée à mi-hauteur dépend du paramètre d’amortissement. Plus ce dernier est faible, plus la distribution est étroite et, pour une force extérieure donnée, plus son maximum est élevé. Si l’on se limite à un domaine de fréquences situé autour de la fréquence propre d’oscillation du système (f0), la variation de l’énergie en fonction de la fréquence (f) obéit à une distribution dite de Lorentz : I(f) =

Figure 1 : Comparaison entre la distribution de Breit-Wigner (trait plein) et la distribution exacte (trait interrompu) de l’énergie fournie à un système oscillant dont la fréquence propre f 0=10 et qui est soumis à une force variable oscillant à la fréquence f. L’expression exacte est obtenue en résolvant l’équation du mouvement.

Oscillation propre Nous avons considéré ici le cas simple d’un ressort ou d’un pendule dont le mouvement est périodique à une fréquence précise (f0). Il s’agit de la fréquence d’oscillation propre du système.

1/π (Γ/2) (f0 – f)2 + Γ2/4

Phénomènes dissipatifs Pour des systèmes mécaniques il s’agit par exemple de frottements, pour un système électrique ils proviennent de la résistance des matériaux au passage du courant. L’énergie correspondante, qui est cédée au milieu ambiant, doit être fournie par une source extérieure si l’on veut que le mouvement persiste.

Le phénomène de résonance n’est pas l’apanage des systèmes mécaniques ; on le rencontre également en électricité. Ainsi, les postes de radio contiennent des systèmes résonants que l’on accorde sur les fréquences des ondes émises par les stations pour sélectionner un programme. Plus la courbe de résonance est étroite et meilleure sera la réception puisque l’énergie du signal engendré dans le circuit sera plus élevée (voir figure 2, page suivante). Dans les accélérateurs de particules, les trajectoires des protons ou des électrons oscillent en permanence

ÉLÉMENTAÍRE

page 35

L’expression donnée ci-dessus est normalisée de telle sorte que son intégrale sur toutes les fréquences soit égale à l’unité. Le paramètre Γ est égal à la largeur à mi-hauteur de la distribution. Sur la figure 1, nous avons aussi représenté l’expression exacte de l’énergie fournie au système qui reste valable lorsque l’on s’éloigne de la fréquence propre.

Régime stationnaire Le mouvement du système oscille suivant deux fréquences : sa fréquence propre et celle de la force extérieure. À cause des phénomènes dissipatifs, la première composante s’amortit progressivement si bien qu’au bout d’un certain temps il ne reste plus que le mouvement à la fréquence imposée par l’extérieur.


La distribution de Breit-Wigner Figure 2 : comparaison entre plusieurs distributions de BreitWigner pour f0=10 et des largeurs différentes qui sont caractéristiques des valeurs utilisées pour le paramètre d’amortissement. Elles correspondent toutes à la même valeur de la force extérieure. Au voisinage de la fréquence de résonance (f0) la réponse du système est d’autant plus élevée que la largeur de la distribution est faible.

Seattletimes

autour d’une position moyenne et des phénomènes de résonance mal maîtrisés peuvent conduire à la perte des faisceaux. La compréhension de ces comportements et leur contrôle a occupé pendant de nombreuses années les physiciens des accélérateurs et les équipes chargées de faire fonctionner ces machines.

Effondrement du pont de Tacoma (États-Unis), quatre mois après son inauguration en juillet 1940. Des bourrasques de vent ont excité des modes de vibration du pont et provoqué un phénomène de résonance. Comme dans « vidéogag », il n’y a pas eu de victime, à part un petit chien qui refusa de quitter une voiture.

Passons de la physique classique aux phénomènes quantiques en envisageant, par exemple, l’émission de lumière par un atome. Elle a lieu par retour d’un électron porté à un niveau excité, vers un niveau de plus basse énergie. L’énergie du photon émis est égale à la différence entre les énergies des deux niveaux. La lumière produite n’est pas rigoureusement monochromatique mais est cependant rassemblée dans un domaine étroit (une raie) qui possède une largeur dont la valeur peut être reliée à la durée de vie du niveau atomique excité. Cette situation est différente des exemples cités précédemment puisque nous sommes passés d’un comportement répétitif à un phénomène transitoire. Cependant la variation de l’intensité lumineuse en fonction de la fréquence, au voisinage de f0, suit également une distribution de Lorentz.

Monochromatique Caractérise une onde dont la fréquence a une valeur infiniment précise. La longueur d’onde (λ) d’un rayon lumineux peut être exprimée à partir de l’énergie (E) des photons correspondants : E = 2 π ħ ν et λ= c / ν soit λ= 2 π ħc / E ν est la fréquence du rayonnement et c désigne la vitesse de la lumière. La constante ħc = 197,327 MeV × fm permet de passer aisément de l’énergie d’une particule à sa longueur d’onde associée.

En physique nucléaire le phénomène de résonance se manifeste également. En étudiant, en 1936, la diffusion de neutrons par des noyaux à différentes énergies, G. Breit et E. Wigner ont montré que l’absorption des neutrons devient parfois très grande lorsque l'énergie du noyau composé (formé par le noyau cible et le neutron) est proche de celle d’un état excité. Ils ont alors proposé la distribution qui porte leurs noms. Elle est, comme précédemment, caractérisée par deux paramètres : E0, la position du maximum et Γ, sa largeur à mi-hauteur. La valeur de Γ est reliée à la durée de vie de l’état excité que forment temporairement le neutron et le noyau lors de leur interaction ; plus Γ est faible et plus cet état est stable. Formellement les distributions de Lorentz ou de BreitWigner sont identiques. De manière générale, une particule (ou un état) qui a une durée de vie finie, c’est-à-dire dont la distribution dans le temps se répartit suivant une exponentielle (voir le numéro 1 d’Élémentaire, rubrique « Analyse ») a une masse (ou une énergie) distribuée suivant une loi de Breit-Wigner. page 36

Largeur La largeur d’une raie atomique dépend d’autres phénomènes que de la durée de vie de l’état excité. On peut citer l’effet Doppler dû aux mouvements des atomes, leurs collisions et éventuellement les effets de champs électromagnétiques extérieurs. Remarquons que l’élargissement des raies venant des mouvements atomiques n’obéit pas à une distribution de Lorentz mais correspond plutôt à une gaussienne.

Figure 2

ÉLÉMENTAÍRE


La distribution de Breit-Wigner Nuclphys

Gregory Breit (1899 - 1981) « Insuffisamment apprécié dans les années 30, c’est actuellement le physicien le moins bien reconnu en Amérique » disait de lui J. Wheeler dans un livre paru en 1979. D’origine ukrainienne, il parvient aux USA à 16 ans où il y retrouve son père émigré quelques années auparavant. Il effectue ses études supérieures à l’université John Hopkins où il passe son Ph.D. à l’âge de 22 ans. Sa formation initiale est celle d’un ingénieur en électro-technique et ses premiers travaux y sont reliés. Avec M.A. Truve il montre en 1926 l’existence de l’ionosphère en détectant la réflexion d’ondes électromagnétiques qu’ils ont générées et envoyées vers le ciel. Leur système d’ondes pulsées est à la base du principe du radar. G. Breit devient membre de l’Académie des Sciences en 1939. En parallèle il s’intéresse aux débuts de la mécanique quantique et participe au démarrage du projet Manhattan (qui conduira à la mise au point de la première bombe atomique), jusqu’en 1942. Pendant la guerre il travaille aussi au dégaussage des navires afin qu’ils soient moins sensibles aux mines magnétiques. Il encourage et participe aux développements des premiers accélérateurs de protons pour étudier les réactions nucléaires. Dans les années 50 il s’intéresse à l’accélération des ions lourds et aux études qui peuvent être menées à partir de tels faisceaux. Surtout connu pour ses travaux sur la diffusion proton-proton, il a aussi laissé son nom au terme (de Breit) qui intervient dans l’interaction électromagnétique entre deux électrons en mouvement dans un atome.

Figure 3

Figure 3 : si une particule est stable sa masse a une valeur unique. Par contre la masse d’une particule instable est distribuée suivant une loi de Breit-Wigner dont la largeur est directement reliée à sa durée de vie.

C’est-à-dire que, pour une particule donnée, on ne peut pas prédire l’instant exact de sa désintégration ni connaître la valeur de sa masse de façon parfaitement précise. En effectuant de nombreuses observations on peut calculer la durée de vie moyenne, τ, et également obtenir un histogramme donnant la distribution de masse de la particule. On constate que la largeur à mi-hauteur de la distribution de masse, égale à Γ, vérifie τ = 1/Γ. Ce comportement étonnant, pour nous qui sommes habitués aux phénomènes physiques macroscopiques, est une manifestation d’un principe général de la Mécanique Quantique qui stipule que l’on ne peut pas mesurer simultanément, et avec une précision infinie, certaines propriétés des particules. Par exemple si on savait exactement où la particule est située, l’incertitude sur sa vitesse serait infinie. Il en est de même pour le temps et l’énergie (ou la masse). Si la durée de vie d’une particule est infiniment courte, sa distribution de masse serait infiniment large (figure 3).

ÉLÉMENTAÍRE

Nous avons exprimé l’inverse de la durée de vie (1/τ) et la largeur d’une résonance (Γ) en utilisant la même unité ce qui est une pratique commune en physique des particules. La correspondance entre les unités de ces deux paramètres fait intervenir la constante de Planck : ħ = 6,6 10-22 MeV s. On a E(MeV) = ħ / τ(s) d’où τ(s) = 6,6 10-22 / E(MeV) Une résonance ayant 1 MeV de largeur a ainsi une durée de vie égale à 6,6 10-22 s … ce qui est très court et n’est mesurable par aucun détecteur.

page 37

Dégaussage des navires La coque en fer des navires concentre le champ magnétique terrestre et cet effet peut-être détecté par des mines. Pour l’annuler, des systèmes de bobines magnétiques ont été installés sur certains bateaux. Cependant ce système est complexe et coûteux. Une autre méthode consiste à créer un champ intense au voisinage de la coque afin de la démagnétiser. Ce dernier procédé doit être répété à intervalles réguliers car le navire se ré-aimante lors de ses trajets. Les navires de guerre modernes sont équipés de systèmes complexes de dégaussage.

τ = 1/Γ


La distribution de Breit-Wigner Futurasciences

Eugène Paul (Jeno Pal en Hongrois) Wigner (1902-1995) Né à Budapest il termine ses études supérieures à Berlin qu’il a rejoint en 1921 en tant qu’ingénieur chimiste spécialisé dans le cuir (son père possédait une usine dans ce domaine). Après sa thèse en 1925 il est assistant de R. Becker puis de D. Hilbert et change d’intérêts. Il gagne Princeton (USA) en 1930 où il devient rapidement professeur de physique mathématique. En 1939 il se joint à Szilard et Fermi pour persuader Einstein d’écrire une lettre au président Roosevelt qui conduira au projet Manhattan. De 1942 à 1945 il est chef du groupe de théorie du Laboratoire Métallurgique de l’Université de Chicago. À ce titre il est présent, en 1942, lors de l’obtention, par l’équipe dirigée par Fermi, de la première réaction en chaîne contrôlée. Il est nommé en 1946 directeur de ce qui deviendra le laboratoire national d’Oak Ridge (Tennessee). En 1952 il est conseiller pour la réalisation de réacteurs destinés à produire du plutonium à Savannah River. Dans cette courte biographie il est impossible de rendre compte correctement de l’importance des travaux de E. Wigner qui ont porté sur des domaines très variés comme : l’application de la mécanique quantique aux réaction chimiques et en physique du solide, l’ingénierie nucléaire, les fondements de la physique et de la chimie nucléaire ainsi que les mathématiques et la philosophie des sciences. Il encadra en outre plus de 40 thèses. Il a obtenu le prix Nobel de physique en 1963 pour l’introduction des notions de symétrie en mécanique quantique.

Faisons vibrer le vide Décroissance régulière La probabilité d’interaction entre l’électron et le positron décroît proportionnellement au carré de l’énergie de la collision. Il s’agit là d’un comportement très général lorsque deux objets ponctuels (sans dimension) interagissent en formant ou échangeant des particules de masse nulle (ou faible devant l’énergie de collision). Comme la figure 4 est tracée en utilisant des échelles logarithmiques pour les axes, un tel comportement est représenté par une droite. Vers l’énergie de 90 GeV, l’interaction entre l’électron et le positron produit aussi le boson Z0 de l’interaction faible dont on voit se dessiner la courbe de résonance.

Le phénomène de résonance peut être utilisé pour découvrir de nouvelles particules. De même qu’en optique on mesure la position des niveaux d’énergie atomiques en fournissant de l’énergie aux électrons afin qu’ils puissent atteindre des niveaux excités et émettre ensuite des photons d’énergie bien définie, on peut utiliser un collisionneur de particules qui va « faire vibrer le vide ». On explore ainsi tous les phénomènes de la nature qui peuvent exister à l’énergie communiquée. Prenons l’exemple de l’annihilation entre un électron et un positron. L’interaction entre ces deux particules conduit à leur disparition et à la formation d’un « grain » d’énergie. Si l’on fait varier l’énergie du collisionneur et que l’on mesure simplement le nombre d’événements produits on observe (figure 4) qu’à une décroissance régulière du taux de collisions, se superposent des résonances qui apparaissent au voisinage du seuil de production de nouveaux quarks (sous la forme de paires quarkantiquark). Plus les états ainsi créés ont de possibilités pour se désintégrer, plus leur existence est brève et plus la résonance correspondante est large. Seuls quelques états sont ainsi observables de manière bien visible.

Figure 4 : Variation de la section efficace d’interaction entre un électron et un positron en fonction de l’énergie de la collision. Cette section efficace est proportionnelle à la probabilité d'interaction entre l'électron et le positron. Les seuils de production des paires quark-antiquark des différentes saveurs sont indiqués. Au voisinage de chacun de ces seuils apparaissent des résonances. Elles correspondent à une augmentation importante et très localisée du nombre d’événements produits. Vers 90 GeV la résonance du Z0 est excitée. L’interaction « faible » domine alors par plusieurs ordres de grandeur sur l’interaction électromagnétique. page 38

Figure 4

ÉLÉMENTAÍRE


La distribution de Breit-Wigner Figure 5

En dessous de 1 GeV les quarks « up » et « down » peuvent être créés ce qui correspond aux résonances du rho (r) et du omega (w). Vers 1 GeV apparaît le phi (f) qui est formé d’un quark et d’un antiquark étranges. Vers 3 GeV nous notons deux états très fins formés de quarks charmés, J/ψ et ψ(2S). Par rapport aux autres particules créées à la même énergie on voit que leur taux de production est multiplié par plusieurs ordres de grandeur. Ceci vient du fait qu’il s’agit de résonances très étroites. Enfin vers 10 GeV apparaissent les résonances issues de quarks beaux. Les largeurs de ces différentes résonances sont très variables allant de la centaine de MeV pour le rho à quelques dizaines de keV pour celles formées de quarks lourds.

© CMS

À partir de l’énergie de 60 GeV, un phénomène différent se manifeste. L’électron et le positron qui jusqu’ici s’annihilaient principalement sous l’effet de l’interaction électromagnétique, c’est à dire par échange d’un photon, peuvent aussi le faire de façon notable par interaction faible via la production du boson Z0. Contrairement au photon qui est stable et de masse nulle, le Z0 a une masse élevée (91,19 GeV/c2) et une largeur de 2,5 GeV ; il s’agit d’une résonance. À basse énergie il peut passer inaperçu, bien que des expériences de haute précision aient permis de le détecter indirectement, mais on voit que sa présence conduit à une augmentation de l’interaction entre l’électron et le positron par plusieurs ordres de grandeur vers 90 GeV.

Figure 5 : distribution de la masse pour des couples de photons mesurés dans le détecteur CMS. Il s’agit d’une représentation de données simulées qui correspondent à plusieurs années de fonctionnement du LHC. La présence d’un boson de Higgs ayant une masse de 130 GeV se manifeste par l’excès d’événements indiqué en rouge sur une distribution (en bleu) décroissant régulièrement avec la masse.

Distribution de la masse formée par des couples de muons, de charge opposée, reconstruits par l'expérience CMS à partir de collisions proton-proton fournies récemment par le LHC fonctionnant à une énergie totale de 7 TeV. Sur cette représentation, en échelles logarithmiques, on voit se détacher, au dessus d'un bruit de fond lisse, les différentes particules qui peuvent se désintégrer en deux muons.

ÉLÉMENTAÍRE

Seuil de production Au passage du seuil de création d’une nouvelle paire quark-antiquark, c’est-àdire lorsque E>2m (E étant l’énergie et m la masse du quark et de l’antiquark), on note des sauts qui correspondent aux nouveaux types de quarks produits. page 39

En physique des particules le phénomène de résonance apparaît de deux manières. Il peut renforcer la production de certains types d’événements comme celle du boson Z0 dont nous avons parlé. Les mesures de précision effectuées au collisionneur LEP, grâce à la forte statistique ainsi enregistrée, ont permis de valider la théorie unifiant les interactions faible et électromagnétique. La présence de résonances est aussi utilisée pour étudier les particules charmées et belles avec des collisionneurs électronpositron fonctionnant au voisinage du seuil de production des quarks c ou b, à une énergie où se manifeste une résonance. Au LHC, la recherche de résonances ayant des masses élevées (au-delà de 100 GeV) est un moyen de détecter la présence de physique nouvelle. Ceci est illustré sur la figure 5 qui représente la masse de couples de photons mesurés lors d’une simulation du détecteur CMS. Il est possible que le boson de Higgs se désintègre en deux photons et dans ce cas il donnerait une accumulation d’événements autour de sa masse ce qui permettrait de le découvrir.


Accélérateur Les accélérateurs de particules du futur Les grands accélérateurs de demain se préparent aujourd’hui : chaque nouveau projet nécessite des développements technologiques importants et de gros investissements, tant en ressources qu’en personnel. En conséquence, le temps séparant l’idée d’un nouvel appareillage de sa réalisation puis de sa mise en service s’allonge considérablement et peut facilement dépasser la dizaine d’années. Ainsi, certains chercheurs travaillaient déjà au début des années 1990 sur ce qui allait devenir le LHC alors que l’exploitation scientifique de cet accélérateur n’a véritablement commencé que le 30 mars dernier. En parallèle, le concept de « Super-LHC » (SLHC) génère déjà un effort soutenu de recherche-développement (R&D) dans de nombreux laboratoires : il s’agit de voir comment les performances nominales du LHC (que l’accélérateur mettra certainement plusieurs années à atteindre) pourraient être améliorées de manière significative à l’échelle d’une dizaine d’années. On parle d’une multiplication par dix du taux de collision ce qui augmenterait d’autant la quantité de données enregistrées par les expériences ATLAS et CMS.

© ILC

De nombreux projets d’accélérateurs sont donc actuellement sur la table. Tous ne sont évidemment pas au même stade d’avancement. Certains n’existent que sur le papier ou peinent à trouver un nombre suffisant de « supporters ». La limitation des moyens humains, techniques et financiers rend nécessaire un arbitrage au niveau mondial ; pour l’Europe, c’est le CERN qui établit les priorités au niveau scientifique. Certaines collaborations ont déjà rassemblé assez de main-d’œuvre pour commencer à tester les technologies nécessaires pour atteindre leurs objectifs. Cette phase de validation s’accompagne de l’écriture de rapports techniques très détaillés qui permettent ensuite d’obtenir un financement des organismes de tutelle et l’implication de laboratoires importants.

Schéma de l’ILC : une fois produits, les paquets d’électrons (en bleu), sont « mis en forme » dans un anneau de stockage avant d’être envoyés au départ de la section d’accélération. Cette dernière comporte une déviation qui permet de récupérer une partie des électrons qui sont envoyés sur une cible faite dans un matériau dense (comme le tungstène) pour produire des positrons (en vert). Ces derniers sont ordonnés en paquets homogènes dans un anneau de stockage similaire à celui des électrons avant d’être accélérés dans la seconde section droite. Les deux faisceaux se rencontrent finalement au centre du détecteur.

page 40

Le projet de « futur collisionneur linéaire » au sens large a un statut assez particulier : considéré depuis des années comme l’accélérateur à construire en priorité pour aller au-delà des résultats du LHC, son coût et sa complexité ralentissent son développement, tout comme les retards du calendrier du grand collisionneur du CERN – les caractéristiques de cette nouvelle machine dépendront en partie des découvertes faites au LHC. L’ILC (« International Linear Collider ») bénéficie néanmoins de l’implication de nombreux groupes de par le monde (environ 300 équipes, soit plus de 700 personnes travaillant sur l’accélérateur et plus de 900 sur les projets de détecteurs) ce qui lui permet de continuer à aller de l’avant malgré les difficultés. Actuellement, aucun nouveau projet de grand accélérateur n’a été formellement accepté et financé.

ÉLÉMENTAÍRE


Les accélérateurs de particules du futur Rayonnement synchrotron Lorsqu’une particule chargée se déplace dans un champ magnétique le long d’une trajectoire courbe, elle suit un mouvement non uniforme au cours duquel elle perd de l’énergie sous forme de rayonnement synchrotron. Le taux auquel ce phénomène se produit est proportionnel à la quantité 1 E 4 × r2 mc2

Pourquoi construire de nouveaux accélérateurs ? La réponse est évidente : pour mieux comprendre la structure de la matière et le monde des particules élémentaires. Pour atteindre ce but, il faut mettre au point des dispositifs expérimentaux susceptibles de révéler une physique nouvelle tout en étant technologiquement au point et suffisamment « bon marché » pour déboucher en quelques années sur des réalisations concrètes. Plusieurs directions sont explorées en parallèle : •  l’accumulation de quantités plus importantes de données afin d’améliorer la précision des résultats actuels, ou de chercher des effets rares auxquels les expériences d’aujourd’hui ne sont pas sensibles ; •  l’augmentation de l’énergie des collisions pour produire des particules plus massives ou en plus grand nombre ; •  l’utilisation de particules différentes (muons ou photons) dans les collisionneurs ou de faisceaux très intenses de neutrinos pour accéder à de nouveaux tests du Modèle Standard ou étudier des effets inaccessibles auparavant.

( )

Dans la suite, nous passons en revue un certain nombre de projets, sans chercher à établir une hiérarchie tranchée entre eux ni pronostiquer lesquels seront effectivement réalisés. Dans tous les cas, les « heureux gagnants » auront certainement évolué entre maintenant et leur mise en service. Relire cet article d’ici une dizaine d’années – et comparer son contenu à la situation réelle de la physique des hautes énergies à ce moment-là – vaudra certainement le détour !

Le « futur » collisionneur linéaire

Si les résultats du LHC sont encore à venir, on sait déjà que les études du boson de Higgs ou de la Nouvelle Physique ne pourront être menées que si les collisions électron-positron atteignent ou dépassent l’énergie de 500 GeV, soit un gain d’un facteur 2,5 ou plus par rapport au record du LEP (209 GeV). On apprécie encore mieux le défi à relever si l’on se souvient que ces particules légères perdent de l’énergie par rayonnement synchrotron lorsqu’elles circulent dans des anneaux de stockage. Cet effet augmente très rapidement avec l’énergie des faisceaux si bien que la technologie des collisionneurs circulaires doit être abandonnée pour les électrons, faute

ÉLÉMENTAÍRE

page 41

Pour prolonger les découvertes espérées au LHC – boson(s) de Higgs, particules ou effets au-delà du Modèle Standard, etc. – les physiciens peuvent utiliser les informations produites lors de collisions à hautes énergies entre des électrons et des positrons. En effet, contrairement aux protons, ces particules sont élémentaires et leurs interactions produisent des événements moins compliqués et plus propices à des mesures précises. Cette séparation entre « collisionneurs à découvertes » (pp ou pp) et « machines de précision » (e+e−) n’est pas nouvelle : les bosons W± et Z0, médiateurs avec le photon (γ) de l’interaction électrofaible, ont été - en 1983 avant d’être étudiés au LEP - (collisions pp) découverts au SppS (collisions e+e−) de 1989 à 2000 – voir Élémentaire 6.

où E est l’énergie de la particule, m sa masse et r le rayon de la trajectoire de la particule. La puissance quatrième intervenant dans le premier facteur fait que la perte d’énergie augmente très vite avec l’énergie du faisceau et est beaucoup plus importante pour des électrons que pour des protons par exemple. Doubler l’énergie multiplie la perte par 16 et cette dernière est, à énergie constante, 11 mille milliards de fois plus importante pour un faisceau d’électrons que pour un faisceau de protons. C’est pour cela que le « L » (pour « Linéaire ») de « ILC » et « CLIC » (voir page suivante) est aussi important : déjà, lors de la première phase du LEP, les électrons perdaient à chaque tour 180 MeV sous forme de radiation synchrotron. D’où la complexité et la puissance du système de compensation d’énergie mis en place pour maintenir l’accélérateur en fonctionnement nominal. La seconde phase du LEP a vu l’énergie des collisions augmenter de manière importante (de 92 à 209 GeV) mais il est impossible technologiquement de continuer dans cette voie. Pour atteindre voire dépasser 500 GeV il faudrait construire un collisionneur immense ou limiter de manière drastique les courants de particules en circulation dans l’anneau. La perte d’énergie par rayonnement synchrotron se manifeste dès qu’il y a une accélération. Ainsi, une particule qui gagne de l’énergie dans un accélérateur linéaire grâce à la présence d’un champ électrique est également soumise à cet effet. Cependant, la puissance rayonnée reste négligeable devant celle qui est communiquée à la particule pour tous les accélérateurs actuels et futurs. En effet, le rapport entre ces deux quantités vaut: Prayonnée / Pcommuniquée ~ 4 10 -15 × champ accélérateur (MeV/m). Contrairement au cas des accélérateurs circulaires, ce résultat ne dépend pas de l'énergie du faisceau.


Les accélérateurs de particules du futur de pouvoir compenser les pertes qui affecteraient les particules à chaque tour.

Un champ électrique de 30 millions de volts par mètre correspond à environ dix fois la valeur dite « de claquage » au-dessus de laquelle l’air devient conducteur, ce qui se traduit par la formation d’éclairs. Ce phénomène dangereux est évité dans les accélérateurs en maintenant l’appareillage sous un vide poussé, ce qui permet également de minimiser les chocs entre les particules et les molécules d’air résiduelles.

Une solution consiste donc à maintenir électrons et positrons sur une trajectoire rectiligne, ce qui ne va pas sans poser quelques problèmes. En effet, à énergies finales égales, un accélérateur circulaire est moins long qu’une machine linéaire puisqu’une augmentation importante de l’énergie peut être obtenue par l’accumulation de petites accélérations produites chaque fois que les particules traversent une zone particulière de l’anneau. De plus, cette configuration permet d’utiliser les mêmes faisceaux pendant longtemps et de produire de nouvelles collisions à chaque tour. Dans le cas d’un accélérateur linéaire, les paquets de particules sont perdus après un seul passage au centre du détecteur. Schématiquement, le futur collisionneur électrons-positrons « ILC » sera donc composé de deux sections rectilignes en face-à-face. Pour limiter leur taille, le champ électrique accélérateur devra dépasser les 30 millions de volts par mètre grâce à l’utilisation de technologies supraconductrices. Néanmoins, les sections mesureront tout de même près de 15 km de long pour une énergie de collision de 500 GeV ! Dans un second temps, cette valeur pourra être doublée pour atteindre 1 TeV ; ce gain sera obtenu en augmentant la valeur des champs électriques et en allongeant les sections accélératrices d’une dizaine de kilomètres chacune.

Technologies supraconductrices Pour créer des champs électromagnétiques puissants il faut des courants électriques élevés. À température ambiante, tous les composants des circuits ainsi que les fils dissipent de l’énergie par effet Joule. Si cette propriété est bien utile pour fabriquer des radiateurs, les pertes qu’elle provoque limitent les possibilités des accélérateurs. Pour la contourner, il faut employer des matériaux supraconducteurs (par exemple des alliages à base de niobium) et descendre à des températures très basses de quelques degrés au-dessus du zéro absolu. Dans ces conditions, l’effet Joule et ses inconvénients associés — en particulier l’émission de chaleur — disparaissent dans les supraconducteurs et toute la puissance électrique peut être utilisée par les technologies accélératrices.

Puisque les particules produites ne sont utilisées que lors d’un seul croisement des faisceaux (elles sont ensuite canalisées hors de la région d’interaction puis dirigées sur des blocs absorbeurs), il convient de s’assurer que ce dernier a lieu dans de bonnes conditions et produit en moyenne autant de collisions que possible. Pour cela, électrons et positrons sont regroupés dans des paquets contenant chacun environ 10 milliards de particules et dont la taille est compressée au maximum au point d’interaction : 5 nanomètres de haut pour 640 de large à l’ILC ! Les difficultés associées sont multiples : produire plus de cent mille milliards de positrons chaque seconde (on attend environ 14 000 croisements

page 42

© Kérec d'après J.P. Delahaye

Schéma montrant le principe d’accélération de CLIC : le « faisceau de puissance » d’électrons, très intense mais d’énergie limitée à quelques GeV au plus, circule parallèlement au faisceau principal qui doit être accéléré d’une dizaine de GeV à 1,5 TeV. Les transferts d’énergie du premier faisceau (ralenti) vers le second (accéléré) ont lieu dans des zones dédiées, réparties le long de la longue section droite accélératrice.

ÉLÉMENTAÍRE


Les accélérateurs de particules du futur Refroidir La température d’un gaz est reliée à l’agitation microscopique des molécules qui le composent. Plus sa température est élevée, plus le mouvement associé est énergétique. Par analogie, la mise en forme de paquets de particules, processus au cours duquel leurs propriétés sont uniformisées avec une grande précision, est appelée « refroidissement ». Toute la difficulté est de réduire la dispersion en énergie tout en maintenant les paquets denses.

de paquets par seconde) ; les refroidir ; les transporter tout au long du collisionneur ; enfin s’assurer que les deux minuscules faisceaux se croisent bien au centre du détecteur. Si l’ILC est le projet de collisionneur linéaire de nouvelle génération le plus avancé – la phase de R&D devrait se terminer en 2012 avec la publication d’une description complète de l’accélérateur et du détecteur – il n’est pas le seul. La collaboration CLIC (« Compact LInear Collider »), dans laquelle le CERN joue un rôle moteur, étudie une technologie complètement différente, potentiellement prometteuse mais dont la faisabilité demande à être démontrée. Dans ce schéma, dit « à deux faisceaux », la puissance nécessaire pour accélérer le faisceau principal est puisée dans un autre faisceau très intense d’électrons relativistes qui circule en parallèle. Le ralentissement de ce faisceau de puissance produit de l’énergie qui est fournie au faisceau principal sous forme d’impulsions radiofréquence (RF). En théorie, une machine d’une cinquantaine de kilomètres de long au total (comme quoi, le mot « compact » n’a pas le même sens en physique des particules que dans le langage courant !) pourrait fournir des collisions électrons-positrons à 3 TeV.

© INFN

CLIC a plusieurs années de retard par rapport à l’ILC (sa phase d’étude est prévue pour durer jusqu’à 2016) mais, sur le papier, ses performances pourraient être supérieures. Les deux projets sont donc en concurrence directe – « il ne devra en rester qu’un ! » – ce qui ne va pas sans tension étant donnés les enjeux liés au futur collisionneur linéaire. Heureusement, le climat s’est détendu ces dernières années avec la reconnaissance de synergies entre les deux collaborations, concrétisée par la création de groupes de travail communs et la signature conjointe de déclarations d’intention. Si au final les deux technologies apparaissent viables, le choix dépendra des résultats du LHC : selon ce que les scientifiques auront appris de la Nouvelle Physique, ils seront à même de dire quel accélérateur correspond le plus à l’orientation qu’ils veulent donner à leurs recherches.

Implantation proposée (en rouge) pour l’accélérateur SuperB sur le site du laboratoire de Frascati au sud de Rome.

C’est la voie suivie par les « usines à mésons B » de première génération – BaBar aux États-Unis et Belle au Japon – qui ont collecté des données

ÉLÉMENTAÍRE

page 43

Comment faire pour obtenir des informations sur le contenu d’une boîte fermée par un cadenas ? La manière la plus naturelle est de l’ouvrir pour regarder à l’intérieur. Si l’on n’a pas la clef, on peut casser la boîte et identifier les morceaux éparpillés pour découvrir ce qu’elle cachait : c’est la stratégie des collisionneurs hadroniques comme le LHC. Mais on peut aussi procéder de manière plus indirecte (et moins violente) en agitant la boîte : le bruit produit apporte des renseignements sur son contenu. Mais l’information obtenue est seulement partielle : différents scénarios de Nouvelle Physique peuvent provoquer des bruits très similaires. Il faut donc réaliser le plus de tests possible pour faire un tri entre les différents modèles en concurrence.

Schéma de l’accélérateur Super KEK-B avec le détecteur Belle-2. Au premier plan on peut voir la zone où les faisceaux d’électrons puis de positrons (obtenus après collisions d’électrons sur une cible) sont produits et mis en forme avant d’être injectés dans les deux tubes à vide du collisionneur (en jaune) qui se croisent au centre du détecteur (cylindre rouge sur fond bleu en haut à droite). Les objets colorés le long de l’anneau représentent les aimants de courbure et les zones d’accélération des particules.

© KEK

Les super usines à mésons B


Les accélérateurs de particules du futur au cours de la décennie 2000. Ces expériences réalisent des collisions électron-positron à une énergie particulière (environ 10,6 GeV), nettement inférieure aux records du LEP, mais qui permet d’étudier une classe de particules, les mésons B, produits en abondance à cette énergie grâce à la présence d'une résonance le ϒ(4S) qui se désintègre en BB. Les nombreux résultats obtenus par ces deux collaborations ont bénéficié des performances des deux accélérateurs associés, PEP-II et KEK-B, qui ont battu des records de luminosité : des milliards de collisions intéressantes ont été enregistrées. Malgré leurs efforts, ni BaBar ni Belle n’ont réussi à mettre en échec le Modèle Standard : tous les tests effectués donnent des résultats en accord avec ses prévisions, une fois les incertitudes théoriques et de mesure prises en compte. Pour avoir une chance de voir leur quête couronnée de succès, les prochaines expériences devront donc chercher à mettre en évidence de petits effets ou des corrections très fines à des quantités bien connues. Cela passe nécessairement par l’accumulation de plusieurs dizaines de fois plus d’événements que BaBar ou Belle n’en ont enregistré. Pour parvenir à ce résultat en seulement quelques années de prise de données, il faut des accélérateurs bien plus « généreux » : les « super-usines à mésons B » actuellement en phase de R&D tablent sur une luminosité (et donc un taux de collision) 100 fois supérieure aux records actuels.

Luminosité En physique des particules, chaque processus susceptible de se produire lors d’une collision, par exemple l’annihilation d’un électron et d’un positron en une paire de muons de charges opposées, a une certaine probabilité d’occurrence. Dans une expérience, le taux de ce processus (c’est-à-dire le nombre de fois où il se produit chaque seconde) est égal à cette probabilité multipliée par une quantité appelée luminosité. Plus elle est élevée, plus l’accélérateur est productif. La luminosité est proportionnelle au courant des faisceaux qui circulent dans les tubes à vide et augmente lorsque la section des paquets diminue. Elle dépend donc beaucoup de la qualité du guidage des particules au point de croisement et du contrôle que les opérateurs de l’accélérateur ont des propriétés des faisceaux à cet endroit.

Deux voies sont possibles pour parvenir à ce résultat : soit augmenter fortement les courants des deux faisceaux, soit conserver les courants au niveau de ceux atteints à PEP-II et KEK-B de manière routinière et jouer sur d’autres paramètres pour augmenter la luminosité. La première solution a de nombreux désavantages : plus les faisceaux sont intenses, plus ils sont difficiles à contrôler, plus la puissance électrique nécessaire (et donc le coût de fonctionnement de l’accélérateur) est élevée et plus le bruit de fond parasite induit par leur passage est important. C’est pourquoi un consensus s’établit autour de la seconde alternative, portée par le projet SuperB à dominante italienne et à laquelle la collaboration Belle-2 qui se fédère autour de groupes japonais semble se rallier après avoir exploré l’autre voie en profondeur. Des simulations numériques, validées en 2008-2009 par des tests sur l’accélérateur de plus basse énergie (collisions à 1,02 GeV) DAΦNE, situé à Frascati au sud de Rome, ont montré qu’il était possible de créer et de contrôler des « micro-faisceaux » d’électrons et de positrons très denses. Ces faisceaux sont comprimés au point de croisement pour donner des « nano-faisceaux » afin d’obtenir la probabilité de collisions la plus élevée possible. Ces développements promettent des gains de luminosité importants et valables sur de longues périodes.

page 44

SuperB et Belle-2 travaillent actuellement d’arrache-pied à la définition des caractéristiques de leurs accélérateurs et des détecteurs associés. Ces derniers devront en effet être capables de « digérer » un flot colossal de données tout en maintenant pendant au moins cinq ans un niveau de performances aussi bon que ceux atteints par BaBar et Belle.

ÉLÉMENTAÍRE


Les accélérateurs de particules du futur Collisionneurs à muons & usines à neutrinos Le muon – voir « Détection » – est le lepton chargé de la seconde famille des particules élémentaires. Cousin de l’électron, il est environ 207 fois plus massif que ce dernier et donc bien moins sujet aux pertes d’énergie par rayonnement synchrotron. Ainsi, un collisionneur de muons à une énergie de 4 TeV (valeur suffisante pour potentiellement révéler des effets inaccessibles au LHC puisque les muons sont des particules élémentaires alors que les collisions entre protons font intervenir leurs constituants, les quarks, qui n’emportent chacun qu’une fraction de l’énergie totale) ne ferait que deux kilomètres de diamètre environ, soit 4 fois moins que le LEP/LHC. De plus, le taux de production directe du boson de Higgs (H) lors de collisions leptonantilepton (e+e−→H ou μ+μ−→H par exemple) est proportionnel au carré de la masse des leptons. Cette propriété permettra peutêtre de produire des bosons de Higgs en abondance dans un collisionneur muon-muon.

Bien que ce défi semble rédhibitoire, il a été relevé par différentes équipes de chercheurs, en particulier américaines, qui travaillent sur un tel projet de collisionneur. Une compagnie privée, Muons Inc., implantée à Batavia près du laboratoire Fermilab, promeut même ce type d’accélérateurs ainsi que les technologies associées. Si le calendrier d’une telle machine est encore plus lointain que celui de l’ILC (on parle d’un démarrage de la prise de données autour de 2030), la phase de R&D bat actuellement son plein.

ÉLÉMENTAÍRE

page 45

Les muons n’existant pas en quantité abondante dans la nature, il faut donc commencer par les produire. Pour cela on utilise des protons accélérés à quelques dizaines de GeV qu’on envoie sur une cible de mercure. Parmi les produits de ces collisions on trouve des pions chargés qui sont sélectionnés à l’aide d’un très fort champ magnétique (de l’ordre de 20 teslas). Ces mésons, instables également, se désintègrent presque toujours en une paire muon + antineutrino muonique. Cette procédure de conversion protons → muons a un rendement de l’ordre du pourcent et fournit des particules aux propriétés très hétérogènes : le faisceau ainsi produit ressemble à une « grosse patate » dont les particules sont éparpillées sur une distance de l’ordre du mètre. De plus, les impulsions des muons ont une dispersion de presque 100% autour de la valeur la plus probable qui est de l’ordre de 200 MeV/c.

Implantation possible pour un collisionneur à muons sur le site de Fermilab, délimité par les pointillés. La partie en vert correspond à la production des muons suivie de leur organisation en paquets homogènes. Ces particules sont ensuite accélérées dans le « circuit » bleu où des neutrinos sont émis à mesure que des muons se désintègrent. Enfin, la partie rouge correspond à l’anneau de collisions où les faisceaux énergétiques se croisent en deux emplacements où sont installés des détecteurs.

© Fermilab

Alors, dans le muon, tout est bon ? En fait il y a un hic de taille : le muon n’est pas une particule stable… Sa durée de vie est même plutôt courte : 2,2 μs au repos et seulement 42 ms à 2 TeV une fois les effets relativistes pris en compte ! Toute la difficulté du collisionneur à muons découle de cette remarque : comment créer, mettre en forme et exploiter au mieux une quantité suffisante de ces particules, le tout en quelques centièmes de seconde ?


Les accélérateurs de particules du futur γ

À ce stade, il faut donc « freiner » les particules les plus rapides et « pousser » les plus lentes pour les grouper en paquets denses, puis « refroidir » le faisceau (étape qui, pour éviter de perdre trop de temps, devra avoir lieu en quelques microsecondes, soit sur une distance de 500 mètres environ), et enfin accélérer l’ensemble dans une série d’accélérateurs linéaires et de synchrotrons. Au final, le but est d’injecter de l’ordre de 1014 muons par seconde dans l’anneau où ils produiront des collisions pendant quelques centaines de tours, jusqu’à ce que la plupart de ces particules se soient désintégrées.

e-

γ

Même après s’être désintégré, un muon reste intéressant. En effet, il donne un électron et surtout deux neutrinos, un antineutrino électron et un neutrino mu. Un collisionneur à muons est donc également une « usine à neutrinos » dont les faisceaux, très intenses et produits dans de longues sections droites dédiées, permettraient d’améliorer la connaissance de ces particules encore largement mystérieuses. Une idée serait d’envoyer ces faisceaux vers des détecteurs éloignés de plusieurs milliers de kilomètres afin d’étudier leurs oscillations (ICPACKOI). Si le coût d’un collisionneur à muons est considéré comme trop élevé au moment de décider de sa réalisation, une possibilité intermédiaire serait de se rabattre sur une « simple » usine à neutrinos. Un grand nombre des composants de l’accélérateur est commun aux deux approches (production et mise en forme des faisceaux de muons, anneaux de stockage, zones rectilignes pour obtenir beaucoup de neutrinos, etc.) mais le dispositif coûteux permettant aux paquets d’entrer en collision efficacement ne serait pas nécessaire ; de plus, accélérer les muons à 50 GeV (au lieu de 2 TeV) suffirait pour ce type d’application.

+

e

Bien que les photons soient de masse nulle, ils transportent une énergie importante qui, lors d’une collision photon-photon est convertie pour partie en énergie de masse : les particules créées sont massives. L’énergie restante est distribuée aux produits de la collision (ici γγ donne e+e−).

Dans un collisionneur à photons des électrons (en rouge) interagissent avec des photons du laser (en bleu). Ceuxci, déviés et devenus énergétiques, entrent en collision (vert) au centre du détecteur (non représenté ici).

page 46

Exemples de motivation pour construire un collisionneur photon-photon Par exemple, le boson de Higgs tel qu’il est décrit par le Modèle Standard peut être créé directement lors d’une collision γγ (deux photons s’annihilent en un boson de Higgs et rien d’autre) alors que sa « fabrication » dans un collisionneur de matière (e+e− comme l’ILC ou pp comme le LHC) demande donc plus d’énergie. De plus, les paires de particules chargées (bosons W, quark et antiquark top, etc.) sont produites plus abondamment dans un collisionneur γγ : les processus mis en jeu ne sont pas les mêmes que lors de l’interaction électron-positron par exemple.

Un autre élément à prendre en compte pour ce type d’accélérateur est la radioactivité qu’un tel équipement pourrait induire. Celle-ci se manifeste à deux niveaux, l’un assez classique et l’autre plutôt inattendu. Tout d’abord, les collisions entre le faisceau intense de protons et la cible de mercure produisent beaucoup de neutrons. Leur flux équivaut à, voire dépasse, celui d’une centrale nucléaire et nécessite donc une protection spécifique. Dans le même ordre d’idée, l’accélérateur doit être enterré suffisamment profondément (une centaine de mètres environ) pour que tous les muons soient absorbés avant d’arriver à la surface en cas de perte complète d’un faisceau. Plus surprenant, le flux des neutrinos produits est également potentiellement dangereux. Bien que ces particules n’interagissent presque pas avec la matière (ce qui explique pourquoi elles passent quasiment inaperçues même dans les détecteurs les plus performants), leur nombre est tellement élevé (de l’ordre de mille milliards de milliards par an) que la radioactivité accumulée n’est pas négligeable. À l’endroit où le faisceau sort de terre avec une taille d’environ un mètre carré, le taux mesuré annuellement serait comparable au seuil d’exposition maximum du personnel qualifié travaillant dans un grand laboratoire comme le CERN ! Cet emplacement devra donc être choisi avec soin (et clairement signalé) si une telle machine devait être construite un jour : le mieux serait qu’il soit à l’intérieur du périmètre réservé, toujours mis en place pour ce genre d’installation.

ÉLÉMENTAÍRE


Les accélérateurs de particules du futur Collisionneur à photons

photon

Parmi les propositions d’accélérateurs exotiques, certains utilisent des faisceaux de photons pour les collisions : ce sont les collisionneurs e-g ou gg. Comme toujours, la motivation pour construire de telles machines est à chercher au niveau de la physique. De plus, étudier les mêmes réactions dans des environnements très différents donne des points de vue complémentaires sur leurs caractéristiques et permet donc de mieux les comprendre.

électron

Le photon est une particule stable, abondante dans l’Univers. Par contre, sa neutralité électrique oblige les scientifiques à ruser pour obtenir des collisions satisfaisantes puisque les photons sont insensibles aux champs électriques et magnétiques utilisés pour accélérer et piloter les paquets de particules chargées dans les accélérateurs. Un collisionneur γγ utilise donc deux faisceaux d’électrons, conditionnés et guidés pour se croiser au point d’interaction, au centre du détecteur. Quelques millimètres avant cet endroit, les électrons interagissent par diffusion Compton inverse avec un laser ; les photons ainsi produits emportent une fraction importante de l’énergie des particules incidentes tout en se propageant globalement dans la même direction que ces dernières — les électrons sont finalement déviés hors du détecteur par de puissants champs magnétiques. Des collisions ont donc lieu, avec une luminosité comprise entre 15 et 30 % de celle du collisionneur de leptons correspondant. Le laser, d’une puissance de 100 kW environ, émet un flash de quelques joules d’énergie synchronisé avec le passage des paquets de particules chargées. Comme chaque diffusion affecte 1 photon sur 1 milliard en moyenne, sa lumière est stockée dans une cavité optique afin d’être réutilisée, le taux de croisement étant de l’ordre de 15000 par seconde.

L’effet Compton est la diffusion d’un photon sur une particule de matière, par exemple un électron appartenant au nuage électronique d’un atome. Sous l’effet du choc, le photon est dévié et son énergie modifiée, ce qui se traduit par un changement de la fréquence de l’onde électromagnétique associée. Ce phénomène a été baptisé en l’honneur du physicien américain Arthur Compton qui l’a utilisé pour prouver expérimentalement l’existence du photon. La diffusion Compton inverse est la même réaction, mais on rajoute cet adjectif lorsque c’est l’électron qui est plus énergétique que le photon (et vient donc lui « taper dessus »), lui transmettant en partie son énergie et sa quantité de mouvement.

Les difficultés d’un tel collisionneur sont nombreuses. Au point énergie de pompage d’interaction, il y a un mélange de collisions photon-photon, photon- miroir totalement électron, photon-positron et électron-positron. De plus, il faut éviter que réfléchissant les paquets d’électrons ou de positrons (perturbés par leur traversée du faisceau laser faisceau laser et dont les particules se retrouvent avec des énergies très milieu amplificateur variées) ne finissent leur course dans le détecteur, au risque de brouiller miroir semila signature de la collision γγ, voire d’endommager les instruments de réfléchissant mesure.

ÉLÉMENTAÍRE

page 47

Un laser est un appareil qui produit une lumière très particulière. Les photons qui la composent ont tous des propriétés voisines : on parle de cohérences spatiale et temporelle. Cette lumière, obtenue par émission stimulée (un phénomène qui permet de multiplier le nombre de photons d’énergie donnée en les faisant interagir avec les électrons du « milieu amplificateur », des molécules de gaz bien sûr mais également des liquides, des solides ou des plasmas), est maintenue dans une cavité optique par des miroirs partiellement réfléchissants afin que l’amplification ait lieu à chaque passage des photons réfléchis au travers du gaz. Ce processus est analogue à l’effet Larsen qui survient lorsque micro et haut-parleur sont trop rapprochés : un bruit, même très atténué, est capté par le micro puis retransmis par le haut-parleur et donc capté à nouveau par le micro. Le processus se poursuit, produisant à la fin un son désagréable caractéristique. La lumière laser a des propriétés extrêmement intéressantes qui expliquent son exploitation tant dans les laboratoires de recherche que dans l’industrie ou le commerce. La gamme de longueurs d’onde dans laquelle on peut créer des lasers s’allonge sans cesse : des microondes, on est passé à l’infrarouge, puis au visible, à l’ultraviolet et finalement aux rayons X. 2010 est l’année du cinquantenaire du laser – le premier fut mis en service en Californie en mai 1960 par Theodore Maiman. De nombreuses manifestations sont organisées à cette occasion – voir le site http://50ansdulaser.com/ pour plus de détails.


Les accélérateurs de particules du futur Taux de collision élevé La probabilité que deux particules entrent en collision décroît comme l’inverse du carré de l’énergie de la collision. Toutes choses égales par ailleurs, accroître l’énergie d’un collisionneur fait donc automatiquement baisser le taux d’événements enregistrés. Pour compenser ce tour joué par la Nature, les équipes qui travaillent sur des projets d’accélérateurs s’efforcent d’augmenter en proportion la luminosité, c’est-à-dire les conditions dans lesquelles les collisions ont lieu : paquets plus denses, courant plus élevé dans les faisceaux, etc. Les nouvelles machines sont donc plus complexes à mettre au point et plus difficiles à piloter ce qui se traduit en particulier par de forts bruits de fond.

Une simulation informatique de la future expérience FACET utilisant deux paquets d’électrons. L’avant du premier paquet ionise de la vapeur de lithium pour créer un plasma ; ensuite le cœur du paquet produit le sillage dans le plasma (contours verts). Le second paquet (en rouge) va surfer sur le sillage et être accéléré au double de son énergie initiale en environ 1 mètre.

page 48

© FACET

Plasma Dans des conditions normales, un gaz est formé de molécules neutres. Si on lui apporte suffisamment d’énergie, par exemple en le chauffant, on peut briser ces molécules, produisant ainsi un plasma, un milieu dans lequel circulent des charges électriques libres, positives (ions) comme négatives (électrons). Celles-ci interagissent entre elles. Elles sont sensibles aux champs électromagnétiques extérieurs et en créent elles-mêmes de nouveaux ! Elles permettent également la conduction du courant, ce qui donne aux plasmas des propriétés particulières. Il y a des plasmas naturels (étoiles, aurores polaires, éclairs, etc.) et d’autres artificiels : dans certaines lampes, dans l’industrie des matériaux (par exemple pour réaliser des soudures), ou encore dans les réacteurs d’étude de la fusion nucléaire.

Bien que le coût d’un collisionneur spécialisé dans les collisions γγ soit annoncé par ses promoteurs comme étant inférieur à celui de l’ILC, seule une minorité de physiciens souhaite qu’un tel accélérateur voie le jour avant le futur collisionneur linéaire dont le champ d’action est plus vaste. Un compromis consisterait à construire cette dernière machine de façon à la modifier pour que des photons puissent également y entrer en collisions – le surcoût associé devrait être limité. Par contre, des études de prospective à très long terme semblent privilégier un collisionneur gamma-gamma multi-TeV par rapport à son équivalent électron-positron (ou muon-antimuon d’ailleurs). En effet, les équations décrivant de telles machines leptoniques n’ont pas de solution satisfaisante : impossible de conjuguer un taux de collision élevé avec un niveau de bruit de fond et une consommation électrique raisonnables. Utiliser des photons pourrait permettre de diminuer le bruit de fond (un des problèmes principaux pour tous les nouveaux concepts d’accélérateurs) et de résoudre ces mêmes équations. Tous ces éléments sont encore spéculatifs : ils devront être confirmés ou rejetés par des études futures.

Accélération de particules par plasma Les accélérateurs de particules d’aujourd’hui doivent atteindre des énergies si élevées que, malgré les progrès continus et importants des dispositifs d’accélération, leur taille ne cesse d’augmenter. Ainsi, comme nous l’avons vu plus haut, les projets ILC et CLIC devraient faire plusieurs dizaines de kilomètres de long. C’est pour cela que d’autres voies sont aujourd’hui explorées, avec comme objectif d’obtenir un gradient d’accélération bien supérieur – et donc de raccourcir la taille des futures machines. Une piste intéressante, suivie par des équipes européennes et américaines, consiste à utiliser un plasma. Un tel milieu est riche en charges libres, positives comme négatives, qui se déplacent au hasard. Si on arrive à les ordonner de manière à créer une onde électromagnétique cohérente dans le plasma, celle-ci pourrait accélérer très violemment (jusqu’à mille fois les capacités d’un accélérateur linéaire actuel) un paquet de particules chargées le traversant, à la manière d’un surfeur profitant d’une vague parfaite. Prenons comme exemples les projets californiens FACET (au SLAC) et BELLA (à Berkeley) qui ont récemment bénéficié d’un financement supplémentaire dans le cadre du plan de relance américain. • FACET : un paquet dense d’électrons créé dans l’accélérateur linéaire de SLAC pénètre dans une zone contenant un gaz, par exemple du lithium. L’avant du paquet, fortement chargé, crée le plasma ; un sillage de charges s’y forme et est repoussé à mesure que le paquet progresse. L’inhomogénéité de charges à l’intérieur du plasma (défaut/ excès de charges négatives devant/derrière le paquet) crée un fort champ électromagnétique qui accélère l’arrière du paquet. En 2007, l’énergie des électrons a ainsi été doublée en moins d’1 m (42 à 85 GeV en 84 cm), au prix toutefois d’une perte significative au niveau de l’homogénéité du

ÉLÉMENTAÍRE


Les accélérateurs de particules du futur paquet puisque les particules à l’avant ont été ralenties. De nouvelles expériences sont en préparation dont le but est d’obtenir le même genre d’effet mais avec deux paquets séparés : le premier génèrerait le plasma et le champ accélérateur dont bénéficierait le second pour lequel les propriétés (densité, etc.) seraient ainsi préservées lors de la phase de gain d’énergie.

© Berkeley

• BELLA : l’expérience utilise un laser qui produit des impulsions très courtes mais extrêmement puissantes (50 fois plus que la foudre). La lumière laser est injectée dans un plasma d’hydrogène où elle produit un sillage d’électrons similaire à celui observé à SLAC. Par contre, les particules accélérées sont des électrons libres du plasma lui-même. L’objectif du programme est double : tout d’abord passer de 0 à 10 GeV en 80 cm (soit l’équivalent d’un champ accélérateur de 12 à 13 milliards d’électron-volts par mètre), puis ensuite faire fonctionner dix accélérateurs de ce type l’un derrière l’autre pour arriver à 100 GeV, l’ensemble produisant au final des paquets de particules plus denses que dans le cas de FACET.

Une équipe au travail sur le laser de 40 térawatts de Berkeley.

Le laboratoire Louis Leprince-Ringuet (LLR), situé sur le campus de l’École Polytechnique, travaille également sur des expériences d’accélération par laser, en collaboration avec le groupe SPL du Laboratoire d’optique appliquée (LOA) de l’ENSTA (École Nationale Supérieure de Techniques Avancées). En particulier, GALOP (Groupe d’Accélération par LAser et Ondes Plasma) a observé en 2008 que les paquets d’électrons accélérés par onde plasma peuvent avoir une dispersion en énergie inférieure au pourcent. De nombreuses avancées technologiques seront nécessaires pour que ce type d’accélération atteigne une maturité suffisante dans la prochaine décennie. Néanmoins, le jeu en vaut la chandelle car l’objectif est d’obtenir un champ électrique accélérateur de plusieurs GeV/m voire plusieurs dizaines de GeV/m sur une longue distance permettant d’atteindre l’énergie souhaitée. Ces valeurs sont à comparer aux objectifs de l’ILC (30 MeV/m) et de CLIC (60 MeV/m).

Comparaison des tailles des collisionneurs de particules, en service (LHC) ou étudiés (ILC, CLIC, un collisionneur à muons et le VLHC). Dans cette vue d’artiste, les différents accélérateurs sont tous implantés sur une image satellite d’une partie de la côte du Lac Michigan (USA), région où est situé le laboratoire Fermilab visible sur la gauche.

En conclusion, de nombreux projets d’accélérateurs sont actuellement dans les cartons, à des stades de développement plus ou moins avancés. En plus des difficultés techniques liées à la mise au point de leur machine, la plupart de ces équipes doivent résoudre des difficultés plus terre-àterre : trouver des gens disponibles pour y travailler, des financements et un laboratoire d’accueil qui fasse consensus. Le « Projet X », porté par Fermilab, n’a pas ce problème : il s’agit d’un accélérateur à protons de 8 GeV qui servira à la physique des neutrinos et de banc-test pour des activités de R&D liées aux collisionneurs à muons ou au « très grand collisionneur à hadrons » (VLHC), un hypothétique et lointain successeur des accélérateurs LHC et SLHC.

ÉLÉMENTAÍRE

page 49

Et bien d’autres encore …

Le « Projet X » doit renouveler en profondeur le complexe accélérateur de Fermilab ce qui explique qu’il ait été difficile de lui donner un nom porteur de sens dès le début, d’où le choix, temporaire pensait-on, de la lettre « X » pour le désigner. Avec le temps cette dénomination a fait son chemin, les scientifiques appréciant la part de mystère qui lui est attachée. Bien que le projet soit beaucoup mieux défini aujourd’hui, il est probable qu’il garde son nom initial(e) !


Découvertes Impressions au démarrage du LHC Quand on participe à une des expériences du LHC, le démarrage constitue une aventure inoubliable, mais que se passe-t il alors dans la tête des physiciens ? Pour le savoir, nous avons interrogé plusieurs d'entre eux.

Gautier Hamel de Monchenault

Impressions au démarrage de CMS Gautier Hamel de Monchenault est physicien au CEA. Né en 1964, il a été élève de l’École Supérieure de Physique et de Chimie de Paris (ESPCI). Il est titulaire d’un DEA et d’une thèse de l’Université Paris 6. Comme chercheur, il a longuement participé à la collaboration BaBar à SLAC en étudiant la violation de CP dans le système des mésons beaux. Dans cette expérience, il a eu des contributions multiples dans la construction des détecteurs, le traitement et la reconstruction des données et l’analyse de physique. En 2005, il a été lauréat du prix Joliot-Curie de la Société Française de Physique. Actuellement, il est membre de la collaboration CMS auprès du LHC, au CERN à Genève.

CMS (Compact Muon Solenoid) est, avec ATLAS, l’une des deux grandes expériences dites généralistes auprès du LHC. Ces détecteurs ont été conçus afin, d’une part, d’être capables d’observer le boson de Higgs quelle que soit sa masse et, d’autre part, d’être sensibles à des signaux éventuels de nouvelle physique. Les raisons de penser que le boson de Higgs existe sont multiples et profondes. Si le boson de Higgs existe, il sera découvert par ATLAS et CMS. Cela prendra du temps, dans certains cas de nombreuses années ; ce sera difficile, voire très difficile, mais il sera découvert. Si d’aventure on ne trouvait rien, il faudrait se résoudre à admettre que le Boson de Higgs n’existe pas : une véritable révolution pour la physique des particules ! Nos amis théoriciens auraient alors du grain à moudre.

© CMS

Vue « éclatée » des différents éléments du détecteur CMS, maintenant tous assemblés au millimètre près dans le tunnel du LHC afin d’enregistrer le plus précisément possible les collisions proton-proton qui se produisent en son centre.

page 50

La nouvelle physique, elle, existe forcément. En effet, le Modèle Standard de la physique des particules n’est qu’une théorie effective, non valable pour des énergies arbitrairement élevées ; et il faut bien expliquer la faible masse des neutrinos ! En revanche, il n’est pas du tout certain que la nouvelle physique soit à la portée du LHC. Le meilleur argument en faveur de découvertes au LHC vient en fait de la cosmologie : dans l’hypothèse où la matière noire (90% de la matière totale de l’Univers) serait constituée de particules supersymétriques reliques (produites dans

ÉLÉMENTAÍRE


Impressions au démarrage du LHC l´Univers primordial peu de temps après le Big-bang), leur masse devrait précisément se trouver dans la région de sensibilité du LHC.

© CERN

Comment la nouvelle physique peut-elle se manifester ? Par exemple par l’observation directe d’une particule inconnue qui prendrait la forme d’un pic inattendu au milieu d’un spectre de masse plat. C’est le type de situation dont on peut rêver, et on imagine l’excitation qui en résulterait dans nos expériences. J’ai eu la chance de connaître cette situation dans l´expérience BaBar, mais les particules que nous avions découvertes à l’époque, des agencements de quarks lourds, étaient loin d’être aussi fondamentales que le boson de Higgs ou d’hypothétiques particules supersymétriques. Du point de vue expérimental, aucune mesure n’a réussi à mettre en échec le Modèle Standard depuis trente ans hormis la masse non nulle (mais très petite) des neutrinos. Certains résultats récents du Tevatron (voir « ICPACKOI ») ainsi qu’une ou deux mesures de précision sont actuellement en léger désaccord avec le Modèle Standard mais ils demandent à être confirmés par l’analyse de quantités plus importantes de données. Selon moi, cela signifie qu’une partie au moins de la nouvelle physique reste encore éloignée : ses effets pourraient se manifester à une énergie si haute qu’elle serait hors d’atteinte, même pour le LHC.

Simulation de la découverte de la désintégration du boson de Higgs (H) en quatre leptons. Les particules, reconstruites par CMS, et identifiées comme des leptons sont combinées par groupe de quatre. La masse de l’hypothétique particule dont ils seraient les produits de désintégration est alors calculée. La figure montre le nombre d’événements obtenus dans cinquante intervalles de cette masse allant de 100 à 200 GeV / c2. La partie bleue correspond au bruit de fond, parfaitement explicable par la production de particules connues dans le détecteur CMS. Le boson de Higgs apparaît alors comme un pic (en rose orangé) qui est suffisamment prononcé pour ne pas pouvoir être dû à une fluctuation aléatoire du bruit de fond dans cette zone.

J’espère que mon scepticisme sera contredit par des découvertes spectaculaires de nouveaux phénomènes au LHC. Cependant je pense que la Nature est pudique et ne se dévoilera pas si facilement. C’est pourquoi je souhaite plutôt me concentrer dans les premières années de prise de données sur les mesures de précision électrofaibles. En particulier, l’étude des interactions entre les bosons vecteurs des interactions faibles permet de sonder la symétrie fondamentale de la théorie électrofaible. Ces mesures délicates, qui nécessitent une compréhension approfondie de l’appareillage, contribueront peut-être à dévoiler la nature de la nouvelle physique ou indiqueront des pistes aux théoriciens. À plus long terme, je veux contribuer à la recherche du boson de Higgs dont la découverte constituerait, selon moi, l’un des plus éblouissants succès de la science moderne.

ÉLÉMENTAÍRE

page 51

© CMS

Une collision proton-proton dans CMS en juillet 2010, engendrant plus d'une centaine de particules.


Impressions au démarrage du LHC Jacques Lefrançois

Impressions au démarrage du LHC et de LHCb Première réaction : pourquoi me demander mes impressions, à moi ? Peut-être à cause de la comparaison que je fais tout naturellement avec d’autres démarrages ! Si je ne compte que les collaborations avec plus de dix physiciens c’est ma cinquième et pour les trois dernières le démarrage de l’expérience se confond avec celui de l’accélérateur… J’ai retrouvé bien sûr le plaisir de pouvoir enfin vérifier si l’appareillage a été bien construit. Même les bancs de tests les plus sophistiqués ne remplacent pas un essai en grandeur nature avec l’ensemble du détecteur et les collisions. Et je n’ai pas connu de démarrage sans au moins un problème d’appareillage un peu subtil révélé à cette occasion.

Né en 1937, de nationalité canadienne, Jacques Lefrançois passe sa thèse à l’Université de Harvard (USA) en 1961 puis rejoint le Laboratoire de l’Accélérateur Linéaire d’Orsay où il effectue tout le reste de sa carrière, si l’on excepte plusieurs périodes de détachements au CERN à Genève. Jacques Lefrançois dirige dès 1967 un groupe de 10 physiciens auprès de l’anneau de collisions d’Orsay et obtient des mesures très précises sur le méson Ф qui permettent des tests importants sur le modèle des quarks alors naissant. Il joue ensuite un rôle moteur dans la construction, la mise en service et l’exploitation de la première grande expérience « dimuons » au CERN, appelée NA3 ou « Lézard ». Le point d’orgue de la carrière de Jacques Lefrançois est l’expérience ALEPH, l’une des 4 expériences installées auprès du grand collisionneur e+e– LEP au CERN. Il sera responsable de la construction du calorimètre électromagnétique, pièce maîtresse de cet appareillage et dirigera cette grande collaboration internationale de 1990 à 1993. Sous sa houlette, ALEPH mesurera avec une précision inégalée les propriétés du boson Z0, ainsi que le nombre de neutrinos légers, fournira des limites sur la masse du boson de Higgs, mesurera la constante de couplage de l’interaction forte, et étudiera les mésons beaux… Jacques Lefrançois a poursuivi avec enthousiasme sa carrière de bâtisseur avec l’électronique du calorimètre de l’expérience LHCb dont il nous parle ici. J. Lefrançois a dirigé le Laboratoire de l’Accélérateur Linéaire de 1994 à 1998 et a présidé de nombreux comités internationaux. page 52

Dans la suite, je ne parlerai de cet essai en grandeur nature que du point de vue des calorimètres de LHCb qui sont les détecteurs sur lesquels je suis plus particulièrement impliqué. Sur ce point, et par rapport aux autres démarrages le LHC a été assez spécial (!) avec son « experimentus interruptus » pendant un an, de l’automne 2008 à l’automne 2009, à la suite du dommage causé par une mauvaise soudure entre aimants. Nous étions tous dans une frustration complète, mais, à quelque chose malheur est bon, nous avons pu résoudre quelques petits problèmes avec l’électronique du calorimètre faite à Orsay ou en Russie. Dans notre cas, un des composants réagissait à une suite particulière d’événements en se mettant en sur-courant. Nous avons pu localiser, chez un autre fabricant, un composant compatible qui n’avait pas ce défaut, et changer trois de ces composants au comportement bizarre sur chacune de nos quelques 250 cartes. Ces problèmes étaient minimes et n’auraient pas eu de conséquences graves sur le fonctionnement de l’expérience, mais il vaut toujours mieux faire les réparations au début, alors que nous avions le temps pendant l'arrêt de 2009. Pour ces réparations nous, les physiciens, avons bénéficié heureusement de l’aide précieuse des ingénieurs et techniciens associés au projet de construction. Enfin les premiers tests nous ont permis de localiser un défaut de conception dans les bases des photomultiplicateurs conçues et construites en Russie. Les 6000 bases ont été retirées, réparées et remises en position, par nos collègues russes, en environ quatre mois de fin 2008 au début 2009. Bien entendu des problèmes similaires ont été localisés et réparés sur le reste de LHCb et nous avons ensuite enregistré des événements engendrés par les rayons cosmiques avec l’appareillage jusqu'à en avoir la nausée ! Mais nous étions fin prêts pour les premières collisions en novembre 2009.

ÉLÉMENTAÍRE


Impressions au démarrage du LHC Quel plaisir à ce moment-là ! Nous avons pu vérifier que LHCb fonctionnait comme une horloge et notre calorimètre chéri nous a permis d’observer presque immédiatement des mésons π0 à la bonne masse. Dans le détecteur de traces, des désintégrations de méson K0 et de baryons Λ0 ont été reconstruites. Bien sûr, le test le plus éprouvant de l’appareillage ne viendra que dans plusieurs années, quand le taux de collisions dans le LHC dépassera un million par seconde au lieu des quelques 50 collisions par seconde fin 2009. En mars 2010 nous avons redémarré à plus haute énergie et nous avons pu reconstruire notre premier méson beau à la mi-avril. À nouveau, il y a un plaisir réel comme pour le premier mot d’un bébé. Mais entre le premier mot et la première discussion il y a du temps ! Nous devons nous armer de patience car des mesures vraiment nouvelles, témoignant peut-être de l’influence d’une physique inconnue, ne pourront être observées avant que le LHC puisse fonctionner à beaucoup plus haute luminosité nous donnant des dizaines de millions de mésons beaux à analyser.

« Experimentus interruptus » Le 19 septembre 2008, 9 jours après le démarrage du LHC, la défaillance d'une connexion électrique supraconductrice située entre un dipôle et un quadrupôle a provoqué l’apparition d’un arc électrique ce qui a conduit à la perforation de l’enceinte contenant l’hélium et à des graves conséquences mécaniques (voir Élémentaire 7). Il aura fallu un an et deux mois jour pour jour pour effacer cet accident et tout mettre en œuvre pour qu’il ne puisse pas se reproduire.

Sur-courant Les composants fonctionnaient de façon correcte mais consommaient 20% de courant en plus sur l’ensemble de la carte. Nous avons décidé de regarder de plus près et nous avons localisé le problème par hasard : en touchant une carte d’électronique je me suis brûlé le doigt sur ce composant !

Si je me replonge en arrière, je me rends compte à quel point le démarrage du LEP a été exceptionnel. Après quelques semaines, nous avions détecté des milliers de bosons Z0 et nous savions d’ores et déjà qu’une mesure essentielle serait publiée (le nombre de famille de neutrinos) peu de temps après. J’ai bien sûr de la nostalgie en évoquant cette période. Le LHC étant un collisionneur de protons, les collisions entre particules élémentaires (les quarks ou les gluons) se font sur tout un spectre d’énergie et pour observer les collisions les plus énergiques il faut attendre d’avoir accumulé assez de luminosité. Ceci est différent des collisionneurs e+e(comme le LEP) ou (presque) toutes les collisions élémentaires se font à l’énergie du collisionneur. L’argument est aussi valable pour LHCb où nous voulons profiter du grand nombre de mésons beaux produits quand le LHC aura amélioré sa luminosité. Mais qu’est ce que un ou deux ans de plus quand on a construit un appareillage pendant dix à quinze années ?! En tout cas, comme je l’ai dit plus haut, le détecteur et les programmes d’analyse fonctionnent remarquablement bien, et on ne peut qu’espérer que la nouvelle physique soit au rendez-vous.

page 53

ÉLÉMENTAÍRE

Mésons, baryons Ce sont des particules formées de quarks et donc sensibles à l’interaction forte, On parle de hadrons. Les mésons sont formés d’un quark et d’un anti-quark tandis que les baryons sont formés de trois quarks. Ces quarks et anti-quarks sont liés par des gluons, bosons vecteurs de l’interaction forte. Un méson beau contient un quark b ou un anti-quark b.

LEP Le grand collisionneur électron-positron, ou LEP (de l'anglais Large Electron Positron collider) était un accélérateur de particules circulaire de 27 km de circonférence situé au CERN. En fonction de 1989 à 2000, le LEP demeure le plus puissant collisionneur de leptons jamais construit. Quatre expériences y ont enregistré des données : ALEPH, DELPHI, L3 et OPAL (voir Élémentaire 6).


Impressions au démarrage du LHC Isabelle Wingerter Seez

Le cheminement de la caravane La caravane chemine de dune en dune : que va-t-elle découvrir du haut de la prochaine ? Une oasis ? Une carcasse de chameau  ? Un puits  ? Il a fallu des années d'efforts pour la préparer : trouver de solides dromadaires, les bâts, les vivres, les conducteurs, les cuisiniers, les nomades, l'eau. Été 2008 : elle est prête au départ, le sourire est sur toutes les lèvres. Septembre 2008 : le vent s'est levé, les outres se sont percées. Puis, après un an de labeur elle était à nouveau prête au départ. Novembre 2009  : la première dune est apparue ! La route est longue jusqu'au prochain puits et à la prochaine oasis. Printemps 2010 : la caravane s'ébranle à nouveau pour une longue étape. Que va-t-elle rencontrer sur son passage ?

Isabelle Wingerter Seez est directrice de recherche au CNRS et travaille au laboratoire d’Annecy-Le-Vieux. Depuis le début de sa carrière elle a travaillé dans plusieurs équipes autour des expériences au CERN : UA1 (sur le collisionneur SppS), OPAL (sur le LEP), NA48 (expérience sur cible fixe) et actuellement ATLAS. Elle a travaillé sur la physique du Higgs et la réalisation des systèmes électroniques pour la lecture et l’étalonnage des calorimètres à argon liquide d’ATLAS. Depuis 2008, elle est chef de projet pour l’ensemble de ces détecteurs.

Le LHC a délivré les premières collisions proton-proton le 23 novembre 2009. Il redémarre en mars 2010 à haute énergie pour sonder la matière plus profondément et à haute luminosité pour produire un taux de collisions élevé. Avec le détecteur ATLAS nous allons scruter ces collisions, les analyser, récolter les fruits attendus (les particules déjà connues comme le W et le Z, les jets, etc.). Avec ces pièces connues nous commencerons à reconstituer le puzzle, assemblerons les morceaux qui vont ensemble. Peut-être aurons-nous la chance de ne pas reconnaître certaines des pièces, de trouver des trous dans le puzzle. Nous devrons alors chercher ces pièces manquantes, comprendre leur forme pour compléter le puzzle : une nouvelle particule lourde, une déviation dans le spectre des jets,...

page 54

© DR

Pour être honnête, il y a peu de chance pour qu'en 2010 nous puissions mettre en évidence une pièce manquante  : nous n'aurons accès qu'à une petite aire du puzzle. Pour revenir à nos chameaux et aux nomades, ils auront commencé à s'enfoncer dans le désert, à apprendre à reconnaître les vents de sable qui approchent, les ondes sur les dunes, les étoiles dans le ciel mais encore aucun signe de l'oasis. Pendant les années qui suivront, nous continuerons notre recherche des pièces manquantes, en accumulant chaque année plus de collisions; nous couvrirons de plus en plus du puzzle, nous affinerons nos méthodes de reconnaissance de la forme des pièces. Après plusieurs années (trois, quatre, cinq, huit ?) nous aurons retrouvé toutes les pièces connues ; resteront les trous où

ÉLÉMENTAÍRE


Impressions au démarrage du LHC mettre les pièces manquantes : le boson de Higgs, les particules supersymétriques, des bosons lourds, etc. Peut-être aurons-nous la chance de trouver des pièces bizarres, que même les esprits les plus extravagants n'avaient pu imaginer. Ce sera alors à nous de les décrire. Il nous faudra confronter les collisions accumulées avec les résultats expérimentaux existants, développer des méthodes d'analyse pour extraire le signal du bruit de fond en nous appuyant sur nos connaissances et en exerçant notre imagination pour interpréter les observations. Du haut de mon dromadaire je vais naviguer de dune en dune. Mon rêve  ? Rencontrer les descendants des crocodiles piégés depuis des millénaires dans les gueltas au milieu du désert. Mais encore, pour revenir au LHC, après avoir relevé les défis expérimentaux et compris le fonctionnement du détecteur, découvrir une particule incongrue qui remettrait en cause notre interprétation de la structure de la matière. Un groupe de particules qui ne peuvent entrer dans notre puzzle ! Il nous faudrait alors tout remettre sur le tapis.

Crocodile et héron, Guelta d'Archei, Ennedi.

Découvrir le boson de Higgs  : s'il existe, il ne nous échappera pas. Mais sa quête sera longue et difficile car il est rare et très imité (comme une star).

ÉLÉMENTAÍRE

page 55

© CERN

Pour résumer : faire marcher le détecteur à la perfection pour ensuite être capable d'isoler des structures cachées et jamais observées. La caravane va cheminer au travers des dunes, scrutera l'horizon du haut de chacune en cherchant la prochaine oasis.

Un des premiers événements enregistré par l'expérience ATLAS en mars 2010.


Théorie À la manière des explorateurs des temps passés, les physiciens s’apprêtent à rencontrer des phénomènes nouveaux et inconnus... On peut ainsi représenter les questions qu’ils se posent et les découvertes qu’ils sont susceptibles de faire au-delà du Modèle Standard sous la forme d’une carte imaginaire. Au-delà du territoire connu (relativité générale, modèle des quarks, antimatière) peuvent se trouver le(s) boson(s) de Higgs, la supersymétrie, la matière noire, des dimensions supplémentaires, voire un indice de la grande unification...

© d'après interaction.org

Un au-delà bien difficile à CERNer

Fruit de plusieurs décennies d’efforts théoriques et expérimentaux conjoints, le Modèle Standard constitue une grande réussite dans notre compréhension quantitative de l’infiniment petit. On attend avec impatience la dernière pierre de cet édifice, à savoir la découverte du boson de Higgs. Pourtant les physiciens savent déjà que ce n’est pas la fin de l’histoire, et ils espèrent bien que des expériences nous montreront de nouveaux phénomènes inattendus. Les chercheurs parlent de physique «au-delà du Modèle Standard», ou encore de «nouvelle physique», par opposition à «l’ancienne» physique qu’ils connaissent déjà.

Extension du domaine de la théorie Comme nous l’avons déjà mentionné dans «Apéritif», le Modèle Standard n’est certainement pas une « théorie du tout » pour de nombreuses raisons. Sur le plan expérimental, on sait aujourd’hui que les neutrinos ont une masse très faible, qui sort du cadre du Modèle Standard le plus rigoureux, dans lequel ces particules sont de masse nulle. De plus, l’asymétrie entre matière et antimatière présente dans le Modèle Standard s’avère nettement insuffisante pour expliquer la prédominance de la matière observée dans l’Univers. Enfin, il ne comporte aucune particule susceptible de constituer la matière noire, un ingrédient essentiel des modèles cosmologiques.

page 56

Matière noire Cette matière formerait 25% du contenu énergétique de l’Univers (alors que la matière «ordinaire» n’en constitue que 5%). Nous ne percevons son existence que par son influence gravitationnelle, qui affecte la mouvement des étoiles dans les galaxies et la formation des grandes structures comme les amas de galaxies. On pense que la matière noire est constituée principalement de particules lourdes (de l’ordre de plusieurs centaines de GeV) qui n’interagissent que très faiblement avec leur environnement.

Sur le plan théorique, le Modèle Standard ne prend en compte que trois des quatre interactions fondamentales connues : la gravité manque à l’appel et ne semble pas pouvoir être incluse facilement dans le même cadre. Aux échelles d’énergie atteintes par les accélérateurs de particules, son effet est heureusement négligeable par rapport aux trois autres interactions. Mais on ne peut pas toujours la laisser complètement à l’écart, en particulier lorsqu’on s’intéresse à l’histoire de l’Univers ! En effet, l’intensité relative des quatre interactions varie avec les énergies

ÉLÉMENTAÍRE


Un au-delà bien difficile à CERNer Effets quantiques La physique des particules combine relativité restreinte et mécanique quantique pour décrire les interactions entre constituants élémentaires. Le cadre résultant est celui de la théorie quantique des champs, qui prend en compte l’effet de particules «virtuelles», particules qui ne respectent pas le lien entre masse et énergie postulé par Einstein, contrairement aux particules observables (dites «réelles»). Mais ces particules quelque peu fantomatiques ont bel et bien un impact sur la manière dont deux particules réelles interagissent. Si la théorie n’est pas conçue de façon astucieuse, les interactions peuvent être fortement altérées par les effets quantiques de ces particules virtuelles - on parle alors d’anomalies. Dans le Modèle Standard, les charges des différentes particules sont choisies de façon à ne pas avoir de telles anomalies.

mises en jeu. On pense qu’à une échelle d’énergie très élevée (1019 GeV, soit un million de milliards de fois plus que les énergies atteintes au LHC), la gravité n’est plus négligeable comparée aux autres forces − elle doit être prise en compte. Par ailleurs, la masse non nulle (mais très faible) des neutrinos connus peut être comprise en invoquant l’existence d’autres neutrinos, très massifs (autour de 1015 GeV).

DR

Sur un plan plus philosophique ou esthétique, le Modèle Standard n’est pas non plus parfaitement satisfaisant. Il est défini par un nombre conséquent de paramètres (19 !) dont les valeurs ont été déterminées expérimentalement avec précision : on ne sait toutefois pas les prédire, ni expliquer leurs ordres de grandeur, parfois très différents. C’est le cas en particulier pour les masses des particules (le quark top est environ 350 000 fois plus lourd que l’électron !). Dans le Modèle Standard, les masses des particules sont liées aux propriétés du boson de Higgs, sans que l’on puisse expliquer pourquoi certaines particules interagissent plus que d’autres avec lui, et deviennent ainsi plus massives. Par ailleurs, les douze quarks et leptons connus sont organisés en trois familles possédant des charges électromagnétique, forte et faible qui doivent être fixées de manière bien particulière pour garantir que la description des trois interactions reste valide une fois les effets quantiques pris en compte. Or les valeurs de ces charges sont des postulats a priori arbitraires du Modèle Standard et doivent être déterminées expérimentalement. Les physiciens ont essayé de résoudre ces problèmes en englobant le Modèle Standard dans une théorie plus vaste. Il existe de nombreuses alternatives, contenant tantôt plus de particules de matière et d’interactions, tantôt plus de dimensions spatiales. Bien sûr, il faut que ces extensions soient en bon accord avec nos connaissances expérimentales, et donc soient compatibles avec le Modèle Standard. Pour pouvoir les accepter, il faut également pouvoir les tester : ces hypothèses doivent aboutir à des phénomènes nouveaux... et mesurables.

La grande marche vers l’unification L’unification des interactions électromagnétique et faible à haute énergie au sein du Modèle Standard (voir Élémentaire 6) a naturellement incité les physiciens à explorer la possibilité d’aller encore plus loin et de rassembler dans une même structure les interactions électrofaible et forte. On pourrait ainsi imaginer qu’à très haute énergie, ces deux interactions ne sont que deux aspects d’une force unique. Les calculs théoriques suggèrent que cela se produirait à des énergies dépassant 1014 GeV (soit dix ordres de grandeur au-delà de l’énergie du LHC !). Contrepartie de cette «grande unification» : il existerait des bosons supplémentaires associés à cette force unique, en plus des bosons du Modèle Standard (gluons, photon, W et Z). Ces bosons seraient trop massifs pour avoir été observés jusqu’à présent.

ÉLÉMENTAÍRE

page 57

Les différentes variantes de cette idée sont cataloguées selon la structure mathématique décrivant la force unifiée − affublée des noms ésotériques de SU(5), SO(10) ou encore E8, qui décrivent leurs propriétés selon la classification de Cartan. Dans le même langage, le petit nom du Modèle

Élie Cartan, né le 9 avril 1869 à Dolomieu (Isère) et mort le 6 mai 1951 à Paris, est un mathématicien français parmi les plus influents de son époque. Fils de forgeron, Élie Joseph Cartan poursuit ses études à Grenoble, avant d’entrer à l’École normale supérieure de Paris en 1888. Après son doctorat, il enseigne successivement dans les universités de Montpellier, de Lyon et de Nancy, et devient professeur à la Sorbonne en 1912. Membre de l’Académie des sciences en 1931, il est le père d’un autre mathématicien célèbre, Henri Cartan, connu pour ses travaux en topologie algébrique et sa participation aux travaux du groupe de mathématiciens Bourbaki. La renommée d’Elie Cartan vient en particulier de son travail sur les applications géométriques de structures mathématiques appelées groupes de Lie, et qui sont en particulier utilisées en physique des particules comme cadre pour les interactions fondamentales.


Un au-delà bien difficile à CERNer Standard est SU(3)xSU(2)xU(1). Ces interactions supplémentaires autorisent des réactions interdites dans le Modèle Standard. Par exemple, dans un proton, deux quarks pourraient interagir et changer de nature, en se transformant en un positron et un antiquark, de sorte que le proton deviendrait une particule instable. Plus les nouveaux bosons d’interaction ont des masses élevées, moins ces réactions sont probables. Comme nous n’avons pas observé ces phénomènes dans les expériences existantes, nous pouvons ainsi déduire des limites inférieures sur la masse de ces nouvelles particules. À l’heure actuelle, toutes les observations indiquent que le proton est une particule stable.

SU(3)xSU(2)xU(1) P r ononc é   « S -U-3 - c r oi x- S -U-2 croix-U-1», ce nom décrit la structure mathématique des trois interactions présentes dans le Modèle Standard : SU(3) concerne l’interaction forte tandis que SU(2)xU(1) s’intéresse aux interactions faible et électromagnétique. Réactions interdites Dans le Modèle Standard, seules sont autorisées les réactions satisfaisant un certain nombre de lois de conservation, par exemple la conservation de la charge électrique. De manière similaire, il faut conserver la différence entre le nombre de quarks et le nombre d’antiquarks (nombre baryonique), ainsi que la différence entre le nombre de leptons et d’antileptons (nombre leptonique, voir Expérience). Les théories de grande unification (GUT) ouvrent la possibilité de réactions ne respectant pas ces deux lois de conservation, comme par exemple u u —> d e+

Il est toujours possible de s’accommoder de ces résultats en inventant des structures mathématiques plus élaborées, ou en repoussant les masses des bosons additionnels à des échelles encore plus hautes. Si les théories de grande unification ont perdu en popularité, elles sont souvent mises en avant comme un lien intéressant entre les propriétés des quarks et celles des leptons. Ainsi on peut expliquer les charges relatives entre les quarks et les leptons, qui sont simplement postulées dans le modèle Standard. Et on peut les utiliser pour décrire dans un même cadre les oscillations de neutrinos (voir Élémentaire 5) et les désintégrations des quarks lourds en quarks plus légers.

Super-particule a encore frappé !

Le proton est une particule stable À partir du début des années 1980, de nombreuses expériences se sont intéressées à la désintégration du proton. Puisque les théories de grande unification prédisaient de très longues durées de vie, il fallait rassembler de grandes quantités de protons (donc de matière) dans l’espoir de détecter une seule désintégration. À ce jour, aucune expérience n’a observé un tel processus. Le détecteur SuperKamiokande situé au Japon a obtenu la limite la plus stricte sur ce processus : si le proton est instable, son temps de vie est d’au moins 1033 années, soit 1023 fois l’âge connu de notre Univers !

Il existe de nombreuses manières de mettre en oeuvre cette notion de supersymétrie, mais toutes partagent des caractéristiques communes. Outre la présence de superpartenaires, on s’attend à voir un nombre plus grand de bosons de Higgs que dans le cas du Modèle Standard. Dans la version la plus simple de la supersymétrie, appelée Modèle Standard Supersymétrique Minimal ou MSSM, on devrait observer cinq bosons de Higgs (deux de charge électrique + ou -e , et trois neutres) au lieu de l’unique boson de Higgs neutre du Modèle Standard (qui manque toujours à l’appel).

page 58

Un diagramme de théories grand-unifiées contribuant à la désintégration du proton (p) en un pion (p0) et un positron (e+). Les deux quarks u du proton se combinent en un boson X véhiculant la force unique rassemblant forces forte, faible, et électromagnétique. Ce boson se désintègre ensuite en un positron et un antiquark d. Ce dernier se combine avec le quark d du proton pour former un pion. Dans le Modèle Standard, une telle désintégration est impossible et le proton est stable.

Si l’ajout d’interactions n’a pas donné les résultats escomptés, une autre voie envisagée très sérieusement consiste à étendre le nombre et le type de particules sensibles aux interactions du Modèle Standard. La théorie qui a actuellement les faveurs de nombreux physiciens s’appelle la supersymétrie, qui associe à toute particule connue du Modèle Standard une (ou plusieurs) particule(s) supersymétrique(s). On parle alors de «superpartenaires». Comme ces particules n’ont pas encore été observées, elles doivent être bien plus massives que leurs partenaires «ordinaires», et la supersymétrie ne serait donc qu’une symétrie approximative.

La supersymétrie a séduit les théoriciens pour différentes raisons, essentiellement... théoriques. Du fait de la nature quantique et relativiste du Modèle Standard, celui-ci décrit chaque particule comme environnée d’un ensemble de «particules virtuelles» dont la présence altère les propriétés de

ÉLÉMENTAÍRE


© S.uper KamioKANde

la particule initiale. Ainsi, la masse du boson de Higgs est modifiée quand on prend en compte ces effets. Si on suppose que le Modèle Standard est valable jusqu’à une certaine échelle d’énergie E très élevée (par exemple celle de Grande Unification, autour de 1014 GeV), le calcul montre que la contribution des particules virtuelles à la masse du boson de Higgs est de l’ordre de E ! Bien loin de la masse attendue dans le Modèle Standard, qui doit être autour de 1 TeV pour expliquer le rôle du boson de Higgs dans l’unification des interactions faibles et électromagnétiques. Dans le cas de modèles supersymétriques, les particules supersymétriques contribuent elles aussi à la masse du boson de Higgs en tant que particules virtuelles, en compensant l’effet des particules du Modèle Standard. Une version supersymétrique du Modèle Standard valable jusqu’aux énergies très élevées de l’unification des forces s’accommode donc bien avec l’existence d’un boson de Higgs relativement léger (dans la version supersymétrique la plus simple, sa masse ne pourrait guère dépasser 130 GeV).

Une vue du détecteur Super-Kamiokande, originellement conçu pour étudier la désintégration du proton et reconverti avec succès dans l’étude des neutrinos.

© d'après ©University of Glasgow

Par ailleurs, les théories supersymétriques comportent des superpartenaires du photon et du boson Z0 de l'interaction faible, qui sont des particules neutres, très lourdes, et (pour certaines) stables. Ils constituent donc d’excellents candidats pour la matière noire. Ces raisons (et quelques autres) font de la supersymétrie un candidat très sérieux pour la nouvelle physique recherchée au LHC. Mais il ne faut pas cacher quelques gros défauts de cette idée : aucune particule supersymétrique n’a encore été observée et aucun mécanisme entièrement satisfaisant n’a été fourni pour expliquer les masses des particules connues, ainsi que la différence de masse très importante entre chaque particule et son superpartenaire (puisque nous avons observé les premières, mais pas les secondes). Si nous voulons analyser les effets de la supersymétrie aux énergies accessibles actuellement, où elle n’apparaît pas explicitement, il faut recourir à une description contenant plus d’une centaine de paramètres arbitraires − à comparer aux 19 paramètres du Modèle Standard ! Il faudrait déterminer expérimentalement tous ces paramètres, puisque que nous n’avons pas d’intuition théorique pour expliquer pourquoi la supersymétrie ne donne pas d’effets mesurables aux «basses» énergies explorées jusqu’à présent...

Higgs ou l’inconnu

Dans les modèles supersymétriques allant au-delà du Modèle Standard, chaque particule connue se voit appariée à un partenaire, de masse nettement plus élevée : ainsi le quark ~ u est associé au quark u. Cette vue d'artiste, ci-dessus, cache en fait quelques subtilités supplémentaires dans l'équivalence entre les particules et leurs super partenaires.

Mais cette simplicité n’est en aucun cas une nécessité théorique, et on peut fort bien imaginer des situations plus complexes, avec un nombre plus élevé de bosons de Higgs − c’est d’ailleurs le cas dans le Modèle Standard

ÉLÉMENTAÍRE

page 59

Le boson de Higgs du Modèle Standard avait été proposé au début des années 1960 comme la solution la plus simple pour expliquer dans un cadre unique les propriétés différentes des forces faible et électromagnétique (on parle de « brisure électrofaible »), et pour fournir leur masse à toutes les particules élémentaires connues. Il se trouve qu’à l’heure actuelle, toutes les données de précision accumulées, notamment durant les années 1990-2000 sur le LEP au CERN, concernant l’interaction électrofaible sont en accord avec l’existence d’un unique boson de Higgs.

© KamioKANde

Un au-delà bien difficile à CERNer


Un au-delà bien difficile à CERNer Supersymétrique Minimal et dans d’autres extensions supersymétriques. On pourrait aussi imaginer que le boson de Higgs n’est pas un objet fondamental, mais plutôt un objet composite. La situation ressemblerait à celle des hadrons (proton, neutron, pion...) dont on sait maintenant qu’ils ont une structure interne et sont constitués de quarks.

DR

Ces théories reprennent souvent des idées développées dans le cadre de l’interaction forte, ce qui explique leur nom de technicouleur (par analogie avec la charge de couleur, caractéristique de l’interaction forte). Certaines d’entre elles envisagent même la situation où... aucun boson de Higgs ne serait détecté, même à très haute énergie. Mais elles ne fournissent pas d’explication détaillée sur le mécanisme responsable de la séparation des forces électromagnétique et faible à basse énergie. Elles ont aussi des difficultés pour rendre compte avec précision des processus faisant intervenir l’interaction électrofaible (déjà mesurés avec précision, au LEP en particulier) et pour expliquer la hiérarchie observée entre les masses des particules.

Le mathématicien allemand Theodor Kaluza (1885-1954).

L’abondance de ces modèles avec plusieurs, un ou... zéro bosons de Higgs ne doit pas cacher deux faiblesses fondamentales : nous n’avons toujours pas observé directement ce(s) boson(s) pour déterminer ne serait-ce que leur nombre et leurs masses, et les mesures effectuées au LEP sont en excellent accord avec un boson de Higgs semblable à celui du Modèle Standard.

Des dimensions hors norme

© aei.mpg.de

Une autre idée qui a eu beaucoup de succès auprès des théoriciens a consisté à ajouter des nouvelles dimensions spatiales. L’idée en revient initialement au mathématicien Theodor Kaluza, qui en 1921 avait suggéré d’ajouter une dimension supplémentaire d’espace afin d’unifier les deux forces fondamentales alors connues, l’électromagnétisme et la gravitation. Si sa théorie originale a fait long feu, l’idée de dimensions supplémentaires continue de susciter l’intérêt des physiciens. Pour expliquer que nous ne percevons pas ces dimensions supplémentaires d’espace, on peut supposer qu’elles sont repliées sur elles-mêmes à des échelles de distance suffisamment petites pour ne pas avoir été perçues jusqu’à maintenant. De telles théories prévoient, pour chaque particule élémentaire, un ensemble de particules semblables, mais de masses de plus en plus élevées, d’autant plus lourdes que la taille des dimensions supplémentaires est petite.

Une illustration du concept de dimension supplémentaire repliée sur elle-même. Vue de loin, une corde est un objet unidimensionnel. Mais pour une fourmi de taille comparable à la section de cette corde, c’est un objet bidimensionnel. Pour percevoir la dimension supplémentaire de la corde, il faut être suffisamment petit − ce qui signifie, en physique des particules, avoir une énergie suffisamment importante.

page 60

Une façon différente d’envisager des dimensions supplémentaires consiste à ajouter une dimension non à l’espace-temps, mais aux particules élémentaires elles-mêmes, qui ne sont plus des objets ponctuels (dimension 0), mais unidimensionnels (dimension 1). Les «théories des cordes» ainsi obtenues possèdent certains avantages mathématiques sur les théories décrivant des particules ponctuelles, mais leurs propriétés spécifiques se manifesteraient à des énergies tellement élevées qu’il est difficile d’imaginer, à ce jour, des prédictions vérifiables expérimentalement.

ÉLÉMENTAÍRE


Un au-delà bien difficile à CERNer Des problèmes épineux en perspective Si nous disposons actuellement de tant d’alternatives pour étendre le Modèle Standard, cela tient essentiellement au fait qu’il n’a pas (encore ?) montré de signes d’essoufflement grave. La seule déficience directe de cette théorie concerne la masse des neutrinos, prouvée par le phénomène d’oscillation, car le Modèle Standard est construit de façon à posséder des neutrinos de masse nulle. D’autres signes indirects de physique au-delà du Modèle Standard existent : les grandes structures de l’Univers semblent requérir l’existence d’une matière noire hors du cadre du Modèle Standard, et l’asymétrie entre matière et antimatière que nous observons autour de nous dépasse celle produite dans le Modèle Standard par plusieurs ordres de grandeur.

Masse du boson de Higgs Dans les années 1990, l’accélérateur LEP, installé au CERN, a permis d’effectuer des mesures de précision pour différents processus gouvernés par les interactions électromagnétiques et faibles en produisant une grande quantité de bosons W et Z0. Les mesures de nombreux processus par les quatre expériences de LEP (ainsi que celles effectuées aux États-Unis par SLD) sont en bon accord avec leur description dans le cadre du Modèle Standard si la masse du Higgs se situe dans une fenêtre relativement étroite. En particulier, il semble difficile de concilier ces mesures avec le Modèle Standard si la masse du Higgs dépasse 157 GeV. D’un autre côté, la masse du boson de Higgs doit être plus grande que 114 GeV, car le LEP a tenté de produire un boson de Higgs jusqu’à ces énergies sans succès. Plus récemment, CDF et D0 ont fait des tentatives similaires, ce qui leur a permis d’exclure l’existence d’un boson de Higgs possédant une masse située entre 160 et 170 GeV.

Dès lors, toute extension doit être effectuée de manière suffisamment «intelligente» pour ne pas entrer en contradiction avec l’ensemble des mesures déjà effectuées. Les contraintes les plus fortes en la matière proviennent de processus où un type de quark se désintègre en un autre sous l’effet de l’interaction faible (on parle de physique des saveurs), qui aboutissent le plus souvent à repousser la nouvelle physique à des énergies si élevées... qu’elle n’a plus aucune conséquence expérimentale aux échelles accessibles et se confond avec le Modèle Standard ! L’autre contrainte importante consiste à expliquer les résultats obtenus sur l’interaction électrofaible de façon satisfaisante, ce que le Modèle Standard parvient actuellement à faire, pourvu que la masse du boson du Higgs soit dans une fenêtre étroite – et de plus en plus réduite expérimentalement. D’autres contraintes viennent de la cosmologie. En effet, si on ajoute des interactions, des particules ou des dimensions au Modèle Standard, ces éléments supplémentaires modifient l’évolution de l’Univers depuis le Bigbang jusqu’à nos jours. De nombreuses extensions du Modèle Standard visent ainsi à expliquer l’asymétrie entre matière et antimatière observée autour de nous, et à proposer des particules lourdes et interagissant très faiblement comme candidats pour la matière noire (voir Élémentaire 7).

10-15 1018

10-12

1012

10-9

106

10-6 1

grande unification Big-bang

échelle de Planck

page 61

ÉLÉMENTAÍRE

© d'après Symmetry

L’ingéniosité des physiciens atteint ici ses limites : il s’agit d’imaginer tous les phénomènes pouvant se produire depuis les énergies associées à la brisure de symétrie électrofaible (103 GeV) jusqu’à celle impliquant la gravitation (1019 GeV). Il n’est pas simple d’envisager de quoi ce monde serait peuplé en ayant recours à nos seules connaissances actuelles et en les extrapolant. Il est fort possible que de nombreux phénomènes insoupçonnés se produisent avant d’atteindre 1019 GeV et révolutionnent nos schémas de pensée actuels. Après tout, en 1930, le monde des force électromagnétique particules élémentaires se limitait à l’électron, au proton et au neutron, décrits par la seule mécanique quantique. unification électrofaible En trois quarts de siècle, nous avons gagné six ordres de grandeur en énergie, et bouleversé à plusieurs reprises force nucléaire faible notre compréhension des constituants élémentaires de la matière et de leurs interactions. Les résultats du LHC force nucléaire forte pourraient très bien apporter de nouveaux changements radicaux dans notre compréhension des lois fondamentales gravitation de la Nature.

10-3

10-6

1 10-12

103 10-18

106 10-24

109 10-30

1012 10-36

1015 10-48

ÉNERGIE (TeV) TEMPS (s)


Le LHC

© CERN

Le redémarrage réussi du LHC

Vue d’artiste montrant le tunnel du LHC, l’anneau d’injection SPS et l’emplacement des quatre expériences majeures : ALICE, ATLAS, CMS et LHCb.

De l’accident à la remise en service Pour mémoire, l’accident du 19 septembre 2008 a été causé par la défaillance d’une connexion électrique entre deux aimants supraconducteurs (sur un total de 9300) maintenus à quelques degrés Kelvin par une circulation d’hélium liquide. Alors que les opérateurs de l’accélérateur augmentaient les courants pour suivre la hausse d’énergie des faisceaux de protons – plus les particules sont énergétiques et plus il faut des champs magnétiques intenses pour les maintenir sur la bonne trajectoire quasi-circulaire – une résistance électrique est apparue. Cette transition brutale entre une circulation sans résistance et un état plus ordinaire où l’effet Joule devient soudain important a fait disjoncter le système d’alimentation. Simultanément, un arc électrique est apparu au niveau de la connexion défaillante ; il a perforé l’enceinte contenant l’hélium et le dégazage brutal qui s’en est suivi malgré la présence de soupapes de sécurité a détruit plusieurs éléments du LHC – voir notre numéro précédent pour plus de détails.

L’effet Joule est une émission de chaleur qui se produit lors du passage d’un courant d’intensité I dans un milieu conducteur dont la résistance R est non nulle. La puissance dissipée P est reliée à ces deux quantités par une relation du type P = R×I2. L’effet Joule trouve sa source au niveau microscopique : le courant électrique est dû à la circulation de porteurs de charges, en général des électrons ; ceux-ci entrent en collision avec les atomes constituant le milieu conducteur.

Le LHC compte dix mille (!) connexions électriques similaires : une fois l’accélérateur partiellement réchauffé, une campagne intensive de vérifications a donc été menée. Ces connexions, conçues pour présenter une résistance électrique infime, sont composées de deux éléments : le supraconducteur proprement dit et un stabilisateur en cuivre chargé d’évacuer le courant dans le cas où le métal se réchauffe, perd son statut supraconducteur et retrouve une résistance électrique significative. Lors des tests, quelques résistances anormalement élevées ont été relevées et les jonctions correspondantes ont été réparées.

page 62

© CERN

Dégâts mécaniques causés par l’accident de septembre 2008 sur une interconnexion du LHC. Les pièces abîmées ont été changées, les soupapes de sécurité remplacées, leur rapidité d’ouverture améliorée et le tube à vide nettoyé. Le coût total des réparations et des améliorations apportées au LHC a été de l’ordre de 20 millions de francs suisses.

Nos lecteurs les plus fidèles auront remarqué un article au nom étrangement similaire dans le précédent numéro d’Élémentaire. Nous y relations comment le LHC avait été stoppé net dans son élan le 19 septembre 2008, 9 jours à peine après un démarrage très médiatisé. Et bien, après un long travail d’analyse de l’accident suivi de réparations complexes et d’améliorations variées, les scientifiques ont réussi à surmonter ce problème. Le 20 novembre 2009, après un an et deux mois d’arrêt, le grand accélérateur du CERN a redémarré – pour de bon cette fois-ci. C’est cette renaissance prometteuse que nous allons vous raconter maintenant avec, en toile de fond, le souvenir de ce sérieux contretemps et les changements qu’il a entraînés pour le programme du LHC.

Les mesures ont également mis en évidence des connexions où la résistance, bien que faible, est trop élevée pour une exploitation du LHC à son énergie nominale (7 TeV par faisceau). C’est pourquoi la direction du CERN a décidé, dans un premier temps, de faire fonctionner l’accélérateur à la moitié de cette énergie (3,5 TeV par faisceau soit des collisions à 7 TeV). Cette phase durera jusqu’à ce que les expériences aient accu-

ÉLÉMENTAÍRE


Le redémarrage réussi du LHC mulé un échantillon de données suffisant pour mener des analyses de physique approfondies. Elle permettra également aux opérateurs en salle de contrôle de se familiariser avec le LHC, une machine très complexe et dont le comportement réel est forcément différent des prévisions.

Une première campagne d’automne Le LHC a ainsi été progressivement remis en service à partir de l’été 2009. Le 8 octobre, l’anneau de 27 km a atteint sa température de fonctionnement nominale : 1,9 kelvins, soit environ -271 degrés Celsius. Le processus de refroidissement, effectué de manière indépendante dans les huit secteurs du LHC (les « octants »), a pris plusieurs semaines. Les premiers protons d’énergie 450 GeV (le maximum que peut fournir la chaîne d’accélération en amont, dont l’anneau SPS est le dernier maillon) ont été injectés le 23 octobre dans l’anneau mais n’y ont pas circulé complètement : l’obtention d’orbites stables pour les faisceaux est un long processus au cours duquel réglages et essais se succèdent. Le 7 novembre, des particules ont parcouru trois octants avant d’être perdues ; le premier tour a finalement été bouclé le 20 novembre à 22h par des protons circulant dans le sens des aiguilles d’une montre.

La supraconductivité est un comportement qui apparaît dans certains matériaux à très basse température (quelques dizaines de kelvins au plus) et qui se traduit par la disparition de toute résistance électrique et l’annulation du champ magnétique. Le premier effet permet de faire circuler des courants très intenses sans perte par effet Joule et donc d’exploiter au maximum une telle source d’énergie ; le second se traduit par des phénomènes spectaculaires comme la lévitation magnétique.

Trois jours plus tard deux faisceaux composés d’un seul paquet ont circulé pour la première fois simultanément en sens opposés dans le LHC. Cette étape importante a permis aux équipes du CERN de tester la synchronisation de l’accélérateur et aux expériences de tenter de détecter leurs premières collisions proton-proton : d’abord aux points 1 et 5 où sont situés les deux détecteurs généraux ATLAS et CMS, puis plus tard aux points 2 (ALICE) et 8 (LHCb). En effet, dans cette configuration, les faisceaux ne pouvaient se croiser qu’en deux endroits au plus dans l’accélérateur.

Paquet Dans le LHC, les protons sont regroupés en paquets denses, séparés par du vide. Quand le LHC fonctionnera dans les conditions nominales il contiendra 2808 paquets de protons par faisceau. Chaque paquet comportera environ 1011 protons et il sera à sept mètres des paquets les plus proches. La taille des paquets n’est pas constante tout au long de l’anneau : loin des détecteurs, les paquets mesurent quelques centimètres de long et quelques millimètres de large mais quand ils s’en approchent leur taille transverse n’est plus que d’une vingtaine de microns afin d’augmenter les chances de collisions.

Progressivement, la durée de vie des faisceaux est portée à 10 heures. L’étape suivante consiste à augmenter l’énergie des protons, maintenue jusqu’alors à la valeur d’injection de 450 GeV. L’objectif est de battre le record des collisions les plus énergétiques, détenu par l’accélérateur Tevatron situé au Laboratoire National Fermi près de Chicago (États-Unis) : 1,96 TeV soit 0,98 TeV par faisceau. Le dimanche 29 novembre à 21h48, l’énergie d’un faisceau atteint 1,05 TeV. Trois heures plus tard, à 0h44 le lundi 30 novembre, les deux faisceaux entrent en collision à l’énergie de 2 × 1,18 TeV = 2,36 TeV.

La durée de vie d’un faisceau est le temps au bout duquel 63,2 % des protons qu’il contenait au départ ont été perdus. C’est la même définition que pour la durée de vie d’une particule instable – voir Élémentaire 1.

ÉLÉMENTAÍRE

page 63

Si l’énergie des collisions est un paramètre fondamental du LHC – dont le but est d’explorer une gamme d’énergie nouvelle – ce n’est pas le seul. Il est également capital d’augmenter le nombre de protons en circulation dans l’accélérateur afin d’obtenir un taux de collisions aussi élevé que possible : plus le nombre d’événements enregistrés sera grand, meilleure sera la précision des résultats obtenus. Dans la soirée du vendredi 4 décembre, un faisceau circule pour la première fois avec plus d’un paquet


Le redémarrage réussi du LHC

© CERN

de particules. Le dimanche 6 au matin, quatre paquets de protons (deux dans le sens horaire et deux en direction opposée) tournent de manière stable dans le LHC à l’énergie de 450 GeV. Là encore, l’énergie est augmentée de manière progressive dans le respect des procédures de sécurité, renforcées après l’accident de 2008. Le jeudi 10 décembre au soir, quatre paquets circulent dans l’accélérateur donnant lieu à des collisions à 2,36 TeV. Une petite semaine plus tard, le 16 décembre, le LHC termine sa première campagne d’exploitation complète. Comme prévu, la machine est mise au repos pour un court arrêt technique, indispensable pour préparer le passage à des énergies plus élevées en 2010. En effet, pour dépasser le seuil des 2,36 TeV, considéré comme sûr pour le redémarrage, il faut augmenter l’intensité des courants dans les aimants supraconducteurs (jusqu’à 6 kA) ce qui impose des contraintes encore plus rigoureuses pour le nouveau système de protection « nQPS ». Quatre mille liaisons électriques ont ainsi été installées pour qu’il soit opérationnel dans tout l’accélérateur et surveille les quelques dix mille connexions à risque. Quant aux physiciens, ils profitent de l’interruption pour analyser plus d’un million de collisions proton-proton enregistrées à différentes énergies pendant cette période de mise au point. Si la quantité de données est encore faible, elle permet de tester toute la chaîne d’analyse et en particulier le recours à la grille de calcul mondiale. Dès le 26 novembre, des membres des quatre expériences se sont rencontrés afin de partager les premiers résultats de leurs détecteurs. Ces données ne montrent aucun problème majeur au niveau des appareillages et elles sont en bon accord avec les prédictions des simulations ce qui prouve la qualité du travail de préparation entamé des années auparavant. Les premiers articles scientifiques ne se font pas non plus attendre ; le 28 novembre la collaboration ALICE est ainsi la première à publier son analyse de collisions à 0,9 TeV (450 GeV par faisceau).

Mise en place du système « nQPS » dans le tunnel du LHC en janvier 2010. L’acronyme « nQPS » signifie « new Quench Protection System », soit « nouveau système de protection contre les … quenchs ». Le mot quench, difficilement traduisible en français, désigne la transition brutale et non souhaitée au cours de laquelle un matériau supraconducteur devient résistant.

page 64

Photo du Centre de Contrôle du CERN (« CCC ») juste après la réussite des premières collisions à 7 TeV le 30 mars 2010. Steve Myers, directeur au CERN pour les accélérateurs et la technologie (au centre avec le pull bleu marine), félicite l’équipe chargée du contrôle du faisceau sous les yeux de Gianluigi Arduini (au centre avec un badge autour du cou), coordinateur du LHC pour la semaine en cours.

© CERN

Premières collisions à 7 TeV Les protons ont recommencé à circuler dans le LHC le 28 février 2010. Le 19 mars au matin, les deux faisceaux, maintenus dans une configuration « décalée » pour ne jamais entrer en collision, ont atteint un nouveau record avec une énergie de 3,5 TeV chacun. Finalement, le 30 mars à 13h06, les premières collisions à 7 TeV ont eu lieu, après deux tentatives infructueuses dans la matinée. Cet événement marque le coup d’envoi du programme de recherche au LHC, attendu par les scientifiques depuis des années voire des décennies. Dans les heures précédant ce succès, une atmosphère mêlée d’excitation, d’attente et d’appréhension a régné au CCC (CERN Control Center) et dans les salles de contrôle des différentes expériences. Jamais auparavant on n’avait essayé de faire entrer en collision deux faisceaux de protons à une telle énergie. Tôt le matin, les opérateurs de l’accélérateur ont pré-

ÉLÉMENTAÍRE


Le redémarrage réussi du LHC

© CERN

paré la machine pour ces collisions : des milliers d’éléments doivent fonctionner sans la moindre défaillance, observés par des centaines de dispositifs de contrôle eux-mêmes gérés par des dizaines de personnes depuis leurs ordinateurs. Le tout sous le regard de nombreux journalistes et de milliers d’internautes de par le monde : une couverture médiatique intense avait été organisée par le CERN pour cette journée. Nous vous laissons donc imaginer le « ouf » de soulagement poussé par tous les participants, une fois les premières collisions confirmées. Avec le développement des réseaux informatiques et d’internet, le monde entier peut d’ailleurs savoir à tout moment quel est le statut du LHC et si des données de collisions sont enregistrées. Si les collisions à 7 TeV sont rapidement devenues la routine, les activités visant à améliorer le fonctionnement de l’accélérateur se poursuivent en alternance avec des périodes plus calmes pendant lesquelles le LHC accumule les collisions pour ALICE, ATLAS, CMS et LHCb. Le but principal des opérateurs est d’augmenter l’intensité des faisceaux et donc le taux de collisions, un travail de longue haleine. L’accélérateur fonctionne 24h/24 avec une alternance de périodes d’étude pour la machine et de prise de données pour les expériences. Cette organisation est fondamentale pour la bonne marche du LHC : lors des phases de test, la stabilité des faisceaux n’est pas garantie et les détecteurs doivent donc être éteints pour éviter qu’ils ne soient endommagés lorsque les protons sont perdus de manière soudaine. Jour après jour, il s’agit de trouver le meilleur équilibre entre améliorations des faisceaux et enregistrement de collisions contrôlées : chaque étude de l'accélérateur est une période blanche pour les quatre expériences. Mais d’un autre côté, chaque amélioration significative du fonctionnement du LHC augmente notablement le taux de collisions, ce qui compense le temps « perdu » pour arriver à ce résultat.

Page internet http://op-webtools.web. c e r n . ch / op - w ebto ol s / v i star / v i star s . php?usr=LHC1 donnant en temps réel le statut de l’accélérateur LHC .

Le meilleur reste à venir

© B. Mazoyer

Le CERN compte exploiter l’accélérateur LHC dans ce mode (collisions à 7 TeV) pendant une longue période, probablement entre dix-huit et vingtquatre mois. L’objectif est de fournir aux expériences suffisamment de données pour qu’elles puissent d’abord « redécouvrir » les particules déjà connues ainsi que leurs propriétés, puis démarrer la recherche de phénomènes encore inconnus, par exemple le boson de Higgs ou la nouvelle physique. Lorsque ce but aura été atteint, le LHC s’arrêtera de nouveau pour permettre diverses opérations de maintenance portant en particulier sur les soudures et les soupapes liées au système d’aimants supraconducteurs. En parallèle, on procédera aux dernières interventions nécessaires pour doubler l’énergie des collisions et atteindre ainsi la valeur nominale de 14 TeV.

Affiche de la conférence ICHEP2010 qui s’est tenue au Palais des Congrès de Paris du 22 au 28 juillet 2010.

ÉLÉMENTAÍRE

page 65

Jusqu’à présent, les accélérateurs du CERN fonctionnaient sur un cycle annuel : exploités sept à huit mois, ils étaient ensuite arrêtés quatre ou


Le redémarrage réussi du LHC cinq mois, en général pendant l’hiver lorsque l’électricité coûte le plus cher dans la région. Or le LHC est une machine cryogénique qui fonctionne à très basse température : chaque transition (réchauffage vers ou refroidissement depuis la température ambiante) prend au minimum un mois. Dès lors, le maintien du calendrier traditionnel pour les opérations du LHC ne se justifiait plus : c’est pour cette raison que le CERN a décidé d’allonger la durée des cycles, tant pour les périodes de fonctionnement que pour celles des arrêts.

© CERN

© CERN

Les résultats récents (vérification du bon comportement des appareillages et comparaison des résultats obtenus avec ceux d’expériences passées) du LHC ont été présentés à la conférence ICHEP2010 – le plus grand congrès en physique des hautes énergies, organisé tous les deux ans – qui s’est tenue à Paris au mois de juillet 2010. S’il y a encore du chemin à parcourir avant de découvrir la nouvelle physique ou le boson de Higgs, on peut dire que le grand accélérateur du CERN est enfin sur la bonne voie !

page 66

© CERN

© CERN

Exemples de collisions à 7 TeV enregistrées (de gauche à droite et de haut en bas) par les détecteurs ATLAS, CMS, LHCb et ALICE.

ÉLÉMENTAÍRE


ICPACKOI ? [isepasekwa] ? Deux muons, sinon rien Le 14 mai 2010, l’expérience DØ, située au Fermilab (près de Chicago) a annoncé un résultat pour le moins inattendu, et qui a provoqué une certaine excitation chez les théoriciens comme chez les expérimentateurs. Parviendrait-on enfin à voir par-dessus l’épaule du Modèle Standard ? Tandis que le LHC monte en puissance, DØ et son expérience sœur, CDF, profitent du fonctionnement à plein régime du Tevatron et des nombreuses collisions entre protons et antiprotons de 1 TeV d’énergie qui s’y produisent. Ces expériences s’intéressent, entre autres, aux désintégrations des particules «belles» (contenant un quark b) qui sont produites en abondance au Tevatron. En effet, dans le cadre du Modèle Standard, l’asymétrie entre particule et antiparticule, appelée violation de CP et due à l’interaction faible, est particulièrement prononcée pour le quark b. La violation de CP peut ainsi être mesurée en comparant des processus faisant intervenir les mésons beaux, tels que les mésons Bd et �Bd , ainsi que les mésons Bs et �Bs Ces résultats viennent compléter de façon intéressante les études de haute précision sur la violation de CP dans les mésons K car, dans le cadre du Modèle Standard, le même paramètre gouverne l’asymétrie entre matière et antimatière pour les différents types de mésons.

© FNAL

Mésons beaux On désigne ainsi les hadrons constitués d’un quark et d’un antiquark, dont l’un est un quark b. Dans la zoologie de ces particules, on rencontre entre autres des mésons neutres: Bd = �bd �Bd = b�d Bs= �bs �Bs = b�s et des mésons chargés B+ = �bu B- = b�u

Les mésons Bd et �B d ont déjà été étudiés de façon intensive par les expériences Babar (Stanford, États-Unis) et Belle (Tsukuba, Japon), appelées justement usines à B : les résultats obtenus semblent se conformer en tout point aux prévisions du Modèle Standard pour ce qui concerne l’asymétrie entre matière et antimatière. Les mésons Bs et �Bs , moins bien connus, n’ont été produits qu’en très faible quantité dans les usines à B : ils restent donc l’apanage du Tevatron � mais plus pour longtemps, puisque les expériences du LHC, et en particulier LHCb, vont également les étudier en détail.

ÉLÉMENTAÍRE

Le Tevatron (au fond) et l'anneau de l’injecteur principal (au premier plan) sur le site de Fermilab.

page 67

Lors des collisions proton-antiproton, le Tevatron produit en abondance des paires b �b qui s’hadronisent en deux particules belles, par exemple Bd et �Bd , Bs et �Bs, ou encore Bd et B-... Or avant de se désintégrer, un méson neutre Bd peut d’abord se transformer en méson �Bd par le biais de l’interaction faible (et vice-versa). Le même phénomène se produit entre les mésons Bs et �Bs : on parle d’oscillations de mésons neutres. Une des nombreuses manifestations de la violation de CP est le fait que la probabilité d’osciller depuis un méson B vers un �B est différente de celle pour passer d’un méson �B à un B. Pour mettre en évidence une telle asymétrie, la collaboration DØ s’est intéressée à des désintégrations produisant deux muons de même signe. Ces muons viennent de la désintégration fréquente du quark b en un quark c (charmé), accompagnée d’un antineutrino muonique et d’un muon (de charge électrique négative), ou de celle d’un antiquark �b en un antiquark �c , avec un neutrino muonique et un antimuon (de charge positive). Une paire b �b initialement créée s’hadronisera en des mésons beaux qui produiront en général

Qui s'hadronisent Après la création d'un quark lors de la collision entre des constituants fondamentaux (quarks, gluons, W, Z, photons,..), il va se combiner avec d’autres quarks ou anti-quarks produits également dans son environnement pour former un des deux types de particules (mésons et baryons) autorisés par l’interaction forte. On appelle hadronisation ce phénomène de transformation du quark initial en particule que l’on peut observer directement ou à partir de ses produits de désintégration, dans les détecteurs.


ICPACKOI ? [isepasekwa] ? X

B

X

0

B

deux muons de charges opposées (m+ m-) s’ils suivent cette voie de désintégration.

Toutefois si l’un des deux mésons beaux est neutre (Bd, �Bd, Bs, �Bs), il peut osciller en son antiparticule avant de se désintégrer, ce qui change son contenu µ en quark : on passe d’un quark b à un anti-quark �b, ou vice versa. Si l’on fait le compte des quarks b alors en présence, nous ne sommes plus face à une paire (b �b) hadronisée en deux mésons beaux, mais à (b b), ou à (�b �b.). Une fois que l'oscillation a lieu, si les deux mésons se désintègrent chacun en émettant un muon, nous aurons soit (m+ m+), soit (m- m-). Si les deux processus se produisent avec des probabilités différentes, générant par exemple plus souvent des paires (m- m-) que des paires m+ m+), cela provient d’une asymétrie entre particule et antiparticule au cours des oscillations de mésons neutres.

B0

µ Pour créer deux muons de même signe, il faut produire une paire de mésons contenant l’un un quark b, l’autre un antiquark �b, puis faire osciller un des deux mésons beaux en son antiparticule.

Le Modèle Standard prédit une très petite valeur pour l’asymétrie entre la production de paires (m+m+) et celle de paires (m-m-), en dessous de la sensibilité de l’expérience DØ. Mais cela n’empêche pas de tenter de la mesurer, dans l’espoir que des phénomènes au-delà du Modèle Standard augmentent fortement ce phénomène et puissent ainsi être mis en évidence (voir Expérience pour d’autres études similaires). La mesure est loin d’être évidente en raison des pions et des kaons qui interagissent avec les matériaux du détecteur et sont susceptibles d’imiter les muons. Il a fallu soigneusement séparer ce bruit de fond des vrais évènements, en exploitant en particulier la possibilité d’inverser le champ magnétique régnant dans le détecteur pour mieux comprendre les incertitudes liées à la géométrie de l’appareil.

© FNAL

Après une longue et complexe analyse des chercheurs de DØ, il s’avère que l’on produit des paires de muons plus fréquemment que des paires d’antimuons, et ce par un facteur nettement plus grand que ce qui est attendu dans le Modèle Standard. Le résultat obtenu est un effet à 3,2 sigmas, ce qui correspond à une probabilité de moins de 1 pour mille d’obtenir ce résultat dans le cadre du Modèle Standard.

Le détecteur DØ, avec, au centre, son calorimètre à argon liquide.

De la nouvelle physique à l’horizon ? Il est un peu tôt pour crier victoire... L’asymétrie mesurée ici par DØ combine des désintégrations venant des mésons Bd, Bs et de leurs antiparticules - il est impossible de déterminer en quels mésons la paire initiale (b,�b) s’est hadronisée, même si on connaît les fractions relatives de Bd et Bs produites en moyenne dans les collisions du Tevatron. Mais avant de vendre la peau du Modèle Standard, mieux vaut attendre l’analyse de cet effet par CDF, ou une mise à jour de DØ avec une plus grande quantité de données. Il semble que le méson Bs, moins bien connu que le méson Bd, ait envie de nous réserver quelques surprises...

page 68

Car le méson Bs est farceur. Il y a deux ans, CDF et DØ avaient déjà défrayé la chronique en mesurant un autre paramètre, appelé φs, qui décrit l’oscillation Bs-�Bs et dont la valeur semblait s’écarter notablement de celle prévue dans le cadre du Modèle Standard. Or quelques jours après la nouvelle annonce de DØ, CDF a mis à jour son résultat sur φs : selon cette expérience, φs ne s’écar-

ÉLÉMENTAÍRE


Sigmas Pour estimer l’accord (ou le désaccord) entre une mesure expérimentale et une hypothèse théorique, il faut tenir compte des incertitudes des mesures, tant du fait de fluctuations statistiques dans les données que des erreurs systématiques liées au processus même de la mesure. L’estimation de ces incertitudes est une tâche difficile, qui constitue une part majeure du travail d’analyse. Les physiciens ont l’habitude de faire cette estimation en unité de sigma, une notion issue de l’analyse statistique des mesures en termes de loi de probabilité gaussienne (voir Élémentaire 2). Ce «sigma» représente l’incertitude sur la valeur mesurée de la quantité étudiée. Il permet aussi aux physiciens d’estimer la probabilité d’obtenir la valeur mesurée sous une hypothèse donnée (par exemple dans le cadre du Modèle Standard). Plus le nombre de sigmas est élevé, et moins l’effet mis en évidence a de chances de provenir d’une simple fluctuation statistique dans les mesures, et plus on peut soupçonner que théorie et expérience sont en désaccord. Ainsi, on a 32% de chances d’obtenir un écart plus grand que 1 sigma entre valeur théorique et mesure expérimentale, et 5% de chances d’obtenir un écart supérieur à 2 sigmas. En revanche, on a seulement 6 chances sur 10 000 000 de mesurer un écart de plus de 5 sigmas entre théorie et expérience... Il semble alors raisonnable d’invoquer l’existence d'un phénomène nouveau, hors du cadre théorique initial - c’est d’ailleurs le seuil choisi en physique des particules pour annoncer une découverte !

[isepasekwa] ? terait plus de 2,1 sigmas par rapport au Modèle Standard, mais seulement de... 0,8 sigma, ce qui a quelque peu douché l’enthousiasme des afficionados du méson Bs. Pour l’instant, les physiciens peuvent donc seulement espérer que l’asymétrie mesurée par DØ suivra un autre chemin et se confirmera bel et bien... par exemple grâce aux mesures du LHC !

L’expérience de Saint Thomas Le 31 mai 2010 la collaboration OPERA (Oscillation Project with Emulsion tRacking Apparatus) a annoncé l’observation de son premier lepton tau. Cette détection indique que certains neutrinos-mu créés au niveau du CERN, près de Genève, se sont transformés en neutrinos-tau lors de leur trajet de 730 km jusqu’au tunnel du Gran-Sasso, en Italie, où est installé le détecteur OPERA. Nous avons décrit le principe de cette expérience dans la rubrique « Accélérateur » du cinquième numéro d’Élémentaire, consacré aux neutrinos. Le phénomène d’oscillation des neutrinos, c’est-à-dire le changement spontané de leur nature (ou saveur) a été observé en 1998, pour les neutrinos-mu, par l’expérience japonaise Super-Kamiokande. Des neutrinos-mu produits lors de l’interaction de rayons cosmiques dans l’atmosphère avaient disparu au niveau du détecteur situé dans une ancienne mine, à quelques dizaines de kilomètres de là.

L’appareillage a donc été conçu pour être capable de signer la présence de leptons tau. Ces derniers ont une durée de vie très courte (290 femtosecondes lorsqu’ils sont au repos) et leur parcours entre leur point de production par un neutrino-tau et le lieu de leur désintégration est de l’ordre du millimètre. Le

ÉLÉMENTAÍRE

page 69

Rappelons que le principe de ces mesures utilise le fait qu’un neutrino de haute énergie qui interagit avec la matière donne naissance au lepton chargé qui correspond à sa saveur : un neutrino-mu produit un muon, un neutrinoélectron crée un électron et un neutrino-tau génère un tau. Les électrons peuvent être distingués des muons émis lors de l’interaction des neutrinos dans le détecteur de Super-Kamiokande, qui est par contre peu sensible aux taus. Les neutrinos-mu étudiés par les Japonais ne s’étaient donc pas transformés en neutrinos-électron. Il restait deux possibilités : ils s’étaient changés soit en neutrinos-tau, soit en des particules inconnues (ayant une très faible probabilité d’interaction avec la matière) désignées dans ce cas sous le terme de neutrinos stériles. Il faut souligner l’incroyable chance que Super-Kamiokande a eue d’observer le phénomène d’oscillation car il dépend de l’énergie des neutrinos (non maîtrisée puisque les neutrinos sont créés par des rayons cosmiques), de la distance entre leurs points de production et de détection (ici l’épaisseur de l’atmosphère), et enfin de la différence entre les valeurs des carrés des masses des neutrinos concernés (une quantité inconnue). Le but de l’expérience OPERA est de vérifier si les neutrinos-mu se transforment en neutrinos-tau ou bien en neutrinos stériles.


ICPACKOI ? [isepasekwa] ? détecteur OPERA comporte deux ensembles similaires d’appareillages disposés l’un à la suite de l’autre dans la direction du faisceau de neutrinos. Chaque ensemble est formé également de deux parties. La première sert de cible pour les neutrinos incidents et permet aussi de reconstruire les trajectoires des particules produites lors de l’interaction. Elle est constituée d’un ensemble de 31 murs ayant chacun une couche de « briques » suivie par deux assemblages de lattes de scintillateurs (de 7 m de longueur et 26 mm de largeur) qui sont horizontales pour l’un et verticales pour l’autre. Chaque brique, qui pèse 8 kg environ, est un assemblage de 56 feuilles de plomb de 1 mm d’épaisseur et de films d’émulsion photographique. Les signaux issus des scintillateurs indiquent qu’il y a eu une interaction dans le détecteur et permettent de retrouver la brique dans laquelle elle a eu lieu. Un robot extrait les briques susceptibles de contenir une interaction. Les émulsions sont alors développées dans les laboratoires disposant d’équipements dédiés. La seconde partie de chaque ensemble est un spectromètre qui identifie les muons, éventuellement produits, et reconstruit leurs trajectoires. Les muons jouent un rôle particulier puisque la plupart des neutrinos incidents sont des neutrinos-mu qui produisent un muon lors de leur interaction.

Le tau se désintègre Le lepton tau, qui est une particule instable, se désintègre dans 85% des cas en émettant une seule particule chargée. Il émet trois particules chargées dans 15% des cas et les canaux avec 5 particules chargées ou plus sont très rares. Parmi les modes avec une seule particule chargée, environ la moitié correspond à un électron ou bien un muon, en proportions égales.

Les émulsions sont utilisées pour mesurer avec une précision de l'ordre du micromètre les trajectoires des particules chargées au voisinage du point de l’interaction du neutrino incident et ainsi de pouvoir distinguer celles émises exactement en ce point ou bien un peu plus loin, à l’endroit où le tau se désintègre. Ces deux situations caractérisent, respectivement, des interactions d’un neutrino-mu ou bien d’un neutrino-tau.

Ces deux situations Comme souvent, la réalité est un peu plus complexe. Il existe des cas, rares, où l’interaction d’un neutrino-mu crée une particule charmée de courte durée de vie et de masse similaires à celles du tau. Ces cas se distinguent de l’interaction d’un neutrino-tau par la présence d’un muon émis exactement au point de collision. À partir du lot d’événements analysés, OPERA a identifié 20 événements avec une particule charmée ce qui est en accord avec la valeur attendue (16 ± 3).

Au bout de cinq ans, ce qui est la durée prévue pour l’expérience, on attend 150 000 interactions de neutrinos-mu pour une dizaine identifiées comme provenant de neutrinos-tau. OPERA a commencé à collecter des données en 2006 mais a dû s’interrompre en 2007 pour réparer des éléments de la ligne de faisceau. Après avoir analysé environ le tiers des données enregistrées en 2008 et 2009, un millier d’interactions de neutrinos a été mesuré dont une est attribuée à un neutrino-tau. Compte tenu des connaissances actuelles sur les paramètres de l’oscillation des neutrinos-mu, 0,5 événement avec un tau était attendu, en moyenne (dans l’hypothèse où il n’y a pas de neutrinos stériles).

page 70

Le phénomène d’oscillation des neutrinos-électron, issus du Soleil, a également été démontré par de nombreuses expériences qui se sont déroulées sur plusieurs dizaines d’années et grâce à une compréhension détaillée de la chaudière solaire. L’expérience canadienne SNO a montré, en 2001, que ces neutrinos-électron se transformaient en d’autres neutrinos de saveurs différentes et qu’il n’y avait pas besoin de faire appel à des neutrinos stériles pour expliquer les données (voir la rubrique « Théorie » Élémentaire 5). Le phénomène d’oscillation des neutrinos n’entre pas dans le cadre strict du Modèle Standard. En plus d’OPERA qui poursuit sa moisson, plusieurs expériences sont en cours pour mesurer précisément les paramètres contrôlant le mélange entre les trois saveurs de neutrinos. Il restera ensuite à comprendre l’origine de ces paramètres. Plusieurs scénarios, qui font tous appel

ÉLÉMENTAÍRE


[isepasekwa] ?

© OPERA

à de la physique au-delà du Modèle Standard, peuvent être envisagés, conduisant au même jeu d’observations. Par exemple, la présence de neutrinos supplémentaires très massifs est invoquée pour expliquer la petitesse des masses des neutrinos connus. Ce même mécanisme pourrait aussi expliquer pourquoi l’Univers est formé uniquement de matière. Certains de ces scénarios permettent de prédire des phénomènes que des expériences en cours, ou futures, pourraient mesurer, augmentant ainsi leur crédibilité. La physique des neutrinos reste un domaine très riche faisant appel à l’imagination des théoriciens et à l’ingéniosité des expérimentateurs pour comprendre les propriétés de ces particules évanescentes.

© OPERA

Le détecteur OPERA comporte deux parties identiques (SM1 et SM2), elles-mêmes divisées en deux composantes principales. Sur le trajet des neutrinos qui arrivent par la gauche et illuminent l’ensemble des appareils (la taille transverse du faisceau de neutrinos est d’environ 1 kilomètre au niveau d’OPERA), on trouve d’abord une cible formée d’une succession de 31 murs de briques suivis chacun par deux plans équipés de compteurs à scintillation. À la suite se trouve un spectromètre à muons qui permet de mesurer les trajectoires de ces particules et de les identifier. Dupliquer ainsi l'expérience permet de doubler le nombre d'événements enregistrés.

ÉLÉMENTAÍRE

page 71

Reconstruction des trajectoires des particules issues de l’interaction du neutrino-tau arrivant par la gauche de l’image. Le segment rouge correspondrait au passage d’un tau qui émet un pion et deux photons au point de sa désintégration. En plus du tau on voit que cinq autres particules chargées sont produites au point d’interaction du neutrino ce qui permet de reconstruire très précisément sa position. Les segments en jaune correspondent aux mesures obtenues dans les feuilles d’émulsion. Entre ces feuilles sont disposées des plaques de plomb qui fournissent la matière nécessaire pour que les neutrinos interagissent. Une estimation de l’impulsion des traces est donnée ainsi que leur nature, quand elle a pu être déterminée. La figure du bas est un zoom autour du point d’interaction.


La question qui tue ! Qu’est-ce qu’une théorie fondamentale ? Qu’est-ce qu’une « bonne » théorie physique ? Quels sont les principes qui guident son élaboration ? Bien sûr, il n’y a pas de recette miracle et les physiciens avancent à tâtons suivant la bonne vieille méthode des essais et des erreurs, qui constitue le socle de la recherche scientifique. C’est toujours l’expérience qui, en dernier ressort, aura le dernier mot quant au sort d’une hypothèse. Cependant, les physiciens ne sont pas complètement démunis dans cette quête et disposent de divers outils théoriques pour se frayer un chemin jusqu’à la découverte de « la » bonne théorie. En physique des hautes énergies, il arrive même que ces outils permettent de savoir, malgré l’absence de preuves expérimentales, qu’une théorie donnée est incomplète ou n’est valable qu’à suffisamment basse énergie. Nous allons décrire certains de ces outils ici.

Symétrie Depuis Galilée, l’étude des lois physiques a permis de mettre en évidence de nombreuses quantités qui se conservent lors de l'évolution d'un système – on parle de principes de conservation. Ce fut d’abord le cas en mécanique : ainsi, si un système est isolé, sans interaction avec l'extérieur, la somme des quantités de mouvement des parties qui le constituent reste constante, quelles que soient les interactions qui se produisent entre elles. Puis, au XIXe siècle, le développement des théories de la chaleur et de la thermodynamique a incité les savants à généraliser cette idée : tout système physique, et non seulement mécanique, obéit à des lois de conservation, comme celle de l’énergie.

Mais tout d’abord, le concept de théorie fondamentale doit être précisé. En effet, dans le langage courant, l’adjectif « fondamental » caractérise une qualité subjective – ce qui est fondamental pour les uns ne l’est pas forcément pour les autres. Une telle subjectivité n’a pas sa place en science – bien que, soit dit en passant, les notions subjectives et autres idées reçues soient légion parmi les scientifiques, comme dans tout échantillon de population. En physique des hautes énergies, on qualifie de « fondamentale » une théorie cohérente avec les principes de physique connus, tels que ceux de la mécanique quantique ou de la relativité restreinte, et bien définie – c’est-à-dire à laquelle on sait donner un sens mathématique précis – à toutes les énergies. Cela doit être en particulier vrai quand on augmente de plus en plus l'énergie, jusqu'à des valeurs aussi élevées qu'on puisse l'imaginer, c’est-à-dire à des distances aussi petites qu'on puisse le souhaiter.

Au cours du XXe siècle, les physiciens comprirent que la plupart de ces lois de conservation sont des conséquences de certaines symétries des lois de la physique, c’est-à-dire du fait que ces lois restent invariantes (inchangées) sous l’effet de certaines transformations spécifiques. Ainsi, la conservation de la quantité de mouvement est due à l’invariance des équations de la physique par translation des coordonnées d’espace : la physique est la même ici et sur Mars. De même, le fait qu’elle fut, est et sera la même hier, aujourd'hui et demain, c’est-à-dire que les lois physiques sont invariantes par translation dans le temps, a pour conséquence la conservation de l’énergie.

Un premier outil de défrichage : les symétries Pour rendre compte des phénomènes observés expérimentalement et qui ne sont pas déjà décrits par les théories existantes, les physiciens sont parfois amenés à postuler l’existence d’une ou plusieurs nouvelles particules (par exemple le neutrino de Pauli, voir Élémentaire 5) et/ou de nouveaux types d’interactions que l’on façonne d’une manière bien précise pour rendre compte du ou des phénomènes en question. Mais se pose alors la question du « Pourquoi ? » : pourquoi cette particule ? Pourquoi ces propriétés bien précises (masse, charge électrique, etc.) ? Pourquoi la Nature a-t-elle choisi cette interaction plutôt qu’une autre ? page 72

La notion de symétrie, déjà utilisée depuis longtemps en physique et en mathématiques, en particulier pour simplifier la résolution de certaines équations, se révèle un outil puissant pour la construction de théories physiques. En effet, si les lois de conservation observées expérimentalement doivent être satisfaites, la théorie correspondante respectera certaines symétries, ce qui restreint, parfois considérablement, les théories possibles.

Notons que la qualité « fondamentale » d’une théorie, au sens technique décrit ici, ne présume en rien de sa pertinence « physique », c’est-àdire du fait qu’elle soit en accord avec les résultats d’expériences – éventuellement à venir – à toutes les échelles d’énergie. Il existe de nombreux exemples de théories mathématiquement bien définies mais qui ne sont pas physiques...

ÉLÉMENTAÍRE


Qu’est-ce qu’une théorie fondamentale ?

© LEP-CERN

Au fil du temps, les physiciens ont découvert que le nombre de « Pourquoi ? » pouvait être considérablement réduit à l’aide de la notion de symétrie. Par exemple, la théorie la plus générale que l’on puisse concevoir pour décrire le monde des électrons, positrons et photons – une théorie qui contiendrait tous les types d’interactions imaginables entre ces particules – prévoit des phénomènes non observés, comme par exemple la non-conservation de la charge électrique. Or on a constaté expérimentalement que la charge électrique est bien conservée, et on sait aujourd’hui que ces lois de conservation traduisent l’existence de symétries sous-jacentes. Dans le cas de l’électrodynamique quantique, qui régit les interactions entre particules élémentaires chargées et photons, la conservation de la charge électrique est la marque d’une certaine « symétrie de jauge U(1) », laquelle contraint fortement la structure de la théorie : seuls certains types d’interactions respectent cette symétrie et donc la conservation de la charge.

L’intensité de l’interaction électromagnétique est décrite par une quantité notée α et appelée « constante de couplage ». En fait, cette « constante » varie avec la distance, du fait d'effets quantiques. On a représenté ici la variation de 1/α en fonction de l’énergie au carré. L’énergie est inversement proportionnelle à la distance.

Mieux, l’existence même des ondes électromagnétiques et des quanta associés, les photons, ainsi que certaines de leurs propriétés, peuvent être vues comme des conséquences de cette symétrie. Ainsi, nombre de « Pourquoi ? » se réduisent au seul : « Pourquoi cette symétrie et pas une autre ? »

Le scalpel de la renormalisation

ÉLÉMENTAÍRE

À une excellente approximation près Les moments magnétiques anormaux de l'électron et du muon illustrent l’excellent accord entre calculs théoriques en électrodynamique quantique (QED) et résultats expérimentaux. La relation entre le moment magnétique intrinsèque d'un lepton chargé et son spin est caractérisée par le facteur de Landé, noté g. Lors des premiers développements de sa mécanique quantique relativiste, Dirac avait obtenu g = 2, valeur en bon accord avec celle mesurée à l’époque. Actuellement les mesures les plus précises pour le muon donnent : gmes = 2,0023318418 ± 0,0000000013. La déviation par rapport à la valeur g = 2 (appelée moment magnétique anormal), provient majoritairement des corrections de l’électrodynamique quantique, comme l’échange de photons virtuels, négligé dans le calcul de Dirac. En 1948, Schwinger calcule la contribution due à l’échange d’un photon et obtient pour la valeur théorique 2,002322 démontrant ainsi que les quatre premières décimales après la virgule sont de purs effets quantiques prévus par QED. En particulier, la valeur du moment magnétique anormal de cette particule est complètement fixée par celle de sa charge électrique et n’est pas un paramètre indépendant à ajuster dans la théorie. Depuis, les corrections dues à l’échange de 2, 3 et jusqu’à 4 photons ont été calculées. Ce n’est pas une mince affaire, car la difficulté du calcul augmente très rapidement avec le nombre de photons échangés. On connaît à présent la valeur théorique jusqu’à 10 chiffres significatifs. Elle vaut, dans le cas du muon : g th = 2,0023318367 ± 0,0000000010. Les prédictions théoriques ne sont en désaccord avec les mesures expérimentales que sur les trois derniers chiffres, là où interviennent d’autres effets, dus aux interactions forte et faible. Un accord d’une précision tout à fait remarquable ! page 73

Cependant, si la symétrie de jauge U(1) permet de sélectionner une certaine classe de théories possibles pour décrire les interactions entre photons et particules chargées, il reste tout de même une infinité de possibilités ! Or tous les résultats expérimentaux rassemblés jusqu'ici indiquent que toutes ces interactions permises par symétrie ne sont en fait pas indépendantes les unes des autres, mais qu'elles découlent d’une seule d’entre elles. Ainsi, le moment magnétique anormal de l’électron, qui décrit l’interaction de la particule avec un champ magnétique, peut se déduire, à une excellente approximation près, de la valeur de la charge électrique, laquelle quantifie l’interaction de cette particule avec un champ électrique (voir Élémentaire 2). L’origine de ce phénomène est profondément enracinée dans les lois de la physique quantique relativiste. Pour le comprendre, il nous faut discuter l’un des concepts les plus profonds et les plus


Qu’est-ce qu’une théorie fondamentale ? importants de la physique du vingtième siècle, connu sous le nom cryptique de « flot de renormalisation ».

Couplage Un couplage quantifie la probabilité avec laquelle l'interaction entre deux particules peut se produire. Par exemple, quand une particule chargée traverse un champ électrique, la charge électrique de la particule permet de déterminer la probabilité avec laquelle cette particule interagira avec les photons constituant le champ électrique. On peut imaginer des couplages à trois, quatre... particules, mais dans une théorie donnée, certains de ces couplages peuvent être nuls du fait de symétries particulières.

Comme nous l’avons expliqué dans des numéros précédents d’Élémentaire, une des conséquences de la nature quantique du monde subatomique est l’existence de fluctuations quantiques incessantes. À leur tour, celles-ci impliquent que l’intensité d’une interaction donnée – on parle de constante de couplage – dépend de l’échelle de distance (d’énergie) à laquelle l’interaction en question a lieu. Par exemple, l’intensité des interactions électromagnétiques augmente avec l’énergie, tandis que celle des interactions fortes entre quarks décroît (voir Élémentaire 4). En jargon de physicien des hautes énergies, le fait que la valeur d’une constante de couplage soit modifiée par les fluctuations quantiques est appelé « renormalisation » et on parle de « flot de renormalisation » pour désigner la dépendance des constantes de couplages avec l’énergie. On doit à divers physiciens tels que Curtis Callan, Kurt Symanzik ou encore Kenneth Wilson une compréhension détaillée de l’origine de ce phénomène dans les années 1970.

Des impertinents rapprochée

Kenneth Wilson Né en 1936, ce physicien théoricien américain a étudié à Harvard avant de passer une thèse à Caltech en 1961 sous la direction de Murray Gell-Mann. Il a reçu le prix Nobel de physique en 1982 pour sa théorie du groupe de renormalisation réunissant la théorie quantique des champs avec la théorie statistique décrivant certaines transitions de phase en physique de la matière condensée. Cette approche a permis non seulement de décrire de façon quantitative ces transitions de phase, mais aussi de fournir un cadre pour décrire divers aspects fondamentaux de la théorie quantique des champs ‒ comme le rôle des fluctuations quantiques et l'évolution des constantes de couplage avec l'énergie. Kenneth Wilson a aussi travaillé sur un autre problème important de la physique de la matière condensée. Il s'agit de l'effet Kondo, qui décrit la diffusion d'électrons circulant dans un métal contenant des impuretés, ce qui permet de déterminer l'évolution de la résistance électrique du métal avec la température. Ce problème possède des analogies inattendues avec l'interaction forte (les couplages intervenant dans les deux problèmes sont petits à haute température/ énergie et deviennent très grands à basse température/énergie).

sous

protection

Une théorie donnée est dite « fondamentale », au sens technique, si toutes les constantes de couplage qui la caractérisent sont bien définies à toute échelle d’énergie. On peut distinguer trois types de comportement pour le flot de renormalisation d’une constante de couplage donnée à mesure que l’énergie augmente : ladite constante – qui ne l’est en fait que de nom – peut tendre vers une valeur finie, éventuellement nulle : on parle alors de couplage « pertinent » ; ● elle peut diverger quand l’énergie tend vers l’infini : on parle d’un couplage « non pertinent » ; ● enfin elle peut diverger pour une valeur finie de l’énergie. ●

page 74

Dans ce dernier cas, on sait que la théorie en question ne peut en aucun cas être une bonne candidate pour une théorie fondamentale. Au mieux s'agitil d'une description acceptable pour des énergies inférieures à la valeur critique où le flot de renormalisation diverge. C’est par exemple le cas de l’électrodynamique ou de la théorie des interactions électrofaibles. On parle, dans ce cas, de théories effectives. On sait ainsi que le Modèle Standard, malgré sa capacité à reproduire l’immense majorité des phénomènes observés actuellement, ne peut être qu’une description effective, valable à suffisamment basse énergie, d’une théorie plus fondamentale encore à découvrir. En d’autres termes, on peut être certain qu’il y a de la nouvelle physique à plus haute énergie ; la seule question est : « à quelle énergie ?». Ce fait est une des motivations solides ayant mené à la réalisation du plus grand accélérateur jamais construit : le LHC.

ÉLÉMENTAÍRE


Qu’est-ce qu’une théorie fondamentale ? Théories effectives En général, la description de phénomènes physiques à une échelle – d’énergie ou de distance – donnée ne nécessite pas la connaissance détaillée des lois les plus fondamentales. Même si in fine l’écoulement de l’eau dans un verre résulte de la combinaison de la force gravitationnelle et des interactions électromagnétiques entre les molécules d’eau, il n’est point besoin de connaître le détail de ces interactions, encore moins des lois plus fondamentales du Modèle Standard ou de la gravitation quantique pour décrire efficacement le fluide. En fait, une description du verre d’eau en termes microscopiques serait extrêmement compliquée. Heureusement pour les physiciens, la myriade de phénomènes microscopiques desquels résulte l’écoulement désaltérant donne lieu à une dynamique effective plus simple caractérisée par une poignée de paramètres – qu’une description microscopique permettrait en principe de calculer mais qu'on peut, de façon plus pragmatique, ajuster à l’expérience. La situation est similaire quelle que soit l’échelle d’énergie à laquelle on se place : la physique atomique n’a que faire des détails des interactions nucléaires qui façonnent le noyau atomique ; la description de ce dernier est largement indépendante des interactions plus fondamentales entre quarks et gluons, etc. C’est ce phénomène dit de « découplage » qui fait de la physique une science. Sans lui on ne pourrait appréhender un phénomène donné sans avoir une compréhension globale et détaillée des lois les plus fondamentales dont, même si on les connaissait, on aurait bien du mal à tirer les conséquences concernant la diffusion du sirop de menthe dans notre verre d’eau. Chaque pas vers une compréhension plus fondamentale relègue les théories existantes au rang de théories effectives, donnant une description satisfaisante jusqu’à une échelle donnée mais pas au-delà.

© Nobelprize

Il est remarquable que, dans bien des cas, l’on n’ait pas besoin de connaître les lois plus fondamentales pour savoir qu’une théorie donnée n’est pas complète. Par exemple, les modèles d’interactions entre nucléons permettant de décrire la structure des noyaux atomiques deviennent mathématiquement incohérents à des énergies excédant quelques centaines de MeV. On sait aujourd’hui qu’une description plus fondamentale des interactions fortes à plus haute énergie met en jeu des particules (les quarks et les gluons) et des interactions nouvelles. De même, on sait que le Modèle Standard n’est qu’une description effective et devient mathématiquement incohérent à haute énergie. Un des buts essentiels des expériences actuelles et futures de physique des particules est de découvrir les particules et lois plus fondamentales qui se cachent derrière.

La figure de droite représente le flot de renormalisation des deux couplages (le premier sur l’axe horizontal et le second sur l’axe vertical) pour des valeurs initiales génériques, c’est-à-dire pour un couple (e,g) quelconque, représenté par le point A. La trajectoire rouge représente l’évolution de ces couplages (leur flot de renormalisation) à mesure que l’énergie augmente : le premier, pertinent, en abscisse, tend vers une valeur donnée qui correspond à la ligne verticale au centre de la figure, tandis que le second, non pertinent, en ordonnée, diverge.

ÉLÉMENTAÍRE

page 75

La figure de gauche représente sous la forme de disques gris deux couplages de la théorie des interactions fortes, décrivant l'interaction entre des quarks (lignes noires) et des gluons (lignes rouges) : le premier décrit l’interaction d'un gluon avec un quark, tandis que le second décrit la diffusion de deux quarks (le premier est pertinent en QCD, le deuxième est non pertinent). En général, on peut se représenter ces couplages à une énergie donnée comme la somme de couplages fondamentaux correspondants (respectivement notés e et g) ainsi que de corrections quantiques (à droite du signe égal). Ces dernières sont dues aux particules virtuelles qui interagissent de toutes les manières permises par ces couplages fondamentaux. À chaque couple (e,g) correspondent donc des valeurs données des couplages physiques.

L’intensité de l’interaction forte est décrite par une quantité notée αs et appelée « constante de couplage ». Comme dans le cas de l’électromagnétisme, cette « constante » varie avec la distance, du fait d'effets quantiques. On a représenté ici la variation de αs en fonction de l’énergie, inversement proportionnelle à la distance. La courbe en bleu correspond à un ajustement des données tenant compte de l'évolution de la constante de couplage avec l'énergie prédite par QCD. Elle montre la propriété de liberté asymptotique : le couplage diminue à petites distances, c’est-à-dire à grandes énergies. Les différents points correspondent à des résultats expérimentaux de nature très différente : toutes les mesures existantes sont en accord avec la prédiction théorique donnant la variation de αs avec l’énergie.


Qu’est-ce qu’une théorie fondamentale ? Le flot de renormalisation des couplages décrits dans la figure précédente pour le couple particulier de valeur initiales correspondant au choix (e≠0,g=0), représenté par le point B. Les diagrammes à gauche illustrent la structure des couplages physiques en termes du couplage fondamental e et des contributions quantiques. Le couplage non pertinent à quatre quarks (ligne inférieure) n’est pas indépendant de celui, pertinent, à deux quarks et un gluon (ligne supérieure). Si cette relation de verrouillage entre les deux couplages est satisfaite à une énergie donnée, elle le reste à toute énergie et le flot du couplage non pertinent ne diverge plus : on reste alors sur la trajectoire verte à droite.

Pour avoir une théorie bien définie à toute énergie il semble donc suffisant de n’y inclure que les couplages pertinents. Oui mais voilà : les choses ne sont pas si simples ! En effet, même si on choisit les couplages non pertinents nuls à une énergie donnée, ils ne le seront généralement pas à une autre énergie. En effet les fluctuations quantiques vont modifier la valeur de ces couplages lorsque l'énergie change, jusqu'à les faire diverger.

page 76

Heureusement, la règle précédente souffre quelques exceptions. Dans certains cas, il existe des relations particulières entre couplages non pertinents et pertinents qui, si elles sont satisfaites à une énergie donnée, restent valables au cours du flot de renormalisation et sont donc satisfaites à toute énergie. Si on ajuste précisément les couplages non pertinents aux valeurs obtenues par ces relations à une énergie donnée, leurs valeurs resteront reliées pour toute énergie à celles des couplages pertinents – finies par définition. On est alors certain que ces couplages ne divergeront pas. On dit que le flot de renormalisation est « verrouillé » et la théorie correspondante peut être vue comme fondamentale. C’est le phénomène de verrouillage asymptotique (« asymptotic safety »), décrit par Steven Weinberg à la fin des années 1970. La structure générale du flot de renormalisation des deux couplages décrits dans les figures précédentes pour différentes valeurs initiales. Le sens des flèches indique le sens de parcours à mesure que l’énergie augmente. Dans le cas générique le couplage non pertinent (axe vertical) diverge à haute énergie tandis que le couplage pertinent tend vers une valeur fixe (axe vert vertical). Dans les cas où le point de départ du flot est sur la ligne verte inclinée, le flot du couplage non pertinent est verrouillé à celui du couplage pertinent et ne diverge pas. Cette relation de verrouillage sélectionne la théorie fondamentale sousjacente, qui correspond ici au choix g=0 pour le couplage fondamental à quatre quarks.

ÉLÉMENTAÍRE


Qu’est-ce qu’une théorie fondamentale ? Demander à une théorie d’être fondamentale au sens technique s’avère donc un outil de sélection efficace. Cela permet de fixer les valeurs d’une infinité de couplages encore permis par les symétries. Les seuls paramètres libres – à déterminer expérimentalement – sont les couplages pertinents. Si ceux-ci sont en nombre fini, la théorie est de plus prédictive, et donc testable : à partir d’un nombre fini de mesures qui permettent de fixer les valeurs des paramètres libres, on peut calculer les valeurs attendues de diverses observables physiques et les comparer aux mesures.

© Delphi CERN

Liberté (asymptotique) et fondamentalisme : l’exemple des interactions fortes Un exemple est fourni par la chromodynamique quantique, la théorie des interactions fortes. Dans ce cas, la seule constante de couplage pertinente est celle qui caractérise l’interaction entre gluons ou entre quarks et gluons. Cette constante, notée as, tend vers zéro à très haute énergie (c’est le phénomène de « liberté asymptotique » décrit dans Élémentaire 4). En général, tous les autres couplages permis par les symétries, divergent à haute énergie. Cependant il existe une relation particulière – de « verrouillage » – entre chacun de ces couplages et as qui, si elle est satisfaite, empêche ces divergences. Parmi l’infinité de théories possibles respectant les symétries des interactions fortes, il n’existe qu’une seule classe, appelée classe des théories de Yang-Mills et caractérisée par un unique paramètre, as, qui se comporte correctement à très haute énergie ! Il suffit de mesurer as à une énergie donnée pour définir complètement la théorie. Reste ensuite à déterminer les autres couplages et à vérifier l'accord entre théorie et expérience...

Au LEP (ici les résultats de l'expérience DELPHI), on a mesuré de nombreux processus faisant intervenir l'interaction forte, comme la production de jets de particules engendrés par des quarks et des gluons énergétiques. Cette figure montre deux quantités (CA/CF et TR/CF) décrivant la structure mathématique de la théorie des interactions fortes, et résume les valeurs attendues pour différents candidats (appelés SU(N), SO(N), Sp(2N), ou encore En). La combinaison des différentes contraintes expérimentales (bandes colorées et ellipse bleue en pointillés) correspond à l'ellipse rouge, en excellent accord avec les valeurs correspondant à QCD (étoile). En particulier, on vérifie que le nombre de couleurs est Nc=3.

Les mesures existantes montrent que les constantes de couplages non pertinentes sont, à la précision expérimentale près, dans la bonne relation avec la constante as, ce qui indique que QCD est non seulement une théorie bien définie à toutes les échelles, mais elle semble aussi être la bonne théorie physique décrivant les interactions fortes, au moins aux énergies atteintes à ce jour.

ÉLÉMENTAÍRE

page 77

Encore une fois, il faut garder en tête la distinction entre le fait qu’une théorie soit bien définie et le fait qu’elle ait un quelconque rapport avec la physique. On sait par exemple que toutes les théories de Yang-Mills, qui se distinguent les unes des autres par le nombre Nc de couleurs (voir Élémentaire 4), sont toutes fondamentales au sens technique, mais seule l’une d’entre elles décrit les interactions fortes observées dans la Nature : celle pour laquelle Nc=3. De plus, même si QCD semble être la bonne description aux échelles atteintes en accélérateurs, on s’attend à ce qu’elle ne fournisse pas une description physique satisfaisante de phénomènes à des énergies approchant l’énergie de Planck par exemple, où des effets gravitationnels devraient se manifester (voir Élémentaire 7).


Qu’est-ce qu’une théorie fondamentale ? Et la gravitation dans tout ça ?

© NobelPrize

QCD et, plus généralement, les théories de Yang-Mills constituent un exemple de théories fondamentales. Elles ont la propriété intéressante de liberté asymptotique qui fait que le seul couplage pertinent est en fait petit à haute énergie, ce qui permet un contrôle mathématique précis de la théorie. En particulier, dans le cas où les couplages pertinents sont petits, on peut établir une recette simple pour classer les couplages pertinents et non pertinents et donc savoir si une théorie donnée est fondamentale sans avoir à calculer explicitement le flot de renormalisation. Cependant, si on applique cette recette à la relativité générale d’Einstein, qui décrit la gravitation, on s’aperçoit que tous les couplages pertinents sont interdits par les symétries de la théorie. Les seules interactions autorisées correspondent à des couplages non pertinents ! C’est ce qui rend la gravité si particulière par rapport aux autres interactions : on ne sait pas donner un sens à une théorie quantique de la gravitation en utilisant la recette simple décrite plus haut pour identifier les couplages pertinents et les couplages non-pertinents quand les premiers restent petits à toute énergie.

Né en 1933 à New York, Steven Weinberg est un physicien théoricien américain. Après une thèse à Princeton, il a travaillé dans diverses universités américaines (Columbia, Berkeley, Harvard, MIT...) sur de nombreux aspects de la physique des particules, la théorie quantique des champs et la cosmologie. Il a en particulier participé à l'unification des interactions électromagnétique et faibles avec Abdus Salam et Sheldon Glashow, ce qui leur a valu le prix Nobel de physique en 1979. Il a également proposé l'idée que toutes les théories quantiques des champs (y compris le Modèle Standard) sont des théories effectives reflétant les propriétés de basse énergie de théories sous-jacentes valides à des énergies plus élevées. Cette vision "moderne" des théories quantiques des champs a permis de mieux comprendre les critères utilisés jusque-là pour sélectionner les interactions physiques.

Mais attention ! Cela ne signifie pas que la théorie recherchée n’existe pas. Mais on a besoin d’outils théoriques différents pour étudier la question et séparer couplages pertinents et non-pertinents. En effet, étant donné que seuls les couplages non pertinents sont présents aux échelles d’énergie où la théorie est bien testée et que ces derniers augmentent fortement avec l’énergie, les méthodes théoriques basées sur des couplages faibles ne s’appliquent plus et on perd le contrôle. Le calcul du flot de renormalisation devient particulièrement ardu et requiert des outils théoriques adaptés.

page 78

De tels outils existent mais sont difficiles à mettre en œuvre dans le cas de la gravitation. D’importants progrès ont été réalisés dans ce domaine ces dernières années et les physiciens qui travaillent sur ce sujet ont mis en évidence le fait que le flot de renormalisation de la théorie de la relativité générale semble présenter la propriété de verrouillage asymptotique. Si cela se confirmait, nous aurions une théorie quantique de la gravitation valable à toutes les échelles, ne faisant intervenir aucune nouvelle physique ! Resterait la question de savoir si cette théorie, bien que fondamentale au sens technique, décrit effectivement les phénomènes de gravité quantique hors de portée des expériences actuelles…

ÉLÉMENTAÍRE


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro1

Revue d’information scientifique

De l’atome...

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 2

Revue d’information scientifique

Le neutron

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Les rayons

Numéro 3

Revue d’information scientifique

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 4

Revue d’information scientifique

La couleur...

Solstice d’été 2006

cosmiques

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 5

Revue d’information scientifique

Les neutrinos

Solstice d’hiver 2006

e-

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 7

Revue d’information scientifique

Solstice d’été 2009

Quand l’Univers...

...fait boum !

n

u

u

d

u p

De l’infiniment petit à l’infiniment grand

Numéro 6

Revue d’information scientifique

Le Modèle

Standard

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 8

Revue d’information scientifique

En route pour...

Équinoxe d'automne 2010

...des particules

Équinoxe d’été 2007

νe W

d d

ÉLÉMENTAÍRE Équinoxe de printemps 2008

...au noyau

Équinoxe d’automne 2005

Équinoxe du Printemps 2005

. . ?.. 7 !! ro.. ue p 6 mé rev ir nu tte .. vo ier i ce er? em quo tact r P ur on Po us c No

... l'au-delà

ts an u u t i nst ière, d o c t s de la ma méro a u m e ora ires d nier n n r a pa Le ment au de ! élé mier taire n pre léme d'É



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.