N2_

Page 1

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 2

Revue d’information scientifique

Équinoxe d’automne 2005

Le neutron


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Ce second numéro d’Élémentaire est consacré au neutron. Initialement, ce n’était pas prévu, mais le gaillard s’est imposé à nous. En effet comment ignorer un peu plus de la moitié de la matière qui nous entoure ?

© M.-H. Schune

En outre, le neutron a des propriétés un peu à part dans le zoo des particules. Il se comporte comme le rat-taupe africain qui ne peut vivre que sous terre : en effet il a une vie stable et tranquille au sein de certains noyaux atomiques, mais il disparaît, en moins de quinze minutes, dès qu’il en sort. De fait, dès qu’il est libre le neutron est dangereux… et furtif. Nous débutons donc ce numéro par son portrait robot afin de faire sa connaissance. Comme son nom l’indique, le neutron est… neutre, ce qui lui permet de passer presque inaperçu, la plupart des détecteurs n’étant sensibles qu’au passage des particules chargées. Sa découverte a ainsi été marquée par quelques péripéties durant lesquelles les Joliot-Curie se sont fait griller la politesse par un physicien anglais (voir la rubrique « Histoire »). Aujourd’hui on en sait beaucoup plus sur le neutron : ainsi, on peut mesurer sa durée de vie à l’état libre. Si elle eut été plus courte (ou plus longue) la face de l’Univers en eut été changée (rubrique « Expérience »). Dans la rubrique « Détection » nous expliquons aussi comment on mesure l’énergie des neutrons. Ces méthodes ont été développées car le neutron n’a pas de charge électrique. Ceci nous a ainsi conduit à nous interroger sur ce que l’on appelle une « particule neutre »… Percevant votre perplexité nous vous donnons ici la réponse : une particule « neutre » n’existe pas mais ce n’est pas une raison pour sauter la rubrique correspondante !

Dans ce second numéro nous avons également poursuivi nos réflexions sur la nature des constituants fondamentaux de la nature : ondes ou particules ? L’aspect ondulatoire du neutron en fait une sonde particulière de la matière. Ces propriétés, ainsi que la sensibilité magnétique des neutrons, sont utilisées dans d’importants centres de recherche disposant de sources intenses de neutrons. Dans la rubrique « Centre de recherche » nous parlons ainsi de l’Institut LaueLangevin, où sont menées ces études. Son directeur adjoint Christian Vettier nous a accordé un entretien. Autres lieux où les neutrons sont rois : les étoiles à neutrons. La vie et le destin de ces mondes horrifiques pour l’homme sont parcourus dans la rubrique « Découverte ». Nous n’avons pas oublié que les neutrons sont aussi des fourmis besogneuses au cœur des centrales nucléaires. Les physiciens savent les produire, les ralentir et contrôler leur population pour générer de l’énergie. Les neutrons peuvent aussi combattre des cancers récalcitrants comme nous l’évoquons dans la rubrique « Retombées ».

Vous retrouverez également nos autres rubriques récurrentes dans ce numéro. Ainsi, nous présentons les premiers modèles d’accélérateurs linéaires et circulaires construits dans les années 30 et dont les lointains descendants sont les constituants de base des complexes accélérateurs d’aujourd’hui. Nous suivons toujours de près l’actualité du LHC et nous nous intéressons plus particulièrement à ATLAS, l’une des expériences majeures actuellement en cours d’assemblage. Nous revenons également sur la vraie fausse découverte des « pentaquarks ». La rubrique « Analyse » qui introduit les notions « d’incertitude de mesure » et de « découverte » vous permettra de mettre en perspective cette saga dont les soubresauts agitent notre communauté depuis plus de deux ans. Bonne lecture !

Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex Tél. : 0164468522 - Fax : 01 69 07 15 26. Directeur de la publication : Patrick Roudeau Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, F. Fulda-Quenzer, M.-P. Gacoin, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.-H. Schune, J. Serreau, A. Stocchi. Illustrations graphiques : S. Castelli, B. Mazoyer. Maquette : H. Kérec. Ont participé à ce numéro : S. David, A.-I. Etienvre, D. Froidevaux,O. Méplan. Remerciements : nos nombreux relecteurs.` Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/ Prix de l’abonnement : 6 euros pour 2 numéros (par site internet ou par courrier) Imprimeur : Imprimerie Atomegraphic, Igny. Numéro ISSN : 1774-4563


Apéritif p. 4 Carte d’identité du neutron

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Histoire

Accélérateurs p. 33 Les débuts des accélérateurs linéaires et circulaires

p. 5 La découverte du neutron

Découvertes p. 39

Des neutrons dans les étoiles

Interview p. 9 Christian Vettier

Théorie p. 44

Ondes et particules (2)

Centre de recherche p. 12 Institut Laue Langevin

Expérience p. 16

La durée de vie des neutrons

La question qui tue p. 51

Le neutron est-il « neutre » ?

Énergie nucléaire p. 54 Un réacteur nucléaire, comment ça marche ?

Détection p. 22

Mesurer l’énergie des neutrons

Le LHC p. 58

ATLAS

Retombées p. 25 La neutronthérapie

ICPACKOI p. 63

Le penta...couac ! Conférences d’été

Analyse p. 28

La distribution gaussienne

Pour en savoir plus p. 67


Apéritif Carte d’identité du neutron M T C

asse : 1,68 10-27 kg, soit environ le douzième de la masse d’un atome de carbone.

aille : un millionième de milliardième de mètre (soit 10-15 m). Le neutron est cent mille fois plus petit qu’un atome.

q

harge électrique : 0 ! Comme son nom l’indique, le neutron est neutre bien que composé de quarks chargés électriquement (deux quarks d de charge -1/3 et un quark u de charge +2/3).

© B. Mazoyer

q

d

S D

pin : 1⁄2. Ce nombre décrit le comportement du neutron dans un champ magnétique, comportement similaire à celui d’un aimant minuscule.

d

ate de naissance : un dix milliardième de seconde (soit 10-10 s) après le Big-Bang. Il existe donc des neutrons depuis (presque) toujours ! Mais il s’en crée aussi tous les jours (voir plus bas rubrique «Autres domiciles»).

u

P R

remière observation : en 1932 à Cambridge par James Chadwick, ce qui lui vaudra le prix Nobel de physique en 1935.

Portrait robot du neutron (en jaune le quark u et en orange les quarks d). Les petits ressorts représentent les gluons, responsables de la cohésion des quarks au sein du noyau. Les gluons peuvent interagir avec les quarks et aussi entre eux. Nous avons également représenté l’apparition d’une paire quarkantiquark, dite virtuelle, parmi celles qui se créent en permanence, pendant un temps très bref, au sein du neutron.

e-

W

d

n

u

A

utres domiciles : parfois, on trouve aussi des neutrons isolés dans : - l’atmosphère, où ils sont créés lorsque les atomes présents dans l’air sont heurtés par des rayons cosmiques (des particules énergétiques provenant de l’espace), - les matériaux radioactifs naturels et les réacteurs de centrales nucléaires, qui émettent des neutrons au cours de réactions de fission. Essentiels au fonctionnement des centrales nucléaires, les neutrons restent alors confinés dans le cœur du réacteur.

D

urée de vie : en moyenne quinze minutes environ quand le neutron est seul, à l’état libre. Dans la matière nucléaire, les neutrons sont liés aux protons par l’interaction forte, ce qui les stabilise : leur désintégration est alors ralentie (dans les noyaux radioactifs), voire interdite (dans les noyaux stables).

νe u

P

lus proche parent : le proton, auquel le neutron ressemble énormément par la taille et le poids. Les deux frères se distinguent par leur charge électrique (le proton est chargé positivement), leur constitution en quarks (le proton est formé d’un quark d et de deux quarks u, le neutron d’un quark u et de deux quarks d), et leur durée de vie (on n’a encore jamais vu de proton se désintégrer).

d

u

M

otif de disparition : la désintégration β. Le neutron se désintègre en proton en émettant un électron et un antineutrino. La force faible est responsable de cette désintégration, durant laquelle un quark d du neutron devient un quark u.

p

S

igne particulier : Docteur Jekyll et Mr Hyde de la physique des particules. En compagnie de protons et d’autres neutrons, il mène une vie paisible au sein des noyaux atomiques. En revanche, une fois mis en liberté, le neutron isolé peut se révéler dangereux pendant sa courte existence. Il sait tromper notre vigilance, car sa neutralité électrique le rend difficile à détecter. Il n’est pas pour autant inoffensif : il interagit avec la matière et peut donc causer des dégâts importants chez les êtres vivants.

Représentation schématique de la désintégration bêta d’un neutron.

page 4

© B. Mazoyer

d

ésidence principale : la matière nucléaire. On trouve les neutrons en particulier dans les noyaux atomiques où ils cohabitent avec des protons, et dans les étoiles à neutrons où ils sont très fortement majoritaires.

ÉLÉMENTAÍRE


Histoire reproduit avec l’autorisation des Master and Fellows du Gonville and Caïus College, Cambridge

La découverte du neutron L’année 1932 est une année faste pour la physique ; une suite impressionnante de découvertes la jalonne : le neutron, le deutérium, le positron, la radioactivité artificielle. Une théorie complète du rayonnement bêta vient cette même année compléter le palmarès expérimental. La découverte du neutron, par James Chadwick, au Laboratoire Cavendish de Cambridge, inaugure la série en janvier. Derrière la précision de cette date se cache cependant un cheminement sinueux, au long des années 20, dans une atmosphère fébrile de découvertes et d’élaborations théoriques intenses.

La théorie du noyau en 1930

James Chadwick

En 1930, on se représentait un atome comme constitué d’un noyau très petit, entouré d’électrons (voir Élémentaire n°1). Au-delà de ce fait acquis, la théorie du noyau restait très confuse. L’idée la plus généralement acceptée était que ce dernier contenait des protons et des électrons en nombre tel que la neutralité électrique de l’ensemble de l’atome, en tenant compte aussi des électrons qui entourent le noyau, soit assurée. Mais l’arrangement interne des corpuscules composant le noyau restait une question ouverte. En 1920 Ernest Rutherford, avait émis l’idée qu’un électron puisse se lier à un proton pour former « une sorte de doublet neutre ». En cette hypothèse il était permis de supposer qu’une telle structure fût présente dans le noyau. Les disciples de Rutherford avaient désigné cet état lié, proton-électron, du nom de « neutron » (ce qui ne correspond plus à la conception actuelle du neutron). Cette idée resta importante dans l’école anglaise et en particulier chez Chadwick, mais ne rencontra pas un très large écho sur le continent. Rutherford, et quelques autres, cherchèrent à produire les fameux doublets par tous les moyens avouables (décharges électriques provoquées dans l’hydrogène, jets d’électrons, champs magnétiques) ou inavouables (relevant presque de l’alchimie, comme le déclara Chadwick lui-même). En vain.

James Chadwick (1891-1974) est élève de E. Rutherford. En 1914, il découvre le caractère continu du spectre en énergie des électrons émis par le rayonnement bêta. Lors d’un séjour dans le laboratoire de H. Geiger à Berlin, il est surpris par la déclaration de guerre et contraint de rester dans la capitale allemande pendant quatre ans. Il est interné dans un camp de prisonniers civils. Il y poursuit des recherches et correspond avec Rutherford. Après la fin de la guerre, en 1919, il est nommé professeur à Cambridge (Gonville and Caius College), poste qu’il occupera jusqu’en 1935. Il rejoint Rutherford et travaille avec ce dernier à des expériences de transmutation par rayons alpha et étudie les propriétés et la structure du noyau atomique. Il est nommé sous-directeur du Laboratoire Cavendish en 1923. Il y découvre l’effet photoélectrique nucléaire (indépendamment de Maurice de Broglie). C’est en 1932 qu’il démontre l’existence du neutron. Il est alors membre de la Royal Society depuis 1927. En 1935, année où il reçoit le prix Nobel, il accepte un poste de professeur à Liverpool où il installe le premier cyclotron anglais. Pendant la seconde guerre mondiale, il dirige la délégation britannique qui participe au projet Manhattan à Los Alamos (USA), pour développer la bombe atomique.

Un rayonnement pénétrant

ÉLÉMENTAÍRE

page 5

À vrai dire, en 1931, dans l’agitation ambiante, on ne pense plus tellement à l’hypothèse du neutron. Mais on fait beaucoup d’expériences de transmutation de noyaux à l’aide de rayonnement alpha. C’est alors que le physicien allemand Walther Bothe (1891-1957, prix Nobel de physique 1954) et un étudiant, Herbert Becker, détectent, en bombardant du béryllium à l’aide du rayonnement alpha (voir Elémentaire no1, article « Radioactivité »), la production d’un rayonnement neutre pénétrant, qui ne se laisse pas arrêter par quelques centimètres de gaz. Il est naturel d’admettre qu’il s’agit de rayons gamma énergiques, bien que les conditions de leur production soient assez mystérieuses et que les résultats expérimentaux ne se laissent pas interpréter de manière


La découverte du neutron immédiatement convaincante. C’est probablement en décembre 1931 que Frédéric Joliot et Irène Curie entreprennent des expériences sur ces rayonnements.

DR

L’atout des Joliot-Curie est un accès aisé à de bonnes sources de rayons alpha (notamment la source de polonium la plus intense du monde à l’époque) allié à un savoir-faire éprouvé. Ils sont experts dans l’utilisation d’une chambre à ionisation reliée à un électromètre Hoffmann (du nom de son inventeur).

Irène et Frédéric Joliot-Curie dans leur laboratoire.

Les premières expériences des Joliot-Curie

Leurs premières expériences sont décrites dans l’encadré ci-contre. Sous l’effet de rayons alpha, certains éléments, tel le béryllium, émettent un « rayonnement pénétrant » qui ressemble au rayonnement gamma, mais avec une énergie qu’on n’a jamais observée jusqueSource là. Cette énergie, mesurée par une méthode d’absorption P cibles dans le plomb, est de l’ordre de 15 à 20 MeV. Frédéric B B Joliot et Irène Curie attribuent ces rayons à un processus Écran dit « d’agrégation », proposé par Bothe. Mais cette interprétation repose essentiellement sur des tension extrapolations et les Joliot-Curie souhaitent l’éprouver par de nouvelles expériences. Certaines substances sont connues pour émettre des protons, par transmutation nucléaire, quand on les bombarde avec des rayons gamma «ordinaires». Une idée est donc de soumettre ces Sol substances aux rayons «gamma» pénétrants et d’analyser les protons produits. La surprise fut que seules les substances contenant Électromètre Hoffmann de l’hydrogène (dont le noyau est en fait un proton), comme la paraffine, donnaient lieu à une détection de protons. Après différents tests, les Joliot-Curie acquirent la conviction que les protons détectés ne provenaient pas d’une transmutation nucléaire mais qu’ils étaient éjectés de la cible par la radiation pénétrante. Les deux physiciens expliquèrent le phénomène par un processus nouveau, analogue au phénomène de diffusion Compton : une diffusion des fameux rayons « gamma » pénétrants par les protons de la cible, qui en étaient alors éjectés par effet de recul. Ils laissèrent en suspens une interprétation définitive et conclurent par ce résultat : « il paraît donc établi par ces expériences qu’un rayonnement électromagnétique de haute fréquence [donc de haute énergie] est capable de libérer, dans les corps hydrogénés, des protons animés d’une grande vitesse. » La suite montrera que la conclusion est erronée du simple fait qu’en réalité ce n’est pas de rayonnement électromagnétique qu’il s’agit. Néanmoins un grand pas est franchi vers la bonne interprétation grâce à l’affirmation capitale de la présence de ce que nous appelons aujourd’hui des protons de recul. o

Bo

Le dispositif décrit dans l’article original des Joliot-Curie, est représenté sur la figure ci-contre. Les rayons alpha émis par la source de polonium (haut de la figure) bombardent une cible (bore, béryllium ou lithium). Le rayonnement produit, après avoir traversé un écran de plomb, pénètre dans une enceinte sous tension et ionise l’air qu’elle contient. Les ions produits sont collectés par une électrode centrale reliée à l’électromètre Hoffmann. En variant l’épaisseur de l’écran et en mesurant les variations correspondantes du courant induit dans l’électromètre, les Joliot-Curie en déduisent l’énergie des rayonnements. En effet, plus le rayonnement est énergique, plus l’épaisseur de l’écran de plomb doit être importante pour obtenir le même courant induit. On dispose par ailleurs de courbes donnant l’absorption de rayons gamma en fonction de l’énergie des gammas incidents ; en comparant avec ces données les absorptions déduites du courant induit mesuré, on remonte aux énergies. Les résultats les plus spectaculaires sont obtenus avec une cible de béryllium : une énergie de rayons émis de l’ordre de 15 à 20 MeV. Les Joliot-Curie concluent ce premier groupe d’expériences en attribuant ces rayons à un processus « d’agrégation » (fusion) proposé par Bothe, qui s’écrirait dans le cas du béryllium :

e

i

He + 49Be —> 613C + γ page 6

4 2

ÉLÉMENTAÍRE


La découverte du neutron Le rayonnement pénétrant traverse la Manche À Cambridge, ces résultats produisirent un grand remue-ménage. Chadwick, qui a toujours l’idée du neutron derrière la tête, se précipite sur ses appareils pour refaire l’expérience. Par chance il dispose d’une source composée de béryllium et de polonium, qui vient tout juste d’arriver des États-Unis. Grâce à l’amplificateur dont est munie sa chambre à ionisation (mais dont ne disposaient pas les Joliot-Curie), il peut faire des mesures précises. Celle des reculs de noyaux d’azote le convainc que les rayons «gamma» supposés par les Joliot-Curie n’ont pas une énergie suffisante pour produire un « effet Compton ». En effet l’application des lois de conservation de l’énergie et de l’impulsion dans ce type de réaction exigerait que le rayon gamma incident eût une énergie supérieure à 50 MeV, alors que le processus de production de ces rayons (à la Bothe) supposé par les Joliot-Curie ne peut leur communiquer qu’une énergie de 14 MeV (toujours pour des raisons de conservation). Ainsi, les protons de recul ne peuvent pas être produits par des rayons gamma

Schéma du dispositif de Chadwick.

L’effet Compton On appelle diffusion Compton un processus qui se produit entre un photon et un électron, dans des conditions telles qu’on peut le décrire comme un choc élastique entre deux corpuscules classiques. Ici, les Joliot-Curie remplacent l’électron par un proton.

ÉLÉMENTAÍRE

page 7

DR

Irène (1897-1956) est la fille de Pierre et Marie Curie. Son père étant mort accidentellement quand elle avait neuf ans, elle est élevée par sa mère. Elle est élève d’une école «élémentaire» animée par Marie Curie et quelques autres savants et intellectuels à l’intention de leurs propres enfants. Marie y est chargée de l’enseignement de science. Entrée comme préparatrice dans le laboratoire de sa mère, Irène présente, en 1925, une thèse sur les particules alpha émises par le polonium. Frédéric Joliot (1900-1958), a été recommandé à Marie Curie par son ami Paul Langevin, pour son habileté technique. Il est embauché au laboratoire Curie pour préparer une source extrêmement active de polonium, puis pour construire une chambre à brouillard (chambre de Wilson). Il épouse Irène en 1927 et présente en 1930 un travail de thèse sur l’électrochimie du polonium. Irène Joliot-Curie travaille avec Frédéric jusqu’en 1935. Ils découvrent ensemble, en 1934, la radioactivité artificielle, travail pour lequel ils obtiennent le prix Nobel de chimie l’année suivante. En 1936, Irène est pendant quelques mois sous-secrétaire d’état à la recherche dans le gouvernement du Front populaire de Léon Blum. Elle est nommée professeur en Sorbonne en 1937. En cette même année, Frédéric Joliot est nommé professeur au Collège de France. Il y entreprend la construction du premier cyclotron européen. En 1939-40, avec L. Kowarski et H. von Halban, il montre que la fission de l’uranium libère plusieurs neutrons, ce qui rend possible des réactions en chaîne et la production d’énergie. Des brevets secrets sont déposés. Sous la menace de l’invasion allemande, les documents et les matériaux sensibles sont transportés en Grande-Bretagne. Sous l’occupation, un groupe de scientifiques allemands est « accueilli » au laboratoire du Collège de France que Joliot continue à diriger, sous la « protection » relative d’un collègue allemand, le physicien W. Gentner. Parallèlement, il devient président du mouvement de résistance clandestin « Front national de lutte pour la libération de la France » et adhère au parti communiste. À la libération, il est nommé directeur du Centre national de la recherche scientifique (CNRS) puis, en janvier 1946, haut-commissaire à l’énergie atomique (CEA). Il dirige la construction de la première pile atomique française ZOE, à laquelle participe Irène, elle-même commissaire à l’énergie atomique. Il est à l’origine en 1950 du célèbre « Appel de Stockholm » contre la bombe atomique et est révoqué de son poste de haut-commissaire. Irène Joliot-Curie est devenue, en 1946, directrice de l’Institut du radium. Elle lance le projet de construction de l’Institut de physique nucléaire d’Orsay mais meurt d’une leucémie en 1956. Frédéric succède à son épouse à la chaire de Physique nucléaire et radioactivité de la Faculté des sciences de Paris et se consacre à la réalisation du projet d’Irène à Orsay. Il meurt le 14 août 1958. Des obsèques nationales furent célébrées à la Sorbonne.

DR

Irène et Frédéric Joliot-Curie


La découverte du neutron mais bien plutôt par des objets massifs : « Ces résultats (..) sont très difficiles à expliquer dans l’hypothèse où la radiation sortant du béryllium est un quantum de radiation [rayon gamma], produit dans une collision conservant énergie et impulsion [le processus d’agrégation de Bothe]. Les difficultés disparaissent cependant si l’on suppose que la radiation est formée de particules de masse 1 et de charge 0, c’est-à-dire de neutrons. On peut supposer que la capture de la particule α par le noyau 9Be donne lieu à la formation d’un noyau 12C et à l’émission d’un neutron. » (lettre de Chadwick du 17 février 1932, publiée le 27 février dans la revue Nature). En 1935, il recevra le prix Nobel de physique. © The Nobel Foundation

Pourquoi les Joliot-Curie ont-ils manqué le neutron ?

© The Nobel Foundation

Avant la publication du résultat de Chadwick, les Joliot-Curie qui avaient refait des expériences avec d’autres appareillages (chambre de Wilson) en étaient arrivés à la conviction d’avoir mis en évidence une propriété nouvelle des rayons gamma énergiques. Pourquoi n’ont-ils pas « vu » le neutron ? Il est assez difficile de le déterminer de manière décisive. Tout d’abord, l’idée de neutron était dans l’air à Cambridge alors qu’elle était, semble-t-il, tombée dans l’oubli à Paris. Ensuite, le monde des Joliot est celui des noyaux, des rayons alpha, bêta, gamma ; leur domaine est l’étude des gammas produits par transmutation. Cela constituait un environnement de laboratoire qui ne les mettait pas en condition psychologique pour « inventer » une nouvelle particule. Enfin, on évoquait, à cette époque, des idées essentiellement dues à Bohr, selon lesquelles la loi de conservation de l’énergie ne serait valable que statistiquement sans être nécessairement vérifiée dans chaque processus individuel. Or, c’est bien cette loi, appliquée strictement, qui, pour Chadwick, rendit nécessaire l’existence du neutron. Les Joliot-Curie ont pu se laisser influencer par ce genre de conceptions et manquer ainsi la découverte. Ce n’est que partie remise, car, ils seront les auteurs incontestés de la découverte de la radioactivité artificielle en 1934, qui leur vaudra le prix Nobel de chimie en 1935, la même année que Chadwick pour la physique !

Soixante dix ans après sa découverte le neutron reste toujours d’actua-lité ! En 1994, Clifford G. Shull et Bertram N. Brockhouse ont reçu le prix Nobel de physique pour leur contribution au développement des techniques de diffusion de neutrons pour les recherches en physique de la matière condensée (voir rubrique «Centre»).

page 8

Observation d’une trajectoire de proton de recul dans une chambre de Wilson par les Joliot-Curie. On observe la cible de paraffine en bas de la photo. La source de poloniumbéryllium est placée à l’extérieur de la chambre.

ÉLÉMENTAÍRE


L’interview Christian Vettier C. Vettier est directeur adjoint de l’ILL (Grenoble). Jusqu’en 1999, il était chef de groupe à l’ESRF où il a mis sur pied le groupe de Diffraction Magnétique. Pendant les années 1980, C. Vettier avait la responsabililité d’instruments dans le groupe de spectrométrie neutronique à l’ILL. Il a vécu longtemps aux États-Unis où il travailla dans les laboratoires de AT&T Bell, au High Flux Brookhaven Reactor et au National Synchrotron Light Source à Brookhaven puis au synchrotron de Cornell University.

Pourquoi avez-vous fait de la recherche ? C’est une question difficile ! Un peu par hasard ! En fait, je sortais de classe préparatoire, nous étions en 1968, juste avant les Jeux Olympiques et je ne connaissais pas la montagne… Je suis donc allé à Grenoble et j’ai profité de l’ouverture d’une nouvelle école de génie physique pour me rapprocher de la physique. J’y ai donc appris cette discipline, en parallèle d’un cursus à l’Université. De cette première promotion de l’école d’ingénieurs, peu sont allés vers la recherche, quelques-uns ont fait une thèse. La majorité de ces étudiants est partie travailler dans le monde industriel. Pourtant, beaucoup de centres de recherche étaient et sont toujours spécialisés en physique à Grenoble. L’idée de faire de la recherche me faisait rêver. Je me suis donc orienté vers une carrière de chercheur en physique.

Pour vous qu’est-ce qu’une particule ?

Quels sont les professionnelle ?

aspects

marquants

de

votre

© H. K.

Pour moi une particule c’est une onde ! J’utilise les particules, au travers de la diffraction, de la diffusion. Très simplement, je dirais qu’une particule est un objet fondamental : les particules s’assemblent et se mélangent pour former des éléments plus complexes.

vie

Christian Vettier lors de son interview au Laboratoire de l’Accélérateur Linéaire d’Orsay.

ÉLÉMENTAÍRE

page 9

Sans aucun doute les rencontres que j’ai eu la chance de faire. Dans ma carrière, j’ai vraiment côtoyé des gens impressionnants tant pour leurs capacités intellectuelles, leur compréhension des phénomènes physiques, que pour leur vision à long terme… Ce type de personnes devrait jouer un rôle plus important au niveau des choix de société. La recherche donne la possibilité de se consacrer à un sujet, de mettre à jour des finesses, des subtilités remarquables mais avec modestie et détachement. La science que l’on fait en ce moment-même est basée sur le travail réalisé par des individus et des équipes formés il y a 30 ans. Les orientations actuelles perdent de vue cet aspect fondamental du long terme et c’est dommage. J’ai bénéficié de travaux remarquables qui sont passés inaperçus. Publier le résultat de ses travaux est fondamental, c’est le but de la recherche académique : faire savoir aux autres. Mais j’aimerais lier plus fortement science et société. Beaucoup le disent et je m’y associe : il y a une coupure profonde entre la recherche, le public et les décideurs. Cette coupure est un gros risque pour l’avenir, et ce qui s’est passé au printemps 2004 entre les chercheurs et le monde politique ainsi que la tenue des États Généraux de la Recherche en témoignent...


Christian Vettier Avez-vous des regrets ? Rayons X Les rayons X sont un rayonnement de type électromagnétique dont la longueur d’onde est comprise entre 0,001 nm et 10 nm. À titre de comparaison, la lumière visible est elle aussi un rayonnement électromagnétique mais sa longueur d’onde est de l’ordre de 400 nm à 750 nm. Le pouvoir de résolution étant inversement proportionnel à la longueur d’onde, celui des rayons X est donc bien supérieur à celui de la lumière visible. Ils permettent donc de «voir» des objets beaucoup plus petits.

Peut-être que tout scientifique regrette de ne pas avoir le prix Nobel ! Mais, au fond, je n’ai pas vraiment de regrets. Il faut accepter de n’être pas capable de tout, accepter ses limites comme ses propres qualités. C’est ainsi et je n’ai donc pas de regrets.

Pouvez-vous nous parler des mesures faites avec les neutrons à l’Institut Laue-Langevin ? Dans le domaine de la caractérisation fine des propriétés de la matière, les neutrons fournissent des informations spécifiques et sont complémentaires aux rayons X. Les neutrons pénètrent à l’intérieur des matériaux : ils permettent l’étude de gros objets, comme des morceaux de roche, ou de sonder toutes les parties d’un objet. Les neutrons accèdent aux noyaux atomiques et permettent, par la technique de substitution isotopique, de localiser les espèces chimiques d’un matériau, en particulier l’hydrogène. Ils sont donc très efficaces pour étudier les matières organiques, et en particulier les polymères. Ils ont un moment magnétique et se comportent donc comme la plus petite boussole du monde ; cela est fondamental pour comprendre les structures magnétiques des matériaux. Les neutrons sont comme des boules de billard massives : en observant les chocs de ces «boules» avec les noyaux, et les moments magnétiques dans les matériaux, on remonte aux propriétés de ces derniers. Le neutron est une particule intéressante en elle-même : grâce à lui on peut tester les prédictions de la mécanique quantique en présence de la force gravitationnelle. Un puits de potentiel pour le neutron est créé en utilisant la gravité terrestre au-dessus d’un «miroir à neutrons». On vérifie alors que le neutron capturé dans ce puits suit bien les lois de la mécanique quantique. C’est là un aspect de physique fondamentale. Le problème des neutrons est leur faible flux : on ne sait pas encore à la fois en produire beaucoup et les focaliser. Imaginez qu’en 30 ans de fonctionnement de l’ILL à Grenoble et plusieurs milliers d’expériences, nous avons produit en tout et pour tout 3 kilogrammes de neutrons ! Si l’ILL n’a pas encore été surpassé, la nouvelle génération de sources sera très différente : les neutrons seront fournis par impulsions brèves mais très intenses, par collision de particules chargées sur des cibles métalliques (spallation). Cela implique de trouver des solutions technologiques pour refroidir les cibles car la puissance fournie sera d’environ 5 mégawatts (l’équivalent de 5 000 radiateurs !). Cela implique également de profondes modifications dans les méthodes de détection des neutrons et d’analyse des données. Un projet européen est à l’étude, mais de telles sources sont déjà en construction aux USA et au Japon.

© ILL

Substitution isotopique Il s’agit de remplacer un isotope par un autre dans une molécule. Ici on remplace l’hydrogène par du deutérium (un neutron ajouté au noyau d’hydrogène). Ces deux éléments ont des propriétés chimiques similaires mais des interactions fortes différentes (auxquelles sont sensibles les neutrons). Le pouvoir diffusant du matériau n’est pas le même avec et sans cette substitution et l’on peut par comparaison localiser les atomes d’hydrogène dans le matériau étudié.

La diffusion de neutrons à petits angles est utilisée à l’ILL pour étudier la structure de semiconducteurs en silicium. La tache centrale noire représente un volume d’environ 17 x 17 x 3 nm3, bien inférieure à un milliardième de grain de sable.

Que va apporter le LHC ?

page 10

L’humanité a au moins ce devoir : comprendre. Les résultats apportés par le LHC participeront à cette même quête de l’énergie, du temps et de la distance. Bien sûr cela a un coût mais il y a bien d’autres activités humaines beaucoup plus coûteuses et parfois moins bénéfiques !

ÉLÉMENTAÍRE


Christian Vettier Quel est votre rêve de physicien ? J’aimerais rencontrer un groupe de gens capable de faire le lien entre la physique des particules et la physique des matériaux. Ce rêve est illusoire mais si on pousse le raisonnement un peu plus loin, on explique même les phénomènes biologiques… on pourra tout prévoir ! C’est un rêve à ne pas pousser trop loin. Il faut qu’il reste au niveau de la physique. À moins qu’on ne montre qu’il n’y a pas de cause unique. J’aimerais obtenir une partie de la réponse, et étayer cela par des observations.

Que souhaiteriez-vous dire aux jeunes ?

À quelle question auriez-vous aimé répondre ?

ÉLÉMENTAÍRE

page 11

Je n’avais pas d’idée préconçue en venant à cette interview. Je pensais devoir décrire l’ILL. Je n’imagine pas de question. Ah si ! bien sûr... : mais comment le neutron peut-il avoir un moment électrique dipolaire ??? (ndlr : voir rubrique «La question qui tue»)

ESRF

© ILL

Il faut qu’ils restent intéressés par la recherche. C’est un métier passionnant ; certes il y a des hauts et des bas, mais je ne regrette rien. L’exercice intellectuel que cela représente est fondamental. D’un point de vue personnel cela demande d’être ouvert, honnête et passionné. L’honnêteté et la rigueur satisfont à des critères moraux et forment un garde-fou. Celui qui m’a ouvert cette voie est un professeur de physique en classe de seconde, je pense que l’aspect enseignement au niveau du secondaire est important, qu’il y a là un rôle important à jouer. Le côté valorisant de l’activité de recherche est moins important qu’il y a quelques années ; l’argent et le besoin de profit immédiat ont pris trop d’importance. Les salaires des chercheurs ne sont pas raisonnables. Il faudrait un ILL peu plus de motivation de ce côté là pour stimuler les interactions recherche-laboratoires-industries. Que dire aux jeunes ?... Que c’est l’ouverture intellectuelle qui prime. Qu’on est sans doute plus libre en recherche qu’ailleurs. Bien entendu, il faut rendre des comptes et montrer au public ce que l’on fait puisque ce travail de recherche se fait avec de l’argent public. Mais le plus important c’est la remise en cause permanente et l’ouverture d’esprit de la discipline.

L’Institut Laue-Langevin (ILL) et le European Synchrotron Research Facility (ESRF) près de Grenoble.


Centre de recherche Institut Laue-Langevin Le neutron au service de la recherche

© Carte-France

En 1967, la France et l’Allemagne ont fondé l’Institut Laue-Langevin (ILL), situé à Grenoble, dans le but de produire et d’exploiter des faisceaux de neutrons. Après le démarrage du réacteur en 1971, ces deux pays ont été rejoints par le Royaume-Uni en 1973, puis l’Espagne (1987), la Suisse (1988), l’Autriche (1990), la Russie (1996), l’Italie (1997), la République Tchèque (1999), et tout récemment la Suède et la Hongrie (2005). Le budget annuel de l’ILL est d’environ 64 millions d’euros, la contribution française s’élevant à un tiers. L’ILL, qui doit son nom aux physiciens allemand Max von Laue et français Paul Langevin, dispose de la source de neutrons la plus intense au monde et représente donc un instrument unique pour la communauté scientifique internationale. Autour de cette source, l’institut fournit aux chercheurs un parc d’instruments scientifiques très performants pour leur permettre d’utiliser les neutrons dans des domaines aussi variés que la physique de la matière condensée, la chimie, la biologie, la physique nucléaire ou la science des matériaux.

Vue aérienne de l’ILL

page 12

© ILL

© culture.gouv

L’activité de l’ILL en chiffres… Le personnel de l’institut compte environ 450 employés dont 70 chercheurs, une vingtaine de doctorants, plus de 200 techniciens, 60 spécialistes de l’exploitation et de la sûreté de l’installation, et une cinquantaine d’administratifs. L’ILL est co-géré par la France, l’Allemagne et le Royaume-Uni, d’où une composition démographique européenne : 65 % de Français, 12% d’Allemands et 12% de Britanniques… Chaque année, plus de 1500 chercheurs européens séjournent à l’ILL pour participer à pas moins de 750 expériences. Cette grande popularité vient non seulement de la qualité de la source de neutrons mais aussi de la grande quantité de lignes de faisceau sur lesquelles les neutrons produits sont répartis. Grâce à l’astucieuse disposition de ces lignes (voir figure 1), la même source de neutrons peut être exploitée par diverses expériences nécessitant des faisceaux très différents tant en intensité qu’en énergie. Une fois leur projet de recherche sélectionné par un comité scientifique, les chercheurs sont accueillis pour une durée moyenne d’une semaine. Les thèmes d’études sont très variés (sciences des matériaux, physique, chimie ou biomédical) et à caractère majoritairement fondamental.

ÉLÉMENTAÍRE


Institut Laue-Langevin

Max von Laue (1879-1960). Physicien allemand, il a reçu le prix Nobel en 1914 pour la mise en évidence de la diffraction des rayons X par un cristal. Cette découverte a démontré la nature ondulatoire des X, en offrant les premières mesures de leur longueur d’onde et en révélant les arrangements atomiques dans les cristaux. Elle est à l’origine de toutes les méthodes d’analyse par diffraction, à l’aide des neutrons, des rayons X, des électrons ou de la lumière synchrotron (voir la rubrique « Découverte »). figure 1 : vue schématique de l’ILL. Le réacteur à très haut flux de neutrons est représenté par le disque jaune. On voit les différentes lignes de faisceaux, chacune conçue pour une certaine plage d’énergie des neutrons : les lignes de plus haute énergie permettent de sonder la matière jusqu’à des distances de l’ordre de 0,05 nanomètre (elles sont représentées par des lignes rouges), les lignes bleues et vertes ont des énergies plus faibles. Les triangles, losanges et autres formes géométriques symbolisent les différents instruments de mesure.

Que fait-on à l’ILL ? Paul Langevin (1879-1946). Pionnier de l’atome avec Pierre et Marie Curie, il était spécialiste du magnétisme, des ultrasons et de la relativité. Il a consacré quarante ans de sa vie à l’École de Physique et de Chimie de Paris dont il fut le directeur. Ses travaux sur la modération des neutrons rapides (leur ralentissement par collisions avec des noyaux atomiques) ont été déterminants pour réaliser les premiers réacteurs de recherche.

La présence d’une source intense de neutrons (figures 2 et 3), conjuguée à une grande variété d’énergies disponibles (de 10-7 eV à 105 eV), permet d’aborder un vaste éventail de questions. Certaines expériences menées à l’ILL s’intéressent principalement aux propriétés du neutron, tandis que d’autres l’utilisent comme une sonde pour étudier divers systèmes physiques ou biologiques. Citons quelques thèmes de recherche fondamentale :

ÉLÉMENTAÍRE

page 13

◆ Toujours grâce à ces neutrons « ultra-froids », on peut étudier le couplage dipolaire du neutron dans un champ électrique. Cette mesure nous renseigne directement sur certaines propriétés de symétrie des lois de la physique (voir « La question qui tue »). Cet effet est remarquablement faible, et pour l’instant, seules des limites sont obtenues. Dans ce domaine, l’expérience la plus précise à l’heure actuelle a été effectuée à l’ILL.

© ILL

◆ À l’ILL, il est possible de produire des neutrons « ultra-froids », c’està-dire quasiment au repos, ce qui permet notamment de mesurer leur durée de vie. Cette quantité présente deux intérêts différents : elle permet de tester le Modèle Standard des particules élémentaires, et elle joue aussi un rôle important dans la formation des premiers noyaux lors du Big Bang. Ces motivations physiques et certains aspects expérimentaux sont détaillés dans la rubrique « Expérience ».

figure 2 : cœur du réacteur nucléaire de l’ILL.


Institut Laue-Langevin ◆ Les neutrons sont également utilisés pour tester la force gravitationnelle dans le monde microscopique. Une particule quantique soumise à un champ de force voit ses propriétés modifiées. Par exemple, un électron placé dans le champ électromagnétique d’un noyau atomique n’a qu’un choix limité de configurations, ce qui explique la répartition des électrons en couches successives autour du noyau. De manière analogue, on s’attend à ce qu’un champ de gravitation affecte les particules massives en interdisant certains états d’énergie. L’extrême petitesse de la force gravitationnelle rend cette mesure très difficile. © ILL

En matière de recherche appliquée, on trouve à l’ILL de nombreuses expériences d’étude de matériaux. En effet, les neutrons sont des alliés de choix dans l’exploration de la structure de la matière. Comme ils sont électriquement neutres et de petite taille, les neutrons pénètrent relativement facilement dans la matière et peuvent accéder aux noyaux atomiques. De plus, ces neutrons, qui sont dotés d’un spin, sont sensibles aux champs magnétiques qu’ils traversent ; ils peuvent ainsi détecter le mouvement d’atomes et de molécules au sein de la matière. Grâce aux neutrons, on peut ainsi sonder la matière inorganique, même lorsqu’elle est cachée par des parois épaisses et ceci « sans destruction ». On place le matériau à analyser sur le trajet du faisceau de neutrons, qui est alors dévié (on dit que les neutrons sont diffusés). Cette diffusion a trois domaines d’application principaux :

La “Linde Zéolite A” est une des plus importantes zéolites. La zéolite est un composé minéral voisin des argiles qui est utilisé en particulier dans la fabrication des lessives. Par sa structure cristalline et ses propriétés de catalyseur (accélérateur de réactions chimiques), la zéolite peut fixer les ions calcium ou magnésium présents dans l’eau. La zéolite est utilisée à la place des phosphates dont les rejets sont nocifs pour l’environnement. Il y a plus de 700 millions de tonnes de zéolite fabriquées chaque année. Les neutrons de l’ILL sont utilisés pour localiser les atomes légers dans la structure des zéolites, ce qui permet de mieux comprendre les propriétés de ces matériaux en terme de filtrage et de catalyse.

© ILL

figure 3 : hall expérimental autour du réacteur de l’ILL.

page 14

Sans destruction : Les neutrons ionisent indirectement la matière qu’ils traversent, c’est-à-dire qu’ils sont capables d’arracher des électrons aux atomes la constituant. Si cette ionisation n’affecte pas la structure de matériaux inertes (elle ne les détruit donc pas), elle est très destructrice vis-à-vis des molécules organiques et donc de la matière vivante. Pour plus de détails sur l’interaction des neutrons avec la matière, voir la rubrique « Détection ».

❍ Les matériaux. La diffusion des neutrons donne accès à la structure et la dynamique des différents états de la matière (solide, liquide, gaz...). Parmi les expériences menées à l’ILL, on a pu « voir » fonctionner en temps réel un moteur automobile, contrôler l’état des pales des avions après des chocs en vol avec des oiseaux, ou étudier le stockage de l’hydrogène dans les réservoirs de futures voitures fonctionnant sans pétrole. ❍ Le magnétisme. Grâce au spin du neutron, on peut étudier la structure magnétique de divers matériaux, et en particulier les supraconducteurs qui sont capables de conduire un courant électrique sans la moindre perte d’énergie, contrairement aux métaux ordinaires qui s’échauffent par effet Joule. On connaît des matériaux qui montrent de telles propriétés supraconductrices à des températures relativement

ÉLÉMENTAÍRE


Institut Laue-Langevin © Paul Scherrer Institute

«élevées» (autour de 100 K, soit - 173°C), mais on ne comprend pas vraiment pourquoi ! En étudiant la structure magnétique de ces matériaux, on espère en créer de nouveaux, supraconducteurs à température ordinaire. ❍ Les polymères. Ce sont des chaînes moléculaires complexes construites en répétant des motifs simples constitués de quelques atomes. L’ADN et certains plastiques figurent parmi les polymères les plus connus. À l’ILL, des chercheurs ont réussi, par substitution isotopique, à localiser les atomes d’hydrogène qui dessinent la structure de ces polymères ! D’autres s’intéressent à leur évolution dans divers milieux (liquide, verre, plastique), par exemple pour comprendre comment les médicaments parviennent à traverser des membranes biologiques comme la paroi de l’estomac.

Images d’un appareil photo obtenues avec des neutrons (à gauche) qui «voient» les substances hydrogénées dont le plastique, et avec des rayons X (à droite) qui sont arrêtés par les métaux. Ceci illustre la complémentarité de ces deux techniques d’investigation.

Ainsi, les neutrons se sont avérés des alliés incomparables dans de nombreux domaines scientifiques. Pas étonnant que depuis trente ans, le nombre d’expériences proposées à l’ILL n’ait jamais faibli !

ÉLÉMENTAÍRE

page 15

Les neutrons utilisés à l’ILL sont issus de la fission de noyaux d’uranium 235, situés au cœur d’un réacteur dont la puissance maximale est voisine d’une soixantaine de mégawatts. Ces neutrons sont ralentis dans un réservoir d’eau lourde entourant le cœur afin que leur énergie soit adaptée aux études envisagées. Outre l’ILL, la France possède une autre installation, le Laboratoire Léon Brillouin (CEASaclay), à laquelle elle consacre un budget similaire. Ce centre fonctionne avec le réacteur nucléaire Orphée dont la puissance est d’une quinzaine de mégawatts. Dans le futur, les centres de recherche utilisant des neutrons Le réacteur Orphée (CEA - Saclay) ne seront plus alimentés par un réacteur nucléaire, mais par un accélérateur de protons à haut flux et de basse énergie (quelques centaines de MeV) qui iront frapper une cible de métaux lourds. La collision provoquera une émission intense de neutrons. Parmi les avantages de ce procédé, appelé spallation, citons un flux plus intense, une gamme plus étendue d’énergies accessibles pour les neutrons, et la possibilité d’émettre les neutrons par paquets concentrés. À partir de ces faisceaux de neutrons dits « pulsés », on peut sélectionner des neutrons d’énergie déterminée par la technique du temps de vol (voir rubrique « Détection ») : on laisse le paquet voyager sur une certaine distance, de sorte que les neutrons les plus énergétiques arrivent en premier, et les moins énergétiques en dernier. Aux USA, la première installation de ce type sera opérationnelle en 2006 et au Japon un centre similaire démarrera en 2007. Les Européens sont en retard et devraient décider, fin 2005, de la poursuite des études sur l’European Spallation Source, qui ne démarrerait que vers 2015 ! Les installations actuelles ont donc encore de nombreuses années de fonctionnement devant elles...

© CEA

Sources intenses de neutrons


Expérience La durée de vie du neutron Le neutron est, avec le proton, un constituant des noyaux atomiques. Si à l’intérieur de la majorité de ceux-ci, le neutron est stable, une fois libéré, il se désintègre en produisant un proton, un électron et un anti-neutrino électronique (désintégration bêta). Un neutron qui, d’une manière ou d’une autre, est éjecté d’un noyau, se désintègre en moyenne à l’issue d’une période de près de 15 minutes. Cette désintégration est un processus statistique qui obéit à la « loi exponentielle » (voir Élémentaire n°1, rubrique «Analyse») dont le paramètre caractéristique est appelé durée de vie. De nombreux laboratoires dans le monde cherchent actuellement à améliorer la précision sur la mesure de la durée de vie du neutron.

Univers chaud Les molécules d’un gaz sont animées de mouvements désordonnés : c’est l’agitation thermique. La température absolue est une mesure de cette agitation, c’est-à-dire de l’énergie cinétique moyenne Ec des molécules. L’unité de température est le kelvin (K). Le « zéro absolu » (zéro kelvin) est situé à environ –273 degrés Celsius, ce qui correspondrait, du moins en physique classique, à une absence totale de mouvement. La température d’une molécule est définie par la relation qui la lie à l’énergie cinétique moyenne Ec=3/2 kBT où kB, la constante de Boltzmann, vaut 8,6210- 11 MeV . K- 1. Cette relation entre énergie et température permet d’exprimer une température indifféremment en K ou en MeV.

Pourquoi est-il important de connaître précisément la durée de vie du neutron ? Tout d’abord elle est une grandeur importante de la physique actuelle puisque le neutron intervient dans la désintégration bêta qui met en jeu l’une des quatre forces fondamentales : l’interaction faible. De plus, la valeur de la durée de vie du neutron joue un rôle important en astrophysique, dans le cadre de la théorie cosmologique du Big Bang. Selon cette théorie, en ses tout premiers instants, l’Univers est très « chaud » : les particules élémentaires (électrons, quarks, photons, ...) et les anti-particules correspondantes se créent et s’annihilent en permanence. Entre ce moment initial et la formation des premiers constituants de la matière (protons et neutrons), il se passe beaucoup de choses, mais retenons que l’Univers est en expansion et se refroidit : la densité d’énergie diminue avec le temps. Au bout de quelques secondes on se retrouve avec des protons et des neutrons qui sont en équilibre thermique. Puis, lorsque l’Univers est âgé d’une centaine de secondes, les premiers éléments chimiques, l’hydrogène et l’hélium, se forment. C’est ce que les astrophysiciens appellent la nucléosynthèse primordiale. Sous l’effet des forces nucléaires, un proton et un neutron peuvent s’associer pour former le noyau composé le plus simple : le deutérium (hydrogène lourd), avec émission d’un photon. Tant que la température est élevée, la réaction inverse se produit également, de sorte que le deutérium se dissocie très rapidement.

Équilibre thermique

page 16

Schématiquement , un neutron peut s’associer à un positron (antiélectron) pour former un proton et un anti-neutrino (a). En parallèle à cette réaction un proton, en s’associant à un électron, produit un neutron et un neutrino (b). Mais la masse du neutron est supérieure à la somme des masses du proton et de l’électron. Pour produire des neutrons il est donc nécessaire de bénéficier d’un apport extérieur d’énergie, en l’occurence l’énergie cinétique d’agitation thermique. Ainsi les réactions qui conduisent à la création de neutrons n’auront lieu que si la température de l’Univers est supérieure à l’énergie donnée par la différence de masse neutron-proton-électron (0,8 MeV). Cet équilibre thermique dure à peu près 1 seconde à partir du Big Bang. La température de l’Univers est alors kBT=1 MeV (T=1010K). En dessous de cette température, les réactions conduisant à la création de neutrons ne sont plus possibles.

(a)

(b)

ÉLÉMENTAÍRE


La durée de vie du neutron

temps

300 000 années

NUC

LE

O 180s e-

. d

1s p q qq

_ qq

H3

e-

e+

4

He e-

7

Li

q qq

e+

p 10

10 K

n

d

..

. 9

10 K _ qq

meson proton q q q neutron q quark _ q anti-quark radiation d deuterium e- électron

q qq

YN

TH

ESE

Chronologie des principales étapes de la nucléosynthèse primordiale qui, dans la théorie du Big Bang, démarre 10-6 seconde après l’instant initial et dure environ 3 minutes.

e+ anti-électron

ÉLÉMENTAÍRE

page 17

atome

3000 K

température © B. Mazoyer

S

Si on utilise la valeur mesurée actuellement (878,5 s) on prévoit que l’abondance de l’hélium est de 25%, ce qui correspond effectivement aux observations. À l’heure actuelle, l’incertitude sur cette estimation est entièrement dominée par celle sur la mesure de la durée de vie du neutron. Il est donc important de la mesurer avec la plus grande précision possible.

helium-4

n

..

À la fin de la nucléosynthèse primordiale il reste donc de l’hydrogène (proton), du deutérium, de l’hélium et quelques traces de noyaux de lithium, formés à partir d’un noyau d’hélium par la capture d’un proton et de neutrons. Les abondances respectives de ces éléments dépendent crucialement de la durée de vie du neutron. En effet si cette dernière est courte, les neutrons ne disposent que de peu de temps pour former du deutérium ou de l’hélium avant de se désintégrer en protons. Les proportions entre ces différents éléments dépendent donc de la durée de vie du neutron.

© B. Mazoyer

p Quand la température de l’Univers diminue et atteint T=109 K (kBT = 0,1MeV), soit 3 minutes après le Big Bang, la réaction inverse ne peut plus avoir lieu car il n’y a plus assez d’énergie disponible pour dissocier le deutérium. Des noyaux de ce dernier survivent suffisamment longtemps n pour que se forment finalement des noyaux d’hélium, par capture de deuterium neutrons et de protons. Mais au grand bal du Big Bang, tous les neutrons n n’ont pas trouvé de cavalier Vue schématique de la formation de l’hélium, p pour former du deutérium. Ceux un des premiers éléments créés pendant les qui ne sont pas encore insérés trois premières minutes de l’univers après le Big dans les noyaux, sont libres... Bang. p n et instables. Ils se désintègrent n petit à petit en protons qui, eux, deuterium p sont très stables (leur durée de vie dépasse 1031 ans ; en fait p n n helium-3 on n’a encore jamais observé la désintégration du proton). p p

© B. Mazoyer

p


La durée de vie du neutron Deux méthodes pour mesurer la durée de vie du neutron

Faisceau de neutrons refroidis et neutrons ultra-froids Refroidir des neutrons, c’est diminuer leur agitation thermique. La technique pour créer un faisceau de neutrons refroidis est la suivante : les neutrons sont émis par une cible de tungstène bombardée par un faisceau de protons. Ils sont ensuite ralentis en traversant des couches de polyéthylène placées à la température de l’azote liquide (77 K) puis de l’hélium liquide (5 K). La température des neutrons descend alors à 40 K (soit 1,6 × 10- 3 eV). Une fois que le faisceau de neutrons refroidis est prêt, on le fait passer dans un bain d’hélium-4 superfluide dans lequel les neutrons dissipent leur énergie par des collisions successives. L’énergie cinétique d’un neutron ultra-froid est de 10-7 eV (soit quelques mK).

temps de vie (secondes)

Le principe de la mesure de la durée de vie du neutron consiste à dénombrer, en fonction du temps, les désintégrations d’une population de neutrons. De manière plus précise, depuis une vingtaine d’années deux types d’expériences sont réalisées : • On mesure le taux de désintégration de neutrons situés au sein d’un volume fixe d’un faisceau de neutrons refroidis. Le faisceau traverse une trappe électromagnétique à protons (dit piège de Penning). Quand un neutron se désintègre dans la trappe, le proton reste piégé à cause de sa charge électrique. Au bout d’un certain temps, la trappe est «ouverte». Pour cela la configuration des champs magnétique et électrique est changée de telle sorte qu’elle libère des particules chargées au lieu de les piéger. Les protons produits sortent de la trappe et sont dirigés grâce au champ magnétique dans un endroit où ils sont finalement détectés par des plaques de silicium. En comptant le nombre de protons, on dénombre ainsi le nombre de neutrons qui disparaissent par unité de temps, soit dN(t)/dt. • On stocke des neutrons dans une «bouteille magnétique» ou bien dans une cuve ayant des parois matérielles. Ce dernier genre de confinement est possible avec des neutrons ultra-froids. Au bout d’un certain temps, les neutrons piégés se désintégrent en produisant un électron qui est détecté en passant dans de l’hélium liquide. En faisant cette mesure pour différentes durées de stockage on peut estimer la loi régissant le nombre N(t) de neutrons libres au cours du temps.

année page 18

figure 1 : Différentes estimations du temps de vie du neutron obtenues au cours des 15 dernières années. Les barres d’erreur indiquent l’incertitude de mesure. La bande jaune correspond à la valeur moyenne de ces résultats à plus ou moins un écart standard (voir rubrique «Analyse» de ce numéro). Cette moyenne ne tient pas compte des deux mesures les plus précises qui sont actuellement contestées par certains experts du domaine. On remarquera, en effet, que ces deux mesures sont en net désaccord.

La première mise en évidence de la désintégration du neutron libre et l’estimation initiale de sa durée de vie remontent à 1948, quand les américains Arthur Snell et Leonard Miller annoncent une valeur comprise entre 15 et 30 minutes. En 1950, l’américain John Robson puis en 1955 le russe Piotr Spivak obtiennent une nouvelle estimation entre 8 et 15 minutes. Depuis ces expériences pionnières, d’autres (28 au total) ont amélioré la précision de la mesure. Le dernier résultat (878,5 ± 0,8 s) a été publié en novembre 2004.

ÉLÉMENTAÍRE


La durée de vie du neutron Sources d’incertitudes Quand on effectue plusieurs fois la mesure d’une grandeur physique on obtient des valeurs dispersées autour d’une valeur centrale. Cette dispersion est intrinsèquement liée au caractère aléatoire de la mesure (souvent issue d’un comptage d’événements). En plus de cette erreur, dite statistique, la mesure peut être entachée d’une erreur liée par exemple à un étalonnage imparfait de l’appareil de mesure. On parle alors d’une erreur systématique. Pour revenir au cas de la mesure de la durée de vie du neutron, les deux expériences qui ont obtenu les mesures les plus précises (voir la figure 1) sont «suspectées» de ne pas avoir considéré certaines sources d’erreurs systématiques (voir rubrique «Analyse»).

La difficulté (et donc la principale limitation) de la première méthode est d’avoir à estimer de manière absolue le nombre de neutrons contenus dans la région du faisceau qui traverse la trappe électromagnétique. En ce qui concerne la deuxième méthode, qui donne depuis quelques années les meilleures estimations, le point crucial est de s’assurer que la disparition des neutrons est bien liée à une désintégration et non pas au fait qu’ils s’échappent de la bouteille magnétique ou qu’ils sont absorbés par les parois matérielles de la cuve. C’est avec ce genre de dispositif qu’a été obtenue une mesure très précise en 1999 (erreur inférieure à une seconde). À l’heure actuelle, on privilégie l’utilisation des bouteilles magnétiques pour confiner les neutrons car cette technique assure un bien meilleur contrôle des fuites de neutrons hors du piège. Comme les deux types d’expériences (faisceau et piège) ne sont pas sensibles aux mêmes sources d’incertitudes, il est important d’améliorer leur précision respective, ce qui est le sujet de recherche d’au moins une dizaine d’équipes dans le monde.

ÉLÉMENTAÍRE

page 19

Mesure de la durée de vie du neutron avec un faisceau de neutrons Cette mesure a été faite au National Institute of Standards and Technology (NIST) Center for Neutron Research situé dans l’État du Maryland aux États-Unis où un faisceau de neutrons froids est disponible. Le montage expérimental est schématisé sur la figure du bas. La vitesse moyenne des neutrons du faisceau est de 2000 m.s-1 (ce qui correspond à une température voisine de 0,3 K). Le faisceau traverse la trappe électromagnétique en venant de la droite sur la figure. Les protons issus de la désintégration des neutrons sont piégés. Au bout d’un certain temps (environ 10 ms) la trappe est « ouverte » et les protons sont guidés vers des détecteurs (à droite sur la figure). Les neutrons qui ne se sont pas désintégrés sortent de la trappe et traversent une fine couche de fluorure de lithium (6LiF). La capture d’un neutron par un noyau de 6Li produit un noyau de tritium et un noyau d’hélium. Les produits de cette réaction sont détectés par des détecteurs placés autour du faisceau (à gauche sur la figure). En supposant que le taux de neutrons entre la sortie de la trappe et la couche de 6LiF ne varie pas, le nombre de neutrons à chaque cycle est connu. Exprimée en secondes, la mesure faite au NIST en 2003 a donné : τ = 886,8 ± 1,2 (erreur statistique) ± 3,2 (erreur systématique) secondes


La durée de vie du neutron Trappe de Penning : confinement des particules chargées

0

© B. Mazoyer

© B. Mazoyer

Il s’agit d’un dispositif alliant un champ électrique et un champ magnétique, qui permet de confiner des particules chargées dans un volume donné, dépourvu de v dans parois matérielles. Prenons un électron de charge -e animé d’une vitesse → → → → un champ magnétique uniforme B. Il subit une force de Lorentz, F = -ev ^ B→ toujours perpendiculaire au champ magnétique qui l’empêche de s’éloigner d’une position moyenne dans le plan x0y. L’électron ne subit cependant aucune force → dans la direction du champ B et conserve donc un mouvement uniforme dans cette direction. Si la composante de la vitesse selon la direction du champ magnétique est nulle, le mouvement de la particule sera circulaire. Dans le cas contraire, la particule aura un mouvement hélicoïdal comme indiqué sur la figure 2. Le champ magnétique confine la particule dans un cylindre. Pour fermer le piège il faut «bloquer» le mouvement selon l’axe z. Pour cela, on → plonge le dispositif dans un champ électrique parallèle à B et de sens opposé aux deux extrémités du piège. La force subie par l’électron dans le champ électrique est → → F = -eE et est dirigée selon l’axe du champ. On voit donc que seule la composante du mouvement de l’électron selon l’axe du champ est concernée : si le champ électrique est orienté dans le bon sens, il ralentit l’électron jusqu’à annuler la composante verticale de sa vitesse. L’électron est alors accéléré vers le bas pour rejoindre la région inférieure du piège où le champ électrique est orienté dans l’autre sens, et ainsi de suite. Cette configuration engendre un mouvement hélicoïdal avec des oscillations → → périodiques selon l’axe commun des champs B et E. En fait, pour éviter les fuites du piège dues au fait que le champ électrique n’est pas strictement partout → parallèle à B, on utilise un dispositif qui crée un champ électrique quadripolaire. Cette configuration du champ électrique confine le mouvement de l’électron dans un anneau. Au final, le mouvement de la particule chargée dans la trappe est la combinaison de trois mouvements : hélicoïdal, sinusoïdal et circulaire comme représenté sur la figure 2.

page 20

figure 2 : Mouvement d’une particule chargée dans un piège de Penning (champ magnétique constant et champ électrique quadripolaire). Le champ magnétique impose à la particule un mouvement hélicoïdal (fréquence ω+). À cause du champ électrique la particule décrit un grand cercle (fréquence ω-) et est aussi animée d’un mouvement sinusoïdal (fréquence ωz).

ÉLÉMENTAÍRE


© NIST

La durée de vie du neutron

Réalisation expérimentale d’un piège de Penning utilisé pour mesurer la durée de vie du neutron au NIST.

Bouteille magnétique : confinement de particules neutres

ÉLÉMENTAÍRE

page 21

Ce type de confinement est basé sur l’interaction entre le moment magnétique d’un corpuscule neutre et un champ magnétique non uniforme (c’est-à-dire qui varie dans l’espace). Par exemple, un neutron, dont le moment magnétique est non nul (voir la rubrique «La question qui tue»), subit une force qui est proportionnelle au «gradient» du produit entre le champ magnétique et le moment magnétique. Grossièrement cette force est reliée au taux de variation du champ magnétique dans l’espace : plus le champ varie rapidement d’un point à un autre, plus la force ressentie est intense. À l’inverse, si le champ varie très lentement, la force ressentie par le neutron est quasiment nulle. Imaginons maintenant une région de l’espace où règne un champ magnétique qui est pratiquement constant dans une zone centrale puis augmente rapidement à mesure que l’on s’éloigne de cette zone. Selon que le moment magnétique du neutron est orienté dans le même sens ou dans le sens contraire au champ, le neutron, dès qu’il s’éloigne de la zone centrale, subit une force qui a tendance à le ramener dans cette zone (force de rappel) ou bien à l’éjecter au dehors. Pour fabriquer une « bouteille magnétique » il suffit donc d’assurer un champ magnétique intense qui constituera le bord du piège (la paroi, non matérielle, de la bouteille), associé à une région (l’intérieur) où le champ est plus faible et pratiquement homogène. Pour que le confinement soit efficace, le sens du moment magnétique doit rester constant : si le moment magnétique des neutrons change de sens ils vont pouvoir sortir du piège. Pour éviter cela, il faut que le champ magnétique ne soit jamais nul, de sorte que les neutrons restent polarisés, c’est-à-dire que leurs moments magnétiques respectifs soient alignés dans la même direction.


Détection Mesurer l’énergie des neutrons Ionisation Un atome qui perd ou gagne des électrons devient un ion (respectivement positif ou négatif). Par exemple, si une particule chargée passe à proximité d’un atome, elle peut arracher certains de ses électrons du fait de l’interaction électromagnétique. Ce processus, appelé ionisation, peut être utilisé pour détecter le passage d’une particule chargée.

Comment étudie-t-on un neutron ? À vrai dire, çe n’est pas si facile car le neutron présente la particularité d’être électriquement neutre. Une particule chargée, comme le proton, interagit avec la matière en l’ionisant et en excitant une partie des molécules qui la composent. Ces dernières émettent alors de la lumière en revenant à leur état normal et l’enregistrement de cette lumière est une des méthodes qui permet de signer le passage de la particule qui l’a initiée. Dans certaines conditions, on parle de fluorescence (ou scintillation). Comme le neutron ne possède pas de charge électrique, il n’ionise pas directement la matière sur son trajet. Alors comment détecter les neutrons ?

Énergie

Étant sensible à la force nucléaire forte, le neutron interagit avec les noyaux atomiques. Les particules chargées émises lors de ces collisions peuvent, elles, ioniser le milieu. On peut ainsi détecter la présence d’un neutron en observant, par exemple, le recul d’un noyau résultant de sa collision avec un élément léger, ou bien en détectant une particule chargée, ou un photon, produits lors d’une réaction nucléaire induite par le neutron. Dans tous les cas, le neutron est identifié de façon indirecte. Selon sa vitesse – et donc son énergie cinétique – ses interactions avec les noyaux atomiques sont de deux types : élastique (à basse énergie) ou inélastique (à plus haute énergie). Différentes méthodes de détection sont alors employées. Nous allons décrire principalement le fonctionnement de détecteurs utilisés dans des expériences de physique nucléaire, comme celles effectuées au GANIL, pour des neutrons ayant une énergie cinétique supérieure à 100 keV.

L’émission de lumière par fluorescence comporte trois étapes : ① Un atome est d’abord excité, c’est-àdire qu’un électron situé sur le niveau d’énergie fondamental S0 monte au niveau d’énergie S1’. ② Cet électron passe ensuite dans un état intermédiaire (S1). ③ Enfin, l’atome se désexcite en émettant un photon. Comme l’énergie de ce dernier ne correspond plus aux transitions atomiques les plus probables du milieu (celles entre S0 et S1’), il a peu de chance d’être réabsorbé par le milieu. Le photon émis ③ peut donc être détecté par un dispositif situé à l’extérieur. Ce processus n’apparaît que dans les matériaux fluorescents pour lesquels le «saut» direct S0 S1est interdit.

page 22

Lors de collisions élastiques, un transfert d’énergie entre un neutron et le noyau a lieu. La quantité d’énergie transférée varie selon les masses des deux objets. Lorsque ces masses sont voisines, toute l’énergie cinétique peut être transmise à la cible. Ceci est le cas des collisions entre un neutron et un proton, collisions qui ressemblent aux « carreaux » du jeu de boules. Pour des noyaux plus lourds, seule une fraction de l’énergie cinétique du neutron est acquise par le noyau (imaginez que vous envoyiez une boule de pétanque contre une boule de bowling...). Pour transférer toute son énergie le neutron doit, non seulement heurter une particule de masse identique (comme le proton) mais également le faire de manière frontale. Si la collision est périphérique le neutron est seulement dévié lors de la collision et seule une partie de son énergie est transférée.

ÉLÉMENTAÍRE

© M. Marcho

La pétanque nucléaire


Mesurer l’énergie des neutrons Pour détecter des neutrons il convient donc d’utiliser un matériau riche en protons (c’est-à-dire en atomes d’hydrogène) et transparent, afin de pouvoir mesurer la lumière produite lors des collisions des particules émises lors du choc. Pour cela on utilise souvent des matériaux plastiques.

Collisions élastiques et inélastiques Lors d’un choc élastique, seules les directions et les vitesses des particules sont modifiées après la collision ; leur masse, leur nombre et leur nature restent inchangés. C’est l’analogue d’une collision entre boules de billard ou de pétanque. Lors d’une collision inélastique, une partie de l’énergie disponible sert à exciter ou à briser une des deux particules. Pour cela il faut que l’énergie du neutron soit supérieure aux énergies typiques de liaison des protons et des neutrons au sein du noyau cible. En fonction de l’énergie du neutron et de la nature de ce dernier une grande variété de réactions est possible. Pour des neutrons dont l’énergie est inférieure à 1 MeV les collisions élastiques dominent. Après le choc, l’énergie des neutrons est comprise entre deux valeurs qui dépendent de la masse du noyau cible et de l’énergie initiale du neutron. Lors d’une collision avec un proton, dont la masse est voisine de celle du neutron, l’énergie maximale transférée est égale à celle du neutron incident.

Les neutrons au vol L’énergie du neutron peut donc ne pas être totalement transférée au milieu lors d’une collision. Comment peut-on alors la mesurer ? On va utiliser la technique du temps de vol. Si on connaît la distance entre le point d’émission du neutron et l’endroit où on le détecte, et si on mesure le temps mis pour effectuer ce trajet, on peut déduire la vitesse et par là même l’énergie cinétique du neutron. Dans notre cas, cette vitesse varie entre 0,44 cm/ns (c’est-à-dire 4 400 km/s), lorsque l’énergie cinétique est de 0,1 MeV, et 4,4 cm/ns lorsque l’on passe à 10 MeV. Prenons un neutron produit lors de la collision entre une particule d’un faisceau et celle d’une cible. L’instant de cette collision est connu de façon précise et déclenche le démarrage d’un chronomètre. Le neutron peut se déplacer dans l’air sur une distance de plusieurs mètres sans interagir avec les molécules. Par contre, la plupart des particules chargées provenant de la même réaction nucléaire sont arrêtées car elles perdent continûment leur énergie par ionisation. On dispose alors un détecteur scintillant à quelques mètres du lieu de production : toute particule qui y interagit produit un signal qui arrête le chronomètre. Cependant nous ne sommes pas au bout de nos peines. Le neutron peut parcourir quelques centimètres dans le scintillateur avant d’interagir. Pour être efficace, il faut choisir un scintillateur épais mais cela introduit une incertitude sur la longueur réelle du trajet parcouru. Un compromis entre efficacité et précision est donc nécessaire ! Par ailleurs, puisque les temps de parcours sont de quelques dizaines de nanosecondes sur un mètre, il faut un matériau qui scintille rapidement !

ÉLÉMENTAÍRE

figure 1 : Schéma de détection d’un neutron grâce à un scintillateur. L’enchaînement des événements est le suivant : 1. Un neutron est produit lors d’une collision ; 2. il « vole » jusqu’au détecteur (un scintillateur) ; 3. le neutron entre en collision avec un proton du scintillateur ; 4. le proton ionise les molécules du milieu qui émettent de la lumière ; 5. la lumière est alors recueillie par un photomultiplicateur qui la convertit en un courant électrique mesurable ; 6. la variation de ce courant en fonction du temps est analysée afin d’améliorer la séparation entre les neutrons et les photons. page 23

On utilise alors des scintillateurs organiques offrant une résolution en temps de l’ordre de la nanoseconde.


Détection Mesurer l’énergie des neutrons Photon ou neutron? Les photons émis lors de la collision initiale entre le faisceau et la cible peuvent aussi atteindre le dispositif de mesure des neutrons et être confondus avec ces derniers. Cependant, leur temps de parcours est plus faible. En effet, pour un photon le trajet s’effectue à la vitesse de la lumière, soit 30 cm/ns environ, quelle que soit son énergie. De plus, on peut les identifier en analysant l’évolution temporelle du signal engendré dans le scintillateur. En effet, comme les neutrons, les photons provoquent figure 2 : Séparation des photons et des neutrons après analyse de la forme du signal. La une émission de lumière, mais le figure de droite présente la variation du courant mesuré en fonction du temps. Sur la figure de gauche on a reporté, en ordonnées, la charge électrique totale recueillie (en violet), phénomène physique sous-jacent est correspondant au courant produit, en fonction de celle qui est associée uniquement à la différent : dans le cas des photons, partie « lente » du signal (en vert). Les neutrons, auxquels correspond un signal plus étalé les particules ionisantes sont les dans le temps, se séparent ainsi des photons. électrons mis en mouvement par le photon. La composante de lumière de fluorescence ainsi produite est caractérisée par un temps d’apparition très bref (1ns). Lorsque c’est un proton (issu de la collision d’un neutron) qui induit la fluorescence, l’ionisation des molécules du milieu donne également lieu à une émission lumineuse retardée, dite « lente », d’une durée caractéristique allant de 100 à 1000 ns. On peut alors connaître la nature de la particule qui a engendré la fluorescence en étudiant la forme du signal électrique obtenu : il suffit de comparer la quantité totale de lumière émise et la fraction apparue tardivement (la partie lente du signal). Dans le cas d’un photon, cette dernière ne sera qu’une faible partie du total. La figure 2 illustre, à travers un exemple, la séparation entre photons et neutrons. © J.A. Scarpaci

neutrons

Pour observer les neutrons dit lents, de quelques eV d’énergie cinétique, qui sont produits dans les centrales nucléaires ou dans toute installation nucléaire de base (accélérateur de particules par exemple), on utilise une réaction nucléaire où le neutron fusionne avec un atome de bore. Le bore fissionne ensuite en un noyau de lithium excité et une particule alpha, et c’est le photon issu de la désexcitation du lithium qui est détecté. D’autres détecteurs utilisent de l’3He qui, après fusion avec le neutron, donne lieu à l’émission d’un proton et d’un noyau de tritium (figure 3).

page 24

photons figure 3 : Borne de détection de neutrons. La boule blanche est du polyéthylène qui permet de ralentir les neutrons (on dit qu’on les thermalise). Dès lors, la réaction où le neutron heurte un noyau d’hélium pour produire un proton et un atome de tritium devient très probable et donne lieu à un signal mesurable.

Les autres types de détecteurs

ÉLÉMENTAÍRE


Retombées La neutronthérapie électron libre

après collision

photon incident

photon diffusé

La neutronthérapie est employée en cancérologie depuis 40 ans. Il n’existe que dix centres médicaux appliquant cette technique thérapeutique dans le monde (dont un à Orléans), à cause de la difficulté de sa mise en œuvre. Comme la protonthérapie, la neutronthérapie fait partie des protocoles d’irradiation des tumeurs cancéreuses par des particules lourdes, les hadrons, par opposition aux traitements par des particules plus légères, comme les électrons ou les photons.

atome neutre

© B. Mazoyer

Comment traiter le cancer avec des neutrons

avant collision

atome ionisé

figure 1 : Ionisation d’un atome par un photon : un électron est arraché de l’atome. Le noyau n’est pas affecté. Sur ce dessin le noyau atomique qui, en réalité est 10 000 fois plus petit que l’atome, n’est pas représenté à l’échelle.

Traiter avec des photons, des protons… La radiothérapie consiste à envoyer un rayonnement sur la tumeur de façon à entraîner la mort des cellules malignes tout en essayant de préserver les tissus sains. Quatre paramètres jouent un rôle important dans le traitement des tumeurs par irradiation : le type d’interaction de la particule avec les tissus à traiter, son énergie, le transfert d’énergie linéique (TEL, c’est-à-dire l’énergie déposée par unité de longueur parcourue), et enfin la forme du dépôt de cette énergie dans le volume traité. Dans ce qui suit, nous allons voir comment ces paramètres sont exploités en pratique.

Toutes les particules n’ont pas la même action sur les tissus. L’irradiation par des photons provoque l’ionisation des atomes (voir figure 1) et, en figure 2 : Dépôt d’énergie par différentes particulier, induit des dommages aux molécules d’ADN de la tumeur. particules (électrons, photons, protons et Le dépôt d’énergie des photons se fait sur toute la distance tissulaire neutrons) en fonction de la profondeur de traversée : leur transfert d’énergie linéique est faible mais commence matière traversée (mm). Dans le cas des dès que les particules pénètrent les tissus. Si la tumeur est bien localisée, protons, la plus grande partie de l’énergie est l’irradiation par faisceau de protons est largement préférable : en effet, déposée autour d’une profondeur précise (ici 150mm), qui ne dépend que de l’énergie initiale ceux-ci présentent l’avantage, par rapport aux photons, de traverser les du proton, suivant la distribution dite du « pic premiers tissus sans trop les endommager et de déposer leur énergie de Bragg ». Sur ce graphique on représente en de façon très localisée sur une faible épaisseur, comme le montre ordonnée la dose relative par rapport au dépôt la forme du pic, appelé pic de Bragg, sur la figure 2. En jouant sur maximal d’énergie. l’énergie des protons on peut régler cette profondeur de façon à la faire coïncider avec l’emplacement de la tumeur préalablement identifiée. Cette précision balistique des protons permet donc d’atteindre des tumeurs très proches d’organes vitaux (tels Sir William Bragg (1862-1942). Physicien le nerf optique ou la moelle épinière). Ainsi, anglais, de culture scientifique diversifiée, contrairement au faisceau de photons, on peut il est le père fondateur de l’étude de la si nécessaire augmenter la dose dans la zone à cristallographie par utilisation des rayons X traiter, sans trop toucher les tissus alentours.

ÉLÉMENTAÍRE

© DR

page 25

(photons de longueur d’onde comprise entre 5 pm et 10 nm). Pour ces études, il a reçu avec son fils et collaborateur Lawrence Bragg, le prix Nobel de physique en 1915 (voir Élémentaire n°1).


La neutronthérapie après collision

… ou des neutrons

neutron incident atome neutre noyau

atomes différents noyaux différents

Taux de survie

figure 3 : Interaction d’un neutron avec un atome. Le neutron pénètre dans un noyau et, ici, une particule alpha est émise (en effet l’interaction d’un neutron peut donner lieu à diverses réactions).

© B. Mazoyer

avant collision

Dans le cas de certains types de cancers qu’on appelle radiorésistants, les dommages provoqués par l’irradiation de la tumeur sont réversibles : après un certain temps cette dernière se reconstitue progressivement. Il faut alors utiliser un rayonnement plus adapté, capable de provoquer la destruction définitive des cellules malignes et non une simple altération des tissus. On prend alors comme projectiles des neutrons. Les neutrons, qui sont électriquement neutres, agissent sur les noyaux atomiques par interaction forte (voir figure 3). Ils déposent une «grande» densité d’énergie sur une région étendue le long de leur parcours (voir figure 2). Ils réussissent ainsi à casser les atomes de la tumeur en plusieurs fragments, de façon à rendre improbable la reconstitution de l’ADN des cellules malignes. Ils ont un fort transfert d’énergie linéique, environ 50 fois plus élevé que celui des photons. Puisque plus efficace, une dose inférieure de rayonnement est suffisante pour le traitement total de la tumeur. Sur la figure 4 on compare l’efficacité de destruction des cellules cancéreuses par des neutrons et des photons en fonction de la quantité de rayonnement reçue par le patient, exprimée en gray. On

figure 4 : Survie des cellules après une irradiation par des photons ou des neutrons en fonction de la dose reçue exprimée en grays. Un gray est égal à un joule déposé par kilogramme.

page 26

Rayonnements à grand et petit TEL Selon le type d’interaction de la particule « ionisante » avec un atome, le dépôt d’énergie par unité de longueur (TEL) dans un tissu vivant sera plus ou moins important. Les dépôts inférieurs à 30-50 keV/μm sont considérés comme de faibles TEL, ceux supérieurs à 50 keV comme des TEL forts. Il faut distinguer trois types de rayonnement : - Photons : les photons ionisent les atomes sur leur passage par interaction électromagnétique. Ils perdent progressivement de l’énergie jusqu’à ne plus pouvoir arracher d’électrons (il faut par exemple 13,6 eV pour arracher un électron d’un atome d’hydrogène). Ils sont aussi susceptibles d’être absorbés par les atomes. Dans ce cas, la désexcitation de l’atome passe par l’émission de photons d’énergie atténuée qui peuvent être la source d’ionisation et de désexcitation secondaires. - Protons : les protons, particules chargées, vont aussi principalement interagir de manière électromagnétique avec les atomes. Initialement très rapides, ils déposent progressivement leur énergie dans les tissus en les ionisant. Cela les ralentit, jusqu’au moment où leur énergie cinétique est trop faible pour arracher un électron à un atome environnant. Si les protons ont tous initialement la même énergie cinétique, la majeure partie de cette énergie est déposée dans une région très localisée correspondant au pic de Bragg. - Neutrons : les neutrons, eux, agissent directement sur le noyau des atomes et peuvent en particulier en arracher un ou plusieurs protons. Ces protons libres vont ensuite ioniser les autres atomes alentours selon le processus décrit plus haut. Les produits de réaction secondaires vont ainsi engendrer une ionisation des cellules sur des distances courtes et donc sur un volume réduit mais tout le long du parcours du faisceau de neutron. C’est l’ionisation par les particules secondaires qui est responsable du fort TEL des neutrons (50 fois supérieur à celui des photons).

ÉLÉMENTAÍRE


La neutronthérapie remarque que pour une dose de 7 grays par exemple, les neutrons ont détruit environ 100 fois plus de cellules malignes que les photons !

Hypoxie : état de manque d’oxygène. Provient du grec hypo (moins) et du mot oxygène.

Un autre avantage des neutrons concerne leur efficacité d’action sur les cellules mal oxygénées, souvent présentes dans les tumeurs cancéreuses : lorsque les cellules tumorales prolifèrent, on constate une nette diminution de la circulation sanguine au centre de la tumeur. Or la quantité de rayonnement nécessaire pour traiter un cancer est fonction de plusieurs facteurs dont le degré d’oxygénation des tissus. En effet l’effet ionisant d’un rayonnement devient plus faible en l’absence d’oxygène (hypoxie). Pour les rayonnements de faible TEL, les doses nécessaires pour produire un effet biologique donné sur un tissu sont 2,5 à 3 fois plus importantes quand le tissu est appauvri en oxygène. Cet effet d’hypoxie est moins crucial pour les neutrons faisant d’eux des candidats privilégiés pour le traitement.

Hypoxie et radio-résistance Les dommages des rayonnements ionisants sur les cellules sont la conséquence finale de phénomènes physiques, chimiques et biologiques selon deux effets : une altération directe des filaments d’ADN, et une action (radiolyse) sur les molécules d’eau environnantes (2-3 nm autour de l’ADN) induisant la formation de radicaux libres (H2O+, électrons, HO-). Il s’agit d’éléments instables très réactifs, capables de léser les parties essentielles de la cellule, en particulier les acides nucléiques responsables de la division cellulaire et de la synthèse des protéines. Les dégâts occasionnés à la cellule par ces radicaux libres sont d’autant plus graves que la cellule est bien oxygénée, car la combinaison des radicaux libres avec l’oxygène donne lieu à la formation de molécules hyper-oxygénées hautement réactives et encore plus agressives. À l’inverse, l’hypoxie limite l’action des radicaux libres et augmente donc la radiorésistance cellulaire. Dans le cas des rayonnements à faible TEL, les dégâts sur les cellules sont majoritairement le fait des radicaux libres. Pour un rayonnement à fort TEL, c’est l’effet direct qui domine l’action sur les cellules. Ainsi donc, une diminution d’oxygène dans les cellules cancéreuses affecte moins l’efficacité de la neutronthérapie (fort TEL).

Pour résumer, c’est en présence de cancers volumineux, radio-résistants, présentant des cellules hypoxiques ou ayant un grand pouvoir de réparation qu’on utilise avantageusement des faisceaux de neutrons. Ainsi, la neutronthérapie a démontré une grande efficacité dans le cas des cancers des glandes salivaires, du cerveau, des sinus, de la prostate ainsi que certains cancers des os.

ÉLÉMENTAÍRE

page 27

L’Institut de neutronthérapie de l’Université du Northern Illinois à Fermilab est l’un des trois sites aux États-Unis proposant cette thérapie. On utilise les installations accélératrices présentes à Fermilab dont le but principal est de fournir des faisceaux de protons intenses pour la physique fondamentale. Une petite partie des protons est extraite au niveau du LINAC (accélérateur linéaire) (1) et est ensuite envoyée sur une cible de béryllium. On récupère les neutrons issus de la collision et on les guide vers la station de traitement médical (2). Dans le même centre, on effectue d’autres types de traitement comme la radiothérapie à photons (3) et la protonthérapie (4). Notons que la France possède un centre hospitalier à Orléans qui pratique la neutronthérapie. Depuis environ cinquante ans, plus de 15 000 patients ont été traités par neutronthérapie dans le monde.


Analyse La distribution gaussienne : une histoire de cloches

Nous nous intéressons ici à une loi de probabilité célèbre, la distribution gaussienne – du nom du savant allemand Carl Friedrich Gauss. Cette courbe, extrêmement importante en sciences, est également connue comme la loi normale ou, plus familièrement, la courbe « en cloche ». Pourquoi la distribution gaussienne est-elle si importante ? Répondre à cette question avec précision nécessiterait un long détour par les mathématiques : en effet, l’intuition peine à représenter le caractère fondamental de cette fonction, pourtant clairement visible dans de nombreux théorèmes. Plutôt que d’approcher la gaussienne sous un angle technique, nous préférons montrer sur un exemple concret comment cette distribution apparaît naturellement en statistique, ce qui nous permettra de présenter ses propriétés principales.

La gaussienne comme distribution limite

DR

La distribution gaussienne est la distribution « limite » par excellence. Expliquons cette propriété à l’aide d’un exemple simple, celui du jeu de « pile ou face ». Chaque joueur lance un certain nombre de fois (fixé au départ) une pièce et, partant de 0, il ajoute 1 à chaque lancer s’il obtient « pile » et il retranche 1 pour chaque « face ». Décidons par exemple que notre jeu de « pile ou face » se compose de cinquante lancers (ou tirages) successifs. Le résultat du jeu est donc un nombre pair, compris entre -50 (50 « faces ») et +50 (50 « piles »). Si vous proposez ce jeu à la fin d’un repas regroupant dix convives et si vous notez leurs résultats, vous pourrez construire un histogramme du même genre que celui présenté en haut à gauche de la figure 1 : en abscisse on porte le total obtenu et en ordon-née le nombre de convives ayant obtenu ce total. Dans notre exemple, la distribution apparaît assez plate, avec une légère accumulation de points autour de 0 : en effet, deux invités ont obtenu 0 tandis que les totaux de –10, -8, -6, -4, 2, 4, 6 et 8 sont chacun associés à une seule personne. Si maintenant Figure 1 : distributions du jeu de « pile ou face » avec cinquante lancers pour dix, soixante, quatre cents et dix mille joueurs vous êtes dans respectivement. L’axe horizontal montre les résultats possibles du jeu un bus et que (un nombre pair compris entre -50 et 50) et l’axe vertical compte le votre charisme nombre de résultats égaux à une valeur donnée de cet intervalle. parvienne à faire jouer ses

Statue de Gauss à Braunschweig

page 28

Loi de Laplace ou distribution de Gauss ? La distribution gaussienne fut utilisée avant (!) Gauss, par le mathématicien français Pierre-Simon de Laplace (17491827). C’est pourquoi, en particulier dans les communautés scientifiques francophones, on parle également de « loi de Laplace-Gauss ». En sciences, il arrive souvent qu’une même idée soit introduite indépendamment par plusieurs personnes à la même époque – c’était en particulier vrai dans le passé, lorsque les communications étaient beaucoup plus lentes qu’aujourd’hui. Dans ces cas de figure, l’usage finit toujours par « sélectionner » l’un des inventeurs du concept qui a alors la chance de voir son nom y être associé pour la postérité.

ÉLÉMENTAÍRE


La distribution gaussienne soixante passagers, l’histogramme ressemblera plus à celui situé en haut à droite : la majorité des résultats est proche de 0 et le nombre de personnes ayant obtenu un résultat non nul diminue à mesure qu’on s’éloigne de 0. Supposons ensuite que, grâce à Internet, vous ayez réussi à recruter quatre cents joueurs : le graphique montrant les résultats du jeu est plus « lisse » mais présente encore quelques aspérités – voir par exemple l’histogramme en bas à gauche de la figure 1. Finalement, poursuivant l’expérience quelques semaines, vous arrivez à dix mille joueurs et obtenez alors la distribution présentée en bas à droite de la figure 1. Cette fois-ci, le tracé est net, sans décrochement. En fait, décupler le nombre de joueurs et collecter leurs résultats ne changerait que marginalement la forme de cet histogramme. Comme on le verra dans la suite, c’est (presque) une « gaussienne » !

La moyenne de la somme est la somme des moyennes On peut remarquer que l’histogramme obtenu avec 10000 joueurs est symétrique autour de 0 qui est donc sa valeur moyenne. Ce nombre ne doit rien au hasard : c’est aussi la moyenne du lancer d’une seule pièce de monnaie. En effet, si la pièce n’est pas truquée, on a 50% de chance d’obtenir « pile » (et donc +1) et 50% de chance d’avoir « face » (-1). La moyenne d’une somme de variables aléatoires est en fait la somme des moyennes individuelles, ici 0,5 × (+1) + 0,5 × (-1)= 0.

Pour faire apparaître cette distribution – également appelée « loi normale » – dans notre jeu de pile ou face, il fallait jouer suffisamment (50 fois), c’està-dire utiliser un ensemble de « mesures » le plus vaste possible.L’apparition d’une distribution gaussienne dans l’exemple du jeu de pile ou face est tout sauf l’effet du… hasard ! En effet, cette loi se retrouve dans des phénomènes très divers, combinant une multitude d’effets aléatoires (ici les tirages successifs de la pièce). Le théorème mathématique dit de la « limite centrale » établit ce résultat : sous des hypothèses relativement générales, la répétition d’un grand nombre de phénomènes indépendants (le lancer précédent de la pièce n’affecte pas le nouveau lancer) conduit à une loi de probabilités gaussienne. De façon plus précise, la valeur d’une quantité qui est la somme de plusieurs variables ayant des valeurs aléatoires sera distribuée suivant une loi proche d’une gaussienne.

Loi de probabilités, variables aléatoires Les probabilités sont utilisées pour décrire une expérience dont on ne sait pas prédire le résultat exact, par exemple le jeu de pile ou face. Elles permettent de mettre à jour les régularités qui se cachent derrière ces phénomènes apparemment gouvernés par le hasard. Alors que chaque résultat, pris individuellement, est effectivement aléatoire, la distribution d’un (très) grand nombre de tirages est parfaitement connue : elle donne la fréquence d’occurrence, ou encore la probabilité, de chaque résultat. Le fait qu’une variable aléatoire comme le lancer d’une pièce de monnaie obéisse néanmoins à des lois mathématiques précises n’est pas contradictoire ! On peut aussi décrire des phénomènes plus compliqués que le jeu de pile ou face. Si la variable aléatoire peut prendre un ensemble continu de valeurs (par exemple l’instant de désintégration d’un atome radioactif), la loi de probabilité devient une fonction définie sur cet ensemble.

Portrait-robot de la distribution gaussienne

ÉLÉMENTAÍRE

page 29

Une distribution gaussienne est entièrement caractérisée par la donnée de sa moyenne (μ) et de son écart-type (σ) ce qui la rend très simple d’emploi. Observons maintenant son tracé, représenté sur la figure 2. Ce que l’on remarque en premier lieu, c’est sa forme « en cloche ». La courbe est symétrique par rapport à une valeur centrale, que l’on note μ (μ=0 dans notre exemple), ce qui signifie qu’exactement 50% des résultats possibles sont supérieurs à μ et 50% inférieurs : μ est la médiane de la distribution. Cette valeur est également celle pour laquelle la gaussienne atteint sa valeur maximale : μ est donc le résultat le plus probable. À mesure qu’on s’éloigne de la moyenne, la gaussienne diminue, ce qui signifie que les valeurs correspondantes sont de moins en moins probables. La distribution des résultats autour de la valeur centrale est caractérisée par une quantité appelée «écart-type», notée σ («sigma») : plus l’écart-type est petit, plus la distribution est «piquée» autour de la valeur moyenne μ, c’est à dire que les résultats les plus probables sont très proches de cette valeur. Au contraire, plus l’écart-type est grand, plus la distribution est large, ce qui signifie que les résultats sont très dispersés. Cependant si l’on exprime l’écart entre les valeurs de x et μ de en unité donnée par la valeur de l’écarttype, nous retrouvons le comportement universel de la loi gaussienne : 68%


La distribution gaussienne des valeurs de x-μ sont comprises entre ± 1σ et 99% sont entre ± 2,6σ. La distribution gaussienne décroît très vite et les valeurs situées à plusieurs écarts-types sont très improbables comme on le voit sur la figure 2.

Les deux paramètres d’une gaussienne Rien de plus simple que de tracer une gaussienne ! En effet, la gaussienne de moyenne μ et d’écart type σ est donnée par la fonction

Exemples de distributions gaussiennes Les gaussiennes sont partout : elles servent à compter, mesurer, classer, estimer toutes sortes de données dont elles gouvernent les distributions. Pour vous en convaincre, nous vous proposons une petite rubrique qui pourrait s’intituler : « Lu pour vous sur Internet »…

ce qui permet de tracer la courbe de la figure 2.

En effet, en quelques minutes de recherche sur la toile, on trouve un grand nombre de variables dont la distribution est exprimée en terme de lois gaussiennes définies par la donnée de leur moyenne μ et de leur écarttype σ :

Valeur de la probabilité que les résultats d’une mesure soit situé au-delà d’un nombre donné d’écarts-type par rapport à la valeur moyenne. 1 sigma : 0,32 2 sigma : 0,05 3 sigma : 3 10-3 4 sigma : 6 10-6 5 sigma : 6 10-7 6 sigma : 2 10-9 En physique des particules on parle habituellement de découverte pour un effet situé au-delà de 5 sigma.

En réalité, aucune de ces distributions n’est exactement une gaussienne. Ceci est particulièrement apparent si l’on observe les « queues » de ces distributions, c’est-à-dire les valeurs des probabilités loin de leur valeur moyenne. Par exemple, il n’existe pas d’homme mesurant 10 cm ou 3 m alors que la distribution gaussienne donne une probabilité non nulle à toutes les tailles, positives comme… négatives ! C’est seulement pour des valeurs proches de la valeur moyenne que ces distributions sont décrites de façon approchée par une gaussienne.

Gaussiennes et mesures physiques La physique des particules ne fait pas exception à la règle : ici comme ailleurs, les distributions gaussiennes sont omniprésentes. Prenons l’exemple suivant (volontairement simplifié) : un groupe de physiciens cherche à tester une prédiction théorique en mesurant une certaine quantité N – par exemple le

page 30

figure 2 : Courbe représentant la loi de probabilité gaussienne de moyenne μ et d’écart type σ en fonction de la variable x-μ σ La moyenne est aussi la médiane (il y a exactement 50% de chance d’avoir un résultat plus petit et 50% de chance d’avoir un résultat plus grand) et l’axe de symétrie de la distribution : la fonction donnant la loi de probabilité a la même valeur pour un résultat et son opposé. Ce graphique montre que plus on s’éloigne de la valeur moyenne, moins le résultat est probable.

- La taille : μ = 165,5 cm et σ = 5,8 cm pour les Japonais ; μ = 175,5 cm et σ = 7,1 cm pour les Américains. Autrement dit, 68 % des Japonais mesurent entre 159,7 et 171,3 cm, tandis que 68 % des Américains mesurent entre 168,4 et 182,6 cm. - La capacité pulmonaire chez l’adulte : μ = 5 litres et σ = 0,5 litre. - Le trop fameux Q.I, test pseudo-scientifique censé mesurer de manière absolue « l’intelligence », est construit de manière à suivre une distribution gaussienne, avec μ = 100 et σ = 15. - La distribution de la longueur des noms/prénoms dans une assemblée, le volume de lait fourni annuellement par une vache laitière, l’âge des patients en consultation de médecine générale, les variations du prix des actions sur de courtes durées etc.

ÉLÉMENTAÍRE


La distribution gaussienne nombre moyen de fois où la désintégration d’une particule d’un certain type est observée en vingt-quatre heures dans leur détecteur. Après quelques jours d’expérience, leur analyse produit les résultats suivants : ❏ la théorie prédit une valeur N0 = 100 pour la quantité N ; ❏ la mesure donne N = 124 ; ❏ l’erreur statistique sur la mesure δN est de l’ordre de 5 ; ❏ si on reproduisait la même expérience un grand nombre de fois, l’histogramme des résultats aurait la forme d’une gaussienne. Que peut-on en déduire ? Mesure et théorie sont-elles en accord ou en désaccord ? Pour y répondre, il suffit de calculer le « nombre de sigmas » séparant la mesure N de la valeur attendue N0 (identifiée à la moyenne μ de la gaussienne), l’écart-type de cette distribution étant donné par l’erreur statistique : σ=δN. On trouve alors que N et N0 présentent une différence de « 4,8 sigma », i.e. N-N0=4,8σ. Le désaccord entre la prédiction et l’expérience est manifeste. C’est soit la signature d’un effet nouveau non pris en compte dans le calcul théorique, soit le signe que l’expérience n’a pas été bien réalisée. Cet exemple montre l’importance de l’erreur sur une mesure. L’estimation correcte de cette dernière est la seule manière de rendre un résultat crédible. Pour s’en convaincre, comparons deux cas de figure présentés dans le tableau ci-après. Valeurs issues de l’analyse

Scénario 1

Scénario 2

N0

100

100

N

200

105

δN

80

1

(N-N0)/δN

1,25

5

Dans le scénario 1, N et N0 sont séparés de « 1,25 sigma » alors que dans le scénario 2, l’écart est de « 5 sigma ». Ainsi, bien que la valeur mesurée dans le scénario 1 soit beaucoup plus éloignée de la valeur attendue que dans le scénario 2, la prise en compte des erreurs dans la comparaison inverse complètement la tendance. Le scénario 1 est compatible avec la théorie tandis que le scénario 2 la réfute. Ceci est illustré graphiquement dans la figure page suivante.

ÉLÉMENTAÍRE

page 31

Nous avons jusqu’à présent insisté sur l’importance de la loi gaussienne, car elle décrit souvent de façon satisfaisante la distribution statistique d’un vaste ensemble de résultats expérimentaux. Mais n’allez pas en conclure que toute donnée expérimentale suit cette loi de probabilité. Il en existe bien d’autres ! Par exemple, l’instant (aléatoire) de désintégration d’un atome radioactif suit une loi exponentielle (voir Élémentaire n°1). De même, les situations où on ne dispose que de peu d’événements (faible statistique) sont soumises à une troisième distribution de probabilités, appelée loi de Poisson.

Carl Friedrich Gauss (1777-1855) Résumer en quelques lignes la vie du « Prince des Mathématiques » tient de la gageure : l’œuvre scientifique de Gauss est en effet immense et couvre un large champ de la science qui ne se limite pas – loin s’en faut – aux probabilités et aux statistiques. Sa « carrière » débuta à l’âge de trois ans : il corrigeait déjà les comptes de son père. A six ans, il mystifia son professeur en trouvant en quelques instants la somme des cent premiers entiers, exercice que ce dernier avait imaginé pour occuper sa classe pendant un bon moment – essayez de la calculer vous-même en moins de trois minutes… sans calculatrice ni ordinateur bien sûr ! À dix-neuf ans, Gauss démontra que seuls certains polygones réguliers pouvaient être construits à la règle et au compas. En particulier, il découvrit la méthode de construction du polygone à dix-sept côtés et démontra l’impossibilité de ce type de construction pour celui à neuf côtés – depuis l’Antiquité grecque, personne n’avait obtenu de nouveaux résultats dans ce domaine. Gauss travailla également en algèbre où il démontra que tout polynôme a au moins une racine complexe, résultat connu sous le nom du théorème fondamental de l’algèbre et qui fut le sujet de sa thèse soutenue en 1799. En arithmétique, il prouva que tout nombre entier se décompose de façon unique en produit de facteurs premiers. Il posa les premiers jalons en direction des géométries non-euclidiennes – qui forment la base mathématique de la théorie de la gravitation d’Einstein – et de la théorie de la variable complexe. Au début du XIXe siècle, il s’intéressa aux mouvements des planètes et des astéroïdes (la mécanique céleste), thème d’un traité monumental publié en 1806. Pour simplifier l’étude du mouvement de l’astéroïde Cérès, il mit au point la méthode d’ajustement des moindres carrés, qui permet de trouver la courbe « régulière » la plus proche d’une distribution expérimentale donnée. Gauss étudia aussi les champs magnétiques – le gauss est aujourd’hui une unité d’induction magnétique. Les résultats obtenus par Gauss ne furent pas toujours connus immédiatement : il cherchait et trouvait beaucoup plus qu’il ne publiait. De nombreux théorèmes qu’il avait démontrés le premier portent maintenant le nom d’autres mathématiciens illustres qui, eux, les ont fait connaître.


La distribution gaussienne Eurêka ? On rencontre aussi des lois de probabilités non gaussiennes quand on veut prendre en compte la totalité des incertitudes qui affectent la mesure d’une quantité. D’une part, on a procédé à un grand nombre de mesures successives, dont la distribution est bien décrite par une gaussienne. Plus on effectue de mesures, et plus cette «erreur statistique» se réduit. Mais d’autre part, on a utilisé un appareillage qui possède des limitations techniques : le dispositif peut avoir été étalonné imparfaitement, ce qui induit un biais dans les valeurs mesurées, ou bien il identifie parfois le phénomène recherché de manière erronée, d’où une série de mesures contenant quelques «faux positifs» et manquant des «faux négatifs». Cette seconde source d’incertitude, appelée «erreur systématique», ne suit généralement pas une loi gaussienne. Elle est beaucoup plus délicate à estimer, et ne peut être diminuée que par une meilleure compréhension de l’appareil utilisé. Pour limiter l’impact de ces «erreurs systématiques», il faut mesurer la même quantité avec d’autres techniques et d’autres appareils : voilà pourquoi il n’est pas rare de voir des groupes de physiciens concurrents monter des «manips» complètement différentes pour étudier le même processus.

Comparaison des résultats des deux expériences : malgré les apparences, le résultat de la seconde est beaucoup plus contraignant que celui de la première. En effet, 200 n’est qu’à « 1,25 sigma » de la théorie alors que 105 est à « 5 sigma ». Avec une règle graduée en « sigma » – l’instrument adéquat pour comparer deux résultats expérimentaux – 105 est « plus loin » de 100 que 200 ! Pour chacun des scénarios le point correspond aux résultats de la mesure N tandis que la barre verticale représente l’incertitude expérimentale sur cette mesure δN. On parle de «barre d’erreur». Elle donne la taille caractéristique de la largeur de la gaussienne associée à la mesure.

Dans ce cas où lois gaussienne et non-gaussienne interviennent simultanément, il devient plus ardu de quantifier l’accord entre une mesure (expérimentale) et une prédiction (théorique). Mais on peut toujours arriver à l’exprimer en «unités de sigma» en faisant appel à un formalisme mathématique plus développé. Ainsi, on dispose d’un langage universel pour déterminer quantitativement si un processus s’est produit ou non : il a d’autant plus de chance d’être réel que le «nombre de sigmas» le séparant de l’hypothèse «ce processus n’a pas eu lieu» est élevé. En physique des particules, l’usage veut qu’on annonce la découverte d’un nouveau phénomène lorsque le résultat d’une mesure est situé à au moins «5 sigmas» de celui que l’on obtiendrait si l’effet testé n’existait pas. Si ces «5 sigmas» ne reflétaient qu’une erreur statistique, liée à une loi de probabilité gaussienne, on serait assuré d’avoir fait une découverte. En effet, le scénario selon lequel une fluctuation aléatoire des données aurait repoussé la valeur mesurée à plus de « 5 sigmas » de la valeur réelle correspond à une probabilité gaussienne très faible : 5,7 × 10-7... soit à peu près 6 chances sur 10 000 000 de se tromper ! Malheureusement, la réalité est moins simple, car ces «5 sigmas» rassemblent non seulement des incertitudes statistiques mais aussi des erreurs systématiques, souvent difficiles à évaluer correctement. Il arrive donc parfois que des physiciens des particules proclament une découverte, avant de revoir à la hausse leurs erreurs systématiques trop optimistes pour constater que la découverte annoncée n’en était pas une... Une illustration récente ? La saga du pentaquark que nous vous contons dans la rubrique «Icpackoi» !

Sommer les entiers de 1 à 100 Alors, vous avez trouvé ? Facile ! 1 + 2 + 3 + … + 100 = ( 1 + 99 ) + ( 2 + 98 ) + … + (49 + 51) + 50 + 100 = 49 ×100 + 150 = 5050 page 32

ÉLÉMENTAÍRE


Accélérateur Les débuts des accélérateurs linéaires et circulaires

© SLAC

La principale manière d’accélérer des particules chargées consiste à les plonger dans un champ électrique convenablement orienté (voir « Élémentaire » n°1). Plus ce dernier est intense, plus les particules acquièrent une énergie élevée en le traversant. Pour créer ce champ électrique, les premiers accélérateurs ont utilisé un condensateur dont les plaques étaient chargées progressivement, puis brusquement déchargées. Les particules accélérées avaient alors une énergie de l’ordre du million d’électron-volt (MeV). Comment aller plus loin et explorer une gamme d’énergie plus large ? Comme l’énergie fournie est directement proportionnelle à la différence de potentiel à l’origine du champ électrique, une simple règle de trois nous montre que pour passer d’une énergie de 1 MeV à une énergie de 1 GeV (1 milliard d’électron-volt) il faudrait disposer de différences de potentiel énormes, de l’ordre du milliard de volt !

Photo aérienne du Stanford Linear Accelerator Center (Californie). Le tube blanc visible sur l’image abrite le plus grand accélérateur linéaire du monde (3,2 km environ).

© IPNO

Cette valeur colossale est impossible à obtenir dans un accélérateur électrostatique du type de ceux présentés dans notre précédent numéro. En effet, une telle tension rendrait l’air conducteur et les plaques se déchargeraient instantanément, phénomène appelé « claquage ». Pour sortir de cette impasse, les physiciens ont mis au point dès les années 1930 d’autres modèles d’accélérateurs : les accélérateurs linéaires, puis circulaires. Ces machines, largement perfectionnées grâce aux progrès technologiques, forment toujours la base des accélérateurs d’aujourd’hui ; c’est pourquoi nous nous proposons de décrire leurs premiers pas dans la suite. En particulier, nous verrons que ces deux techniques (linéaire et circulaire) apportent une solution différente à la même constatation : « puisqu’un seul champ électrique ne peut pas fournir une accélération suffisante, utilisons-en plusieurs ! »

ÉLÉMENTAÍRE

page 33

© IPNO

L’accélérateur d’ions lourds Alice. Construit en 1970, il fonctionna jusqu’à 1985 à l’Institut de Physique Nucléaire d’Orsay.


Les débuts des accélérateurs linéaires et circulaires Les premiers accélérateurs linéaires Pourquoi utilise-t-on du courant alternatif plutôt que du courant continu ?

Schématiquement, un accélérateur linéaire est constitué de plusieurs condensateurs mis bout à bout : chacun d’entre eux génère un champ électrique qui apporte de l’énergie aux particules chargées qui le traversent. En plaçant ces éléments perpendiculairement à la direction initiale du faisceau de particules, ces dernières ne sont accélérées que dans le sens de leur mouvement et il suffit de disposer les condensateurs l’un derrière l’autre, en ligne droite… D’où le nom donné à ce type d’accélérateur !

Ce choix est motivé par deux raisons principales. Tout d’abord, utiliser un courant alternatif permet de changer au cours du temps le signe des charges déposées sur chacune des électrodes métalliques formant les cavités accélératrices. En synchronisant précisément ces variations, on s’arrange pour que les particules soient toujours accélérées : elles sont repoussées par l’électrode qu’elles viennent de traverser – dont la charge a le même signe que celles des particules – et attirées par l’électrode suivante, de charge opposée. Au fur et à mesure de la progression des particules dans l’accélérateur, les charges des électrodes sont basculées comme le montre la figure 1. La seconde raison est beaucoup plus pragmatique : le courant alternatif est bien moins coûteux à transporter que le courant continu, ce qui explique pourquoi l’électricité fournie aux particuliers comme aux entreprises l’est sous forme alternative.

F

En pratique, on utilise une succession d’électrodes cylindriques et creuses, connectées à une même source de tension alternative, similaire à notre alimentation d’électricité domestique (le « secteur ») mais nettement plus puissante. Le câblage électrique est réalisé de manière à ce que deux électrodes voisines portent toujours une charge opposée. Ainsi, des différences de potentiel apparaissent et génèrent un champ électrique entre chaque paire de conducteurs, responsable de l’accélération des particules. Au contraire, à l’intérieur des électrodes, le champ est nul. Le champ électrique suit les variations du courant qui est synchronisé avec le passage des particules, regroupées en « paquets ». La contrainte à vérifier est simple : lorsque que des particules subissent l’influence d’un champ électrique en traversant l’espace séparant deux électrodes (on parle alors de « cavité »), celui-ci doit être accélérateur. Le mode opératoire permettant de satisfaire cette condition est présenté sur la figure 1. La fréquence du courant alternatif (fixe) est liée aux longueurs des cavités (ajustables). Pour des particules non relativistes dont les vitesses sont très inférieures à celle de la lumière, le gain d’énergie va de pair

F

pas de champ

1 paquet d'électrons

Accélération

charge -

charge +

F

charge -

F

2

charge -

charge +

charge -

F

F

charge +

charge +

charge -

page 34

© B. Mazoyer

3 Accélération

figure 1 : Oscillations des champs électriques dans un accélérateur linéaire pour optimiser l’accélération des particules chargées. ① Le paquet de particules, des électrons chargés négativement, est dans une cavité. La première électrode porte une charge négative et la seconde une charge positive. Ainsi, le champ est accélérateur. Les charges des conducteurs étant alternées, la troisième électrode est négative. ② Le paquet d’électrons est maintenant à l’intérieur de la seconde électrode (creuse !) où il ne règne aucun champ électrique. Il continue donc sa route en ligne droite à vitesse constante. ③ Au moment où le paquet d’électrons sort de la seconde électrode, les charges des conducteurs basculent. Ainsi, le nouveau champ, dont les particules subissent l’influence, est également accélérateur. Si la configuration des charges ② avait été conservée, le champ aurait au contraire freiné les électrons. Le même phénomène se répète tout au long de l’accélérateur linéaire dans chaque cavité.

ÉLÉMENTAÍRE


© B. Mazoyer

Les débuts des accélérateurs linéaires et circulaires

figure 2 : Principe d’un accélérateur linéaire utilisé pour des particules non relativistes (dont la vitesse est très petite par rapport à celle de la lumière) pour lesquelles l’énergie et la vitesse croissent de concert. La taille des électrodes augmente proportionnellement à la vitesse des particules pour assurer la synchronisation des champs électriques alternatifs. Lorsque les particules accélérées sont ultra-relativistes (c’est-à-dire lorsque leur vitesse a presque atteint celle de la lumière, la vitesse limite indépassable), le gain d’énergie ne s’accompagne pas d’une variation notable de la vitesse et le problème de longueur précédent ne se pose plus : les cavités ont une taille constante, entièrement dictée par la fréquence du champ accélérateur oscillant.

avec un accroissement de la vitesse. On doit alors augmenter la taille des électrodes pour tenir compte de la synchronisation en fréquence du champ électrique. Cette idée fut utilisée par l’ingénieur norvégien Rolf Wideröe en 1928. Il inventa et construisit le premier accélérateur linéaire (ou LINAC) à Karlsruhe, dont un schéma simplifié est représenté sur la figure 2. L’accélérateur de Wideröe pouvait accélérer des ions positifs jusqu’à une énergie d’environ 50 keV. Il lui servit de sujet pour sa thèse, qu’il publia dans le journal allemand d’ingénierie électrique « Archiv für Elektrotechnik » avant de se tourner vers l’industrie.

© Pedro Waloscheck

Au début des années 1930, il y eut d’autres avancées dans le domaine des accélérateurs linéaires. En particulier, David Sloan construisit en 1931 un nouveau prototype capable d’accélérer des ions de mercure jusqu’à 1 MeV, soit un gain d’un facteur 20 par rapport à l’accélérateur de Wideröe. Néanmoins, le concept d’accélérateur linéaire fut mis entre parenthèses par la suite, à cause des coûts prohibitifs induits à l’époque par la multiplication du nombre de cavités accélératrices et aussi à cause du… cyclotron, objet de la deuxième partie de notre article !

Rolf Wideröe (1902-1996) Pour récompenser son apport décisif à la physique des accélérateurs, Rolf Wideröe a reçu en 1991 le prix de l’U.S. Particle Accelerator School, « en reconnaissance spéciale pour l’invention de l’accélération à radiofréquence ».

ÉLÉMENTAÍRE

page 35

Après la seconde guerre mondiale, les accélérateurs linéaires redevinrent cependant d’actualité : le développement des technologies liées au radar avait permis la mise au point de cavités accélératrices haute fréquence d’encombrement plus réduit. Celles-ci rendirent possible l’accélération à de plus hautes énergies, tout en limitant la taille des machines.


Les débuts des accélérateurs linéaires et circulaires Aujourd’hui, les accélérateurs linéaires sont toujours utilisés, y compris dans les très gros complexes d’accélérateurs circulaires. En effet les particules produites – à l’aide d’une cathode chauffée pour les électrons ou à partir d’atomes d’hydrogène, pour des protons – commencent toujours leur parcours par un trajet rectiligne au cours duquel elles reçoivent une accélération initiale avant d’être envoyées vers d’autres systèmes d’accélération.

Trajectoire d’une particule dans un champ magnétique Placée dans un champ magnétique uniforme, une particule chargée dont la vitesse est initialement dans une direction perpendiculaire au champ, décrit une trajectoire circulaire dont le rayon est d’autant plus grand que la particule a une impulsion élevée et d’autant plus petit que le champ est intense.

Comme le gain d’énergie par cavité accélératrice est limité par des effets variés (en particulier relativistes), il faut un grand nombre de cavités pour obtenir des énergies élevées. Ainsi, les accélérateurs linéaires actuels ont des dimensions de l’ordre du kilomètre et celui de la prochaine génération – dont les caractéristiques viennent juste d’être définies au niveau mondial après de nombreuses années de débat dans la communauté scientifique concernée – devrait être encore dix fois plus long. Malgré les progrès technologiques, l’encombrement de telles machines est toujours problématique !

Les premiers accélérateurs circulaires On peut montrer que la période du mouvement circulaire, c’est-à-dire le temps mis pour faire un tour, est indépendante de la vitesse de la particule et du rayon de la trajectoire. Elle est uniquement déterminée par la valeur du champ magnétique appliqué.

Pour augmenter encore l’énergie des particules, il faut disposer d’un grand nombre de cavités accélératrices. Comment y parvenir sans tomber dans le piège du gigantisme ? Une réponse « simple » : il suffit de faire parcourir plusieurs fois le même chemin aux particules, en les maintenant sur une trajectoire quasi-circulaire à l’aide d’un champ magnétique. On peut se convaincre que la valeur de la vitesse d’une particule n’est pas modifiée par un tel champ, puisque la force magnétique est perpendiculaire à la trajectoire de la particule. À la différence du champ électrique, on ne peut donc pas modifier la valeur de la vitesse d’une particule avec un champ magnétique uniforme, mais simplement la dévier. Ainsi, si on suppose que le mouvement de la particule a lieu dans le plan perpendiculaire au champ magnétique, sa trajectoire sera circulaire et à vitesse constante. Le rayon de l’orbite étant proportionnel à la vitesse, le temps mis par la particule pour effectuer une fraction donnée de tour est constant. Cette propriété est exploitée dans les accélérateurs circulaires, ou cyclotrons (voir figure 3) : à chaque demi-tour, les particules sont soumises à un champ électrique qui les accélère. Le courant alternatif qui produit ce champ est synchronisé avec la fréquence de rotation des paquets de particules

page 36

figure 3 : Schéma de cyclotron. Le champ magnétique a une direction perpendiculaire au plan du dessin.

ÉLÉMENTAÍRE


Les débuts des accélérateurs linéaires et circulaires dans le cyclotron. Ainsi, le champ est toujours accélérateur lorsque les particules traversent l’espace entre les plaques qui le délimitent.

© FNAL

À chaque passage dans le champ électrique, les particules sont accélérées, ce qui a pour effet d’augmenter le rayon de courbure de leur trajectoire qui ressemble finalement à une spirale. Dans les premiers cyclotrons, une source d’ions est placée au centre. Sous l’action conjuguée des champs électriques et magnétiques, les particules produites s’en éloignent jusqu’à arriver au bord de l’accélérateur. Lorsque les ions accélérés s’en échappent finalement, ils peuvent être utilisés pour diverses expériences.

figure 4 : Le premier cyclotron de Lawrence (1930).

L’inventeur du cyclotron est américain : au début de l’année 1929, un jeune scientifique nommé Ernest O. Lawrence tomba par hasard sur l’article de Wideröe et, malgré sa méconnaissance de l’allemand, comprit les schémas et les photos publiées. Souhaitant exploiter cette méthode novatrice d’accélération en évitant ses inconvénients (en premier lieu la taille et le coût des accélérateurs linéaires), il eut ainsi l’idée d’un autre type d’accélérateur, circulaire cette fois-ci, où les particules sont « ramenées » sans cesse dans la même zone d’accélération grâce à un champ magnétique qui courbe leur trajectoire.

Ernest O. Lawrence avait également en projet la construction d’un cyclotron de 4,6 m de diamètre, capable d’atteindre une énergie de 340 MeV. Il espérait ainsi pouvoir produire une particule que l’on pensait à l’époque être responsable de l’interaction forte (la force qui assure la cohésion des noyaux atomiques). La deuxième guerre mondiale

ÉLÉMENTAÍRE

Ernest O. Lawrence (1901-1958)

Extrait du discours de réception d’Ernest O. Lawrence pour le prix Nobel de physique 1939. « (…) Début 1929, un soir où je parcourais des revues récentes dans la bibliothèque de l’université, je tombais sur un article de Wideröe traitant de l’accélération répétée d’ions positifs, dans un journal de génie électrique allemand. Étant incapable de lire l’allemand, je regardais plutôt les diagrammes et les photographies de l’appareil de Wideröe et, à partir des divers schémas de l’article, je fus capable de déterminer son approche générale du problème – à savoir l’accélération répétée d’ions positifs par l’application appropriée de tensions oscillant en radiofréquence sur une série d’électrodes cylindriques alignées. Cette nouvelle idée s’imposa immédiatement à moi comme la bonne réponse au problème technique de l’accélération d’ions positifs (...) » Il faut porter au crédit de Lawrence le fait qu’il ne manqua jamais une occasion de préciser ce qu’il devait aux travaux de Wideröe. Ainsi, même si Lawrence seul obtint le prix Nobel de physique, Wideröe acquit également une célébrité méritée. page 37

Dans les années 30, les cyclotrons devinrent de plus en plus grands. En 1932 le troisième cyclotron de Lawrence mesurait 69 cm de diamètre et des protons y étaient accélérés à une énergie de 4,8 MeV. En 1938, un autre cyclotron fut utilisé pour la première fois dans un traitement contre le cancer. En effet Ernest Lawrence collabora avec son frère John qui était alors directeur du Laboratoire de physique médicale à l’université de Berkeley en Californie. En 1939 enfin, son dernier modèle de cyclotron mesurait 1,5 m et pouvait accélérer des protons à 19 MeV.

DR

En 1930, le premier cyclotron de Lawrence (construit avec son collègue Milton Livingston) ressemblait plutôt à un jouet : il mesurait seulement 11 cm de diamètre et avait coûté 25 dollars de l’époque, mais il pouvait déjà atteindre une énergie de 80 keV (figure 4). Un an plus tard, son grand frère, un cyclotron de 28 cm, arriva à l’énergie de 1 MeV. Cette machine aurait pu casser le noyau atomique avant que Cockcroft et Walton ne le fassent (voir Élémentaire n° 1), mais Lawrence manqua le coche : en effet, on raconte qu’il se trouvait en voyage de noces lorsque la nouvelle de la fission du noyau de lithium lui arriva...


Les débuts des accélérateurs linéaires et circulaires freina ce programme : Lawrence rejoignit l’équipe du projet Manhattan qui s’occupait de mettre au point la bombe atomique.

© Ernest Orlando Lawrence Berkeley National Laboratory

De toute manière, la technique du cyclotron était destinée à se confronter avec un problème conceptuel majeur qui limite en pratique l’énergie maximale atteignable à environ 100 MeV : la théorie de la relativité d’Einstein. En effet, dès qu’une particule approche de la vitesse de la lumière, des phénomènes nouveaux apparaissent et compliquent l’utilisation des techniques dont nous venons de parler. Par exemple, le temps de parcours de l’orbite n’est plus constant ce qui fait que notre discussion précédente du champ accélérateur ne s’applique plus. De plus, les particules perdent une partie de leur énergie à chaque tour, sous forme de rayonnement lumineux, appelé « rayonnement synchrotron » - perte qu’il faut compenser. Pour atteindre des énergies plus élevées, de nouveaux progrès dans la conception des accélérateurs étaient nécessaires : le cyclotron allait bientôt être remplacé par le « synchro-cyclotron » dans lequel le champ magnétique augmente avec la vitesse des particules, les forçant ainsi à rester sur la même trajectoire circulaire. Néanmoins, les cyclotrons restent encore utilisés aujourd’hui, pour des études en physique nucléaire, pour la production de radio-isotopes et dans le domaine médical.

Lawrence à Berkeley en 1939 devant son cyclotron d’1,5 m.

page 38

Ernest O. Lawrence obtint son doctorat à l’Université de Yale en 1925, après des études de chimie et de physique dans les Universités du Dakota du Sud, du Minnesota et de Chicago. Après trois ans passés à Yale, il partit pour Berkeley où il avait obtenu un poste de professeur assistant. Dès 1930, il était professeur (le plus jeune sur le campus de Berkeley) et il prit la direction du Laboratoire de radiation de l’université en 1936. Il occupa ces fonctions jusqu’à son décès. Le prix Nobel de physique 1939 couronna en particulier son invention du cyclotron et ses applications en biologie, en médecine ou dans l’étude de centaines d’isotopes radioactifs. Lawrence travailla également sur les ions, étudia les décharges électriques de la foudre et mit au point un compteur capable de mesurer des intervalles de temps de 3 milliardièmes de seconde. Pendant la seconde guerre mondiale, il participa de manière décisive aux efforts des scientifiques pour mettre au point la bombe atomique. Après la fin du conflit, il milita pour la signature d’accords internationaux bannissant les essais nucléaires. Deux laboratoires de physique américains portent aujourd’hui le nom de Lawrence : les laboratoires « Lawrence Livermore » (LLNL) http://www.llnl.gov/ et « Lawrence Berkeley » (LBL) http://www.lbl. gov/. Enfin, l’élément chimique artificiel de nombre atomique Z = 103 fut découvert en 1961 au LLNL et fut baptisé « lawrencium » en son honneur.

De nombreux accélérateurs de particules actuels sont basés sur le principe du synchro-cyclotron. Ils ont une forme quasi-circulaire, alternant des zones courbées dans lesquelles les particules tournent sous l’effet d’un champ magnétique et des zones rectilignes où elles sont accélérées par des champs électriques. C’est par exemple le cas au CERN, près de Genève, où se trouve un anneau souterrain d’une trentaine de kilomètres de circonférence, creusé dans un tunnel situé à cheval entre la Suisse et la France. Pendant une dizaine d’années (de 1989 à 1999), on a procédé à des expériences qui nécessitaient d’accélérer des faisceaux d’électrons et de positrons jusqu’à des énergies dépassant 100 GeV par faisceau – énergie 5000 fois plus élevée que celle du cyclotron de Lawrence de 1939. En 2007, des protons remplaceront les électrons et atteindront des énergies encore bien plus colossales : environ 7 TeV soit plus d’un ordre de grandeur encore gagné ! Ce sera alors le temps du LHC (« Large Hadron Collider »), mais c’est une autre histoire... À bientôt pour la suite de la saga des accélérateurs !

ÉLÉMENTAÍRE


Découvertes Des neutrons dans les étoiles L’Univers n’est pas composé seulement d’étoiles et de planètes : il contient d’autres objets parfois surprenants où règnent des conditions physiques extrêmes. Ainsi, en 1967, les étoiles à neutrons, imaginées par des théoriciens dès les années 1930, mais restées invisibles à toute observation astronomique pendant près de quatre décennies, ont été découvertes. Examinons ensemble ces corps célestes, moins célèbres que les trous noirs, mais tout aussi fascinants. Le concept d’étoile est assez familier : la plus proche de la Terre, le Soleil, nous éclaire et nous chauffe – sans sa lumière et la chaleur qu’elle procure, aucune vie ne serait possible. De plus, lorsque nous contemplons le ciel, de nuit, à la campagne (loin de la « pollution » lumineuse des villes), nous ne voyons presque que des étoiles : seules quelques planètes du système solaire, éclairées par le Soleil, sont parfois visibles. Quant au neutron, nous espérons que ce numéro d’Élémentaire vous permet de découvrir cette particule dans ses moindres détails. Il ne reste donc plus qu’à associer les deux termes : qu’est-ce qu’une étoile à neutrons ? Imaginez une boule de 10 kilomètres de rayon – en gros la taille de la petite couronne parisienne – composée presque exclusivement de neutrons. Malgré sa taille, minuscule à l’échelle de l’Univers, une étoile à neutrons 27 est très massive : 2,8 × 10 tonnes soit environ 1,4 fois la masse du Soleil. Arrêtons-nous un instant sur ces nombres.

Que voit-on dans le ciel ? La plupart des points lumineux visibles la nuit dans le ciel sont des étoiles : en les regardant attentivement, on remarque qu’elles scintillent. En effet, les étoiles sont très éloignées de la Terre et nous apparaissent comme des sources lumineuses ponctuelles. Quand la lumière émise par une étoile traverse l’atmosphère terrestre, elle subit une réfraction qui modifie sa trajectoire. Cette modification dépend de la densité et de la température des couches d’air traversées. La trajectoire de la lumière n’est pas parfaitement stable ; elle varie au cours du temps, au gré des turbulences atmosphériques. L’image de l’étoile se déplace sans cesse : elle scintille. Au contraire, il y a des objets lumineux qui ne scintillent pas : ce sont les planètes du système solaire (Venus, Mars, Jupiter...), qui sont suffisamment proches de la Terre pour nous apparaître étendues. Comme dans le cas d’une étoile, l’image d’une planète est affectée par la réfraction, mais le déplacement ainsi produit est petit comparé à la taille apparente de la planète. Seul le bord de la planète semble se déplacer légèrement, mais cet effet est trop faible pour être visible à l’oeil nu. L’image d’une planète nous apparaît donc stable. Les étoiles filantes sont des roches venues de l’espace, qui brûlent en traversant l’atmosphère et laissent ainsi une trace fugace de leur passage. Il arrive parfois que la combustion ne soit pas complète : les morceaux restants tombent finalement sur la Terre, ce sont les fameuses météorites. Beaucoup plus rarement, des comètes sont visibles : ce sont en fait d’énormes blocs de glace originaires de la périphérie du système solaire qui s’échauffent et fondent à mesure qu’ils se rapprochent du Soleil. C’est l’origine de leur panache, visible depuis la Terre. La plus célèbre des comètes est celle de Halley, du nom de l’astronome anglais du XVIIe siècle qui a montré que son mouvement autour du Soleil était périodique et qu’elle revenait « nous rendre visite » tous les 76 ans. Son prochain passage est attendu en 2062...

©Viamichelin

Diviser la masse de l’étoile à neutrons par le volume qu’elle occupe nous 14 3 donne sa masse volumique : 6,7 × 10 g/cm , alors que celle de l’eau n’est 3 que de 1 g/cm . Pour illustrer cette valeur colossale, calculons la masse 3 de 3 cm d’une étoile à neutrons – le volume d’un morceau de sucre. On obtient 2 milliards de tonnes, soit environ 200 000 fois la masse de la Tour Eiffel ! À cause de cette densité énorme – celle du noyau atomique – la pesanteur à la surface d’une étoile à neutrons est cent milliards de fois plus importante que sur Terre.

Vie et mort d’une étoile

ÉLÉMENTAÍRE

Carte de la région parisienne. Au centre, le cercle noir indique la taille typique d’une étoile à neutrons : elle dépasse à peine la petite couronne, pour une masse 450 000 fois supérieure à celle de la Terre. page 39

Contrairement à une étoile « classique », une étoile à neutrons ne dégage pas d’énergie nucléaire. Pourquoi ce nom alors ? « Planète à neutrons » ou « astéroïde à neutrons » n’auraient-ils pas été plus appropriés ? Non, car tout d’abord l’étoile à neutrons rayonne de l’énergie et peut être visible directement. De plus elle est le stade ultime de l’évolution d’une certaine catégorie d’étoiles, celles dont la masse est grosso modo comprise entre dix et trente fois celle du Soleil.


Des neutrons dans les étoiles

DR

Une étoile en fonctionnement est un milieu en équilibre : la gravitation, qui tend à la faire s’effondrer sur elle-même, est contrebalancée par la pression de radiation qu’exercent les photons produits lors des réactions nucléaires. Mais une fois le combustible épuisé, la gravitation l’emporte et la matière de l’étoile s’écroule vers son centre jusqu’à atteindre la densité de la matière nucléaire, c’est-à-dire jusqu’à ce que les noyaux constituant l’étoile en viennent presque à se toucher. Les forces mises en jeu ne permettant pas de compresser la matière plus avant, les couches internes de l’étoile, qui ont atteint cette densité, «rebondissent» et forment une onde de choc qui expulse les couches externes de l’étoile. Lors de cette explosion très spectaculaire et très brève (de l’ordre de quelques secondes), appelée supernova, la quantité de lumière émise peut être équivalente à celle de la galaxie hôte toute entière (comme si un milliard de soleils s’illuminait simultanément). Ce véritable cataclysme est l’un des phénomènes les plus violents actuellement observés dans l’Univers.

Subrahmanyan Chandrasekhar (1910-1995), prix Nobel de physique 1983, a étudié la physique à l’Université de Madras. En 1930 il commence une thèse à Cambridge avec R. H. Fowler avec qui il partagera le prix Nobel. Il rejoint l’Université de Chicago en 1937. Son activité scientifique a porté sur l’étude de l’évolution des étoiles.

Mais les choses ne s’arrêtent pas là. En effet, les réactions nucléaires successives ayant fourni l’énergie de l’étoile ont abouti à la formation d’un cœur essentiellement constitué de fer (l’élément chimique le plus stable). Ce noyau très massif accumule la matière environnante par gravitation jusqu’à ce qu’il atteigne une masse critique, dite de Chandrasekhar (1,4 fois celle du Soleil environ). Au-delà de ce seuil, la gravité l’emporte définitivement sur les autres forces. Dans le cœur de l’étoile, la majorité des protons fusionnent avec les électrons pour former des neutrons : une étoile à neutrons est née. Autour de ce coeur de neutrons, il existe une couche où la pression est moins forte, dans laquelle des neutrons, des électrons et des noyaux cohabitent. Par-dessus ce chaudron de sorcière, la surface d’une étoile à neutrons est faite d’une croûte dure de noyaux riches en neutrons.

Les protons fusionnent avec les électrons La réaction qui a lieu dans le cœur de l’étoile est la suivante : p + e-—> n + ν où p est un proton, e- un électron et ν un neutrino. C’est l’inverse de la désintégration radioactive β.

Toutes les étoiles ne finissent pas leur vie de la sorte. Si la masse de l’étoile est inférieure à la masse critique de Chandrasekhar, la gravitation est moins puissante. L’étoile commence par Une étoile, comment ça marche ? grossir énormément (Betelgeuse est un exemple de telles Une étoile est une boule de gaz très dense ; en son centre la «géantes rouges») avant de se refroidir doucement, de rétrécir température et la pression sont si élevées que des réactions et de laisser finalement la place à une naine blanche d’une de fusion nucléaires ont lieu, transformant l’hydrogène en taille comparable à la Terre. Au sein de ce cadavre d’étoile hélium et dégageant une quantité d’énergie formidable. Le Soleil est une étoile « moyenne », tant au niveau de sa plus aucune réaction thermonucléaire n’a lieu. Au contraire, masse que de sa luminosité : il en existe des milliards d’autres si l’étoile est très lourde (une trentaine de fois la masse solaire semblables dans notre galaxie. Aujourd’hui, le Soleil est au moins), on pense qu’elle se transforme en trou noir. Dans composé d’environ 80% d’hydrogène et de 20% d’hélium ; ce dernier cas, la gravitation est tellement forte que l’étoile chaque seconde, il transforme quatre millions de tonnes de est devenue une sorte de piège céleste, retenant tout ce qui matière en énergie. C’est une goutte d’eau par rapport à sa passe à sa portée, y compris la lumière, d’où son nom. masse, environ deux milliards de milliards de milliards de Dans notre galaxie, on estime que une à trois supernovae tonnes, soit 99,9% de la masse totale du système solaire ! Le explosent chaque siècle et qu’elles donnent naissance en diamètre du Soleil est d’environ 1,4 millions de km, soit 3 fois majorité à des étoiles à neutrons. Âgée de dix milliards la distance Terre-Lune ; le Soleil est plus d’un million de fois plus volumineux que la Terre. d’années environ la Voie Lactée comporterait donc entre cent Plus une étoile est massive, plus elle brûle vite ses réserves. millions et un milliard d’étoiles à neutrons… page 40

Heureusement pour nous, le Soleil est relativement léger : il « fonctionne » depuis cinq milliards d’années déjà et devrait encore éclairer la Terre pendant une durée similaire.

ÉLÉMENTAÍRE


Des neutrons dans les étoiles Des phares célestes Revenons au processus de formation d’une étoile à neutrons. Lors de l’effondrement gravitationnel, la rotation de l’étoile sur elle-même s’accélère considérablement en même temps que l’intensité du champ magnétique à sa surface augmente. L’accélération du mouvement de rotation s’explique par la loi de conservation du moment angulaire : l’astre prend de la vitesse lorsque son diamètre diminue, tout comme une patineuse qui replie ses bras au moment d’entamer une série de vrilles. Ainsi, la période de rotation d’une étoile à neutrons varie entre quelques millisecondes et quelques secondes – à comparer avec notre jour de 24 heures ! Une seconde loi de conservation est à l’origine de l’augmentation du champ : c’est la loi de conservation du flux magnétique selon laquelle le produit de la valeur du champ magnétique par la surface de l’étoile est une constante. La diminution de cette dernière entraîne donc l’intensification du premier, dont la valeur peut atteindre mille milliards de fois celle du champ magnétique terrestre. Ces deux propriétés donnent lieu au phénomène de «pulsar». Les pulsars forment une catégorie particulière d’étoile à neutrons qui envoie dans l’espace des jets de photons très intenses dont une partie au moins proviendrait d’une émission synchrotron. Pour comprendre leur origine, faisons un petit détour par la Terre. Par définition, son axe de rotation passe par les pôles géographiques Nord et Sud. Mais ceux-ci ne sont pas aux mêmes emplacements que les pôles magnétiques, auxquels l’aiguille d’une boussole est sensible. Le même décalage peut exister à la surface d’une étoile à neutrons. Dans ce cas, rotation rapide et champ magnétique élevé se conjugueraient pour produire des jets de photons très intenses le long de son axe magnétique.

ÉLÉMENTAÍRE

page 41

Par suite de la rotation propre de l’astre, ces faisceaux balayent une partie de l’espace, à la manière d’un phare dont la coupole tourne sur ellemême. Si la Terre est éclairée par l’un de ces jets de particules, l’étoile à neutrons peut être détectée. Le signal observé est constitué d’impulsions qui reviennent à intervalles réguliers, d’où le nom de «pulsars» donné à ces phénomènes. Aujourd’hui, on connaît plus de 1000 pulsars, dont les périodes varient entre 1,6 millisecondes et 5 secondes. Les plus brillants d’entre eux sont détectés sur une vaste gamme de longueurs d’onde électromagnétiques.

L’émission synchrotron Lorsque des particules chargées (par exemple des électrons) traversent un champ magnétique, elles perdent de l’énergie en émettant un rayonnement électromagnétique, dit synchrotron. Les propriétés du rayonnement que l’on capte en provenance des pulsars semblent indiquer que l’on a affaire, au moins en partie, à une émission synchrotron. Néanmoins, l’origine précise de ces jets de photons n’est pas encore bien connue.


Image en rayons X de Puppis A : au centre de la nébuleuse issue de la supernova, on distingue un petit objet qui pourrait être une étoile à neutrons.

1967 : a-t-on détecté les premiers hommes verts ? Nous sommes à Cambridge en 1967. Une étudiante, Jocelyn Bell, et son professeur, Anthony Hewish, travaillent sur les quasars, des objets mystérieux parmi les plus lointains (et donc les plus anciens) de l’Univers, découverts quatre ans plus tôt. Pour leur étude, ils utilisent des observations dans la gamme des ondes électromagnétiques « radio » qu’ils doivent analyser manuellement, sans ordinateur. Soudain, J. Bell découvre une source alternativement brillante et muette qui « clignote » à une fréquence constante. Au début, cette régularité semble trop parfaite pour être naturelle ; la source est même baptisée « Little Green Men 1 » : « Petits Hommes Verts 1 » ! Une étude plus poussée montre que ce signal radio est émis par un pulsar, une étoile à neutrons en rotation sur ellemême, et qu’il n’est pas un phénomène unique. Pour les extra-terrestres, il faudra encore attendre… Anthony Hewish a reçu le prix Nobel de physique en 1974 ; la découverte des pulsars figurait en bonne place dans les attendus du comité Nobel motivant cette récompense. Jocelyn Bell dirige actuellement le département de physique de l’Open University en Grande-Bretagne.

© Imagine the Universe http://imagine.gsfc.nasa.gov/index.html

Des neutrons dans les étoiles

Un pulsar n’est pas éternel : il dissipe peu à peu son énergie, ce qui se traduit par un ralentissement de son mouvement de rotation et une diminution de son champ magnétique. Ainsi, l’intensité de ses jets de photons diminue lentement et, en quelques millions d’années, le pulsar s’éteint.

Deux supernovae fameuses Les deux supernovae les plus « célèbres » de l’histoire de l’astronomie sont sans doute celles de la nébuleuse du Crabe qui a explosé en 1054 et la supernova 1987A. • La supernova de la nébuleuse du Crabe était suffisamment proche de la Terre pour qu’elle fût visible à l’œil nu, en plein jour, pendant plusieurs semaines. Ce phénomène a bien entendu frappé les gens qui y ont assisté : on a retrouvé de nombreux témoignages de son observation dans des civilisations très diverses, de la Chine à l’Amérique du Sud en passant par l’Europe. La nébuleuse du Crabe témoigne de ce cataclysme, vieux maintenant de près d’un millénaire.

page 42

• Début 1987, une supernova a explosé dans le Grand Nuage de Magellan, une petite galaxie satellite de la nôtre, visible par nuit claire dans l’hémisphère sud. Grâce aux progrès de la technique, ce phénomène a été observé en détail. En particulier, 19 neutrinos produits lors de l’explosion (sur un total estimé de... 1057 !) ont été détectés, ce qui a permis de mieux comprendre le mécanisme d’explosion d’une supernova, caractérisé par une émission très importante de neutrinos.

ÉLÉMENTAÍRE


© Imagine the Universe http://imagine.gsfc.nasa.gov/index.html

Des neutrons dans les étoiles

© Imagine the Universe http://imagine.gsfc.nasa.gov/index.html

On pense que les étoiles ayant entre 8 et 30 masses solaires finissent leur vie en supernova puis en étoile à neutrons. Il n’est cependant pas toujours possible de détecter ou d’identifier cette dernière avec certitude. Ainsi, on n’a encore jamais observé la présence d’une étoile à neutron dans la région de l’espace où a explosé la supernova de 1987. Il se peut que la matière environnante soit encore trop dense pour laisser passer le rayonnement de l’étoile, ou bien que la Terre ne soit tout simplement pas dans l’axe du pulsar. Dans certains cas, on peut observer la lumière directe émise par l’étoile. Par exemple, on observe, dans la nébuleuse Puppis A, un objet très lumineux dans la gamme des rayons X, qui pourrait être l’étoile à neutron résiduelle d’une ancienne supernova. Cependant on n’observe pas le pulsar associé, qui serait la signature incontestable de la présence d’une étoile à neutrons.

page 43

©Anglo-Australian Observatory/David Malin Images

Nébuleuse du Crabe observée en lumière visible. Le «nuage» visible en bleu est un vestige de l’explosion de la supernova de 1054.

La nébuleuse de la Tarentule dans le Grand Nuage de Magellan après (gauche) et avant (droite) la supernova 1987A. L’étoile qui a explosé est indiquée par une flèche.

ÉLÉMENTAÍRE

Pulsar de la nébuleuse du Crabe « éteint » (figure de gauche) et « allumé » (figure de droite). L’image est prise dans la gamme des rayons X.


Théorie Ondes et particules (2) Si vous avez manqué le début... Dans le premier numéro d’Élémentaire, nous nous sommes intéressés à la nature de la lumière : est-elle onde ou particules ? Après de longues controverses, les physiciens du XIXe siècle pensaient avoir obtenu une réponse claire : la lumière devait être une onde. En particulier, l’expérience des fentes d’Young (voir figure 1) donnait lieu à des figures d’interférences qui s’expliquaient naturellement si la lumière était de nature ondulatoire. Mais à partir des années 1860, la belle unanimité des physiciens s’est fissurée. En effet, des expériences sur le corps noir et l’effet photoélectrique aboutissaient à des résultats absolument inexplicables si on considérait la lumière comme une onde. Max Planck et Albert Einstein interprétèrent ces résultats en supposant que la lumière était constituée de quanta lumineux, des particules appelées photons. Selon eux, l’énergie d’un photon E est proportionnelle à la fréquence de la lumière ν : E = h ν, h désignant une constante universelle, la « constante de Planck ». À n’y rien comprendre...

Onde Une onde décrit la manière dont une perturbation se propage dans un milieu - par exemple, les vagues créées par une pierre jetée dans un étang. On peut associer à une onde une vitesse de propagation, une longueur d’onde et une fréquence. Particule Une particule élémentaire est un point qui nous apparaît sans extension spatiale et sans structure interne. Malgré tous nos efforts, nous n’avons pas réussi à la casser en des éléments plus petits. On peut associer à une particule diverses propriétés, comme une masse, une charge (mesurant la sensibilité à une force, comme la charge électrique), etc...

Toutes ces expériences, détaillées dans le précédent numéro d’Élémentaire, sont loin de nous avoir éclairés (!) sur la nature de la lumière. Le dispositif des fentes d’Young la désigne comme une onde susceptible d’interférer avec elle-même, alors que la théorie d’Einstein la décrit comme un ensemble de photons corpusculaires. Pour réconcilier ces deux interprétations, les physiciens ont dû construire une théorie fort déroutante au premier abord : la mécanique quantique.

Le corps noir C’est une boîte fermée dont les parois sont portées à une température constante (comme un four). Une partie de la chaleur est convertie en un rayonnement dont on peut analyser le spectre, c’est-à-dire la variation de l’intensité lumineuse en fonction de la longueur d’onde.

FENTES

ÉCRAN

figure 1 : Expérience des fentes d’Young.

page 44

L’effet photoélectrique Lorsqu’on éclaire une plaque de métal avec un rayonnement ultraviolet intense, on parvient à en éjecter des électrons. Cet effet se produit même pour une lumière de faible intensité, ce que la théorie ondulatoire de la lumière ne permet pas d’expliquer.

SOURCE

Franges d’interférences obtenues dans une expérience de fentes d’Young.

ÉLÉMENTAÍRE


Ondes et particules (2) Selon la mécanique quantique, les particules élémentaires comme les photons sont de curieux objets. Elles ont un aspect corpusculaire, car on peut les compter et les reconnaître grâce à certaines propriétés (masse, charge électrique...). Cependant on ne peut pas leur attribuer simultanément une vitesse et une position bien définies, comme on le ferait en mécanique classique. En fait, la mécanique quantique se limite au calcul de probabilités concernant ces quantités. Et ce calcul fait appel… à des ondes, comme nous allons l’expliquer en suivant la démarche de Richard Feynman dans son livre « Lumière et matière ».

© S. Descotes-Genon

Éclairons un écran avec une lampe émettant une lumière colorée, ou plus précisément monochromatique. En termes ondulatoires, cette lumière possède une longueur d’onde bien définie, contrairement à la lumière blanche qui est la superposition de rayonnements de différentes longueurs d’onde. Baissons très fortement l’intensité de la lampe, de manière à pouvoir compter un par un les photons qu’elle émet. Si on connaît l’intensité de l’éclairage et la longueur d’onde de la lumière émise, on peut calculer le nombre moyen de photons qui arrivera sur l’écran. Mais avec ce dispositif, on ne peut pas suivre un photon particulier à la trace : lorsqu’un photon est émis, on ne sait pas à quel endroit précis de l’écran il va arriver.

figure 2 : Comment déterminer la trajectoire des photons ? Une première tentative.

Essayons maintenant de sélectionner les photons en intercalant un plan percé d’un trou entre la lampe et l’écran (voir figure 2). Une tache lumineuse apparaît sur l’écran : les photons émis par la lampe se retrouvent

Physicien américain, Richard Feynman a joué un rôle essentiel dans le développement du Modèle Standard des particules élémentaires, en proposant des idées et des méthodes remarquablement novatrices. Il travailla en particulier sur la description de l’électromagnétisme au niveau quantique, en développant des outils mathématiques puissants, encore utilisés actuellement par les physiciens des particules. Il conçut des méthodes graphiques pour représenter et calculer sous forme de diagrammes (dits de Feynman) les probabilités d’interaction et de désintégration des particules élémentaires.

© DP

Feynman expliqua également l’absence de viscosité de l’hélium à très basse température (ou superfluidité), en montrant qu’il s’agissait d’un comportement quantique visible à une échelle macroscopique. Il participa enfin à la construction de la théorie de la force nucléaire faible, responsable de la radioactivité bêta. Il obtint en 1965 le prix Nobel de Physique avec Julian Schwinger et Sin-Itiro Tomonaga pour plusieurs travaux sur l’électrodynamique quantique.

Richard Feynman (1918-1988)

Remarquable enseignant, Feynman reste célèbre pour l’originalité, la clarté et la précision de ses cours de physique dispensés à l’université américaine de Cornell et à Caltech, qui furent rassemblés et publiés sous différents titres (dont les « Feynman lectures on Physics »). Le grand public profita également de ses talents de pédagogue, au cours de conférences sur la physique des particules ou grâce à des livres sur des domaines naissants de la physique, comme les nanotechnologies et les ordinateurs quantiques.

ÉLÉMENTAÍRE

page 45

Doté d’un sens de l’humour déroutant, Feynman avait une personnalité volontiers excentrique et sa vie a fourmillé d’aventures picaresques décrites dans son autobiographie « Surely, you’re joking, Mr Feynman » (« Vous voulez rire, M. Feynman ! »).


Ondes et particules (2)

© Brock University

à l’intérieur de cette tache qui est l’image géométrique du trou sur l’écran. On n’a cependant pas beaucoup progressé. Certes, on a restreint la région de l’écran où les photons arrivent – les autres sont simplement arrêtés par l’écran. Mais à l’intérieur de cette zone « sélectionnée », on ne peut toujours pas dire si un photon donné arrive plutôt en haut, en bas, à droite ou à gauche.

Disques d’Airy obtenus en faisant passer une lumière monochromatique à travers un trou dont le diamètre est proche de la longueur d’onde de la lumière.

Qu’à cela ne tienne, perçons des trous de plus en plus petits. En diminuant la taille du trou, nous réduisons son image sur l’écran ; nous finirons bien par délimiter précisément la zone de l’écran où les photons arrivent... Catastrophe ! Quand le diamètre du trou est proche de la longueur d’onde de la lumière, on observe sur l’écran une série de cercles lumineux concentriques autour de la tache lumineuse centrale : l’image du trou n’est plus nette. Cet effet de diffraction, appelé disques d’Airy, nous empêche de connaître la trajectoire d’un photon avec précision : comment savoir si un photon donné a abouti à l’intérieur de la tache centrale ou dans un des cercles extérieurs ?

La mécanique quantique entre en scène... Cette expérience frustrante nous suggère que nous ne pouvons pas suivre individuellement la trajectoire d’une particule élémentaire avec une précision infinie. Notre connaissance de cette trajectoire est fondamentalement limitée. En fait, la mécanique quantique va plus loin et abandonne la notion déterministe de trajectoire d’une particule pour adopter un point de vue probabiliste. On peut simplement parler de la probabilité d’observer un événement ou une suite d’événements : détecter un photon avec telle énergie, observer un photon à telle position à tel instant, ou encore voir en un point un photon émis ailleurs un peu plus tôt. Ainsi, il faut renoncer à penser les particules comme des objets munis d’une vitesse et d’une position bien définies à tout instant, indépendamment de toute observation.

a

© B. Mazoyer

φ a cos φ

figure 3 : Le vecteur tournant qui repésente l’évolution d’une onde

Pour calculer la probabilité d’observer un événement, il faut recourir à un langage ondulatoire. À chaque trajet du photon est associée une « amplitude de probabilité », similaire à l’amplitude d’une onde, qu’on peut représenter par un vecteur tournant → a (voir figure 3). Cette « aiguille de compteur » fait un tour de cadran quand on parcourt une distance égale à λ, la longueur d’onde associée à l’énergie du photon par la formule de Planck - Einstein E=hν=hc/λ, où c est la vitesse de la lumière dans le vide. → 2 pour obtenir une Il suffit de prendre le carré de la longueur du vecteur |a| valeur proportionnelle à la probabilité associée au trajet.

page 46

Jusqu’ici, rien de bien sorcier. Le problème vient de notre ignorance de la trajectoire exacte du photon. Pour calculer la probabilité d’observer ce photon en un point de l’écran, nous allons devoir considérer tous les

ÉLÉMENTAÍRE


Ondes et particules (2) Mathématiquement, on définit l’amplitude de probabilité totale comme la somme des amplitudes de probabilité associées aux différentes trajectoires possibles du photon. Ici, cela revient à calculer la somme → +... . La probabilité finale des vecteurs associés aux divers trajets : → a1+a 2 d’observer un photon en un point précis de l’écran correspondra au carré → +...|2. Remarquons qu’on fait la → +a de la longueur du vecteur somme : |a 1 2 somme des amplitudes, et non la somme des probabilités des trajets (ce → 2 → |2+|a qui correspondrait à |a | +...). Nous allons voir que cette méthode 1 2 permet de décrire les comportements très variés de la lumière.

a

Onde ou particule, onde et particule...

φ a1

φ1

Somme → a de deux vecteurs tournants → a1 et → a2

Commençons par un trajet de la source à l’écran sans obstacle (figure 4). Le parcours en ligne droite correspond au trajet de durée et longueur minimales. Pour des trajets voisins, « l’aiguille du compteur » sera quasiment dans la même direction et ce trajet aura une contribution qui s’ajoutera à celle du précédent. Mais ce n’est plus le cas pour des trajets, plus longs, qui s’écartent beaucoup de la ligne droite. Deux tels trajets, même très proches, peuvent avoir des longueurs très différentes : on peut donc trouver des trajets voisins pour lequels les « aiguilles de compteur » associées sont dirigées dans des directions opposées. Les deux contributions sont dites en opposition de phase et s’annulent... Finalement, une fois tous les parcours possibles additionnés, seul le trajet en ligne droite survit à la somme. On retrouve donc que la trajectoire (la plus probable) pour la lumière est une ligne droite dans le vide (ouf !). Nous allons voir, dans ce qui suit, que les trajets qui s’écartent de la ligne droite ne sont pas un pur jeu mathématique et qu’ils peuvent avoir leur importance.

figure 4 : Comment un photon va-t-il de A à B dans le vide ? Il faut considérer tous les trajets, et pas seulement la ligne droite ! Des trajets très proches de la ligne droite (en rose et en rouge) auront des longueurs quasiment identiques, et leurs aiguilles de compteur seront orientées quasiment dans le même sens que celle de la ligne droite. Les trajets plus erratiques, aux longueurs très variables, se compensent et donnent une contribution nette nulle.

© S. Descotes-Genon

des trajets éloignés s’éliminent

page 47

des trajets, voisins du trajet minimal, s’ajoutent

ÉLÉMENTAÍRE

φ2

a2

© B. Mazoyer

trajets possibles entre la source et l’écran... et faire leur « somme ». Les « aiguilles de compteur » des différents trajets indiqueront des valeurs différentes en atteignant l’écran, puisque les trajets ont en général des longueurs différentes.


© S. Descotes-Genon

Ondes et particules (2)

figure 5 : Une expérience de diffraction avec une seule fente. Outre l’image géométrique attendue (B), on observe des photons en d’autres points de l’écran (C). En effet, certains trajets entre A et C ne sont pas compensés par d’autres trajets acceptables (des trajets compensatoires en opposition de phase mais non physiques sont représentés en vert).

Imposons maintenant aux photons de passer à travers un trou dont la taille est voisine de la longueur d’onde de la source lumineuse (voir figure 5). Le raisonnement précédent explique pourquoi des photons peuvent arriver au point B de l’écran qui est aligné avec le point A et avec le centre du trou : nous allons bien observer l’image géométrique du trou. Mais si l’on envisage un point C qui n’est pas aligné, les choses changent. Certains trajets joignant A à C n’ont pas de contrepartie avec une « aiguille du compteur » opposée. En effet, il existe bien des trajets « compensatoires » en opposition de phase, mais ces trajets correspondraient à un photon qui traverse le plan intercalaire sans passer par le trou... ce qui est impossible. La somme des amplitudes associées aux trajets possibles entre A et C n’est donc pas nulle. On peut trouver des photons sur l’écran à l’extérieur de l’image géométrique du trou, d’où les figures de diffraction observées sous forme de disques d’Airy. Terminons avec l’expérience des fentes d’Young (figures 1 et 6). En un point donné de l’écran peuvent arriver des trajets passant par l’une ou l’autre fente. Ces trajets sont en général de longueur différente. Si les « aiguilles de compteur » associées à ces trajets arrivent sur l’écran en étant dirigées dans le même sens, elles s’ajoutent. On obtiendra alors un renforcement de l’éclairage en cet endroit du à une interférence « constructive ». En d’autres endroits de l’écran, les contributions des trajets peuvent être en opposition : l’intensité de la lumière va baisser en raison d’une interférence « destructive ».

DR

La lumière est donc formée de quanta, les photons, qui semblent se comporter comme des ondes dans les expériences précédentes, parce que les probabilités d’observation sur l’écran suivent des lois de type ondulatoire. Mais les quanta eux-mêmes n’ont pas été dépouillés de leur aspect corpusculaire, que nous pouvons invoquer pour expliquer le rayonnement du corps noir et l’effet photoélectrique. Le constituant élémentaire qu’est le photon se comporte donc tantôt comme une onde, tantôt comme une particule...

page 48

figure 6 : Une expérience de diffraction avec deux fentes, dite expérience des fentes d’Young. Pour chaque point sur l’écran (B ou C), les deux trajets n’ont pas la même longueur. Leurs vecteurs associés ont donc généralement des orientations différentes, ce qui explique les franges de diffraction observées : tantôt les vecteurs sont orientés dans des directions proches, ce qui donne lieu à des interférences constructives (B), tantôt ils sont quasiment opposés, ce qui aboutit à des interférences destructives (C). Sur l’écran, (B) sera éclairé et (C) sera dans l’obscurité.

© S. Descotes-Genon

Thomas Young (1773 – 1829)

ÉLÉMENTAÍRE


Ondes et particules (2) Pour retrouver la relation entre l’impulsion et la longueur d’onde d’un photon, il suffit d’utiliser trois relations - la relation entre énergie et fréquence postulée par Einstein pour expliquer l’effet photoélectrique E=hν - la proportionnalité entre énergie et impulsion pour des particules sans masse p = E/c où c est la vitesse de la lumière - la relation entre fréquence et longueur d’onde λ = c/ν

Et les autres constituants élémentaires ? Nous avons vu que l’énergie E et la fréquence ν des photons étaient reliées par l’expression proposée par A. Einstein : E=hν De la même manière on peut relier l’impulsion p d’un photon à sa longueur d’onde λ : p= h/ λ Cette expression a été généralisée par Louis de Broglie au cas de particules massives comme les électrons. En effet, ces « corpuscules » manifestent un comportement ondulatoire si on les regarde de suffisamment près, c’est-à-dire à des distances qui sont de l’ordre de la longueur d’onde dite de de Broglie. On a pu vérifier que tous les constituants élémentaires partagent les propriétés quantiques des photons, comme le pressentait de Broglie. Ainsi, l’expérience des fentes d’Young put être reproduite à l’identique avec des électrons en 1961. Mieux encore, on a pu abaisser le débit de la source pour envoyer les électrons un par un en 1974. On observa alors l’apparition progressive des électrons sur un écran. Au bout d’un certain temps, le nuage de points « aléatoires » révéla une structure correspondant à des franges d’interférences (voir illustration sur la figure 7).

Pour des neutrons d’énergie cinétique (Ec) la longueur d’onde associée est égale à λ = 0,03 nm/√Ec(eV) Ceci explique que pour étudier la matière, on utilise des neutrons froids, d’énergie inférieure à l’eV. Leur longueur d’onde est adaptée aux distances interatomiques.

Ce résultat confirme certains aspects de la mécanique quantique. Les interférences n’ont pas lieu entre différents corpuscules – envoyés l’un après l’autre – mais bien entre différents trajets du même corpuscule. Il faut abandonner l’idée intuitive, et fausse, qu’un électron donné passe par une seule des deux fentes. Pour la mécanique quantique, la question « par quelle fente l’électron est-il passé ? » n’a pas de sens si nous n’avons pas placé d’appareil de détection au niveau de chaque fente. Nous connaissons seulement la source et la destination des électrons : nous devons accepter que nous ne puissions rien dire de précis sur le chemin qu’ils parcourent entre la source et l’écran.

Physicien français, Louis de Broglie (prononcer « de Breuil »), septième duc du nom, joua un rôle majeur pendant les premières années de la mécanique quantique. En 1924, dans sa thèse de doctorat « Recherches sur la théorie des quanta », il avança l’idée que les électrons possédaient des caractéristiques ondulatoires. Il reçut pour ce travail le prix Nobel de Physique en 1929.

Louis de Broglie (1892 – 1987) page 49

ÉLÉMENTAÍRE

DR

Les découvertes de L. de Broglie permirent de concevoir à partir des années 30 des microscopes électroniques qui possèdent une résolution beaucoup plus élevée que les microscopes optiques. Ces appareils parviennent à « éclairer » les échantillons avec des électrons, ce qui donne une image bien plus détaillée des objets que la lumière ordinaire. En effet, la longueur d’onde de Broglie des électrons est mille fois plus petite que celle des photons de la lumière visible.


Ondes et particules (2) figure 7 : Les fentes d’Young, version électronique. Les électrons émis par la source sont envoyés vers le biprisme, qui les séparent selon deux faisceaux. Les électrons sont ensuite détectés à la surface de l’appareil de mesure et affichés sur un écran.

De gauche à droite et de haut en bas, voici les motifs obtenus en accumulant 10, 300, 2000 et 6000 électrons avec un flux de 10 électrons/seconde. L’accumulation des électrons finit par constituer des franges d’interférences.

À suivre...

page 50

Nous avons seulement effleuré le sujet de la mécanique quantique. Ses limitations et ses paradoxes suscitent souvent des sentiments mitigés, y compris parmi les physiciens qui la côtoient quotidiennement. Einstein lui-même pensait que la mécanique quantique n’était qu’un pis-aller et qu’une description déterministe des particules élémentaires était possible : selon lui, « Dieu ne joue pas aux dés ». Une grande activité scientifique et philosophique s’est d’ailleurs développée pour mieux comprendre ou réfuter cette théorie si éloignée du sens commun. Jusqu’à présent, les expériences ont toujours confirmé les prévisions de la mécanique quantique, même dans ses aspects contraires à l’intuition. Et les physiciens ont dû apprendre à vivre avec ces étranges constituants élémentaires, à mi-chemin entre ondes et particules...

ÉLÉMENTAÍRE


La question qui tue ! Le neutron est-il «neutre» ? La réponse qui achève Comme son nom l’indique, le neutron est une particule neutre, c’est à dire sans charge électrique. Cependant, ce n’est pas une particule élémentaire : il est en fait composé d’autres particules dont certaines, les quarks, sont chargées. Si on observe un neutron de très près, on s’aperçoit qu’il n’est pas uniformément neutre, mais que les charges qui le composent sont distribuées dans l’espace (voir figure 1). De la même manière, un atome, qui est globalement neutre, est en fait composé d’un noyau de charge positive en son centre, entouré par un nuage d’électrons de charge négative. Comme pour l’atome, les charges électriques des constituants du neutron s’annulent pour en faire un objet globalement neutre.

figure 1 : Distributions de la charge dans le neutron et dans le proton. Le neutron composite Le neutron n’est pas une particule élémentaire, mais est composé de quarks et d’anti-quarks – qui sont des particules chargées – ainsi que de gluons – qui sont électriquement neutres. Seuls trois quarks, dits quarks de valence, apparaissent sans leur anti-quark et contribuent à la charge totale. Les quarks de valence du neutron sont deux quarks « d », de charge -e/3 (où e est la charge élémentaire) et un quark « u », de charge +2e/3. Au total, le neutron est bien neutre. Pour comparaison, le proton est composé des quarks « uud ». Les autres quarks et anti-quarks, dits de «la mer», sont présents en paires de charges égales et opposées ; leur contribution à la charge du neutron est donc nulle. Étant composé de particules chargées, le neutron n’est pas uniformément neutre. La figure 1 illustre comment sont réparties les charges qui le composent.

Mais comment cette neutralité se manifeste-t-elle en pratique ? Eh bien, contrairement au cas d’une particule chargée, comme le proton, la trajectoire d’un neutron n’est pas modifiée par la présence de champs électrique ou magnétique uniformes. Il ne faut cependant pas en conclure que le neutron est complètement insensible à l’effet de tels champs. Par exemple, le neutron possède un moment magnétique intrinsèque non nul aligné avec son spin. Ce dernier est comme une petite boussole personnelle du neutron, que l’on représente par un vecteur – c’est à dire une flèche – donnant la direction de cette boussole. De ce fait, le neutron se comporte comme un dipôle magnétique : si on le place dans une région où règne un champ magnétique uniforme, son spin – s’il n’est pas aligné avec le champ – effectue un mouvement de rotation autour de l’axe de ce dernier, comme indiqué sur la figure 2 : c’est le mouvement de précession de Larmor. On parle alors d’interaction « dipolaire magnétique » (remarquez que cette interaction fait tourner le spin du neutron mais ne modifie pas sa trajectoire). On voit donc que le neutron... n’est pas si neutre que ça. Les choses se compliquent-elles ? Disons plutôt qu’elles se nuancent : la notion de neutralité d’une particule n’est pas absolue, mais est définie par rapport à un type d’interaction bien précis. Par exemple, le pion chargé positivement π+ possède une charge électrique non nulle et peut donc être accéléré ou dévié par des champs électromagnétiques uniformes. Cependant, il ne possède pas de spin et ne subit donc pas de mouvement de précession en présence d’un champ magnétique. On pourrait dire qu’il est « neutre » par rapport à l’interaction dipolaire magnétique. Un autre exemple intéressant est le pion neutre π0 qui n’a ni charge électrique ni spin et est donc insensible aux champs électromagnétiques uniformes. Cependant, comme le π+ et tous les autres hadrons, il est sensible aux interactions nucléaires fortes et n’est donc pas « neutre » par rapport à celles-ci. De façon générale, les particules peuvent être sensibles à plusieurs types d’interactions, qui se classent en quatre catégories : les interactions électromagnétiques, les interactions fortes, les interactions faibles, et les interactions gravitationnelles. Toutes les particules connues sont sensibles aux interactions gravitationnelles, mais elles peuvent être neutres (ou quasi-neutres) par rapport aux autres types d’interaction. Un exemple célèbre est le neutrino ν, qui, à une excellente

s

figure 2 : Mouvement de précession de Larmor d’un spin s interagissant avec un champ magnétique uniforme. page 51

ÉLÉMENTAÍRE


Le neutron est-il «neutre» ? approximation, n’est sensible qu’aux interactions faible et gravitationnelle – ce qui le rend d’ailleurs extrêmement difficile à détecter. Le fait qu’une particule donnée ne soit pas exactement neutre par rapport à un certain type d’interaction donne généralement lieu à des effets très fins, dont la mesure peut fournir des informations cruciales sur la nature des lois qui régissent le monde des particules élémentaires. En particulier, ce type de mesure permet de mieux connaître les différentes interactions répertoriées à ce jour et, éventuellement, de mettre en évidence de nouveaux types d’interactions. Pour illustrer cette idée, revenons à nos neutrons. Si leur spin peut précesser, c’est-à-dire tourner, dans un champ magnétique uniforme, il peut a priori interagir de manière similaire avec un champ électrique : on parle alors de couplage dipolaire électrique. Possibilité diablement intéressante ! Au cas où un tel couplage existerait, il nous renseignerait sur certaines propriétés de symétrie des lois de la physique. Voyons cela plus en détail et considérons l’opération qui consiste à inverser le sens du temps. Cette opération, que l’on note T, revient à visionner le film de la physique en appuyant sur la touche « retour arrière » de notre magnétoscope. Comment les protagonistes de notre histoire, à savoir le spin et les champs électriques et magnétiques, sont-ils modifiés après cette opération T ? Considérons d’abord un champ électrique généré par deux charges opposées (figure 3). Les deux charges ne sont pas affectées si l’on inverse le sens du temps, et il en va donc de même pour le champ électrique qu’elles créent. À l’inverse, un champ magnétique est inversé si on change le sens du temps. Pourquoi donc ? Prenons une petite boucle dans laquelle circule un courant électrique. Ce courant engendre un champ magnétique orienté dans la direction perpendiculaire au plan de la boucle (figure 3). Si on regarde la boucle d’en haut, le champ magnétique créé pointe dans notre direction si le courant tourne dans le sens inverse des aiguilles d’une montre, et dans la direction opposée dans le cas contraire. À présent, inversons le sens du temps… Le courant qui tourne dans la boucle change de sens et le champ magnétique associé est donc inversé. De même on peut montrer que le spin d’une particule est inversé quand on lui applique T.

Hadrons : On classe les différents types de particules selon leur propriétés intrinsèques (masse, charge, spin, etc.), mais aussi selon le type d’interactions auxquelles elles sont sensibles. Ainsi, on appelle « hadrons » les particules qui sont sensibles à l’interaction nucléaire forte, comme le neutron ou le proton, et « leptons » celles qui ne le sont pas, comme l’électron ou le neutrino.

-

-

E

E

+

+

© B. Mazoyer

T

figure 3 : Transformation des champs électrique (haut) et magnétique (bas) sous l’opération T de renversement du sens du temps. Si le premier reste inchangé, le second, en revanche, est inversé.

-B

page 52

© B. Mazoyer

T B

Après ces petits tours de boucle, attaquons-nous aux deux interactions dipolaires, magnétique et électrique : que leur arrive-t-il si on change le sens du temps ? Prenons d’abord un spin interagissant avec un champ magnétique uniforme, comme représenté sur la figure 4. Sous l’opération T, l’un et l’autre changent de sens, mais leur orientation relative reste la même. Le système résultant est donc physiquement indiscernable du système initial : l’interaction dipolaire magnétique est invariante, c’est-àdire qu’elle reste identique à elle-même, après renversement du temps. Mais les choses ne se passent pas aussi bien pour l’interaction dipolaire électrique. En effet, un spin dans un champ électrique (figure 4) forme après renversement du temps un système physiquement distinct du système initial : l’interaction de type dipolaire électrique n’est donc pas invariante sous T. Un raisonnement similaire montre que cette interaction

ÉLÉMENTAÍRE


Le neutron est-il «neutre» ? -S T n

n

On sait aujourd’hui que P et T ne sont pas des symétries exactes des lois de la physique. En particulier, les interactions faibles sont différentes si on les regarde dans un miroir (P) ou si on passe le film à l’envers (T). Les mesures de l’intensité du couplage dipolaire électrique du neutron permettent de contraindre d’autres sources possibles de violation des symétries P et T. Par exemple, elles fournissent les meilleures limites à l’heure actuelle concernant la violation de P et T par les interactions fortes. Ces mesures pourraient aussi permettre de découvrir d’autres sources de violation de P et T dues à de nouveaux types d’interaction non encore découvertes. On voit donc que la « non-neutralité » du neutron par rapport à l’interaction dipolaire électrique peut s’avérer un outil crucial dans l’étude des interactions fondamentales.

figure 4 : Transformation d’un système (spin+champ magnétique) (haut) et (spin+champ électrique) (bas) sous l’opération de renversement du temps T. Dans le premier cas, le système résultant de la transformation est physiquement indiscernable du système initial, tandis que, dans le second cas, l’orientation relative du spin et du champ est modifiée et le système résultant est différent de l’original. L’interaction de type dipolaire entre le spin et un champ électrique est donc sensible au comportement des lois microscopiques de la physique sous le renversement du sens du temps.

E

E

-S

S

T

n

n

page 53

©A. Schune

Couplage dipolaire électrique Pour un objet composé de particules chargées, comme le neutron, le couplage dipolaire a un champ électrique peut, en principe, être de deux types : il peut être dû à une asymétrie dans les distributions de charges positives et négatives de ses constituants, ou bien à un couplage direct de son spin avec le champ électrique. Le premier cas correspond au moment dipolaire électrique habituel et respecte les symétries P et T, tandis que le second, dont il est question dans cet article, les viole.

© B. Mazoyer

Moralité : la notion de neutralité d’une particule est d’une simplicité trompeuse… Elle est en fait définie vis-à-vis d’un type d’interaction bien précis. Remarquons en passant qu’une particule qui serait totalement neutre par rapport à toutes les interactions n’offrirait guère d’attrait, car elle serait parfaitement indétectable et n’aurait aucun effet physique observable ! Au contraire, les écarts à la neutralité présentent un grand intérêt car ils permettent de quantifier précisément certaines propriétés fines des interactions fondamentales. Mais attention ! Il ne faut pas croire que ces propriétés soient des points annexes. En effet, elles peuvent avoir des conséquences extrêmement importantes. Un exemple des plus célèbres concerne le problème de l’anti-matière, ou plutôt le problème de l’absence d’anti-matière, dans l’Univers. En effet, on observe essentiellement de la matière et très peu d’anti-matière… ce qui est une chance, car s’il existait de grandes quantités d’anti-matière, toute la matière existante disparaîtrait à son contact, et nous avec ! On pense aujourd’hui que cette asymétrie matière—anti-matière dans l’Univers est intimement reliée à la violation de T par les lois fondamentales de la physique. Cet effet, minuscule à l’échelle microscopique, serait responsable de l’existence de toute la matière que nous observons actuellement. La « non-neutralité » du neutron pourrait-elle nous aider à comprendre nos origines ?

ÉLÉMENTAÍRE

-B

B

S

© B. Mazoyer

n’est pas non plus invariante sous l’opération dite de parité – notée P – qui consiste à renverser les trois axes de coordonnées spatiales. L’existence d’un couplage dipolaire électrique nous renseignerait donc directement sur les propriétés de symétrie des lois de la physique sous les opérations de renversement de l’espace (P) et du temps (T).


Énergie nucléaire Un réacteur nucléaire comment ça marche ? Grâce aux progrès réalisés en physique nucléaire et en physique des particules nous savons que la matière est un immense réservoir d’énergie. Les centrales nucléaires exploitent cette découverte en produisant de l’électricité par la fission de noyaux atomiques lourds. Les réacteurs nucléaires actuels utilisent de l’uranium dont la fission est provoquée par des neutrons dits thermiques, c’est-à-dire ayant une énergie de l’ordre de 0,1 eV. Nous ne parlerons ici que des Réacteurs à Eau sous Pression (REP), utilisés majoritairement en France.

Combustible Notons que le plutonium 239 Pu et l’uranium 233U sont aussi deux noyaux fissiles utilisables – et même utilisé dans le cas du plutonium – pour produire de l’énergie, mais il est nécessaire de les fabriquer : ils sont artificiels. Certains REP fonctionnent avec un combustible composé de 30% de MOX (mélange d’oxydes d’uranium et de plutonium) et 70% d’uranium enrichi.

Le réacteur En schématisant à l’extrême, le cœur d’un réacteur, c’est-à-dire la partie où a lieu la fission, comporte trois organes essentiels : le combustible, le modérateur et le fluide caloporteur. ◆ Le combustible est composé de matière fissile ; le seul noyau fissile qui existe à l’état naturel est l’uranium 235 (235U ) : il est présent à hauteur de 0,7% dans le minerai d’uranium. Le contrôle de la fission est un point clé dans le fonctionnement des réacteurs. Considérons par exemple la fission d’un noyau d’ 235U : n + 92235 U —>5514 0Cs + 3793Rb + 3n Elle est causée par un neutron qui interagit avec le noyau d’uranium. La probabilité que cette réaction se produise dépend de l’énergie du neutron ; elle est maximale pour des neutrons de faible énergie. Deux noyaux de masses voisines (les fragments de fission) sont produits ainsi que 2 à 3 neutrons dont l’énergie est voisine de 2 MeV.

©Framatome/FBFC

◆ Le modérateur (l’eau dans le cas des REP) ralentit les neutrons produits dans la réaction précédente afin qu’ils puissent plus facilement interagir avec d’autres noyaux d’uranium et induire de nouvelles réactions de fission. La fission d’un noyau d’uranium produit environ une énergie de 200 MeV dont 85 % correspond au mouvement des fragments de fission. Ces derniers sont rapidement arrêtés par la matière environnante et y génèrent de la chaleur. Le reste de l’énergie provient principalement de la désintégration radioactive des fragments de fission et de différentes réactions de capture de neutrons. ◆ Le fluide caloporteur a pour but d’extraire la chaleur produite par la fission. Dans les REP, l’eau joue à la fois le rôle de modérateur et de caloporteur.

La réaction en chaîne Sur les trois neutrons émis dans la réaction de fission utilisée comme exemple ci-dessus, il est possible qu’au moins l’un d’entre eux provoque une nouvelle fission suscitant ainsi une réaction en chaîne qui s’autoentretient. Les autres neutrons sont perdus, soit par capture stérile par page 54

Modèle d’un assemblage combustible de REP montrant en haut la tête de la grappe de contrôle et au milieu, parmi les crayons combustibles (ici en partie coupés ou absents), les tubes guides des barres de contrôle.

ÉLÉMENTAÍRE


Un réacteur nucléaire comment ça marche ? un noyau (c’est-à-dire sans induire de fission), soit par fuite à l’extérieur du volume du cœur. Cette réaction en chaîne est caractérisée par la valeur du coefficient de multiplication k qui donne le nombre moyen de fissions induites par une réaction de fission. Partant initialement de N0 fissions, on aura successivement : N0——>kN0——>k2N0——>k3N0 ——>... t=0

1re géné

2e géné

3e géné

©CEA

où le temps inter-génération est voisin de 50 μs. On voit donc que : ◆ Si k>1, la réaction en chaîne diverge très vite ; on dit que le système est sur-critique. C’est ce qui est recherché pour les bombes nucléaires. ◆ Si k<1, la réaction s’arrête rapidement sans apport extérieur de neutrons, et on dit que le système est sous-critique. ◆ Si k=1, chaque fission induit en moyenne une fission nouvelle ; on dit que le système est critique. C’est le mode de fonctionnement des réacteurs actuels.

Pastilles d’oxyde d’uranium. L’uranium enrichi, transformé en oxyde d’uranium, est compacté en pastilles cuites au four. Cylindre d’environ 8 mm de diamètre pesant de 7 à 8 grammes, une pastille produit à elle seule autant d’énergie qu’une tonne de charbon.

Dans un réacteur critique, il est essentiel de maintenir exactement la valeur du coefficient de multiplication à la valeur k=1 de façon à stabiliser la réaction en chaîne. Un décalage minime de k par rapport à l’unité pourait conduire à un emballement ! Compte tenu de ce que nous avons dit sur la durée – 50 microsecondes – séparant deux générations de neutrons, même si k est légèrement supérieur à l’unité, par exemple k=1,001, la puissance émise serait multipliée par 100 en 20 centièmes de seconde.

Y a-t-il un pilote dans le réacteur ? Il est donc indispensable de contrôler la réactivité du réacteur pour en assurer la sûreté et ajuster son niveau de puissance. Ceci est rendu possible grâce à des «grappes de contrôle» composées d’éléments absorbant les neutrons (carbure de bore, alliage d’argent, indium et cadmium). Ce pilotage par les grappes de contrôle exploite une propriété particulière des neutrons produits. Lors de la fission, une petite partie des neutrons (0,7 % pour 235 U) est émise de façon retardée (jusqu’à plusieurs dizaines de secondes). Ils sont produits lors de la désexcitation de certains fragments de fission. Cette fraction, bien que faible, allonge considérablement le temps inter-génération qui passe à 0,1 s pour la fission de l’235U, autorisant le pilotage du réacteur par les grappes de contrôle. La présence de ces neutrons retardés est une contrainte forte sur le choix du combustible.

Le pilote automatique du réacteur

ÉLÉMENTAÍRE

page 55

Bien que le contrôle actif soit indispensable pour gérer les arrêts et les démarrages d’un réacteur ainsi que les changements de la puissance fournie, une auto-régulation de la réaction en chaîne est également indispensable. Des mécanismes existent qui auront tendance à faire chuter la puissance émise


Un réacteur nucléaire comment ça marche ? dès que celle-ci augmente. Ces contre-réactions ont des origines diverses mais sont toujours reliées à une variation de température. Ces mécanismes complexes peuvent se résumer ainsi :

©CEA

◆ L’effet Doppler. Une augmentation locale de la température du combustible, constitué principalement d’238U non fissile, provoque une augmentation de la capture des neutrons par cet élément, ce qui diminue le nombre de neutrons disponibles pour les réactions de fission. L’énergie libérée et donc la température diminuent. ◆ L’effet de spectre. Une augmentation de température entraîne la dilatation de l’eau qui devient moins performante pour ralentir les neutrons qui ont alors une probabilité plus faible d’induire de nouvelles fissions. La dilatation de l’eau induit aussi une baisse de la concentration en bore qu’elle contient (le bore capture très efficacement les neutrons) ce qui diminue la capture des neutrons et a donc l’effet inverse du précédent en réactivant la réaction de fission.

Crayons de combustible.

Le terme « poison consommable » signifie que ce poison disparaît progressivement à la suite de captures neutroniques.

◆ Le coefficient de vide. La perte du fluide caloporteur, à la suite d’une fuite ou d’un autre accident, doit provoquer une chute de la réactivité du cœur pour que la température du combustible n’augmente pas (fusion du cœur). Dans le cas d’un REP, c’est bien le cas puisque le fluide caloporteur est aussi le modérateur : les neutrons ne sont plus modérés et, comme la probabilité d’induire de nouvelles fissions diminue fortement quand l’énergie des neutrons augmente, k diminue. Dans tous les cas, les mécanismes d’autorégulation doivent conduire à une baisse de k lorsque la température augmente, et inversement, de sorte que le système soit stable.

La puissance d’un réacteur est généralement exprimée en mégawatt électrique (MWe) ; cela résulte de la conversion de chaleur en électricité avec un rendement de l’ordre de 33%.

Pour entretenir la réaction en chaîne, une certaine quantité de noyaux fissiles est nécessaire ; or, au fur et à mesure du fonctionnement du réacteur, ces derniers sont remplacés par les fragments de fission qui sont généralement très « neutrophages ». Il est donc nécessaire de disposer, au démarrage, d‘une réserve de réactivité pour contrebalancer l’usure du combustible. Afin de Encadré 1 : T Transformation ransformation du cœur du réacteur. garder une valeur constante pour k, on ajoute On indique, dans le tableau suivant comment se transforme une partie du des poisons consommables (par exemple de cœur d’un réacteur contenant, au départ, environ une tonne de matériau fissile (235U). l’acide borique dans l’eau des REP). Masse initiale (kg) 238 U 26 330 235 U 950 236 U 0 239 Pu 0 Américium – Curium 0 Produits de fission 0

Masse après 3 ans (kg) 25 660 280 110 260 20 950

page 56

Environ 60% de l’235U est fissionné ; le 239Pu formé par la capture d’un neutron par l’238U suivie par une désintégration γ, assure 40% des fissions restantes.

Qu’y a-t-il à l’intérieur d’un REP ? Les REP utilisés en France ont une puissance électrique variant de 900 à 1450 MWe (c’est-àdire qu’un REP fournit l’électricité domestique pour près de 2 millions de personnes). Il faut fissionner environ une tonne de matière

ÉLÉMENTAÍRE


Un réacteur nucléaire comment ça marche ? fissile pour produire 1000 MWe pendant un an. Le combustible est généralement de l’oxyde d’uranium enrichi, pour lequel la proportion des différents isotopes a été modifiée afin d’augmenter la proportion du matériau fissile (96,5% d’238U et 3,5% d’235U). Un réacteur contient environ 90 tonnes de combustible qui est renouvelé par tiers chaque année. Dans l’encadré 1, nous donnons l’évolution, sur trois ans, d’un tiers du cœur. À l’état naturel, la teneur en 235U est de 0,7% ; on doit donc enrichir le minerai pour atteindre la proportion de 3,5%, laissant un uranium, dit appauvri, contenant 0,2% d’ 235U. Il faut 7 tonnes d’uranium naturel pour produire 1 tonne d’uranium enrichi et donc 200 tonnes d’uranium naturel sont nécessaires pour produire 1000 MWe pendant un an.

L’accident de Tchernobyl (26 avril 1986)

© encyclozyne

Le réacteur de Tchernobyl de type RBMK, est très différent des REP utilisés en France où l’eau joue à la fois le rôle de caloporteur et de modérateur des neutrons. Dans un RBMK, le modérateur est du graphite et le caloporteur de l’eau. Cette eau, circulant dans des tubes, est chauffée par le combustible jusqu’à être transformée en vapeur afin d’entraîner directement les turbines. La caractéristique principale de ce type de réacteur est d’avoir un coefficient de vide positif. Une augmentation de la puissance ou une diminution de flux de l’eau provoque une augmentation du taux de vapeur dans le fluide circulant La centrale de Tchernobyl après au voisinage du combustible. Le fluide étant moins dense, l’absorption des l’accident. neutrons y est diminuée et ceci a pour effet d’augmenter le nombre de fissions et donc la température. Ce dernier effet (effet de spectre) entraîne une réduction de la probabilité de fission. Ces deux effets sont donc antagonistes. Cependant, selon la puissance du réacteur, l’un peut l’emporter sur l’autre. À faible puissance, l’effet du coefficient de vide devient prépondérant rendant le réacteur instable : c’est la raison principale du déroulement de l’accident. Celui-ci est cependant le fruit d’un enchaînement d’erreurs. Notons que cet accident est survenu lors d’un test de sûreté qui consistait à voir si le réacteur restait sûr lorsqu’il était coupé du réseau électrique. Pour faire ce test, la puissance du réacteur devait être de l’ordre du tiers de la puissance nominale. Mais à la suite d’une erreur opérationnelle, elle a été ajustée à une valeur très faible pour laquelle le réacteur était instable. Afin de revenir dans une zone de puissance stable, les opérateurs ont retiré la plupart des barres de contrôle (il en restait alors cinq fois moins que le minimum requis) en déconnectant le système de régulation automatique. Parallèlement, les conditions thermodynamiques de l’eau ont été modifiées en mettant en service les huit pompes de circulation à fort débit, en vue de refroidir le cœur pendant l’essai ; la marge de refroidissement devenait très faible et dès lors, toute augmentation de température ou toute diminution de débit entraînait l’ébullition en masse de l’eau située à l’entrée basse du réacteur, augmentant encore la réactivité. L’essai prévu a été engagé par la fermeture de la vanne d’admission de la vapeur à la turbine ; le ralentissement du turboalternateur a entraîné celui des pompes de circulation.

ÉLÉMENTAÍRE

page 57

L’accident a été alors déclenché par l’opérateur quand il a appuyé sur le bouton d’arrêt d’urgence : l’insertion des barres, dont la chute était lente (20 secondes!) a entraîné une augmentation de la réactivité locale en partie basse du réacteur et l’énergie déposée a conduit à la rupture brutale de quelques canaux. L’ébullition en masse de l’eau a ensuite engendré le passage du réacteur en situation de prompte criticité et la puissance a pu atteindre, en quelques secondes, cent fois la valeur nominale, soit 300 000 MW ! Les hautes températures atteintes ont conduit à une production d’hydrogène par réaction de l’eau sur les matériaux de la structure. L’hydrogène accumulé a provoqué une explosion qui a détruit la dalle supérieure en béton du réacteur.


Le LHC Nouvelles du LHC ATLAS, un géant aux multiples talents

Conçu et réalisé dans le cadre d’une collaboration internationale qui regroupe plus de 140 laboratoires et 1800 chercheurs, ce détecteur aura été le fruit de près de vingt années de travail. Cet effort a débuté en 1984 avec l’évaluation du potentiel scientifique figure 1 : Vue éclatée du détecteur ATLAS ; les silhouettes, au de l’expérience. La conception et l’optimisation du niveau du sol, montrent l’échelle du dessin. détecteur ont suivi, en s’appuyant sur des simulations informatiques détaillées et sur des tests de prototypes depuis 1988. La recherche et le développement dans tous les domaines technologiques requis ont démarré au début des années 90. Enfin, depuis 1996 ont lieu la construction et l’assemblage des éléments du détecteur. Aux énergies atteintes par le LHC, on s’attend à observer des phénomènes physiques nouveaux, qui dépassent la description actuelle de la physique des particules, le Modèle Standard. Cependant, on ne sait pas précisément quels seront ces phénomènes. Pour parer à toute éventualité, ATLAS a été conçu comme un détecteur polyvalent qui cherche à identifier et à mesurer précisément les caractéristiques (énergie, vitesse, direction) des particules produites lors des collisions.

L’anatomie d’ATLAS De symétrie cylindrique autour de l’axe des faisceaux, ATLAS (figure 1) mesurera 44 m de long, 22 m de diamètre et pèsera 7000 tonnes. Il est construit comme un assemblage de détecteurs qui ont chacun un rôle spécifique et qui sont empilés selon une structure en oignon, caractéristique des expériences installées sur un anneau de collision et consacrées à la physique des particules. En allant du point de collision vers l’extérieur, on trouve ainsi successivement, comme cela est représenté sur la figure 2 : figure 2 : Schéma de principe d’ATLAS, le point de collision est en bas à gauche.

page 58

© CERN

Le LHC est situé au CERN, dans un anneau souterrain de 27 km de circonférence qui traverse la frontière franco-suisse. Dans cet anneau, deux faisceaux de protons circuleront en sens inverse et se rencontreront en quatre points. En chacun de ces points sera installée une expérience chargée d’étudier les particules produites au cours des collisions. Nous allons ici décrire le détecteur ATLAS (A Toroidal LHC ApparatuS), qui porte bien son nom ! En effet, ce géant est le détecteur qui a les plus grandes dimensions parmi les quatre expériences majeures du LHC.

◆ le détecteur interne de traces chargées, ou trajectographe, formé de plus de 100 millions de capteurs au silicium (figure 3) et de tubes fins remplis de gaz. Il permet de reconstruire le chemin des particules chargées tout près du lieu de leur production. Ce détecteur est plongé dans un champ

ÉLÉMENTAÍRE


Une chambre à dérive est constituée d’un volume de gaz soumis à un champ électrique. Une particule chargée traversant ce volume arrache des électrons aux atomes de gaz : ces électrons libérés dérivent ensuite en suivant les lignes de champ électrique vers les fils de détection : l’emplacement des fils touchés et le temps de dérive permettent de reconstruire la trajectoire de la particule initiale.

ATLAS magnétique de 2 teslas, produit par un solénoïde supraconducteur, permettant la mesure de la charge et de l’impulsion des particules. En effet, on peut distinguer une particule chargée négativement d’une particule chargée positivement car elles seront déviées dans un sens ou dans l’autre selon le signe de leur charge électrique. De plus, la courbure de la trajectoire est d’autant moins importante que la particule est rapide, ce qui permet de mesurer son impulsion. ◆ le détecteur d’électrons et de photons, appelé « calorimètre électromagnétique ». Il est constitué de couches alternées de plomb et d’argon liquide (refroidi à environ 90 K, soit -183°C), dans lesquelles les électrons et les photons vont déposer toute leur énergie. Le rôle de ce détecteur est d’identifier ces particules et de mesurer leur énergie et leur direction. Il comporte une partie centrale et deux « bouchons », contenus chacun dans un cryostat (figure 4).

© CERN

◆ le « calorimètre hadronique », dont le rôle est de mesurer l’énergie et la direction des particules contenant des quarks, telles que les protons, les neutrons, les pions chargés... appelés collectivement hadrons. Ce type de détecteur est constitué d’une alternance de couches de matériau dense (fer, cuivre), où interagissent les particules, et de scintillateurs, pour mesurer leur énergie. ◆ le spectromètre à muons, qui identifie et mesure les caractéristiques de ces particules : hormis les neutrinos (indétectables par ATLAS), les muons sont les seules particules à sortir des calorimètres et à atteindre cette partie du détecteur. Ce spectromètre est constitué de 1200 chambres à dérive dont l’alignement devra être contrôlé avec une précision de 30 μm sur des distances de quelques dizaines de mètres. Ces chambres sont plongées dans un champ magnétique toroïdal créé par huit bobines supraconductrices de 25 m de long.

ÉLÉMENTAÍRE

page 59

Ces différents détecteurs envoient des signaux électriques qui sont retransmis par des circuits électroniques jusqu’à des ordinateurs puissants, capables de faire la synthèse de ces multiples informations. Tout ce dispositif doit fonctionner (très) vite et (très) bien car les faisceaux de protons, susceptibles de produire de nouvelles particules, se croisent toutes les 25 nanosecondes. Comme chaque sous-partie d’ATLAS mesure une multitude de paramètres avec une grande précision, il faut figure 4 : Un des deux calorimètres bouchons, installé dans son cryostat. un grand nombre de voies de lecture pour chacune d’entre elles : le calorimètre électromagnétique n’en requiert pas moins de 200 000 ! Enfin, ces composants doivent résister aux radiations présentes dans la caverne ATLAS pendant le fonctionnement du LHC.

© CERN

figure 3 : Un des tonneaux en silicium du détecteur central.


ATLAS Un système de déclenchement permettra de sélectionner, parmi les 40 millions de collisions proton-proton par seconde, la centaine d’« événements » intéressants attendus. Ces événements seront enregistrés sur disque, à un rythme d’environ 200 Mo par seconde, soit 20 To par jour. Cela revient à la quantité d’information contenue dans les livres publiés dans le monde entier chaque année ! Il faudra environ 20000 processeurs pour traiter les données de l’expérience ATLAS.

Le calcul numérique au LHC Les besoins en temps de calcul des expériences LHC sont colossaux. Chaque année, environ 14 Pétaoctets (1 Pétaoctet = 1015 octets) de données devront être stockées et analysées. Ceci nécessite l’équivalent de 20000 ordinateurs parmi les plus rapides dont nous disposons à l’heure actuelle. Cette analyse reposera sur une infrastructure développée spécifiquement pour le LHC : la grille de calcul, baptisée LCG ou LHC Computing Grid, dont le but sera de mettre en réseau tous les centres de calcul des laboratoires participant au LHC, qu’ils soient en Europe, aux USA ou au Japon (82 laboratoires à travers le monde sont aujourd’hui impliqués dans ce programme).

Un jeu de construction... et de patience Démarrée vers 1996, la construction des éléments du détecteur se termine et la phase d’intégration dans la caverne, située à 70 m sous la frontière franco-suisse, a commencé (figure 5). Les modules de la partie centrale du calorimètre hadronique ont été les premiers à être installés, au printemps 2004. Après des tests avec de l’argon liquide, la partie centrale du calorimètre électromagnétique et son cryostat ont été transportés dans la caverne en octobre dernier. Les huit bobines du toroïde ont également été installées, une fois que les tests (mentionnés dans le numéro 1 d’Élémentaire) ont montré qu’elles supportaient le passage d’un courant d’intensité nominale.

© CERN

© CERN

Champ magnétique toroïdal C’est ce champ toroïdal qui a donné son nom à ATLAS : A Toroidal LHC ApparatuS. Créé par huit bobines en forme d’anneau de 25m de long disposées à 45 degrés les unes des autres, ce champ permettra de mesurer précisément les caractéristiques des muons. Ces particules interagissent peu avec la matière et traversent donc facilement les différentes parties du détecteur. Une fois entré dans le spectromètre, le muon voit sa trajectoire incurvée par le champ magnétique toroïdal : il séjourne plus longtemps dans le détecteur, et la courbure de la trajectoire fournit des informations plus précises sur la vitesse du muon qu’une « simple » ligne droite. page 60

figure 5 : Début novembre 2005 : le calorimètre d’ATLAS entre au centre des huit aimants toroïdaux en glissant sur des rails à coussins d’air à une vitesse d’environ 2 mètres par heure.

Dans le même temps, les calorimètres bouchons ont été placés dans leurs cryostats et vont subir des tests en surface avant d’être installés dans la caverne fin 2005. La production des éléments du détecteur central est en cours. Leur intégration a commencé en surface et durera jusqu’au début 2006, avant l’installation dans la caverne d’ATLAS.

Courant d’intensité nominale Lors de la conception d’ATLAS, un cahier des charges précis a été établi en relation avec les objectifs expérimentaux poursuivis : si ce cahier des charges n’est pas rempli, le détecteur ne pourra pas mesurer des données avec la précision espérée. La valeur nominale d’un paramètre, comme l’intensité parcourant les bobines du toroïde, est celle fixée par ce cahier des charges, et elle doit être atteinte pour que la réponse du détecteur soit conforme aux performances attendues.

ÉLÉMENTAÍRE


ATLAS À quoi un « événement » d’ATLAS ressemblera-t-il ? On appelle « événement » le résultat d’une collision entre deux protons. Son aspect dépend évidemment de la collision. Pour en avoir néanmoins une idée, regardons un exemple issu des programmes de simulation (figure 6). Cette figure représente une projection des informations mesurées par le détecteur sur un plan perpendiculaire à l’axe des faisceaux. L’image montre également les trajectoires (reconstruites) des particules chargées dans le détecteur interne. Au centre, on peut imaginer le point de collision, d’où les particules produites s’échappent. Ces particules pénètrent dans le calorimètre électromagnétique et y déposent de l’énergie : ce dépôt est représenté par les «tours » vertes, d’autant plus hautes qu’il est important. Les photons et les électrons vont y déposer toute leur énergie. Les autres particules vont ensuite interagir avec le calorimètre hadronique. Les tours en rouge représentent les dépôts d’énergie dans ce détecteur. Seuls les muons peuvent sortir des calorimètres et être détectés dans les chambres situées à l’extérieur d’ATLAS. Les couches bleues représentent les détecteurs à muons : on distingue ainsi sur cet événement un muon émis dans la partie droite du détecteur, qui n’a déposé que peu d’énergie dans les calorimètres.

© CERN

muon

© CERN

figure 6 : Un événement simulé au sein d’ATLAS; l’axe des faisceaux est perpendiculaire à la page.

figure 7 : Planisphère indiquant en orange les pays qui participent à la collaboration ATLAS.

ÉLÉMENTAÍRE

page 61

Les physiciens d’ATLAS au jour le jour Les 1800 personnes participant à l’expérience ATLAS proviennent du monde entier. Comment font-ils pour collaborer à distance sur le même projet ? Chaque physicien travaille sur une partie précise d’ATLAS (un sous-détecteur). Très souvent, il s’intéresse aussi à un sujet de physique qui sera étudié dès le démarrage de l’expérience et pour lequel ce chercheur étudie des simulations des futures données. Au quotidien, il ne fréquente que la petite fraction de ses collègues concernés par le(s) même(s) sujet(s). Il les rencontre trois à quatre fois par an lors de réunions (souvent au CERN), pour échanger des résultats et discuter de l’avancement de leur sujet de recherche. Le reste du temps, il communique avec eux par internet, par courrier électronique ou bien par vidéoconférence. Une fois par an, des grandes conférences ont lieu, souvent en dehors du CERN. Elles rassemblent 200 à 300 personnes pour faire le point sur l’avancement du détecteur ATLAS dans son ensemble.


ATLAS Les premières données physiques vues par le détecteur ATLAS

© CERN

Le détecteur ATLAS a enregistré le 21 juin 2005 ses premières données physiques. Le calorimètre hadronique, dont les caractéristiques (fonctionnement, rôle) ont été décrites plus haut, désormais intégralement installé dans la caverne souterraine, a détecté des événements physiques correspondant au passage de muons dans le détecteur. Les muons d’origine cosmique, issus d’une cascade de désintégrations dans l’atmosphère, traversent le calorimètre au rythme de un par seconde, environ. Les mois à venir seront consacrés à l’étude du bon fonctionnement des différents sous-détecteurs une fois installés dans la caverne, avant le démarrage du LHC et les premières collisions proton-proton : ces muons jouent et joueront un rôle important dans les tests dédiés au calorimètre hadronique. Ils constituent également des candidats parfaits pour l’étude du spectromètre à muons, qui sera progressivement installé dans la caverne à partir de l’automne 2005.

Vues transverse du détecteur ATLAS, traversé par un muon cosmique de haut en bas. Le calorimètre hadronique, représenté en rouge, montre l’énergie déposée par cette particule, indiquée en jaune.

Les neutrons et le LHC À chaque point de croisement des faisceaux du LHC, on aura approximativement 700 millions d’interactions par seconde. Ces collisions produiront une multitude de particules légères (photons, électrons..) ou plus lourdes (protons, neutrons, pions etc..) qui inonderont de façon permanente les détecteurs les plus proches. En interagissant, ces particules peuvent provoquer des altérations dans les détecteurs qu’elles traversent et l’électronique associée, allant de l’ionisation des atomes (par des photons, protons, ions..) aux déplacements atomiques ou aux cassures de liaisons chimiques par les neutrons et autres hadrons. Pour quantifier les dégâts éventuels, on considère le plus souvent l’irradiation totale cumulée après un long temps de prise de données. Cette irradiation entraîne en effet un vieillissement précoce des détecteurs. Parfois, une seule particule peut être responsable de la perte d’un événement intéressant lors de son enregistrement par les détecteurs. Suivant l’énergie qu’elle dépose, elle peut provoquer des dégâts passagers ou permanents dans des composants électroniques. L’événement peut alors être juste perturbé ou perdu. Quant au composant électronique en question, il est parfois irrémédiablement endommagé. Depuis les débuts du projet LHC, des études approfondies ont été menées pour évaluer les conséquences de ce rayonnement ambiant sur la bonne marche des détecteurs. Les neutrons y jouent un rôle particulier, par la longue distance qu’ils traversent avant de s’arrêter et par leur capacité de provoquer des reculs d’atomes et des cassures de noyaux. On s’attend à produire 1013 neutrons/cm2 et par an au LHC avec une énergie moyenne de 1MeV. Les moins énergétiques, les neutrons thermiques (d’énergie inférieure à 1eV), peuvent être capturés par des noyaux qui deviennent alors fissiles. Les noyaux issus de la fission vont alors interagir avec la matière environnante en y provoquant des dislocations et des déplacements d’atomes. Les neutrons les plus énergétiques agissent par interaction forte en cassant les noyaux. L’effet final est alors similaire et donne souvent lieu à des pertes d’information.

page 62

Un effort impressionnant a été réalisé pour blinder les détecteurs autour de la région d’interaction et pour quantifier l’effet des radiations sur les différents composants : câbles, composants électroniques, pièces de silicium, cellules du calorimètre à argon liquide, ont subi des tests dans des stations d’irradiation, en particulier par faisceaux de neutrons, pour que l’on puisse évaluer le comportement de toutes ces pièces après avoir reçu une dose correspondant à 10 années de prise de données au LHC. Les contraintes imposées par les performances des détecteurs, qu’il faut préserver tout au long de ce projet, ont demandé de longs développements spécifiques pour améliorer la résistance aux radiations.

ÉLÉMENTAÍRE


ICPACKOI ? Le penta... couac Pourquoi ce titre un peu provocateur ? Tout simplement pour évoquer un phénomène scientifico-sociologique apparu en 2003 et qui a trouvé peut-être sa conclusion cet été. Pourquoi parle-t-on de « pentaquark » pour le système K+ n ? Si on examine le contenu en quarks de ces deux particules on obtient (udd) pour le neutron et (s– u) pour le K+ ce qui fait bien 4 quarks et un anti-quark. On peut remarquer au contraire que le système K- n n’est pas exotique ; – et en effet le K- correspond à (s u) l’anti-quark u– peut s’annihiler avec le quark u du neutron. On reste alors avec dds, ce qui correspond à un vulgaire baryon.

L’été est traditionnellement la saison des conférences et des nouveaux résultats. En 2003 on vit ainsi apparaître des signaux attribués à une particule constituée de quatre quarks et d’un antiquark : un état dénommé pentaquark. Toutes les particules composites connues jusqu’alors étaient formées de trois quarks, comme par exemple le proton (uud) ou le neutron (ddu), les autres étant des états liés entre un quark et un antiquark. En théorie, d’autres associations sont possibles où interviennent un plus grand nombre de quarks, ou même aucun, comme les «boules de gluons». Cependant les calculs théoriques les plus poussés ne permettent pas de conclure avec certitude que de tels états existent. Jusqu’ici, aucun signal n’avait été détecté pour ces configurations, dites exotiques. Cette annonce déclencha donc une certaine effervescence dans le Landernau des physiciens des particules. Le premier signal de pentaquark a été publié par une équipe japonaise étudiant l’interaction de photons avec des neutrons. Rapidement ce signal a été confirmé par la collaboration CLAS, travaillant au Thomas Jefferson Laboratory (TJLab) dans l’état de Virginie, aux USA. La réaction « observée » est schématisée sur la figure 1 et concerne des photons d’énergie de l’ordre du GeV qui interagissent avec une cible de deutérium. La signification statistique un peu supérieure à 5 σ, annoncée pour ce signal, correspond à une probabilité très faible, égale à 1 (mal)chance sur 10 000 000 (voir rubrique «Analyse») que le signal soit dû à une fluctuation du bruit de fond, c’est-à-dire à des événements fortuits ressemblant au phénomène recherché. Il semblait donc très probable que ce signal corresponde à une particule nouvelle. Ces annonces déclenchèrent une forte activité chez les expérimentateurs et les théoriciens, les uns cherchant d’autres preuves de l’existence de ces pentaquarks, les autres comparant leurs modèles avec les résultats publiés.

figure 1 : Schéma de la production et de la désintégration du pentaquark. Des photons dont l’énergie est de l’ordre du GeV interagissent avec une cible de deutérium. La formation d’un éventuel pentaquark est recherchée en étudiant la masse des combinaisons K+ n.

Immédiatement, d’autres expériences au Japon, en Russie et en Allemagne réanalysèrent des données déjà enregistrées à la recherche de signaux imputables à des pentaquarks. Une partie des résultats fut positive : dans certains cas (collaboration SAPHIR, figure 2), la signification statistique du signal pentaquark atteignit les 6 σ – soit normalement moins d’une chance sur un milliard de se tromper ! Mais plus de la moitié des tentatives se solda par un résultat négatif : aucune particule exotique ne fut détectée.

ÉLÉMENTAÍRE

page 63

gluons : les gluons assurent la liaison entre les quarks au sein des particules qui en contiennent (proton, neutron, pion, kaon...). On dit qu’ils transmettent l’interaction forte de même que le photon transmet l’interaction électromagnétique. Cependant, contrairement au photon, les gluons peuvent directement interagir entre-eux et certains pensent qu’ils pourraient former ainsi des états uniquement constitués de gluons... qu’il reste à découvrir.


Le penta... couac figure 2 : Spectre de masse mesuré dans l’expérience SAPHIR. Le signal attribué à un état pentaquark est indiqué par la courbe. Si un tel état existe et se désintègre en nK+, il va donner une accumulation d’événements au voisinage de la masse de cet état, qui serait ici égale à 1540 MeV. Le reste des événements présents dans la distribution correspond à des paires neutrons K+ produites par différents mécanismes et que l’on désigne sous le terme générique de «bruit de fond».

Néanmoins, comme les mécanismes de production des éventuels pentaquarks étaient différents de ceux des expériences positives, aucune conclusion définitive ne put être tirée de ces échecs. Au TJLab de nouvelles expériences furent lancées et présentèrent leurs premiers résultats cet été (figure 3). Elles ne trouvent aucun signal alors qu’elles auraient dû observer au moins dix fois plus de pentaquarks que les précédentes ! Ces résultats démontrent notamment que les résultats de SAPHIR étaient incorrects.

© CLAS

Le pentaquark a donc disparu deux ans après sa « découverte »... La communauté des physiciens a de quoi s’interroger ! Comment plusieurs expériences ont-elles pu se tromper en estimant la signification statistique de leurs résultats ? Des effets systématiques mal compris ont sans doute provoqué l’apparition du premier signal vu par l’équipe japonaise. Certaines analyses menées par la suite furent influencées par cette observation initiale. De nombreux critères de sélection sont appliqués pour passer des données enregistrées aux quelques événements qui figurent sur une courbe en mesure d’être interprétée. Si l’on cherche un signal à un endroit, on peut être enclin à favoriser des critères qui vont préserver des événements à l’endroit attendu. Pour éliminer ces biais (c’est-à-dire des interprétations, forcément subjectives, des données), une méthode sûre consiste à garder la même procédure d’analyse et à l’appliquer sur un nouveau lot de données. Si les critères utilisés ont sélectionné des fluctuations statistiques dans le premier lot, il n’y a pas de raison que cela soit le cas pour le lot suivant. Par contre si un signal réel existe il sera présent dans les deux analyses. Les nouvelles mesures de la collaboration CLAS illustrent cette approche. L’épisode des pentaquarks illustre la difficulté du travail expérimental au quotidien. Une observation doit toujours être confirmée de manière indépendante par d’autres expériences pour être validée. Au quotidien, la recherche scientifique n’est pas à l’abri de résultats erronés. Mais elle a établi des règles de validation pour garantir la justesse de ses conclusions sur le long terme.

Une vue de l’expérience CLAS (CEBAF Large Acceptance Spectrometer).

figure 3 : Un des nouveaux spectres de masse mesuré par l’expérience CLAS qui ne montre aucun signal de pentaquark, là où la collaboration allemande SAPHIR l’avait observé.

page 64

Nous ne savons donc toujours pas si la matière nucléaire exotique existe ni, d’ailleurs, pourquoi elle n’existe pas, si tel est le cas.

ÉLÉMENTAÍRE


ICPACKOI ? [isepasekwa] ? Conférences d’été

Commençons par planter le décor : une conférence qui se respecte se doit d’allier excellence scientifique et attrait touristique. Il n’est donc pas rare de trouver des cimes enneigées ou une plage près des salles de réunion, afin d’associer l’utile à l’agréable. Excursion touristique et repas gastronomique (le traditionnel banquet ou son équivalent plus formel, le « social dinner ») sont souvent inclus dans le programme annoncé sur Internet longtemps à l’avance. Ces activités facultatives encadrent alors les travaux de la conférence ou offrent une pause bienvenue au milieu d’emplois du temps toujours très denses.

Local Organizing Team Barreira, Gaspar (LIP, Lisboa) - Chairman Bento, Luis (CFNUL, Lisboa) Castello-Branco, Gustavo (CFIF, Lisboa) Costa, Miguel Sousa (FCUP, Porto) Deus, Jorge Dias (CENTRA, Lisboa) Gago, José Mariano (LIP, Lisboa) Policarpo, Armando (LIP, Coimbra) Providência, João da (CFT, Coimbra) Ribeiro, José Emílio (IST, Lisboa)

www.eps.org

www.lip.pt/events/2005/hep2005

Contact Address Conference secretary natalia@lip.pt, sandra@lip.pt LIP Lisboa Av. Elias Garcia 14, 1º 1000-149 Lisboa, Portugal tel: (+351) 217 973 880 fax: (+351) 217 934 631 www.lip.pt

Affiche de présentation d’une conférence (ici celle sur la Physique des Hautes Énergies de la Société Européenne de Physique à Lisbonne en juillet 2005).

Un physicien ne se rend pas en conférence de sa propre initiative : il y va avec l’accord de son laboratoire et, en général, il représente le groupe de chercheurs – au sens large – dont il fait partie : collaboration expérimentale regroupant plusieurs centaines de personnes, équipe plus réduite de théoriciens travaillant sur le même sujet etc. Le plus souvent, il a préparé un exposé de quelques dizaines de minutes qu’il présentera oralement aux autres participants de la conférence.

page 65

ÉLÉMENTAÍRE

•Heavy Ions •Accelerator R&D •Detectors and Data Handling

International Organizing Committee Barreira, Gaspar (Lisboa) Bernabeu, Jose (Chairman - Valencia) Burkhardt, Helmut (CERN) Leitner, Rupert (Prague) Levai, Peter (Budapest) Linde, Frank (Amsterdam) Osland, Per (Bergen) Pauss, Felicitas (Zürich) Pokorski, Stefan (Warsaw) Rabinovici, Eliezer (Jerusalem) Sphicas, Paris (Athens) Tuominiemi, Jorma (Helsinki) Vilain, Pierre (Brussels) Wark, David (Rutherford) Wermes, Norbert (Munich) Wess, Julius (München) Wormser, Guy (Orsay) Zwirner, Fabio (Rome)

Local organizing Institute

Même si l’aspect sociologique de telles réunions est important (établir des contacts avec d’autres physiciens, discuter de manière directe et informelle de sujets proches ou éloignés de son domaine de recherche particulier ou encore… chercher un travail !), les présentations scientifiques forment le cœur des conférences et représentent la principale motivation pour s’y rendre. Pour couvrir le champ de recherche le plus vaste en un temps raisonnable, l’emploi du temps d’une grande conférence est traditionnellement divisé en deux parties : d’une part les sessions « plénières », communes à tous les participants et au cours desquelles les résultats les plus importants sont annoncés ; d’autre part, les sessions « parallèles », plus techniques et spécialisées, conçues pour permettre aux experts d’un sujet donné de faire le point au sein d’une assemblée plus réduite. Comme il est évidemment impossible d’assister à toutes les sessions parallèles, chacune d’elle est gérée par une ou deux personnes qui préparent un résumé des exposés qui sera ensuite présenté en session plénière, le plus souvent le dernier jour. Ainsi, chaque participant se construit un programme « à la carte » en étant assuré de bénéficier d’une synthèse globale à la fin de la conférence. Que trouve-t-on dans une communication présentée à une conférence ? D’ordinaire, un comité de sélection l’a acceptée à l’avance et elle ne contient donc en principe que des informations scientifiques pertinentes. Celles-ci ne constituent pas son unique intérêt : un exposé vaut également pour ce qu’il

•Neutrino Physics •Astroparticle Physics •Cosmology

•String Theory •Non-perturbative Field Theory •Flavour physics and CP Violation

International Advisory Committee Aymar, Robert (CERN) Chen, He Sheng (IHEP, Beijing) Dorfan, Jonathan M. (SLAC) Engelen, Jos (CERN) Espriu, Domenec (Barcelona) Foster, Brian (Bristol) Gaemers, Karel J. F. (NIKHEF, Amsterdam) Heuer, Rolf (Hamburg U.) Horvath, Dezso (Budapest, RMKI) Iarocci, Enzo (Rome) Jarlskog, Cecilia (Lund U.) Mikenberg, Giora (Weizmann, Rehovoth) Peach, Ken (Rutherford) Petronzio, Roberto (INFN, Rome) Rubakov, Valery A. (Moscow, INR) Skrinsky, Alexander N. (Novosibirsk, IYF) Spiro, Michel (IN2P3) Tigner, Maury (Cornell U., LNS) Totsuka, Yoji (KEK, Tsukuba) Wagner, Albrecht (DESY) Witherell, Michael S. (Fermilab) Zinn-Justin, Jean (Saclay)

Design:

•Standard Model and Beyond •QCD and Hadronic Physics •Physics and future Machines

© EPS

Ces rassemblements se déclinent en plusieurs variétés : il y a les « grands » (c’est-à-dire célèbres), les « petits », les « écoles » (« d’été » ou « d’hiver » selon la saison), les ateliers de prospective, les colloques, etc... Certains reviennent à intervalles réguliers et ont leurs habitués ; d’autres sont des événements plus ponctuels, organisés dans un but précis : commémoration de grands chercheurs ou de découvertes ayant fait date, synthèse des connaissances sur un sujet en vogue, réflexions sur l’avenir de la discipline ou préparation d’une nouvelle expérience… Dans son laboratoire, on croise souvent des collègues qui vont en conférence ou qui en reviennent. Que peut-il donc bien se passer dans ces conférences et à quoi servent-elles ?

• op. 054/04 • Foto: Reprodução parcial e adaptada do painel de azulejos”Grande Vista de Lisboa-Mosteiro dos Jerónimos e Arredores” (1700), cedida pelo Instituto Português de Museus.

Contrairement à une idée reçue, les physiciens n’appartiennent pas à une espèce sédentaire. En effet, notre communauté est régulièrement traversée de puissants courants migratoires qui font converger plusieurs centaines de scientifiques dans un même lieu pour une période donnée, allant de quelques jours à deux, voire trois semaines.


[isepasekwa] ? ne dit pas et pour le débat qu’il suscite dans la conférence. En effet, toute présentation est suivie de quelques minutes de questions encadrées par une personne qui « préside » la session et gère la discussion qui s’établit alors entre l’intervenant et l’auditoire. Il n’est pas rare que le dialogue entamé en public se poursuive ensuite en petit comité, lors des pauses café ou déjeuner.

© MH. Schune

Du fait des contraintes d’emploi du temps et de budget, un physicien va rarement plus d’une fois par an en conférence. Il en rapporte toujours de petits objets commémoratifs, offerts par le comité d’organisation : cahier d’écolier et stylo à bille dans les cas les plus spartiates, valisette aux couleurs de la conférence, écritoire en cuir ou encore… coupe-ongles en plastique rappelant le lieu de la réunion !

En effet, la compétition est très forte dans le monde de la recherche. Il n’est pas rare que deux expériences au moins étudient indépendamment les mêmes phénomènes. Si cette situation est scientifiquement souhaitable – plusieurs mesures concordantes valent mieux qu’un résultat unique – elle génère également une lutte acharnée entre ces collaborations. C’est à qui publiera la première le maximum de nouveaux résultats les plus précis possibles. Ici comme ailleurs, arriver second n’a qu’un intérêt limité : l’antériorité d’une découverte assure le passage d’une expérience à la postérité et, parfois, un prix Nobel ! Ainsi, pour réussir son exposé, un intervenant doit être capable de défendre les éléments qu’il présente, de montrer leur cohérence aux non-spécialistes et de contrer les arguments des rivaux. Après une communication controversée, le débat est parfois très animé ! Il peut se prolonger d’une conférence à l’autre jusqu’à ce que l’un des camps soit convaincu par les arguments de ses « adversaires ». Il arrive également qu’il n’y ait pas de solution immédiate à de tels conflits, les différentes approches ayant toutes des avantages et des inconvénients : la controverse dure alors jusqu’à ce que de nouveaux éléments permettent d’y mettre fin. Après de vifs échanges, entrecoupés d’exposés et de présentations, la conférence se termine. Les chercheurs retournent alors dans leurs laboratoires pour faire profiter leurs collègues des informations qu’ils ont recueillies. Les présentations – presque toujours au format électronique – sont rapidement mises à la disposition de la communauté scientifique par l’intermédiaire d’Internet. Il arrive aussi que des comptes-rendus soient édités sous forme d’un livre, envoyé aux participants de la conférence comme aux bibliothèques des instituts qui en font la demande. page 66

Vue de l’amphithéatre lors de la conférence sur la Physique des Hautes Énergies de la Société Européenne de Physique (à Lisbonne en juillet 2005).

Prenons un exemple concret, celui d’un orateur appartenant à une collaboration. Le sujet de sa communication a été défini au sein de son expérience et son contenu approuvé en interne : les informations qu’il donne peuvent être rendues publiques. En revanche, il a interdiction de mentionner certains faits, par exemple de nouveaux résultats partiellement vérifiés. Si ceux-ci étaient annoncés immédiatement et se révélaient ensuite faux, cette publication intempestive nuirait au sérieux de la collaboration. Une annonce prématurée pourrait aussi inciter des « concurrents » à entamer une recherche similaire susceptible d’aboutir plus rapidement.

ÉLÉMENTAÍRE


Pour en savoir plus Sur la découverte du neutron Jules Six «La découverte du neutron», édition du CNRS

L’Institut Laue-Langevin http://www.ill.fr

La neutronthérapie http://www.neutrontherapy.niu.edu/neutrontherapy/index.shtml

Le moment électrique dipolaire du neutron http://www.phys.washington.edu/users/wcgriff/romalis/EDM/

L’actualité du LHC

http://lhc.web.cern.ch/lhc/

Cours donnés au CERN (13-17 Juin 2005) http://webcast.cern.ch/home/pages/lecser_cds.php?prog_year=rlpr_2005

Abonnement

Abonnez-vous à la revue ÉLÉMENTAIRE, pour comprendre l’infiniment petit et appréhender l’infiniment grand, Offre pour deux numéros de la revue sur un an (frais de port inclus) : 6 euros Pour un nombre d’exemplaires de 5 à 9 (frais de port inclus) 2,5 euros du numéro, pour plus de 10 exemplaires : 2 euros du numéro (frais de port inclus).

Bulletin d’abonnement Faites votre demande d’abonnement à l’adresse sur le serveur internet : http://elementaire.web.lal.in2p3.fr/

Pour nous contacter à propos du contenu de cette revue ou pour d’autres raisons: - Email: elementaire@lal.in2p3.fr - ou bien à l’adresse postale ci-dessus.

ÉLÉMENTAÍRE

page 67

ou à l’adresse : Groupe ÉLÉMENTAIRE LAL Bât 200 BP 34 91898 ORSAY CEDEX (Chèque libellé à l’ordre de l’AGENT COMPTABLE PRINCIPAL DU CNRS)



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.