N7_

Page 1

ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Numéro 7

Revue d’information scientifique

Solstice d’été 2009

Quand l’Univers...

...fait boum !


ÉLÉMENTAÍRE De l’infiniment petit à l’infiniment grand

Pour ce septième numéro, nous quittons cette bonne vieille planète Terre pour nous embarquer dans un voyage à travers l’espace et le temps. En effet, Élémentaire se penche aujourd’hui sur... notre Univers tout entier, son histoire et ses grandes caractéristiques. C’est l’objet d’une vaste discipline, appelée cosmologie, qui est parvenue au cours des dernières années – et ce n’est pas un petit succès – à élaborer une vision cohérente de ces sujets, vision que vous allez découvrir au fil de ces pages, en commençant par notre « Apéritif » ! Ainsi que nous vous le rappelons dans « Histoire », cette volonté d’expliquer le cosmos, l’ordre céleste qui nous entoure, est profondément enracinée dans la nature humaine. Mais ce n’est qu’avec l’avènement d’une astronomie de précision et de la théorie de la relativité générale que la cosmologie moderne prend son envol au début du vingtième siècle. Elle a ensuite bénéficié des avancées de la physique des constituants élémentaires de la matière pour donner naissance à son propre modèle standard, que nous décrivons dans « Théorie ». Tout commence il y a environ 14 milliards d’années, avec le « Big Bang », une période où l’Univers très dense et très chaud connaît une expansion rapide. À mesure qu’il se refroidit et se dilue, les premiers noyaux se forment , puis les premiers atomes, et enfin des nuages de gaz qui seront les berceaux des premières étoiles, galaxies, amas de galaxies.. pour finalement aboutir à l’Univers que nous connaissons. Mais si ce modèle décrit de façon satisfaisante les observations accumulées au fil des décennies, il possède aussi sa part d’ombre. En particulier sa composition énergétique comprendrait environ 23% d’une matière sombre, assez mystérieuse et 72% d’une déroutante « énergie noire », que nous examinons en détail dans la « Question Qui Tue ». Fort heureusement, pour nous aider dans cette quête de notre passé lointain, il existe un témoin privilégié de l’Univers primordial. En effet, nous sommes en mesure de détecter un rayonnement fossile, remontant à 380 000 ans après le Big Bang. Si ce dernier (ou CMB) a été observé dans les années 1960, comme nous vous le rappelons dans « Découverte », il est loin d’avoir livré tous ses se-

crets, et il continue à fournir des informations précieuses sur la structure de l’Univers primordial. Ainsi, la mission Planck, lancée le 14 mai 2009 et décrite dans « Expérience », va s’intéresser à des aspects encore méconnus du rayonnement fossile qu’elle captera grâce à des appareils d’une grande sensibilité, les bolomètres, que nous décrivons dans « Détection ». On pourra ainsi tracer des cartes du ciel très précises décrivant les caractéristiques de ce rayonnement. Pour tirer de ces cartes des informations supplémentaires concernant les caractéristiques de l’Univers primordial, il faut le plus souvent passer par des méthodes inspirées de la transformation de Fourier, un outil mathématique présenté dans « Analyse ». À l’heure où la mission Planck vient d’être envoyée dans l’espace, nous avons demandé à Jean-Loup Puget, l’un des chefs d’orchestre de ce projet, de nous parler dans l’ « Interview » de ce travail de longue haleine, rassemblant des communautés très différentes de physiciens et d’ingénieurs. Nous aborderons aussi d’autres aspects de la cosmologie au fil de ce numéro. « Icpackoi » reviendra sur l’actualité de deux autres satellites d’observation, Fermi et Pamela, tandis que « Centre » évoquera les différents sites où l’on cherche actuellement à détecter des signaux d’un type nouveau : les ondes gravitationnelles. Enfin, vous retrouverez les deux rubriques récurrentes d’Élémentaire : « LHC » vous parlera du démarrage mouvementé de la machine en septembre 2008, tandis qu’ « Énergie nucléaire » évoquera le projet ITER dont l’objectif, à terme, est la production d’énergie par fusion thermonucléaire. Du haut de ce numéro, 14 milliards d’années nous contemplent ! De quoi vous laisser le temps de savourer votre lecture, d’ici à la parution de notre prochain (et dernier) numéro. Il sera à nouveau consacré à la physique des particules, et plus particulièrement, aux phénomènes (attendus, espérés, supposés...) au-delà de notre vision actuelle de la physique des particules. D’ici là, bonne lecture !

Revue d’information paraissant deux fois par an, publiée par : Élémentaire, LAL, Bât. 200, BP 34, 91898 Orsay Cedex Tél. : 01 64 46 85 22 - Fax : 01 69 07 15 26. Directeur de la publication : Sébastien Descotes-Genon Rédaction : N. Arnaud, M.-A. Bizouard, S. Descotes-Genon, L. Iconomidou-Fayard, H. Kérec, G. Le Meur, P. Roudeau, J.-A. Scarpaci, M.H. Schune, J. Serreau, A. Stocchi. Illustrations graphiques : S. Castelli, B. Mazoyer, J. Serreau. Maquette : H. Kérec. Ont participé à ce numéro : J.-L. Bobin, S. Digel (SLAC). Remerciements : S. Plaszczynski, F. Cavalier (LAL) et nos nombreux relecteurs.` Site internet : C. Bourge, N. Lhermitte-Guillemet, http://elementaire.web.lal.in2p3.fr/ Prix de l’abonnement : 3 euros pour le numéro 8 (par site internet ou par courrier) Imprimeur : Imprimerie Louis Jean - 05300 Gap . Numéro ISSN : 1774-4563


Apéritif p. 4

L’archéologie cosmique : reconstruire l’histoire de notre univers

ÉLÉMENTAÍRE

Histoire p. 9

De l’infiniment petit à l’infiniment grand

Accélérateurs p. 47 Un sujet très sérieux : les accélérateurs co(s)miques

Petite histoire de la cosmologie

Découvertes p. 53 Le rayonnement fossile Interview p. 14

Jean-Loup Puget

Théorie

p. 59 Le modèle cosmologique standard

Centre de recherche p. 19

Observatoires d’ondes gravitationnelles

Expérience p. 29

La mission Planck

Détection p. 34

Bolomètres

Retombées p. 37 Le GPS

Analyse p. 42

Transformée de Fourier et applications au CMB

La question qui tue p. 77

Combien pèse le vide ?

Énergie nucléaire p. 81

ITER : vers une future source d’énergie ?

Le LHC

p. 67 Démarrage du LHC : le 10 septembre 2008

ICPACKOI p. 71

GLAST : une nouvelle « star » dans le ciel PAMELA : alerte aux positrons ! Abonnement : faites votre demande d’abonnement sur le serveur : http://elementaire.web.lal.in2p3.fr/ ou à l’adresse : Groupe Élémentaire LAL, Bât 200, BP 34, 91898 Orsay cedex. Numéro 8 (port inclus) : 3 euros, chèque libellé à l’ordre de «AGENT COMPTABLE SECONDAIRE DU CNRS». Pour les administrations les bons de commande sont bienvenus. Contact : elementaire@lal.in2p3.fr


Apéritif L’archéologie cosmique : reconstruire Le modèle standard de la cosmologie La cosmologie est la science qui étudie l’Univers dans son ensemble. Tels des archéologues cosmiques, les cosmologues tentent de retracer son histoire à partir de ce qu’ils peuvent en observer aujourd’hui. Si l’être humain s’est toujours interrogé sur l’origine et l’histoire de l’Univers, l’ère de la cosmologie moderne, c’est-à-dire de la cosmologie quantitative, basée sur des observations et des mesures précises, a commencé seulement au cours du siècle dernier, dans les Années Folles. À grande échelle En astronomie, il existe plusieurs unités pour exprimer les distances des objets observés, qui sont adaptées à l’ordre de grandeur de cette distance. Par exemple, pour les planètes du système solaire, on emploie comme unité le km. Ainsi Pluton, l’ex-planète la plus éloignée du Soleil est à 9,5 milliards de kilomètres (km). Pour une étoile de notre Galaxie, on utilise plutôt l’année-lumière qui est la distance que parcourt la lumière dans le vide pendant un an, soit 9 460 milliards de km. Le diamètre de notre Galaxie est d’environ 100 000 années-lumière. Au-delà des échelles galactiques, il est d’usage d’employer une autre unité : le parsec, qui est la distance à laquelle on observe la distance Terre-Soleil sous un angle d’une seconde d’arc, c’est-à-dire 3,26 annéeslumière. Ainsi le Groupe Local, qui forme un ensemble de 30 galaxies les plus proches de nous, a un diamètre de 3 millions de parsec. Au-delà de la centaine de millions de parsec, on parle de distance à grande échelle ou d’échelle cosmologique. Il s’agit donc de distances largement supérieures à celles entre galaxies. On est capable d’observer des objets à de telles distances cosmologiques. Par exemple la galaxie la plus éloignée jamais observée est à environ 4 milliards de parsecs de nous. 1 année-lumière = 9460 milliards de km. 1 parsec = 3,26 années-lumière = 30 800 milliards de km.

page 4

Ex-planète Selon la dernière définition de l’Union Astronomique Internationale (août 2006), une planète est un corps céleste qui est en orbite autour du Soleil, qui possède une masse suffisante pour que sa gravité l’emporte sur les forces de cohésion de corps solide pour lui donner une forme presque sphérique, et qui a éliminé tout corps se déplaçant sur une orbite proche. Cette définition implique que le système solaire possède actuellement huit planètes : Mercure, Vénus, la Terre, Mars, Jupiter, Saturne, Uranus et Neptune. Cette nouvelle définition a nécessité dix jours de discussion entre 400 scientifiques de l’UAI. En effet, certains rechignaient à faire perdre à Pluton son statut de planète. En lot de consolation, l’UAI a créé une nouvelle classe d’objets, les planètes naines, trop petites pour avoir « fait le ménage » sur leur orbite. Les premiers membres de ce club sont l’ancienne planète Pluton et les anciens astéroïdes Cérès et Éris.

Deux évènements marquent son avènement. En 1929, Edwin Hubble et Milton Humason découvrent la loi de l’expansion universelle : toutes les galaxies s’éloignent de nous avec une vitesse proportionnelle à leur distance. Le principe cosmologique, socle de la cosmologie moderne hérité des astronomes du passé comme Giordano Bruno ou Galilée, suppose que notre position dans l’Univers n’a rien de particulier : nous sommes situés, non pas au centre de l’Univers, mais plutôt en un point comme n’importe quel autre. On doit donc en conclure que les galaxies s’éloignent, non pas de « nous », mais les unes des autres, remettant en question l’idée séculaire d’un Univers statique. Quelques années auparavant, au début des années 1920, certains théoriciens, comme Georges Lemaître ou Alexander Friedmann, avaient, eux aussi, fait une découverte importante. À partir de la toute nouvelle théorie de la relativité générale d’Albert Einstein, ils avaient déduit des lois régissant la dynamique de l’Univers dans son ensemble et montré que les solutions génériques des équations correspondaient, non pas à un Univers statique, mais à un Univers en expansion ! Cette vision, corroborée par la théorie et l’observation, marque la naissance de la cosmologie moderne. La progression des observations cosmologiques, permettant des mesures de plus en plus précises concernant l’Univers à grande échelle, et le développement conjoint des idées théoriques ont donné lieu à une description cohérente de l’histoire de notre Univers remontant de nos jours jusqu’à environ 13,7 milliards d’années dans le passé : c’est le « modèle standard » de la cosmologie. Celui-ci inclut le modèle connu sous le nom de « Big Bang », mais aussi une phase d’expansion accélérée durant les tous premiers instants de l’Univers, appelée « inflation cosmique ». Il repose sur le principe cosmologique ainsi que sur certaines hypothèses de base comme, par exemple, celle d’homogénéité et d’isotropie à grande échelle. Les propriétés globales de l’Univers sont caractérisées par un certain nombre de paramètres, comme son contenu énergétique, la quantité relative de matière et d’antimatière, l’époque de formation des

ÉLÉMENTAÍRE


l’histoire de notre univers 13,7 milliards d’années Ce chiffre, souvent appelé, par abus de langage, « âge de l’Univers » est en fait le temps jusqu’auquel les mesures et la théorie permettent de remonter. Il correspond à une époque où l’Univers était si dense que les lois de la physique que nous avons découvertes au cours de notre histoire ne constituent plus une description cohérente. En particulier si on remonte plus avant le temps, on se heurte à la « barrière de Planck », échelle d’énergie au-delà de laquelle les effets gravitationnels et quantiques devraient être d’importance comparable et où une théorie quantique de la gravitation, encore manquante, devient nécessaire.

premières étoiles, etc. Au total 21 paramètres indépendants permettent de rendre compte de l’Univers observé à ce jour dans le cadre du modèle standard de la cosmologie (voir « Théorie »).

La Terre est ronde... mais l’Univers est plat !

La quantité totale d’énergie par unité de volume de l’Univers est directement reliée à la courbure de l’espace, c’est-à-dire la partie spatiale de l’espacetemps. Selon que cette dernière est positive, négative ou nulle, on parle d’un univers « fermé », « ouvert », ou « plat ». Pour faire une analogie entre notre espace tridimensionnel et des objets bidimensionnels, ces trois cas correspondraient respectivement à un ballon, une chips, ou une table qui se dilate avec le temps du fait de l’expansion. Si les deux premières situations sont les plus génériques, le cas d’un univers plat correspond à une valeur particulière de la densité d’énergie, appelée « densité critique » et donnée par la formule : ρc = 3H2c2/8πG ~ 9 x 10 -10 J/m3, où H est la constante de Hubble, c la vitesse de la lumière dans le vide et G la constante de Newton. Elle équivaut à la densité énergétique d’un gaz d’hydrogène contenant environ 6 atomes par m3.

© Hubble

Une caractéristique importante de l’Univers est son contenu énergétique, qui détermine son évolution. De façon remarquable, il est possible de déterminer la densité d’énergie totale de l’Univers sans pour autant avoir une compréhension précise du détail de son contenu. On utilise pour cela un aspect fondamental de la théorie de la relativité générale : la présence d’énergie déforme l’espace-temps. C’est cette déformation, appelée « courbure », qui est responsable de la force de gravitation dont nous observons les effets dans l’Univers tout entier.

Pendant longtemps, il fut difficile de déterminer expérimentalement à quel cas correspond notre univers, étant donné qu’il est nécessaire d’observer des objets extrêmement lointains pour mettre en évidence une courbure (comme il est difficile pour une fourmi à la surface de la Terre de se rendre compte qu’elle est ronde). Un des résultats majeurs des satellites COBE dans les années 1990, et WMAP 10 ans plus tard, qui mesurèrent avec précision le rayonnement fossile, mis en évidence en 1965 par Penzias et Wilson (voir « Découverte »), fut de déterminer que l’Univers est (spatialement) plat à grande échelle, et donc que la densité totale d’énergie est égale à la densité critique au pour cent près.

Pluton et ses trois satellites connus : Charon, Nix et Hydra, vus par le téléscope spatial Hubble. Homogénéité et isotropie L’hypothèse d’un Univers parfaitement homogène, sans grumeaux, tel une sauce béchamel réussie n’est sûrement pas vraie aux échelles galactiques ou intergalactiques (les galaxies jouant le rôle de grumeaux), mais s’avère relativement bonne aux très grandes échelles (cosmologiques). Il en va de même pour l’hypothèse d’isotropie qui stipule qu’il n’existe a priori aucune direction privilégiée dans l’Univers... à grande échelle.

ÉLÉMENTAÍRE

page 5

Si l’espace est plat, qu’en est-il de l’espace-temps ? Sa courbure est reflétée par le taux d’expansion. Pour mesurer ce dernier, la bonne vieille méthode de Hubble et Humason reste encore la meilleure : on mesure la distance et la vitesse d’éloignement d’objets aussi lointains (c’est-à-dire anciens) que possible et on en déduit le taux d’expansion. Facile à dire, pas si facile à faire, notamment à cause du fait que les mesures de distances sont difficiles pour des objets lointains. On utilise pour cela des « chandelles standard », objets astrophysiques dont on connaît la luminosité intrinsèque.


L’archéologie cosmique : reconstruire Rayonnement fossile Notre univers est empli d’un rayonnement électromagnétique vestige de l’époque de la formation des premiers atomes. Il s’agit d’un rayonnement thermique à 2,7 K.

En comparant avec la luminosité mesurée, on en déduit la distance. Diverses campagnes d’observations d’un grand nombre de supernova de type Ia proches et lointaines, comme le Supernova Cosmology Project et le High z Supernova Search ont permis de mesurer le taux d’expansion de l’Univers ainsi que sa variation, c’est-à-dire le taux d’accélération (ou de décélération) de l’expansion, avec un résultat inattendu : l’expansion de l’Univers s’accélère ! Ce résultat, confirmé depuis par les mesures de WMAP, est surprenant. En effet, une des conséquences génériques des équations de la relativité générale est que l’expansion devrait ralentir car freinée par la gravitation, du fait de sa nature attractive. Tout se passe donc comme si la gravité devenait répulsive à grande échelle...

COBE et WMAP Ces deux expériences ont mesuré les anisotropies du rayonnement fossile de photons (ou CMB de son acronyme anglais pour «cosmic microwave background») datant de l’époque où l’Univers avait environ 380 000 ans (voir « Découverte »). La cartographie de l’énergie du rayonnement montre des régions plus ou moins « chaudes ». La relation entre la taille réelle (supposée connue) d’une région chaude/froide et celle observée sur le ciel dépend directement de la courbure spatiale de l’Univers. C’est ainsi que WMAP a montré en 2006 que l’Univers est plat, et donc que sa densité énergétique est égale à la densité critique avec une précision de l’ordre de 1%.

Où l’on s’aperçoit... que l’on ne voit pas grand-chose

© VLT

Grâce aux observations, nous connaissons une grande partie des objets qui peuplent l’Univers : planètes, étoiles, galaxies, amas de galaxies, nébuleuses (gaz et poussière interstellaire), supernovæ (explosions d’étoiles en fin de vie), rayonnement fossile, trous noirs, étoiles à neutrons, rayons cosmiques, sursauts gammas, quasars (noyaux actifs de galaxie)... Tous ces phénomènes ont été vus principalement par des télescopes optiques (longueur d’onde visible ou dans l’infrarouge) terrestres ou spatiaux, ou par des antennes (fréquences radio). Parmi les télescopes modernes qui ont apporté beaucoup de nouvelles connaissances ces dernières années, on peut citer le satellite Hubble, le plus grand radio-télescope du monde, Arecibo, situé à Porto Rico, les satellites permettant des observations dans la gamme des rayons gamma ou X (comme le Compton Gamma-Ray Observatory et le Chandra X-ray Observatory), ou encore le Very Large Telescope dans le désert d’Atacama au Chili.

Une image (dans la gamme des rayons X) des restes de la supernova de Tycho Brahé, qui explosa en 1572 dans la constellation de Cassiopée. Il s’agit d’une supernova de type Ia.

page 6

© VLT

Le Very Large Telescope au Chili.

Supernova de type Ia Les supernovæ sont de gigantesques explosions d’étoiles en fin de vie lors desquelles les éléments chimiques qu’elles ont synthétisés sont violemment expulsés dans l’espace intersidéral. On les classe en différentes catégories selon le contenu chimique de la matière expulsée. Par exemple, on parle de supernova de type I si de l’hydrogène est présent, et de type II dans le cas contraire. En l’occurrence, les types Ia recèlent du silicium. Contrairement à toutes les autres, où l’explosion est due à l’effondrement gravitationnel du cœur de l’étoile, les supernovæ de type Ia résultent de l’explosion thermonucléaire d’étoiles appelées naines blanches, suite à l’accrétion de matière arrachée à une étoile voisine, voire à une collision avec celle-ci. Lorsque la quantité de matière accrétée dépasse une valeur critique, appelée masse de Chandrasekhar (1,38 fois la masse solaire), l’étoile explose. La luminosité émise dépend essentiellement de la masse et est donc sensiblement la même pour toutes les supernovæ de type Ia, indépendamment du mécanisme d’accrétion à l’origine de l’explosion. Cette particularité remarquable fait de ces supernovæ des étalons lumineux qui permettent une mesure fiable de distance à partir de leur luminosité apparente sur Terre (qui diminue comme le carré de la distance) : on parle de «chandelles standard ».

ÉLÉMENTAÍRE


l’histoire de notre univers Le Supernova Cosmology Project et le High z Supernova Search Ce sont deux projets composés d’équipes internationales qui ont utilisé pendant quelques années les mesures de supernova de type Ia faites par plusieurs télescopes situés dans les grands observatoires (Chili, Hawaï, Australie...) de par le monde. Les physiciens travaillant sur ces projets ont d’abord montré que les supernovæ de type Ia ont la particularité d’avoir toutes la même luminosité intrinsèque (flux de photons émis). Mesurer leur luminosité apparente permet alors d’en déduire leur distance. Ils ont par ailleurs mesuré le redshift des supernovæ. Le redshift, ou « décalage vers le rouge » dû à l’effet Doppler (voir « Théorie »), permet de déterminer la vitesse d’éloignement de la supernova. En comparant la distance et le redshift, ils ont mis en évidence que les supernovæ les plus distantes sont 20% plus lointaines que ce qu’elles devraient être si l’expansion de l’Univers était celle attendue pour un Univers empli de matière « ordinaire » soumise à une gravité « habituelle ». Luminosité apparente de supernovæ de type Ia en fonction de leur redshift (décalage spectral). La partie en rose et bleu en bas est un zoom de la partie correspondante en haut. La luminosité apparente des supernovæ à grand décalage spectral est inférieure (et sa magnitude, supérieure) à ce qui est attendu dans le cadre d’un modèle d’Univers en expansion constante ou décélérée.

Mais quand on fait les comptes, on s’aperçoit que la quantité de matière « visible » représente à peine 5 % du contenu énergétique total de l’Univers. Où est le reste ? Depuis les années 1930, on subodore l’existence d’une forme de matière massive mais invisible dont on ne détecte que les effets gravitationnels. Cette « matière noire » permet d’expliquer un phénomène étrange : les galaxies périphériques, au sein d’amas, tournent plus vite qu’attendu si on suppose que la masse de l’amas est reflétée par sa seule luminosité. Il semble donc qu’une partie importante de la masse des amas de galaxies ne soit pas visible ! Les données les plus récentes concernant les amas de galaxies ont permis de montrer que cette matière invisible contribue pour environ 23 % de la densité d’énergie de l’Univers. Mais la nature de la matière noire reste un mystère. Elle pourrait être composée de nouvelles particules prédites par certaines extensions du Modèle Standard de la physique des particules (voir Élémentaire N°6). Si ces particules ne sont pas trop lourdes, elles pourraient être observées au LHC, où elles seront activement recherchées.

Trou noir Un trou noir est un objet massif dont le champ gravitationnel est si intense qu’il empêche toute forme de matière ou de rayonnement de s’en échapper. De tels objets sont prédits par la relativité générale et n’émettent pas directement de lumière. On peut néanmoins, observer leur présence par leur effet sur des objets avoisinants. Par exemple, dans certains cas, la matière qui est happée par un trou noir est fortement accélérée avant d’être engloutie, ce qui engendre une émission importante de rayons X. Ou encore, l’observation des trajectoires d’étoiles qui passent à proximité du centre galactique indique qu’il existe, au centre de notre galaxie, un trou noir super massif, de quelques millions de masses solaires.

Environ 5 % de matière visible, 23 % de matière noire... il manque encore quelque chose pour arriver à la densité critique ! Où ? Quoi ? Qui ? Eh bien il s’agit de l’énergie responsable de l’accélération de l’expansion de l’Univers, détectée récemment par l’observation des supernovæ lointaines et du rayonnement fossile. De quoi s’agit-il ? Nul ne le sait à l’heure actuelle. C’est là une des grandes énigmes scientifiques de ce siècle ! Se pourrait-il que les lois de la relativité générale ne soient pas valables à grande distance ? Ou bien existe-t-il une ou des formes de matière ou d’énergie encore inconnues dont les effets gravitationnels donneraient lieu au phénomène observé ? À ce stade de l’enquête, les physiciens ne négligent aucune piste. Faute de mieux, nous avons donné un nom à notre ignorance : on l’appelle « l’énergie noire ». Tout ce que l’on sait avec certitude à l’heure actuelle est qu’elle constitue environ 72 % du budget énergétique de l’Univers.

ÉLÉMENTAÍRE

page 7

En résumé, plus de 95% de notre Univers est constitué de matière ou d’énergie dont on ne connaît pas vraiment l’origine ... excitant non ?


L’archéologie cosmique Carte d’identité de l’Univers Âge connu : 13,7 milliards d’années.

© NASA

Évolution : après avoir subi une longue phase d’expansion ralentie, l’Univers est aujourd’hui en expansion accélérée. Taille : l’Univers est a priori infini. On peut néanmoins définir la taille de la partie « visible », c’est-à-dire à ce qui est à l’intérieur de notre horizon. Celle-ci dépend du contenu en matière et énergie de l’Univers. La distance de notre horizon est estimée à environ 50 milliards d’années-lumière.

Supernova SN 1994D – en bas à gauche – dans le disque externe de la galaxie spirale NGC 4526. On observe que l’intensité lumineuse émise lors de l’explosion de cette seule étoile est comparable à celle de la galaxie entière, qui en contient des milliards.

Contenu : Tout ce qui a de l’énergie contribue à la gravitation. On peut classer les différents types de matière qui peuplent notre Univers par leur comportement gravitationnel global : • le « rayonnement » : composé de particules sans masse ou presque (photons, neutrinos), ce type de matière donne lieu à une gravité attractive (souvenezvous, c’est l’énergie, et non la masse, qui est source de gravitation) et donc tend à décélérer l’expansion. Si cette forme de matière a dominé l’expansion pendant environ les premières 380 000 années de l’histoire de l’Univers, son influence gravitationnelle est aujourd’hui complètement négligeable. • la « matière » : composée d’objets (particules ou autres) massifs, elle donne aussi lieu à une décélération de l’expansion, moindre cependant que celle due au rayonnement dans l’Univers primordial. On en distingue deux types : la matière ordinaire, composée des particules connues (baryons, etc.) et la matière noire, de nature inconnue à l’heure actuelle. • l’énergie noire : de nature inconnue, elle donne lieu à une gravité répulsive et domine actuellement l’expansion de l’Univers.

Horizon C’est la distance maximale des objets qu’il est possible d’observer dans l’Univers à un temps donné. Oublions l’expansion de l’Univers pour un moment et supposons que son histoire commence à un temps t=0. À cause de la vitesse limite de propagation de tout signal physique (vitesse de la lumière dans le vide), les seules régions de l’Univers accessibles à l’observation après, disons, une année sont situées au plus à une année-lumière de nous : c’est notre horizon. Sa taille est proportionnelle au temps écoulé depuis l’instant initial avec un facteur de proportionalité égal à la vitesse de la lumière dans le vide. Pour un univers en expansion, la relation entre la taille de l’horizon et le temps écoulé est modifiée du fait de la dilatation de l’espace. Dans notre univers, la distance à l’horizon est environ trois fois plus grande que ce qu’elle eût été en l’absence d’expansion, soit environ 50 milliards d’années lumière.

Objets les plus éloignés observables : quasars (objets très lumineux qui semblent être des noyaux actifs de galaxies). Le quasar connu le plus éloigné est à 13 milliards d’années-lumière.

page 8

Composition de la densité d’énergie de l’Univers actuel (déterminée par WMAP) : 4,6 % de matière baryonique (il s’agit de la matière visible : étoiles, galaxies, nuages de gaz et de poussières etc.) ; 23 % de matière noire et 72 % d’énergie noire. Bien que dominante dans les premiers instants de l’Univers, la part du rayonnement (photons et neutrinos) est aujourd’hui négligeable.

ÉLÉMENTAÍRE


Histoire Depuis ses premiers instants l’humanité s’est intéressée à la place de l’homme et de son environnement dans l’Univers. D’abord à propos de son lieu de vie proche : jusqu’où les paysages s’étendent ils ? Jusqu’où un voyageur peut-il aller ? S’il y a une limite, l’explorateur téméraire qui s’aventurera au-delà risque-t-il de tomber et si oui, où va-t-il atterrir ? Les astronomes du monde antique suggèrent, dès le VIe siècle avant notre ère, que la Terre est ronde en remarquant que l’étoile Canopus dans la constellation de la Carène est observable depuis Alexandrie mais pas depuis Athènes. Une Terre plate comme une crêpe est alors exclue. Sa forme sphérique est corroborée plus tard par Aristote au IVe siècle avant notre ère sur l’argument de l’ombre ronde que la Terre fait sur la Lune lors des éclipses de cette dernière. Le diamètre de la Terre est ensuite évalué par Eratosthène. Malgré ces démonstrations, l’image d’une Terre en forme de disque plat persiste pendant plusieurs siècles : au XVe siècle, lors des longues années pendant lesquelles Christophe Colomb a cherché des mécènes pour financer le voyage qui lui permettrait de rejoindre les Indes en naviguant vers l’ouest, il a dû combattre des récalcitrants encore adeptes d’une Terre plate et finie, dont il serait impossible de faire le tour.

DR

Petite histoire de la cosmologie

Après Sirius, Canopus est une des étoiles les plus brillantes du ciel nocturne. Elle est de couleur presque blanche et elle fait partie de la constellation de Carina. Le télescope spatial Hipparcos a pu évaluer sa distance à 310 années-lumière.

Inclinaison de l’écliptique : comme toutes les planètes de notre système solaire, la Terre tourne autour du soleil suivant une orbite dont le plan est appelé écliptique. L’axe de la Terre passant par ses deux pôles n’est pas perpendiculaire à ce plan mais fait un angle appelé « obliquité » ou inclinaison de l’écliptique. C’est cette inclinaison qui est responsable de l’existence des saisons dans toutes les régions tempérées du globe.

ÉLÉMENTAÍRE

page 9

© B. Mazoyer

Ératosthène naît en 276 avant notre ère à Cyrène (aujourd’hui Shahat en Lybie). Philosophe aux nombreux talents, ses travaux concernent de multiples domaines. Il étudie l’histoire, l’astronomie, les mathématiques et la géographie dont on lui attribue la paternité du nom. Ératosthène est le premier à mesurer le diamètre de la Terre en la supposant sphérique. En comparant les différences d’ombre à Assouan et à Alexandrie le jour du solstice d’été, il remarque une différence : tandis qu’à Assouan à midi pile, le soleil semblait être à la verticale au dessus d’un puits, dans lequel il n’y avait aucune ombre, au même moment, l’obélisque de la ville d’Alexandrie portait encore une ombre sur le sol. Par des calculs de trigonométrie, Ératosthène démontre que cette ombre s’expliquerait par des rayons solaires faisant un angle de 7,2 degrés avec l’obélisque. Deux solutions lui apparaissent alors possibles : soit la Terre est plate et le Soleil suffisamment proche de sorte que ses rayons soient encore divergents dans notre environnement proche. Soit, le Soleil est très éloigné et ses rayons nous arrivent parallèles mais alors dans ce cas, la Terre doit être courbée. Bien évidemment convaincu du talent des architectes d’Alexandrie, il négligea la possibilité que l’obélisque soit planté de travers. Afin d’évaluer la circonférence correspondante à cette courbure il mesure la distance entre Assouan et Alexandrie en comptant le temps qu’un chameau met pour la parcourir (ou alors serait-ce un dromadaire ?). Connaissant cette distance (787,5km) et l’angle de 7,2 degrés, il conclut que la Terre fait environ 40000 km de circonférence (la valeur exacte étant 40075 km à l’équateur!). Résultat remarquable lorsqu’on imagine les incertitudes possibles de ces mesures. Décidément, la chance était avec lui. Ératosthène est aussi un astronome passionné et doué. Il établit un catalogue d’environ 680 étoiles et il est le premier à démontrer l’inclinaison du plan de l’écliptique de la Terre et à mesurer sa valeur qui est actuellement de 23,51 degrés. Il s’intéresse aussi à la chronologie et tente par exemple de déterminer les dates des principaux événements historiques depuis la chute de la ville de Troie. En 240 avant notre ère, Ptolémée III pharaon d’Egypte nomme Ératosthène directeur de la Bibliothèque d’Alexandrie et lui confie le poste de précepteur de son fils. Il meurt à Alexandrie en l’an 195 avant notre ère.


DR

Claudius Ptolemaeus (90-168) – connu sous le nom de Ptolémée - est un astronome mathématicien et géographe grec qui vécut en Egypte au second siècle de notre ère. En plus de ses recherches en géographie, il rédige son œuvre majeure, l’Almageste, document qui récapitule toutes les connaissances en astronomie de l’Antiquité, rassemblées à travers les mondes babylonien et grec sur plus de huit siècles. C’est dans ce même livre que Ptolémée propose un système solaire géocentrique, avec la Terre immobile au centre de l’Univers. Ce modèle a prévalu dans le monde occidental et arabe pendant les quatorze siècles suivants.

Quant à la position de la Terre dans le ciel, nul doute chez nos ancêtres de l’Antiquité : elle occupe le centre de l’Univers et les étoiles tournent autour, puisqu’on les voit défiler au long des saisons. Cette affirmation s’accorde parfaitement avec une place privilégiée pour l’Homme : dans nombre de croyances, l’Univers est le royaume de l’Homme créé par un Être Supérieur pour le loger. L’Homme se trouve, par sa création, placé tout naturellement au centre de ce décor. Cette vision géocentrique du système solaire décrite par Ptolémée au second siècle resta valable jusqu’au Moyen-Âge.

DR

Pendant très longtemps, l’astronomie consiste en la mesure de la position des étoiles dans le ciel, utile à l’organisation de la vie : les calendriers, la date de certaines fêtes religieuses mobiles (Pâques), l’orientation des lieux de culte (la Mecque, les églises), les saisons, la mesure précise du temps etc, nécessitaient une bonne connaissance du ciel nocturne et de ses variations au cours de l’année. Progressivement, à la fin du Moyen-Âge, l’intérêt renaissant pour les travaux scientifiques grecs et arabes incite les Européens à étudier la mécanique céleste pour tenter de mieux expliquer les observations astronomiques. Depuis l’Antiquité de nombreux ajouts sont venus compliquer la parfaite beauté du scénario des orbites circulaires des planètes autour de la Terre. En dépit de ces efforts, au fil des siècles, le système Ptolémaïque ne correspondait plus aux observations astronomiques. Ainsi, en 1543 le Polonais Nicolas Copernic introduit le système héliocentrique pour expliquer le mouvement observé des planètes. Dans ce modèle, le Soleil est fixe au centre de l’Univers qu’il éclaire, et toutes les étoiles tournent autour. Galilée soutient à son tour cette théorie.

DR

L’ensemble des planètes du système solaire dans le modèle géocentrique proposé par Ptolémée. L’orbite du soleil est placée entre celles de Vénus et de Mars.

page 10

Système héliocentrique de Copernic. Les planètes connues tournent autour du Soleil.

Nicolas Copernic (1472-1543) est né à Torun en Pologne. Après des études d’art à l’Académie de Cracovie il est nommé chanoine de Frombork, ville au nord de la Pologne. Il part ensuite en Italie pour y étudier le droit canonique et la médecine à l’Université de Bologne. C’est là qu’il suit les cours de Domenico Novara, qui est le premier à mettre en cause le système géocentrique de Ptolémée. C’est probablement ce qui déclenche ses réflexions sur le mouvement des planètes. Il observe que la voûte céleste revient au même endroit au bout de 24 heures, ce qui le conduit à proposer que la Terre tourne autour d’elle-même. Il avance aussi que la Terre tourne autour du Soleil sur une orbite dont le tour complet nécessite une année. Même s’il met le Soleil au centre du système, ce qui contredisait le système de Ptolémée, il préserve l’idée de ce dernier concernant des sphères sur lesquelles tournent les planètes. Copernic n’a pas publié son modèle afin d’éviter les poursuites de l’inquisition. Dans son héritage il demande la publication d’un livre décrivant ses idées juste après sa mort. Il va jusqu’à dédicacer une version latine de son œuvre destinée au Pape Paul III en lui réclamant la liberté d’expression. L’influence de la pensée de Copernic a marqué un changement d’époque. Les érudits se sont sentis débarrassés du poids des idées reçues de tradition religieuse. Son modèle devint connu et fit beaucoup d’adeptes. Parmi ces derniers, Galilée, qui sera jugé par l’Inquisition pour avoir défendu le système héliocentrique. Après des années de jugement Galilée finira par abjurer, en prononçant à la fin de son procès la fameuse phrase un peu apocryphe « pourtant elle (ndlr la Terre) tourne ».

ÉLÉMENTAÍRE


Petite histoire de la cosmologie co

DR

Avec sa lunette, il découvre en 1609 les lunes de Jupiter qui l’incitent à penser qu’il peut exister de nombreux systèmes de planètes ou de soleils accompagnés de satellites qui tournent autour. Il parle alors de la possibilité de l’existence d’une pluralité de mondes habités, exprimée pour la première fois quelques années plus tôt par Giordano Bruno. Durant la même période, Johannes Kepler utilise les observations précises de Tycho Brahé pour rédiger des lois qui formalisent mathématiquement le mouvement des astres. L’idée de la trajectoire circulaire parfaite se trouve mise de côté : les planètes suivent des trajectoires elliptiques. Mais l’héliocentrisme trouve un adversaire farouche en l’Église catholique qui met cette théorie à l’index comme remettant en cause la place privilégiée de l’homme dans l’Univers, dogme central de la Création.

Cathédrale de Fronbork, située au bord de la mer Baltique où Copernic était nommé chanoine. Sa tombe y a été identifiée en 2008, grâce à des comparaisons de l’ADN des ossements avec 2 cheveux retrouvés dans son livre Calendarium Romanum Magnum.

Johannes Kepler (1571-1630) est un scientifique allemand célèbre pour avoir établi les trois lois qui régissent le mouvement des étoiles autour du soleil. En étudiant à l’Université évangélique de Tübingen, il a connaissance du système héliocentrique prôné par Nicolas Copernic, opposé à celui de Ptolémée qui place la Terre au centre de l’Univers. Convaincu, il essaie d’abord de mettre sur pied un modèle à mi-chemin entre physique et géométrie, qui tient compte du nombre des planètes, de leur distance au soleil et de leur vitesse. Dans son livre Mysterium Cosmographicum, il développe une théorie suivant laquelle les orbites des six planètes connues à l’époque sont placées dans les cinq polyèdres réguliers. Les planètes se meuvent sur des trajectoires imbriquées entre les deux polyèdres autour du soleil. Ce livre a fait connaître Kepler aux autres astronomes contemporains, en particulier à Tycho Brahé qui travaillait à l’époque à Prague. En 1600, Kepler est en danger à cause de ses convictions religieuses et coperniciennes, et il se réfugie à Prague, invité par Tycho. Celui-ci lui demande de calculer la trajectoire de Mars pour laquelle il avait observé un comportement anormal. C’est là que Kepler utilise toutes les données observationnelles de Brahé et va au-delà de son contrat en découvrant, en 1609, ses deux premières lois régissant le mouvement des planètes. Sa troisième loi sera annoncée plus tard en 1618, dans un livre intitulé « L’harmonie des mondes », tentant de réconcilier les observations astronomiques et les lois mathématiques. Les trois lois sont : 1) les planètes décrivent des trajectoires elliptiques dont le Soleil est l’un des foyers. L’ère des trajectoires circulaires est alors finie. 2) elles balayent des aires égales pendant des durées de temps égales. 3) le carré de la période de révolution T d’une planète est proportionnel au cube du demi grand axe de sa trajectoire elliptique. Ce sont ces trois lois qui ont inspiré Newton pour étudier la force que le Soleil exerce sur les planètes et pour proposer sa loi sur la gravitation. Kepler a par ailleurs produit d’important travaux sur l’optique, les miroirs et le fonctionnement de l’œil humain. D’autre part, il publie une étude sur l’explosion d’une supernova en 1604. En géométrie, il énonce une conjecture concernant l’empilement optimal des sphères, dont la démonstration faite par l’américain Thomas Hales en 2003 n’est pas encore acceptée par tous les experts. Vivant en des temps fortement troublés, il consacre six années de sa vie à défendre sa mère accusée de sorcellerie et réussit à l’innocenter. DR

Schéma de la trajectoire elliptique d’une planète avec le Soleil en un de ses foyers. Ce dessin n’est pas à l’échelle car le foyer de l’ellipse est en pratique très proche du centre. Pour la Terre, le foyer ne s’en écarte que de moins de 2% du rayon orbital.

page 11

ÉLÉMENTAÍRE

La seconde loi de Kepler implique qu’une planète se mouvant sur cette trajectoire balaie les trois aires bleues, de même surface, pendant des temps égaux.


Petite histoire de la cosmologie Les aberrations des étoiles Par ce mot on caractérise le déplacement apparent d’une étoile sur la sphère céleste vue par un observateur sur Terre. Au XVIIIe siècle, les astronomes ne comprennent pas le mouvement elliptique similaire pour des groupes d’étoiles proches dans le ciel pour l’observateur. En 1727, le britannique James Bradley trouve la solution de ce comportement curieux. Il explique le phénomène comme étant dû au mouvement de la Terre - et donc de l’observateur- autour du Soleil. Pour mesurer la direction d’une étoile il faut déterminer le passage des rayons lumineux en deux points d’un instrument d’optique. Or la lumière met un certain temps pour passer d’un point à l’autre pendant lequel le second point s’est déplacé à cause du mouvement de l’observateur. L’étoile est alors observée selon une direction apparente qui diffère de la direction réelle par un angle d ’ordre v/c où v et c sont les vitesses respectives de l’observateur et de la lumière. Pour le mouvement annuel de la Terre sur son orbite, v est de l’ordre de 30 km/ s ce qui donne une variation angulaire de 20,5’’ d’arc. Cette valeur dépend des directions respectives de l’étoile et du mouvement de l’observateur. Si elles sont alignées, il n’y a pas de décalage.

page 12

Au XVIIe siècle Newton identifie la force de gravité comme étant à l’origine du mouvement des astres et donne une première preuve mathématique de la position centrale du soleil. Les aberrations des étoiles mesurées au XVIIIe, démontreront définitivement que c’est la Terre qui tourne autour de son étoile. Avec le raffinement des techniques d’observations astronomiques et la mesure des distances d’étoiles lointaines, c’est à partir du XVIIIe siècle que le système solaire apparaît comme un bout infime d’une galaxie — la Voie Lactée — qui pourrait contenir des millions de systèmes semblables. L’héliocentrisme tombe alors définitivement dans les oubliettes. On commence à réfléchir aux mécanismes qui pouvaient avoir donné naissance à toute la richesse de l’Univers. La cosmologie tend à devenir purement scientifique, en se détachant progressivement des influences des cosmogonies religieuses et en cherchant des explications rigoureuses, plutôt mathématiques et physiques que métaphysiques. La période la plus fertile pour la cosmologie commence avec le vingtième siècle où la relativité générale d’Einstein sonne le début d’une ère nouvelle. Ce sont les étapes les plus déterminantes de cette période que nous allons relater dans les rubriques de ce numéro.

Giordano Bruno (1548-1600) est un philosophe et théologien italien. Il entre dans les ordres dominicains au couvent de San Domenico Maggiore à Naples, où il est très remarqué parce qu’il mène une vie en parfait accord avec ses convictions humanistes. Après une thèse sur la pensée de Thomas d’Aquin, il penche fortement pour la métaphysique et s’éloigne des usages ecclésiastiques : il enlève les images saintes de sa cellule et il réfute le dogme de la Trinité ce qui lui vaut rapidement les foudres des dominicains. Il abandonne les ordres et il étudie le droit, le latin et la philosophie. Il fuit l’Italie et il vit en France, en Angleterre puis à Genève où il intègre la communauté luthérienne. Partout où il passe il impressionne par son esprit brillant tout en se faisant rejeter par les églises officielles : en 1588, il est excommunié par l’Église luthérienne. Statue de Giordano Il rentre alors en Italie et il s’intéresse aux idées de Copernic. Il Bruno sur la place Campo dei Fiori à démontre la place centrale du Soleil autour duquel les planètes Rome, lieu de son se meuvent. Il soutient l’existence de myriades de systèmes semblables au nôtre, tournant autour des étoiles qui brillent supplice. dans le ciel, et habités par des êtres de Dieu. Il s’intéresse à d’autres sujets, comme la mnémotechnique, la magie et la métempsychose. Ces activités, considérées comme blasphématoires, lui valent d’être dénoncé et livré à l’inquisition en 1592. Il est alors transféré à Rome dans les prisons du Vatican. Son procès durera 8 années au long desquelles il est tenté de se rétracter à plusieurs reprises, sans jamais finalement renoncer à ses convictions. Il est finalement condamné et il sera brûlé vif le 17 février 1600 sur le bûcher installé à la place Campo dei Fiori à Rome.

ÉLÉMENTAÍRE


Petite histoire de la cosmologie

DR

Selon le chapitre de la Genèse dans la Bible, le monde aurait été créé en 6 jours par la volonté d’un être divin unique. Ce Dieu, en malaxant de la terre glaise et en lui insufflant la vie a donné naissance à Adam, le premier homme, l’être le plus parfait de toute la Création. La Genèse décrit alors la descendance d’Adam et de sa femme Ève, jusqu’à l’époque du règne du roi Salomon. Toutes les générations y sont citées. Ainsi, pour les Juifs croyants, nous sommes actuellement en l’an 5769 de la Création. Les monothéistes ont préservé la notion de création pendant plusieurs siècles et l’ont défendue souvent avec acharnement. Au cours des dernières décennies, l’argumentation et les preuves scientifiques du modèle cosmologique standard ont été acceptées par de nombreux croyants qui voient dans l’idée du Big Bang le doigt d’un Être Suprême. Quelques courants extrêmes comme les « créationnistes » ou –plus récemment – les partisans du « dessein intelligent » persévèrent dans les croyances d’un Univers mû par une force divine et refusent l’évolution des espèces vivantes.

Uluru (connu aussi sous le nom d’Ayer’s rock) est une formation en grès au centre de l’Australie et constitue un des lieux de culte importants des aborigènes. Le monolithe est aujourd’hui classé au Patrimoine Mondial de l’Unesco.

page 13

ÉLÉMENTAÍRE

L’arbre cosmique nommé Yggdrasil, assurant l’existence des mondes selon la mythologie scandinave.

À gauche : le symbole bien connu de Yin et Yang, représente les deux forces sous forme de vagues. À droite : symbole de l’empire du Milieu. Le carré représente la Terre que la Chine -l’épée- traverse en son milieu.

Les aborigènes d’Australie croyaient à un monde créé par des êtres surnaturels (le Serpent Arcen-Ciel ou des hommes éclairs) ayant vécu lors du « Temps du rêve » (appelé « tjukurpa »). Suivant cette croyance, le passé et le présent s’entremêlent dans des lieux particuliers, tels le monolithe Uluru au centre de l’Australie, lieu sacré né du jeu de deux enfants mythiques. La cosmogonie australienne croit en la prédominance de la pensée qui a généré tout ce qui se trouve sur Terre, formant un tout et ne pouvant pas être séparé ou distribué. C’est la raison pour laquelle les aborigènes refusent le concept de propriété sur les terres et sur les animaux. Dans la cosmogonie chinoise, l’univers est contrôlé par deux forces qui ont suivi le souffle initial, le Yin et le Yang. L’importance relative de ces forces antagonistes varie avec le temps. Le Yin et le Yang sont souvent représentés comme la dualité de toute chose. On attribue au Yin des caractéristiques féminines tandis que le Yang constitue plutôt le côté masculin de la réalité. Suivant les croyances chinoises le Ciel était associé à un cercle et la Terre est carrée. La Chine se trouve alors au centre de ce carré, d’où l’appellation d’empire du Milieu.

© VLT

Selon les époques et les lieux, dans la plupart des croyances à travers les siècles, l’Univers et l’Homme sont créés par l’action d’êtres, d’animaux ou d’esprits. Quelques exemples : les Titans (chez les Grecs), des hommes-animaux (en Egypte), des plantes sacrées (pour les mythologies nordique et philippine), le rêve (chez les aborigènes d’Australie) et Dieu, Yahvé ou Allah dans les religions monothéistes. Dans de nombreux récits, on retrouve les mêmes étapes : le Monde naît à partir du néant, il est suivi de l’apparition du temps, de la lumière de l’espace et de la matière. La Terre est créée avec le feu, l’eau, et l’air pour remplacer le chaos primordial. La vie apparaît et l’Homme vient à la fin, comme œuvre ultime de la création. Suivant l’endroit et la culture, cette cosmogonie (en grec la naissance du monde) peut être précédée de luttes fratricides entre les êtres primordiaux. Il arrive aussi que le sort de l’Univers soit cyclique, lié à l’état d’éveil d’un être sacré : l’hindouisme raconte que, lorsque Brahma s’éveille, le monde se forme pour se détruire quand il se rendort, ce qui, heureusement, n’arrive pas très souvent ! Souvent, des événements cataclysmiques viennent interrompre la vie sur Terre qui ne reprend que grâce à quelques survivants, comme dans la mythologie gréco-romaine et l’Ancien Testament. Les mythologies maya et aztèque reprennent cette idée : leurs dieux détruisent régulièrement le monde et recommencent la création à partir de zéro.


Interview Jean-Loup Puget Qu’est-ce qui vous a amené à faire de la recherche ?

© Élémentaire

Je venais d’un lycée technique et après le baccalauréat, j’avais l’objectif de rejoindre une école d’ingénieur. En discutant autour de moi, j’ai commencé à avoir une petite idée du monde de la recherche, et je me suis dit que finalement, ça me plairait assez d’en faire... Après les concours, j’avais le choix entre l’École des Mines et l’École Normale Supérieure de Cachan. C’est à ce moment que j’ai eu envie de faire de la recherche ! À l’ENS Cachan, il a fallu se décider entre maths et physique... et j’ai opté pour la physique (j’étais plus physicien que matheux !), avec l’objectif de faire de la physique théorique. Je me suis toujours intéressé à l’astrophysique, à titre personnel. Le déclic pour m’orienter vers la cosmologie a eu lieu en 1969, pendant que je suivais le DEA de physique théorique à Paris. J’ai assisté à un séminaire donné par Roland Omnès au Laboratoire de l’Accélérateur Linéaire à Orsay sur un modèle d’univers à symétrie matière-antimatière. Je me suis dit : ça, c’est vraiment un truc sur lequel j’aurais envie de travailler.

Jean-Loup Puget, né en 1947, est un ancien élève de l’École normale supérieure de Cachan (1966-1970). Après un DEA de physique théorique en 1969, il fait une thèse de doctorat sous la direction d’Evry Schatzman, en réalisant des travaux à l’Université de Maryland et au Goddard Space Flight Center de la NASA. Il est chercheur au CNRS depuis 1973. Il a été directeur adjoint (1990-1997), puis directeur de l’Institut d’astrophysique spatiale (IAS) à Orsay (1998-2005). Il a reçu plusieurs prix et distinctions dont la médaille d’argent du CNRS en 1988 et le prix Jean-Ricard de la Société française de physique en 1989. Il est membre de l’Académie des Sciences depuis 2002. Jean-Loup Puget a travaillé sur l’origine du rayonnement gamma galactique et extragalactique, la structure du milieu interstellaire et la formation des étoiles, et la cosmologie. Il a soutenu le développement en France de l’astronomie spatiale, en particulier pour l’étude de la formation des étoiles et de la physique du milieu interstellaire. Il a ainsi collaboré à plusieurs grands projets d’astronomie spatiale européens, en particulier l’Infrared Space Observatory (ISO) et le satellite Planck.

J’ai ensuite pu faire un stage à Meudon proposé par Roland Omnès et Evry Schatzmann sur le même thème : il s’agissait d’étudier la vitesse d’annihilation de particules à la surface séparant une zone de matière et une zone d’antimatière, et j’ai obtenu une solution assez jolie du problème. Schatzmann m’a alors proposé de poursuivre par une thèse sur le même thème, et j’ai continué à travailler avec Omnès... tant que ce modèle a pu tenir la route. C’est comme cela que je suis passé de la physique théorique à la cosmologie. Pour tout le monde, c’est un peu pareil : on se retrouve orienté vers un sujet sans vraiment savoir où on met les pieds au début...

Pour vous qu’est ce qu’une particule ?

Est-ce que j’ai une réponse là-dessus ? Pour moi une particule, a priori, c’est une petite partie de matière... J’ai tendance intuitivement à ne pas penser aux particules qui transportent les forces. On peut se poser la question : jusqu’où sont-elles élémentaires ? On sait bien que cette notion a beaucoup reculé au fil du temps. La chose qui me frappe en regardant Modèle d’univers à symétrie matière-antimatière la physique théorique de loin, en Lors du Big-Bang, on pense que l’énergie disponible a été convertie en paires formées tant qu’expérimentateur, c’est la d’une particule et de son antiparticule associée (par exemple un électron et un contradiction entre la vision de positron). La partie observable de notre univers est constituée quasi uniquement de particules ponctuelles transportant matière. On peut se demander ce qui est arrivé à l’antimatière issue du Big Bang. À trois forces fondamentales, et la une époque, il avait été envisagé que l’Univers se fût organisé en régions contenant relativité générale qui décrit la gravité pour les unes de la matière et pour les autres de l’antimatière, séparées par des zones quasiment vides. Mais ces modèles prédisaient quand même de rares annihilations à de façon complètement différente. Il la frontière entre zones de matière et d’antimatière, qui n’ont pas été observées... ce qui faut résoudre ce problème-là qui est a conduit à les abandonner. À l’heure actuelle, on pense que divers mécanismes ont la limite de la description actuelle en concouru à privilégier la matière vis-à-vis de l’antimatière, de sorte que cette dernière termes de particules. page 14

a quasiment disparu.

ÉLÉMENTAÍRE


Jean-Loup Puget Comment avez-vous abordé la cosmologie ?

Éléments chimiques Lors du Big Bang, les conditions intenses de densité et de température ont permis de produire certains éléments chimiques légers, en particulier le deutérium, l’hélium et le lithium. Il s’agit de la nucléosynthèse primordiale. Les proportions de ces éléments ont ensuite été modifiées par les générations d’étoiles qui se sont succédé au cours de l’histoire de l’Univers, et qui ont utilisé certains de ces éléments légers pour en produire des plus lourds. Toutefois, on peut observer des objets très anciens (comme les quasars) ou des objets où ces phénomènes n’ont guère eu lieu (comme les galaxies naines) pour déterminer la proportion des éléments légers juste après la nucléosynthèse primordiale.

En DEA, je suis tombé par hasard sur un polycopié sur le Big Bang, l’histoire thermique de l’Univers, la nucléosynthèse... J’ai été en particulier frappé par le fait que des prédictions théoriques ont été faites dans ce domaine très longtemps à l’avance, sur la base d’arguments théoriques solides, mais qui allaient bien au-delà de ce qu’on avait observé à l’époque. Et jusqu’à maintenant, on a pu vérifier beaucoup de ces prédictions avec une grande précision. C’est en particulier le cas du rayonnement fossile (voir « Découverte ») : certains éléments chimiques n’ont pas pu être produits dans les étoiles. Cela doit venir d’une époque où l’Univers était suffisamment dense et chaud pour produire ces éléments. Si une telle époque a existé, un témoignage doit rester sous la forme d’un rayonnement fossile avec des caractéristiques bien précises : un spectre de type « corps noir », une isotropie presque parfaite, de légères anisotropies présentant des corrélations particulières. C’est une série que je trouve très impressionnante. Pour que tout cela marche, il faut faire des hypothèses assez fortes... et, justement, les expériences ont progressivement confirmé toutes ces hypothèses, avec les ballonssondes, puis WMAP.

Inflation Il s’agit d’une période d’expansion extrêmement rapide (quasi- exponentielle) qui se serait produite au tout début de l’histoire connue de l’Univers. Elle permet d’expliquer certaines caractéristiques de notre Univers actuel (voir « Théorie »).

Je trouve que c’est une caractéristique extrêmement frappante, dans la cosmologie physique que l’on pratique depuis ces trente dernières années. Avec Planck, je sens que je travaille exactement dans cette lignée, pour confirmer les modèles proposés, en particulier l’inflation. On a pour l’instant d’excellentes raisons théoriques pour proposer l’inflation, mais on n’a pas encore trouvé de preuve irréfutable... J’aime travailler sur ce type de sujets où on doit débroussailler un terrain mal connu et faire les premières mesures. J’y trouve mieux ma place que sur des aspects plus théoriques pour lesquels je n’ai pas une approche assez « formelle » !

ÉLÉMENTAÍRE

page 15

En fait, il y en a deux. Ma thèse m’a conduit à m’intéresser aux mesures du rayonnement gamma effectuées par un satellite, SAS2. J’ai écrit des articles pour interpréter les résultats de ce satellite. En particulier, en étudiant l’interaction entre des sources gamma et la matière interstellaire, on s’est aperçu qu’il y avait en fait beaucoup plus de matière interstellaire que ce que d’autres types d’observations suggéraient. On a aussi pu associer certaines sources gamma situées dans le plan de la Galaxie avec des observations faites dans l’infrarouge. Ce fut le point de départ pour proposer une expérience embarquée sur un ballon au CNES pour étudier l’émission infrarouge dans la Voie Lactée. Cette proposition était très controversée mais le ballon est quand même parti... pour effectivement observer le rayonnement infrarouge attendu ! Cette expérience a permis de confirmer cette chaîne de raisonnement, de l’idée théorique jusqu’au résultat expérimental. On a une intuition au départ et grâce à une « manip », on observe exactement ce qui est attendu, c’est philosophiquement important !

© NASA

Quelle est l’expérience qui vous a le plus marqué ?

Le satellite SAS2 (Small Astronomy Satellite) était un satellite de la NASA consacré à l’astronomie dans le domaine gamma au dessus de 35 MeV. Lancé en 1972, il fonctionna un peu moins d’un an, et établit la première carte détaillée du ciel pour le rayonnement gamma.


Jean-Loup Puget Le télescope ISO m’a également marqué. On devait atteindre une certaine sensibilité pour observer des galaxies qui émettent majoritairement dans l’infrarouge et déterminer leur nombre en fonction de leur distance. Les prédictions qu’on faisait sur la sensibilité du satellite étaient souvent basées sur des estimations où des incertitudes peuvent facilement multiplier ou diviser le résultat par 10... Et là, on a obtenu précisément la sensibilité prévue. Cela aussi m’a frappé et m’a convaincu qu’en travaillant bien, on pouvait fabriquer des expériences avec les spécifications désirées.

© ESA

Sur quoi travaillez vous actuellement ?

ISO Le télescope spatial ISO (Infrared Space Observatory) fut lancé par l’Agence Spatiale Européenne en 1995. Il effectua durant ses 28 mois d’activités des observations astronomiques dans les domaines de l’infrarouge, entre 2 et 200 μm de longueur d’onde. Il s’intéressa en particulier aux galaxies infrarouges éloignées et aux nuages moléculaires interstellaires. Il fournit notamment des images de la formation d’étoiles auparavant cachées par des nuages de poussière.

Planck ! Il y a deux aspects différents de mon travail sur Planck. D’une part, le management - ce sont près de 400 personnes qui travaillent sur ce projet. D’autre part, le côté scientifique. Nous avons terminé les tests cet été en Belgique, avec une mise en situation réelle du satellite : tous les éléments de Planck ont été rassemblés et testés. En particulier, nous avons pu vérifier la chaîne cryogénique qui va refroidir les instruments pour atteindre la précision voulue sur les observations. C’est une chaîne complexe, avec plusieurs systèmes de refroidissement pour baisser progressivement la température. et qui doit fonctionner en apesanteur ! Ces tests ont duré deux mois et demi, en particulier parce qu’il faut 40 jours pour atteindre la température de fonctionnement de 100 millikelvins. On a retrouvé les sensibilités prévues. Nous avons eu de la chance, car tout à la fin du test, nous avons pu détecter une fragilité de la chaîne cryogénique, avec une fuite de l’hélium utilisé pour le refroidissement. De la chance, parce que cette fuite se serait certainement produite durant le vol du satellite, si nous ne l’avions pas réparée. Il s’agissait d’un régulateur de pression défectueux, pour lequel nous avons pu finalement trouver un remplaçant. Normalement, le temps d’attente est de huit mois, mais nous avons pu en récupérer deux auprès d’un programme de l’ESA (l’agence spatiale européenne) qui avait en stock quatre régulateurs de rechange pour son satellite. Maintenant, ces tests sont finis, et nous travaillons surtout sur le traitement des données – nous avons lancé une grosse simulation qui représente un an de données, pour tester la qualité de notre analyse des observations de Planck. [ndlr : cette interview a été réalisée avant le lancement du satellite Planck.]

© ESA

Quel va être, selon vous, l’avenir de votre discipline ?

page 16

Planck se dirigeant vers le second point Lagrange du système Soleil-Terre, ou point L2, où il se mettra en orbite et commencera à faire des mesures du rayonnement fossile.

Le projet Planck a été conçu pour mesurer les anisotropies de température du rayonnement fossile. Il constituera probablement l’expérience ultime sur cette question, tout comme le satellite COBE a effectué les mesures ultimes sur le spectre de corps noir de ce rayonnement, parce qu’il existe des incertitudes systématiques qu’on ne sait pas contourner et qui limitent la précision des mesures. Mais il reste un champ ouvert pour lequel Planck n’est pas l’expérience ultime : l’étude de la polarisation du rayonnement

ÉLÉMENTAÍRE


Jean-Loup Puget Lentille gravitationnelle Selon la théorie de la relativité générale, un rayon lumineux qui passe à proximité d’un objet très massif, comme une galaxie, voit sa trajectoire déviée. Cet effet peut provoquer des mirages gravitationnels : l’image que nous voyons d’un source lumineuse lointaine est déformée voire dupliquée par la présence d’un objet massif entre elle et nous. Ce phénomène permet de repérer des objets massifs, même peu lumineux.

fossile, qui permet de contraindre les paramètres des modèles théoriques [ndlr : voir « Expérience »]. On parle déjà d’expériences postérieures à Planck sur ce sujet, en Europe et aux États-Unis, mais on attend d’avoir plus d’informations de Planck même avant de lancer ces projets. Plus généralement, en cosmologie, le plus urgent, ce sont les expériences qui « regardent » la nature de l’énergie noire, en étudiant la distribution des galaxies. Cette énergie noire produit une accélération de l’expansion de l’Univers qui affecte la distribution des galaxies. On étudie cette distribution avec les observations des explosions de supernova et surtout avec les effets de lentilles gravitationnelles. Actuellement, il y a un débat sur le partage des tâches entre les mesures au sol et l’observation spatiale pour ces expériences.

Que va t-on apprendre au LHC ? De mon point de vue (cosmologique !), les signes d’une physique au-delà du Modèle Standard en physique des particules, une voie vers l’unification avec la gravité. Je pense également à la supersymétrie, car elle fournirait un candidat pour la matière noire. Quant à trouver le boson de Higgs, ce n’est pas la question la plus importante de mon point de vue, même si c’est évidemment un problème central de la physique des particules.

Votre rêve de physicien ?

Sur cette image du télescope spatial Hubble, dans la constellation du Petit Lion, on distingue cinq points lumineux, qui sont en fait cinq images d’un seul et même quasar très lointain. Ce mirage est dû à la présence d’un amas de galaxies très massif entre nous et le quasar qui est à ... 2,5 milliards d’années-lumière.

Je n’aurais pas répondu de la même façon à cette question il y a quelques années ! J’aimerais avoir une théorie avec aussi peu de paramètres libres que possible. Quelque part, on aimerait que la théorie fixe tous ses paramètres « d’elle-même ». Quand on regarde la cosmologie ou la physique des particules, on n’a pas vraiment l’impression que les choses vont dans cette direction ! J’ai un peu de mal à me situer dans les dernières idées venant de la théorie des cordes, où au contraire, on a un très grand choix dans les paramètres envisageables. Je ne sais pas très bien quoi faire de cela... et si cela cadre bien avec ma vision des objectifs de la physique.

Avez-vous des regrets dans votre carrière ?

ÉLÉMENTAÍRE

page 17

Non, pas vraiment. Je regrette seulement de ne pas arriver à comprendre le détail des articles théoriques, en particulier certains de leurs arguments ! Mais je n’ai pas de regrets en ce qui concerne les expériences. Il y a bien une expérience que nous avions proposée avant Planck, en collaboration avec des Russes. Nous avions collaboré longuement pour proposer un projet qui avait été accepté et financé et finalement, j’ai estimé que ce n’était pas « la » manip que je souhaitais faire sur le sujet, et j’ai donc abandonné le projet. Ce n’est pas très facile comme décision. On n’est jamais absolument sur de soi. Mais avec le recul, c’était la bonne décision à prendre, même si c’était frustrant sur le moment.

Un quasar (pour «quasi-stellar radio source») correspond à une galaxie éloignée dont le noyau actif émet des rayonnements électromagnétiques très intenses (lumière visible, ondes radio). Ils ont été observés à partir de la fin des années 1950 comme des sources puissantes et ponctuelles, semblables à des étoiles. À l’heure actuelle, on connaît plus de 200 000 quasars. On pense qu’un quasar est la région qui entoure un trou noir supermassif situé au centre d’une galaxie. L’émission intense du quasar provient du gaz interstellaire attiré par le trou noir et qui forme un disque d’accrétion, fortement échauffé, autour de cet objet. Les processus complexes associés donnent lieu à l’émission de jets de matière perpendiculairement au plan du disque d’accrétion.


Jean-Loup Puget Qu’aimeriez-vous dire aux jeunes ?

© M Nomis

Je regrette que le système scolaire français utilise les disciplines scientifiques comme un moyen de sélection d’une manière qui induit un rejet des sciences chez certains jeunes : ils suivent des filières scientifiques alors même qu’ils ont pris les sciences en grippe ! Il y a un problème de perception de la science chez les jeunes, et nous nous devons de faire quelque chose. La science, ça peut être très amusant, il y a plus de surprise et d’inattendu dans la science « réelle » que dans la science-fiction ! J’aimerais aussi leur dire : « même si vous n’êtes pas scientifique, vous avez besoin de regarder les choses avec un point de vue scientifique ». Les sciences ne sont pas juste un moyen de sélection ! Quant aux jeunes scientifiques, j’aimerais qu’ils abolissent cette hiérarchie implicite, et injustifiée, entre théorie et expérience. Lorsque les jeunes sortent d’un master et vont faire une thèse, on les pousse à travailler sur l’interprétation des résultats plus que sur la préparation des expériences. La tendance naturelle est d’aller vers les résultats mais il faut que les jeunes chercheurs aient conscience qu’ils ne vont pas rester dans une case, qu’elle soit théorique ou expérimentale !

Quelle est la question que vous aimeriez que l’on vous pose ? Ce serait « Comment lutter contre le cloisonnement entre la physique des particules, la cosmologie, et d’autres disciplines ? » Ce n’est pas facile. Je pense qu’on y arrivera en formant des jeunes et en créant des structures qui permettront à ces communautés de dialoguer, d’échanger les points de vue. C’est pourquoi j’ai participé à la création du groupement d’intérêt scientifique « Physique des Deux Infinis ». Il finance des projets communs dans ces domaines, tout en remédiant à certaines lourdeurs, certaines insuffisances du système de recherche actuel. Il aide à préparer les projets en amont, à exploiter les données en aval. Avec le recul de plusieurs années, cela a vraiment aidé à faire circuler les gens et les sujets. Et j’essaierai de continuer à faire progresser cette idée !

page 18

Le logo du groupement d’intérêt scientifique « Physique des Deux Infinis ».

ÉLÉMENTAÍRE


Centre de recherche Observatoires d’ondes gravitationnelles L’espace-temps est un des concepts majeurs introduits par la théorie de la Relativité Restreinte, publiée en 1905 par Albert Einstein. Ces travaux montrent que le temps n’est pas absolu et que, tout comme les trois coordonnées d’espace, il dépend du référentiel choisi, c’est-à-dire du « point de vue » utilisé pour observer un phénomène. Pour passer d’un référentiel à un autre, il faut procéder à un changement de variables qui mélange coordonnées spatiales et temporelle. L’espace et le temps forment donc un tout, judicieusement appelé... l’espace-temps !

La théorie de la Relativité Générale, publiée par Einstein en 1915, stipule que les masses courbent l’espace, ce qui modifie les trajectoires des corps passant à proximité. Un objet (par exemple une étoile) en mouvement accéléré (c’est-à-dire non rectiligne uniforme) provoque des variations de cette courbure qui se propagent à la vitesse de la lumière comme des vagues à la surface de l’eau : ce sont les ondes gravitationnelles. Lors du passage de telles vibrations, l’espace-temps se déforme : distances et durées se contractent puis se dilatent – ces oscillations se poursuivent tant que la perturbation est présente

DR

Si n’importe quelle masse accélérée génère des ondes gravitationnelles, celles-ci sont extrêmement ténues. Seuls des objets très massifs et de grande compacité peuvent produire un signal potentiellement détectable avec les technologies actuelles. Aucune source d’origine terrestre n’entrant dans cette catégorie, les scientifiques n’ont d’autre choix que « d’écouter » le cosmos à la recherche de ce rayonnement qui, bien que prédit il y a plus de quatre-vingt dix ans maintenant, échappe toujours aux observations directes. Notons cependant qu’avec la découverte en 1974 du premier pulsar binaire et son suivi depuis lors, les physiciens possèdent une preuve indirecte de l’existence des ondes gravitationnelles. La recherche des ondes gravitationnelles a démarré il y a près d’un demisiècle. Elle a pris un tournant important dans les années 1990-2000 avec la construction de plusieurs observatoires dédiés, aux États-Unis (LIGO), en Europe (Virgo et GEO) et au Japon (TAMA). Ces centres abritent des détecteurs de grande taille – de l’ordre du kilomètre – que nous allons décrire en détail dans la suite de cet article. Leur développement, parfois ralenti par la complexité et la nouveauté de leur appareillage, est continu. Ils apparaissent donc aujourd’hui comme les meilleurs candidats pour relever le défi de la découverte des ondes gravitationnelles à l’échelle de quelques années. Objet

Densité ρ (kg/m3)

Rayon de Schwarzschild RS

Compacité C = RS/R

Proton

5 × 1017

2 × 10-54 m

10-39

Terre

5 × 1013

9 mm

10-10

Soleil

103

3 km

10-6

Étoile à neutrons

1018

4 km

≈ 0,4

ÉLÉMENTAÍRE

de 1

page 19

Trou noir super- 1 (soit mille 3 milliards massif au centre fois moins que kilomètres de M87 (galaxie l’eau !) d’Andromède)

Albert Einstein (1879-1955) Karl Schwarzschild (1873-1916) Comment devient-on un trou noir ? Il suffit de concentrer sa masse dans un « petit » volume. L’objet ainsi obtenu a alors une forte compacité. La Relativité Générale quantifie cette idée en introduisant un rayon limite, le rayon de Schwarzschild RS, dimension en-dessous de laquelle une masse M s’effondre en trou noir, un objet duquel rien ne peut s’échapper, pas même un photon, pourtant de masse nulle : RS = 2GM / c2, où G est la constance de Newton et c la vitesse de la lumière dans le vide. Le facteur numérique 2G / c2 ~ 10-27 m/kg. Le rayon limite RS est donc (très) petit même pour un corps aussi massif qu’une planète ou qu’une étoile. Le rapport C = RS / R (R étant la dimension caractéristique du corps), compris entre 0 et 1, fournit une mesure de compacité. La valeur maximale C = 1 correspond au cas d’un trou noir. Pour différents objets on peut comparer la compacité et la densité ρ (c’est-à-dire le rapport entre masse et volume). Intuitivement, « compact » et « dense » ont l’air d’être des notions voisines, voire synonymes. En fait ce n’est pas le cas : on peut être compact sans être dense (un trou noir galactique) et réciproquement (un proton).


Observatoires d’ondes gravitationnelles L’existence des ondes gravitationnelles a été établie expérimentalement à la fin des années 1970 grâce à la découverte du premier pulsar dans un système binaire par Joseph Taylor et son étudiant Russel Hulse – tous deux lauréats du Prix Nobel en 1993. Un pulsar est une étoile à neutrons en rotation ultra-rapide sur elle-même (plusieurs tours par seconde) et entourée d’un fort champ magnétique. La plupart de ces pulsars sont les restes d’explosions d’étoiles massives en fin de vie (supernova). Ils émettent un rayonnement électromagnétique détecté sur Terre sous la forme d’une pulsation extrêmement courte mais répétitive – d’où leur nom. Le premier pulsar a été découvert en 1967 par Antony Hewish et son étudiante Jocelyn Bell-Burner à l’aide d’un radiotélescope basé à Cambridge. Le pulsar PSR 1913+16 découvert en 1974 par Hulse et Taylor a une période moyenne de 59 ms. Moyenne, car celle-ci peut augmenter ou diminuer de 80 μs sur une journée, une propriété remarquable puisque les plus grandes variations observées jusqu’alors sont de seulement 10 μs sur ... une année. Quelques mois de prise de données montrent que cette variation est due au mouvement du pulsar autour d’un « compagnon » (une autre étoile à neutrons dans ce cas précis). La vitesse orbitale du système double est de 495 km/s, (soit environ 0,002 fois la vitesse de la lumière : sa dynamique est affectée par des corrections relativistes) pour une période d’environ 8 heures. Cette découverte apparaît immédiatement, aux yeux de nombreux spécialistes comme un objet unique pour mettre à l’épreuve la Relativité Générale. En effet, celle-ci prédit qu’un tel système binaire d’astres compacts doit émettre des ondes gravitationnelles et perdre de l’énergie. Du fait de leur attraction gravitationnelle, les étoiles se rapprochent très progressivement dans un mouvement en spirale, jusqu’à atteindre une distance critique en dessous de laquelle elles se précipiteront l’une vers l’autre. Dans le cas de PSR 1913+16, tous les paramètres du mouvement ont été mesurés de manière extrêmement précise grâce au suivi continu du rayonnement du pulsar depuis plus de 30 ans. En prenant en compte tous les effets relativistes, la mesure de la variation de la période orbitale du système due à l’émission d’ondes gravitationnelles est en accord avec la prédiction théorique avec une incertitude de moins de deux pour mille. Depuis cette découverte, une dizaine d’autres pulsars binaires ont été découverts et quatre sont utilisés pour tester la Relativité Générale, avec succès jusqu’à présent.

Observer sur Terre des ondes gravitationnelles venant du cosmos Il existe de nombreuses sources potentielles d’ondes gravitationnelles. Beaucoup sont transitoires : conséquences d’événements astrophysiques violents, elles ne sont détectables que pendant une courte durée. Au contraire, d’autres sont associées à une émission périodique – par exemple une étoile à neutrons asymétrique en rotation ultrarapide. Les ondes gravitationnelles ainsi produites se caractérisent par leur amplitude et leur fréquence, lesquelles peuvent évoluer au cours du temps. Toute tentative réaliste pour mettre en évidence ces signaux doit s’adapter à ces contraintes en conjuguant sensibilité et couverture d’une zone intéressante du spectre des ondes gravitationnelles Évolution du décalage temporel du périastre du système binaire PSR1913+16 mesuré par Joël Weisberg et Joseph Taylor sur plus de trente ans. Le périastre est le moment où les deux astres sont les plus proches l’un de l’autre. Si la période orbitale du système diminue, cette configuration se produit un peu plus tôt à chaque révolution. Les points noirs représentent l’accumulation de la différence (exprimée en secondes) entre temps observé et temps attendu si la période orbitale ne changeait pas. La prédiction théorique liée à l’émission d’ondes gravitationnelles est indiquée par la ligne continue : l’accord est très bon. page 20

Dans les années 1960, Joseph Weber propose et construit un premier type de détecteur : une barre en aluminium dont la vibration présente un phénomène de résonance pour peu que le cylindre métallique soit excité à la bonne fréquence. Hors de cet intervalle très étroit (quelques dizaines de Hz au plus), la barre de Weber est « aveugle ». Comme elle est aussi limitée en taille et que l’interprétation de ses résultats est difficile – plusieurs « fausses découvertes » émaillent l’histoire de cette technologie – des alternatives ont très vite été étudiées. Parmi les pistes explorées, la plus prometteuse s’est révélée être l’interférométrie laser qui permet de construire de grands détecteurs sensibles sur une bande de fréquence de plusieurs kHz. Cette idée, mentionnée pour la première fois par les physiciens soviétiques Michail Gerstenstein and V.I. Pustovoit en 1963, est reprise indépendamment en 1972 par un chercheur du MIT,

ÉLÉMENTAÍRE


Observatoires d’ondes gravitationnelles

© Uni. Maryland

Au cours des décennies suivantes plusieurs pays se lancent dans la construction d’interféromètres kilométriques pour détecter les ondes gravitationnelles : l’Allemagne, l’Australie, les ÉtatsUnis, la France, l’Italie, le Japon et le Royaume-Uni. Ces détecteurs sont constitués d’une part de miroirs de quelques dizaines de kilogrammes que l’on isole au maximum de toute source de vibrations et d’autre part d’un faisceau laser ultra-stable qui parcourt les deux bras de l’interféromètre avant d’interférer et de produire le signal finalement observé. Leurs sites sont choisis en raison de leur étendue, des bonnes propriétés sismiques du sol et de leur éloignement de toute activité humaine (afin de réduire les bruits anthropiques), mais concilier tous ces éléments n’est pas toujours facile.

Joseph Weber et son premier détecteur en 1965 à l’Université du Maryland aux États-Unis. Barre résonante de Weber La barre métallique absorbe une toute petite fraction de l’énergie de l’onde gravitationnelle, qui est transformée en une oscillation mécanique ensuite amplifiée et convertie en impulsions électriques. La faiblesse des ondes gravitationnelles impose de réduire les sources de bruit parasites (vibrations, électronique, etc.) pour espérer détecter un signal d’amplitude réaliste. La dernière génération de ces détecteurs, mise en service au début des années 2000, utilise en particulier des barres cryogéniques fonctionnant à une température d’une fraction de degré Kelvin. De manière générale, une barre de Weber n’est performante que dans une bande de fréquence d’au maximum 100 Hz autour de la résonance, située vers 1 kHz.

ÉLÉMENTAÍRE

Événements astrophysiques violents Une « bonne » source d’ondes gravitationnelles est un astre massif et compact qui relâche beaucoup d’énergie d’un coup – seule une faible fraction est convertie en ondes gravitationnelles. Une telle émission peut se produire lors de certains phénomènes astrophysiques violents. ● La coalescence de deux astres compacts (rencontre de deux étoiles à neutrons et/ou trous noirs) ; c’est par exemple ainsi que finira le pulsar binaire PSR 1913+16 dans 300 millions d’années ! Actuellement séparés de plusieurs millions de km, les deux étoiles compagnons se rapprochent d’environ 1 cm par jour. ● Une supernova de type II : l’explosion d’une étoile massive dont le cœur s’effondre sur lui-même une fois son carburant nucléaire épuisé. Malheureusement, le signal produit est si faible que seule une supernova située dans notre Galaxie pourrait être détectée ; comme le taux de ces événements est d’environ un tous les trente ans, il convient de se montrer patient. ● Des trous noirs ou des étoiles à neutrons créés depuis peu et qui, comme des enfants un peu turbulents, « s’agitent dans tous les sens » en émettant des ondes gravitationnelles. En se désexcitant ils retournent en fait à l’équilibre. ● Par ailleurs, il semble de plus en plus probable aux yeux des astrophysiciens que les sources de Gamma Ray Bursts (GRB) ou « sursauts gamma » (voir « ICPACKOI » sur le satellite Fermi-GLAST) émettent aussi des ondes gravitationnelles ; ces sources seraient des supernovæ pour les GRB longs et la coalescence d’étoiles à neutrons ou de trous noirs pour les GRB courts. Au passage d’une onde gravitationnelle d’amplitude h une longueur L varie d’une quantité ΔL liée à ces deux grandeurs par la relation : h ≈ ΔL / L Un détecteur est d’autant plus sensible qu’il peut mesurer des variations de distance petites par rapport à sa taille : pour progresser on doit donc soit améliorer sa sensibilité (c’est-à-dire détecter des changements plus ténus), soit augmenter sa taille. Les ondes gravitationnelles sont si faibles que le défi relevé par les détecteurs géants dont nous parlons dans la suite consiste à mesurer l’équivalent de la distance Terre-Soleil (150 millions de km) à un atome près (taille 10-10 m) ! Une onde gravitationnelle étant une sorte de vibration de l’espace-temps, sa fréquence est un paramètre important. Prenons d’abord un détecteur basé sur un phénomène de résonance : seule une excitation à sa fréquence caractéristique, dite fréquence de résonance, est amplifiée suffisamment pour être détectable. Si la vibration change – même très légèrement – le signal s’annule presque complètement. Une connaissance suffisante des sources potentielles d’ondes gravitationnelles, et en particulier de la gamme de fréquences produites, est donc nécessaire pour mettre au point un tel instrument. On peut également concevoir des détecteurs « large-bande » sensibles sur un intervalle conséquent en fréquence – plusieurs kHz. Leur bruit de mesure (la composante aléatoire toujours présente dans les données qui est susceptible de masquer un vrai signal si celui-ci est trop faible) peut se voir comme la superposition de « bruits fondamentaux » : des composantes oscillant chacune à une fréquence particulière – voir « Analyse ». La réponse de tels instruments n’est en général pas uniforme : un bruit particulier affecte tout ou partie du spectre ; de même, une amélioration de l’appareillage n’a en général d’effet que dans une bande de fréquence donnée. page 21

Rainer Weiss. Celui-ci démontre la faisabilité d’un tel instrument dans un article ; la même année, Robert Forward construit le premier prototype.


© LIGO

Observatoires d’ondes gravitationnelles

Aux États-Unis, le projet LIGO regroupe trois détecteurs géants dans deux sites séparés de quelques 6000 kilomètres. Le premier, situé à Hanford dans l’état de Washington est constitué de deux interféromètres qui partagent la même enceinte à vide : l’un a des bras de 4 kilomètres, tandis que l’autre a des bras de 2 kilomètres seulement. Ainsi, si l’un des instruments est en maintenance de longue durée (comme c’est actuellement le cas) l’autre peut continuer à prendre des données. De plus, une détection en coïncidence par les deux interféromètres aiderait à démontrer qu’une vraie onde gravitationnelle a été observée – à condition bien évidemment d’être capable d’éliminer les bruits corrélés, par exemple les vibrations du sol. Le troisième détecteur est à Livingston dans l’État de Louisiane. Le projet franco-italien Virgo est lui, situé dans la plaine de l’Arno, à 15 km de Pise.

© Virgo

© LIGO

Site du détecteur Virgo situé près de Pise en Italie. Ici, les bras ne font « que » 3 km de long ; les édifices que l’on voit le long des tubes clairs sont situés à 1,5 km du bâtiment central.

Les expériences LIGO, à Hanford (état de Washington ; photo de gauche) et Livingston (Louisiane ; photo de droite). Ces photos aériennees montrent les bâtiments centraux des interféromètres qui contiennent la source laser, la plupart des miroirs et le système de détection du signal. On voit également l’un des deux bras en entier (4 km de long) ainsi que le début du second, partant à angle droit.

Il existe d’autres détecteurs d’ondes gravitationnelles. Celui construit par le Japon dans la banlieue de Tokyo s’appelle TAMA. Avec des bras de 300 mètres il possède une sensibilité limitée comparée à celle de LIGO ou de Virgo, mais il permet de tester certaines idées utiles pour de nouvelles générations d’expériences. Enfin, l’Allemagne et le Royaume Uni se sont associés à partir de 1995 pour construire près de Hanovre l’interféromètre GEO dont les bras feront 600 mètres. De part sa taille réduite et sa configuration optique particulière il s’agit plus d’un détecteur prototype utile pour tester de futures technologies que d’un observatoire susceptible de faire une découverte.

À la base, un détecteur comme Virgo ou LIGO est un interféromètre de Michelson. De nombreuses améliorations sont apportées à ce principe pour rendre l’instrument plus sensible au passage d’une onde gravitationnelle. Certaines visent à réduire le bruit de mesure tandis que d’autres « dopent » ses performances.

Exemple ci-dessus de deux ondes (en bas) donnant une onde amplifiée en haut. À droite, exemple de deux ondes dites en opposition de phase et donnant un signal plat.

page 22

© B. Mazoyer

Tout ce que vous avez toujours voulu savoir sur un interféromètre

Tout d’abord, les miroirs sont isolés des vibrations du sol qui les font se déplacer de manière aléatoire. Pour y parvenir, on les suspend à des atténuateurs sismiques par deux fils métalliques. Ces systèmes permettent de s’affranchir du bruit sismique pour des fréquences supérieures à

ÉLÉMENTAÍRE


Observatoires d’ondes gravitationnelles

© Élémentaire

Schéma d’un interféromètre de Michelson avec miroirs suspendus – un « Virgo » ou un « LIGO » simplifié en quelque sorte.

Interféromètre de Michelson Un interféromètre de Michelson est un appareil composé de deux « bras » avec : ● une source lumineuse, par exemple un laser ; ● un miroir particulier, la lame séparatrice qui, comme son nom l’indique, sépare le faisceau lumineux en deux parties d’intensités égales, émises à 90° l’une de l’autre et envoyées dans les « bras » de l’interféromètre ; ● deux miroirs d’extrémité en bout de bras sur lesquels les ondes lumineuses se réfléchissent et repartent en sens inverse ; ● et enfin un dispositif de mesure composé de photodiodes, utilisées pour recueillir le signal en sortie, issu de l’interférence des deux faisceaux qui ont circulé dans les deux bras du détecteur avant de se recombiner sur la lame séparatrice. Comme des vagues à la surface de l’eau, des ondes lumineuses qui se rencontrent dans une zone de l’espace se mélangent ; le résultat est soit amplifié, soit atténué, selon que leurs amplitudes s’ajoutent ou s’opposent. Dans un interféromètre, toute différence dans le parcours des deux ondes (longueurs des bras, caractéristiques des miroirs, etc.) se traduit par une modification de la figure d’interférence en sortie du détecteur. Son étude – un exemple d’une science plus vaste appelée interférométrie et très utilisée en astronomie – fournit des informations sur le phénomène étudié par l’intermédiaire du détecteur. Inventé à la fin du XIXe siècle pour démontrer que la vitesse de la lumière ne varie ni dans le temps ni selon la direction d’observation, l’interféromètre de Michelson sert aujourd’hui à étudier les défauts de la surface d’un miroir ou... à chercher les ondes gravitationnelles !

ÉLÉMENTAÍRE

page 23

DR

Atténuateur sismique de Virgo : le « superatténuateur » Mesurant plusieurs mètres de haut, il est constitué d’une structure métallique qui oscille à basse fréquence sous l’effet des vibrations du sol et à laquelle sont attachés cinq filtres mécaniques successifs. Le miroir et son système de contrôle constituent eux-mêmes un filtre. Chaque étage atténue la transmission du bruit sismique venant de plus haut : pour des fréquences supérieures à quatre Hz, le mouvement résiduel du miroir (accroché tout en bas de la suspension) n’est plus dominé par les vibrations du sol, et ce même si des routes fréquentées passent non loin des bâtiments qui abritent les miroirs. Si le laser et les techniques de contrôle de Virgo et LIGO sont assez semblables, les deux expériences se différencient par le système d’atténuation sismique des miroirs. Pour LIGO le « mur » sismique s’étend jusqu’à 40 Hz environ. Ainsi, Virgo est potentiellement plus sensible aux ondes gravitationnelles émises par des pulsars dont les fréquences théoriques varient entre quelques Hz et quelques dizaines de Hz.

© Virgo

quelques dizaines de hertz. En dessous de ce seuil, ces oscillations ne sont plus réduites et Virgo comme LIGO deviennent aveugles : les deux détecteurs sont de fait totalement insensibles à un signal gravitationnel de basse fréquence. Un autre bruit important, dominant pour des fréquences intermédiaires, est le bruit thermique des miroirs et des fils de suspension. Dû au mouvement brownien des atomes qui les composent, il peut être limité par un choix adéquat de matériaux et en diminuant au maximum la friction au niveau des points d’accroche. Au-delà de quelques centaines de hertz, LIGO et Virgo sont limités par le « bruit de comptage » : le nombre de photons collectés sur les photo-détecteurs


Observatoires d’ondes gravitationnelles « Que faire le jour où nous serons en présence d’un signal potentiel d’onde gravitationnelle ? » Ce problème est d’autant plus aigu que les interféromètres sont en limite de sensibilité et que les détections, au-moins au début, seront rares. Il faut donc éviter deux écueils : annoncer une découverte pour la démentir ensuite ; rejeter un vrai signal. Attribuer à une onde gravitationnelle une vibration enregistrée dans un instrument isolé sera très difficile, et certainement sujet à controverse. Par contre, un signal observé en coïncidence dans au moins deux détecteurs paraîtra beaucoup plus réaliste. Si les interféromètres sont éloignés géographiquement, les bruits qui les affectent sont indépendants alors que les signaux induits par une onde gravitationnelle sont corrélés. L’étape suivante consiste à analyser de manière cohérente les informations provenant d’un réseau d’interféromètres. Si on connaît la direction de la source, on peut prédire l’évolution (en temps et en amplitude) du signal dans chaque détecteur et combiner leurs données de manière optimale pour faire ressortir l’onde gravitationnelle du bruit. On a alors un « super-interféromètre » bien plus performant que les instruments pris individuellement. Le prix à payer se voit au niveau de la complexité de l’analyse et de la puissance de calcul nécessaire : comme la source est a priori inconnue, il faut chercher en parallèle dans toutes les directions du ciel. Ce problème disparaît dans le cas où l’origine du signal est identifiée par d’autres détecteurs, par exemple des télescopes captant le rayonnement électromagnétique (optique, rayons gamma, etc.) ou des neutrinos (émis en nombre par une supernova). Virgo et LIGO appartiennent donc à des réseaux internationaux regroupant des instruments variés et qui émettent une alerte dès qu’ils détectent un phénomène susceptible d’intéresser les autres membres.

fluctue selon une loi de probabilité de Poisson décrivant des évènements rares (voir Élémentaire N°3), ce qui gêne l’interprétation des signaux enregistrés. Parlons un instant du laser – aussi stable que possible – qui fournit une puissance d’une dizaine de watts, émise dans l’infrarouge. Le calcul montre qu’un interféromètre est d’autant plus sensible que la puissance lumineuse stockée est élevée. C’est pourquoi Virgo et LIGO utilisent des configurations optiques plus complexes que le « Michelson simple » présenté précédemment. Au prix d’un contrôle plus délicat, leurs performances sont équivalentes à celles d’un appareil dont la source lumineuse serait cinquante fois plus puissante et les bras (déjà kilométriques) trente fois plus longs. Cette dernière propriété – essentielle puisque la sensibilité du détecteur dépend du changement relatif de longueur – est obtenue grâce à des miroirs supplémentaires qui allongent le parcours des faisceaux lumineux. Les miroirs sont des composants essentiels des détecteurs. Fabriqués en silice, ils sont les plus lourds possible afin de réduire le bruit thermique, inversement proportionnel à la racine carrée de leur masse. Ils font trente centimètres de diamètre environ et sont ultra-propres pour limiter les effets thermiques dus à l’absorption lumineuse – d’autant plus importants que la puissance stockée est élevée. Un traitement de surface leur est également appliqué pour qu’ils aient les bonnes propriétés de transparence ou de réflexion : leurs pertes se limitent à quelques millionièmes de l’intensité des faisceaux. Un laboratoire spécial situé à Lyon (le Laboratoire des Matériaux Avancés, LMA) a été financé par Virgo pour lui fournir les meilleurs miroirs possibles. Si les substrats sont achetés à des industriels, leur conditionnement est effectué au LMA, seul capable de réaliser ce processus avec la précision souhaitée sur un diamètre aussi grand. page 24

Contrôle Le fonctionnement d’un interféromètre est complexe : pour avoir la sensibilité adéquate, il faut que le détecteur soit contrôlé de manière continue. Même si les déplacements résiduels des miroirs suspendus sont faibles (leur amplitude est bien inférieure au millimètre), ils sont suffisants pour rendre le détecteur aveugle et inutile. Il importe donc de synchroniser leurs mouvements pour que les distances les séparant restent constantes – avec une précision meilleure que le nanomètre. Si contrôler deux suspensions est relativement simple, les choses se compliquent quand il faut prendre en compte le couplage entre les quatre cavités formées par les six miroirs principaux d’un détecteur comme Virgo ou LIGO. Ces instruments sont donc contrôlés en permanence par un système automatisé qui mesure de nombreux paramètres toutes les 100 μs, s’assure qu’ils ont les valeurs attendues et, dans le cas contraire, déclenche les actions de correction appropriées. Parfois une intervention humaine est nécessaire ; elle est coordonnée et assurée par les équipes d’opérateurs, d’ingénieurs et de physiciens qui se relaient sans interruption en salle de contrôle. Il n’est pas rare que la synchronisation des miroirs soit perdue au bout de quelques heures (ou de quelques jours) à cause d’un tremblement de terre... en Chine ou en Amérique du Sud, ou encore d’un orage violent. La procédure pour rétablir la situation est maintenant quasi-automatique dans la plupart des observatoires.

ÉLÉMENTAÍRE


Observatoires d’ondes gravitationnelles Courbe de sensibilité théorique d’un détecteur interférométrique d’ondes gravitationnelles (les échelles des deux axes sont logarithmiques). En chaque point du spectre, la valeur de la courbe (exprimée en unité arbitraire) est reliée à l’amplitude qu’une onde vibrant à cette fréquence devrait avoir pour être détectée : plus elle est basse, plus l’appareil est performant car le bruit est faible. Cette manière de décrire un signal en termes de fréquence plutôt que par ses variations temporelles est courante en physique – voir « Analyse ». Les trois principales contributions au bruit de mesure sont indiquées sur la figure : bruit sismique en dessous de quelques Hz, bruit thermique jusqu’à quelques centaines de Hz et bruit de comptage des photons au-delà. Dans une gamme de fréquence donnée un bruit domine en général tous les autres – bien qu’ils soient présents ces derniers n’ont aucune influence mesurable sur la sensibilité de l’instrument dans cette zone.

L’ensemble du détecteur est ainsi placé dans une enceinte à vide (en fait un ultra-vide de 10-9 millibar, soit un millionième de millionième d’atmosphère) afin de réduire l’interaction entre le faisceau laser et les molécules de gaz résiduelles. La sensibilité serait réduite en cas de diffusion tandis que le passage de grosses particules à travers le faisceau pourrait imiter une onde gravitationnelle. Les tubes dans lesquels circulent les faisceaux font environ un mètre de diamètre : LIGO et Virgo utilisent les plus grandes enceintes à ultra-vide jamais construites !

bobines « Miroir, mon beau miroir »... La lame séparatrice de Virgo... sépare ( !) le laser en deux faisceaux qui parcourent ensuite les bras de 3 km. Elle est entourée d’une masse en aluminium à laquelle sont attachées des bobines qui servent à contrôler le miroir sur lequel sont collés des aimants. Selon le courant parcourant les bobines, les forces entre ces dernières et les aimants varient, ce qui se traduit par un mouvement de la monture métallique, et donc du miroir. Avec de bons yeux, on peut distinguer les deux fils de 100 micromètres (le diamètre d’un cheveu !) qui entourent le miroir.

ÉLÉMENTAÍRE

page 25

Le bruit acoustique fait vibrer les éléments optiques de l’interféromètre. Il faut en particulier les isoler au maximum du système de climatisation, ce qui n’est pas toujours évident car il faut également assurer une bonne circulation de l’air dans les pièces qui contiennent le laser ou les tables optiques – la température doit y être constante. À Virgo, ce bruit provient également d’avions militaires qui survolent parfois l’interféromètre à basse altitude, déplaçant de grands volumes d’air sur leur passage. Cette contribution est heureusement assez facilement identifiée grâce à des microphones placés dans tous les bâtiments : les données prises pendant ces périodes sont ignorées car dominées par le bruit. Toujours à Virgo, des ventilateurs (et plus précisément les faibles champs magnétiques produits par leur fonctionnement) ont été identifiés comme une source de bruit, insolite mais bien réelle. Ils ont été remplacés par d’autres modèles, plus « discrets ».

© Virgo

Les bruits dont nous venons de parler sont « fondamentaux » : liés à la construction de l’interféromètre, on doit s’en accommoder même si une bonne conception permet de les réduire. Ils sont regroupés sous cette dénomination commune pour mieux les opposer aux bruits « d’environnement » qui, eux, polluent les mesures sans avoir été invités à y participer ! Ces derniers sont donc traqués inlassablement, le but étant de les ramener sous le niveau des bruits fondamentaux.


Observatoires d’ondes gravitationnelles Zoom sur les collaborations LIGO et Virgo

© LIGO

À l’instar des projets de physique des hautes énergies, LIGO et Virgo rassemblent de vastes communautés scientifiques qui ont connu une histoire longue et mouvementée. Le projet LIGO est approuvé et financé par la National Science Foundation américaine (NSF) en 1990. En 1992 les deux sites de Livingston et Hanford sont choisis et un accord entre la NSF et Caltech (Californie) est signé. C’est ce laboratoire qui va gérer LIGO avec l’aide d’un autre gros centre de recherche américain, le MIT (Massachusetts). En 1999, le projet est officiellement inauguré ; même si tous les éléments ne sont pas encore installés sur les deux sites, la mise en route des détecteurs a déjà commencé. L’expérience acquise sur des prototypes de taille réduite permet à LIGO de progresser rapidement et, en 2002, la première prise de données scientifiques a lieu pendant trois jours. Plusieurs campagnes de mesure se succèdent ensuite. En 2005, les trois interféromètres LIGO atteignent leurs performances nominales et LIGO fait sa cinquième prise de données scientifiques de novembre 2005 à octobre 2007 ce qui lui permet d’accumuler l’équivalent d’un an de données avec trois détecteurs en coïncidence.

La partie centrale de l’interféromètre LIGO à Livingston avec les tours qui contiennent le système d’atténuation sismique des miroirs d’entrée des cavités Fabry-Pérot des deux bras.

© Virgo

En parallèle à la construction des observatoires LIGO et à leur mise en service, une collaboration internationale s’est créée : la LIGO Science Collaboration (LSC). Elle a pour principales activités l’analyse des données de LIGO et la coordination des efforts de recherche-développement pour améliorer la sensibilité des détecteurs. La LSC comprend en particulier tous les laboratoires de la collaboration anglo-allemande GEO. Actuellement, plus de cinq cents personnes contribuent à la LSC et signent ses publications. Virgo a démarré à peu près au même moment que LIGO. Ce projet a été proposé et construit par une dizaine de laboratoires français (CNRS) et italiens (INFN). À cause des difficultés pour l’achat des terrains, le génie-civil a pris quelques années de retard. Dès 2001 des tests ont été menés sur la partie centrale du détecteur, un interféromètre de quelques mètres de long (Virgo sans ses bras kilométriques) pendant que l’installation des autres éléments se poursuivait. Depuis 2002 le site (Cascina, près de Pise) est géré par EGO, un consortium de droit privé financé par le CNRS et l’INFN, chargé du fonctionnement de l’interféromètre au quotidien. La première prise de données de Virgo (cinq mois en coïncidence avec LIGO) a eu lieu en 2007 bien que la sensibilité nominale du détecteur n’ait pas encore été atteinte – c’est aujourd’hui presque le cas. En parallèle, la collaboration s’est agrandie en accueillant de nouvelles équipes basées en Europe. Dix-huit groupes de cinq pays différents participent désormais à Virgo et cent cinquante personnes environ signent ses publications. page 26

Une vue de la partie centrale du détecteur Virgo. On distingue les enceintes à vide d’une dizaine de mètres de hauteur qui contiennent les systèmes d’atténuation sismique auxquels sont suspendus les miroirs. La « tour » au centre de la photographie contient le miroir qui sépare la lumière laser en deux faisceaux qui circulent dans les bras de l’interféromètre (partant vers la droite et le fond de la photo). Le faisceau laser vient de la tour la plus à gauche.

ÉLÉMENTAÍRE


Observatoires d’ondes gravitationnelles Présent et futur de la recherche directe des ondes gravitationnelles En 2006, un accord de collaboration entre la LSC et Virgo a été signé ; il prévoit l’échange des données prises par les deux expériences en vue d’une exploitation scientifique commune. En effet, seule une coïncidence associant plusieurs interféromètres et éventuellement d’autres types de télescopes (optique, à neutrinos, etc.) sera jugée suffisamment probante par la communauté scientifique pour officialiser la découverte des ondes gravitationnelles. Depuis octobre 2007, la prise de données VirgoLIGO est officiellement arrêtée, même si GEO et le détecteur de 2 km de LIGO continuent de fonctionner – au cas où ... Cette période de maintenance a été décidé de manière conjointe par souci d’efficacité : comme nous l’avons vu, les interféromètres ont intérêt à fonctionner de manière simultanée pour mettre toutes les chances de leur côté. Chacune des collaborations profite de ce répit pour améliorer les performances des instruments, installer de nouveaux systèmes de contrôle ou encore réduire une source de bruit identifiée au préalable. Le but est de gagner un facteur deux en moyenne sur les sensibilités nominales. Une fois ce programme réalisé, un nouveau cycle de prise de données en coïncidence débutera : pendant au moins six mois il s’agira de maintenir en permanence les instruments à leur meilleure sensibilité.

© LIGO

À l’échelle de cinq ans environ l’arrivée de détecteurs de nouvelle génération (« Advanced » Virgo et LIGO) ayant des sensibilités dix fois plus importantes devrait apporter un vrai plus. En effet, un tel gain signifie que le volume de l’espace auquel les détecteurs seront sensibles augmente d’un facteur 103. Cette « vision élargie » se traduit par un meilleur accès à la principale source potentielle d’ondes gravitationnelles, les coalescences de systèmes binaires (étoiles à neutrons ou trous noirs). Les détecteurs actuels permettent de couvrir des distances de l’ordre de 15 Mpc. Compte tenu de la distribution des galaxies dans un tel volume et du nombre d’objets compacts par galaxie, ceci correspond à quelques coalescences d’étoiles à neutrons par siècle ! Une fréquence comparable est espérée pour des trous noirs, bien que le nombre de ces objets par galaxie soit moins bien connu que pour les étoiles à neutrons. En passant à 150 Mpc, le nombre d’événements détectables grimperait à quelques dizaines par an. page 27

ÉLÉMENTAÍRE

Vue de la salle de contrôle de LIGO (site de Hanford) en 2005.


© LIGO Laboratory

Observatoires d’ondes gravitationnelles

© LISA

Vue d’artiste montrant l’intérêt d’améliorer la sensibilité d’un détecteur d’ondes gravitationnelles par un facteur 10. Le volume d’Univers observable passe de la petite sphère rouge (en bas à gauche) à la sphère bleue, ce qui permet de gagner toutes les sources indiquées (de manière fictive et selon une répartition uniforme) par des points jaunes.

Mais l’avenir de la recherche des ondes gravitationnelles passe aussi par l’espace. Les agences spatiales américaine (NASA) et européenne (l’ESA) ont un projet commun « d’interféromètre » géant à l’horizon 2018 : LISA, pour Laser Interferometer Space Antenna. Ses trois satellites formeraient deux « bras » éloignés de cinq millions de km et s’échangent des impulsions laser précisément synchronisées – à de telles échelles, il est impossible d’utiliser des réflexions sur des miroirs. LISA vise une bande de fréquence différente (entre 0,1 mHz et 0,1 Hz) de celle des observatoires au sol – lesquels ne peuvent descendre en dessous de quelques Hz à cause du bruit sismique. Les sources d’ondes gravitationnelles auxquelles un tel détecteur serait sensible sont de nature un peu différente de celles cherchées par les observatoires terrestres : il peut s’agir de la coalescence de trous noirs supermassifs de plusieurs millions de masse solaire (dont l’existence est très probable et le signal gravitationnel prédit avec précision) ou de signaux périodiques émis par des systèmes d’étoiles doubles dans notre galaxie.

page 28

Une vue d’artiste du projet LISA (Laser Interferometer Space Antenna) constitué de 3 satellites communiquant à l’aide de lasers de haute intensité.

ÉLÉMENTAÍRE


Expérience La mission PLANCK Corps noir Un « corps noir » est un corps idéal qui absorbe tous les rayonnements (toutes les fréquences) qu’il reçoit et les réémet de manière aléatoire, dans un équilibre qui ne dépend que de la température. Planck a déterminé la forme mathématique du spectre de ce rayonnement dans les années 1900. La densité de photons du corps noir dépend uniquement de sa température. Pour le CMB à 2,7K, on a 411 photons par cm3.

Planck est une mission de l’Agence spatiale européenne (ESA). Elle tire son nom du physicien allemand Max Planck, qui formula en 1900 l’équation du spectre du corps noir, première pierre de la construction de la mécanique quantique. Le début de la conception du projet date de 1993. Sa mise en œuvre est assurée par 13 laboratoires européens (dont 5 en France) et nord-américains ainsi que par Thales Alenia Space (maître d’œuvre du satellite et responsable de l’intégration des instruments et des tests) et Air Liquide (pour le refroidissement à 0,1K).

Observer les empreintes des premiers pas de l’Univers L’expérience Planck vise à obtenir des informations avec une précision inégalée sur les premiers instants de l’Univers, en mesurant les photons du rayonnement fossile (CMB, voir « Théorie »). Le spectre de ce rayonnement est, à un très bon degré d’approximation, celui d’un corps noir, caractéristique de son origine thermique, à une température d’environ 2,7K ce qui correspond à des longueurs d’onde de l’ordre du millimètre, c’est-à-dire des fréquences entre un et quelques centaines de GHz.

ÉLÉMENTAÍRE

page 29

Vue schématique du satellite.


La mission PLANCK

La température n’est pas la seule source de renseignements : comme tout rayonnement électromagnétique, le CMB peut être polarisé par diffusion (dite « diffusion Thompson ») des photons sur la matière. Cette polarisation apporte des informations supplémentaires sur notre Univers. En particulier, certaines de ces caractéristiques nous apportent des informations concernant les ondes gravitationnelles générées durant la phase d’inflation cosmique, une période d’expansion rapide dans les premiers instants de l’Univers (voir «Théorie»). Mais c’est une information très difficile à détecter car excessivement ténue (10 à 1 000 fois plus faible que le signal principal).

Derniers préparatifs pour Planck : le satellite a été nettoyé avec un aspirateur extrêmement puissant puis toute la surface est inspectée sous éclairage UV car les poussières résiduelles sont alors fluorescentes.

Les instruments de Planck L’instrument, d’un poids de 2 tonnes (au lancement), et de 4,2 mètres de hauteur sur 4,2 mètres de diamètre est composé de trois éléments : • un télescope de 1,5 m de diamètre, avec une configuration dite «hors d’axe» : ses miroirs sont décalés l’un par rapport à l’autre. Ceci évite des phénomènes de diffraction, gênants aux longueurs d’onde où on veut détecter le CMB. Deux instruments, couvrant des gammes complémentaires de longueurs d’onde, cohabitent au foyer du télescope et sont refroidis par un système cryogénique complexe. • les fréquences comprises entre 20 et 100 GHz sont analysées par l’instrument basse fréquence (LFI). Il est composé de 56 récepteurs de type radio, répartis dans 4 bandes de fréquences. Étant refroidi à « seulement » 20 K, il entoure l’instrument haute fréquence et partage le premier étage du refroidissement de ce dernier. page 30

© ESA

Si le spectre du CMB a été (et reste) un sujet d’étude important, ce sont surtout les anisotropies de température qui sont maintenant sur le devant de la scène, car elles fournissent des informations plus détaillées sur l’état de l’Univers au moment de l’émission de ces photons (voir « Analyse »). Planck est ainsi capable de détecter des changements de température qui sont de l’ordre du millionième de la température du CMB et ce malgré la présence à proximité (relative) d’éléments chauds comme la Terre, la Lune et le Soleil. Pour exemple, si Planck restait sur Terre, il serait en mesure de détecter le rayonnement thermique d’un lièvre sur la Lune !

ÉLÉMENTAÍRE


La mission PLANCK © PLANCK

• l’instrument haute fréquence (HFI), enfin, comporte 52 canaux répartis dans 6 bandes entre 100 et 900 GHz environ. Ses détecteurs sont des bolomètres (voir « Détection ») qui convertissent la radiation sub-millimétrique incidente en chaleur. Certains sont spécialement conçus pour mesurer la polarisation. Pour leur assurer une sensibilité optimale, ils seront refroidis à 100 mK par un cryostat utilisant un mélange d’hélium 3 et d’hélium 4 suite à un programme de recherche financé par le CNES. Il s’agit de l’objet le plus froid jamais lancé dans l’espace !

Le plan focal de l’instrument PlanckHFI en configuration d’étalonnage à l’Institut d’Astrophysique Spatiale à Orsay. On voit les cornets qui guident les ondes jusqu’aux bolomètres de PlanckHFI. Refroidis à 0,1 K et illuminés à travers une optique spécialement conçue pour fonctionner à très basse température et sélectionner une gamme de longueurs d’onde bien définie dans un cône étroit (de 10 minutes d’arc environ d’ouverture).

Planck n’est pas la première mission spatiale à étudier le fond cosmologique. Son ancêtre, COBE, en 1992, avait une résolution de 7° sur le ciel (une pleine lune correspond à 0,5°). En 2001, WMAP descendait à 15 minutes d’arc, soit une résolution 28 fois meilleure. Moins d’une décennie plus tard, Planck multiplie encore par 3 cette performance, avec une résolution de 5 minutes d’arc. Quant à la mesure des variations de température, la précision de Planck devrait être environ 10 fois supérieure à celle de WMAP. Par ailleurs, grâce à ses nombreux canaux le satellite Planck va observer le ciel dans 9 fréquences. Les cartes du ciel contiennent la somme des signaux venant du rayonnement fossile, du système solaire, des galaxies lointaines et de notre Galaxie. Schématiquement, certaines fréquences mesureront principalement des bruits de fond (rayonnement de la Galaxie, sources lumineuses localisées) tandis que d’autres contiendront la somme de certains bruits de fond et du signal recherché. Cette technique de mesure directe des bruits de fond afin de les soustraire est nécessaire afin de diminuer les incertitudes systématiques.

ÉLÉMENTAÍRE

page 31

Vue schématique de la construction des cartes du ciel. Le ciel est cartographié pour 9 valeurs différentes de longueur d’onde. Ces 9 cartes sont ensuite traitées par informatique afin d’être capable de dessiner les cartes d’émission de photons dues à différents processus physiques (6 pour le schéma ci-contre).


La mission PLANCK

Les satellites Herschel (en haut) et Planck (en bas) dans la coiffe de la fusée Ariane-5.

La précision et la résolution angulaire des données de Planck devraient permettre de mesurer la plupart des paramètres cosmologiques avec des incertitudes meilleures que le pour cent.

10... 9... 8... 7... 6... 5... 4... 3... 2...

© Herschel

Le satellite a quitté le centre spatial de Liège où les derniers tests ont été effectués le 17 février 2009. Il a été transporté à bord d’un avion cargo Antonov jusqu’en Guyane où il est arrivé le mercredi 18 au soir après une escale de ravitaillement au Cap Vert. Mais ce n’était que le début du grand voyage de Planck qui a été lancé le 14 mai 2009, en compagnie du satellite Herschel, par une fusée Ariane 5.

ax du e de tél vis esc ée op e

La mission HERSCHEL étudie la formation et l’évolution des galaxies spirales, l’observation spectroscopique de comètes, l’atmosphère des planètes et de leurs satellites. Elle va aussi s’intéresser à la physico-chimie du milieu interstellaire pour comprendre la naissance des étoiles et à l’astrochimie du gaz et de la poussière pour comprendre le cycle de la matière stellaire et interstellaire.

85° axe de rotation

© B. Mazoyer

soleil

page 32

Principe de l’observation du ciel par le satellite Planck. La sonde observe le ciel en tournant sur elle-même, dos au soleil.

Il faut deux mois de croisière pour aller jusqu’au second point de Lagrange du système Terre-Soleil (situé à 1,5 millions de kilomètres de nous). À cet endroit, Planck aura en permanence la Terre et la Lune dans le même hémisphère que le Soleil. Ces trois astres sont en effet les principales sources de rayonnements parasites. L’arrière de la sonde est ainsi un bouclier, tapissé de panneaux solaires assurant l’alimentation en énergie des instruments. De l’autre côté, le télescope pointe vers le ciel dans une direction située à 5 degrés du plan du bouclier. Du fait de sa rotation autour de son axe et de son mouvement autour du soleil, tout le ciel sera couvert en revenant plusieurs fois au même endroit. Cette répétition des mesures assure que l’on contrôlera certains effets systématiques comme les dérives lentes de la réponse ou du niveau des bruits de fond des détecteurs. Compte tenu de la position du second point de Lagrange, le débit des échanges entre la Terre et la sonde sera limité à 6 heures par jour. Pendant cette période il faudra non seulement collecter les données compressées mais également recevoir les signaux donnant l’état des appareils et être prêt à envoyer d’éventuelles commandes de correction. Un des volets importants de l’activité de préparation de Planck concerne l’analyse des données. Celui-ci a été réalisé en parallèle avec la construction des détecteurs pour déterminer les besoins en calcul et construire des algorithmes performants et adaptés : vérification de la qualité des signaux, calibration de la réponse des instruments, étude et soustraction des bruits de fond, pour arriver à l’évaluation de la corrélation du signal du CMB pour toutes les paires de points de mesure dans le ciel et à l’analyse proprement dite. Il est prévu que les travaux de la mise en forme des données nécessiteront une année de travail. Il ne restera plus aux collaborateurs de Planck que douze mois supplémentaires pour extraire tous les résultats possibles et exploiter complètement les données. En effet, comme toute expérience spatiale, Planck a vocation à mettre l’ensemble de ses données à la disposition de la communauté scientifique mondiale

ÉLÉMENTAÍRE


La mission PLANCK au bout d’un certain temps. Cette limite d’exploitation « privée » étant prévue courant 2012, les physiciens de Planck auront donc comme motivation supplémentaire le désir d’extraire la quintessence des données enregistrées avant de les rendre publiques.

© ESA

La température des instruments du satellite (soit 0,1K) devrait être atteinte 50 jours après le lancement. La durée de vie du satellite est liée directement à la quantité de He3/He4 consommée avec une valeur minimale estimée à 21 mois. Pendant cette période plusieurs relevés complets du ciel devraient être faits (au minimum 4 ou 5). L’aventure est lancée, les données ne vont pas tarder à affluer... Aéroport de Liège : le container transportant Planck est placé à l’intérieur de l’avion cargo Antonov.

Décollage d’Ariane-5, lanceur des satellites, à Kourou le 14 mai 2009 à 15h 12.

page 33

ÉLÉMENTAÍRE

© ESA

Point de Lagrange La loi de la gravitation, énoncée par Newton dans la seconde moitié du XVIIe siècle, permet de décrire le mouvement relatif de corps massifs. Un siècle plus tard, Joseph-Louis Lagrange s’intéresse au problème du mouvement de trois corps en supposant que l’un d’eux est bien moins massif que les deux autres : c’est par exemple le cas d’un système satelliteTerre-Soleil. Son formalisme lui permet de découvrir l’existence de cinq positions d’équilibre, les points de Lagrange, où les forces gravitationnelles se compensent. Dans la pratique, ces positions d’équilibre ne sont pas stables mais on peut trouver des orbites proches qui le sont presque : une consommation limitée de carburant permet de s’y maintenir. Un satellite placé sur l’une de ces trajectoires suit les deux autres corps dans leurs mouvements et conserve la même position relative par rapport à eux. Ainsi, les signaux qu’il reçoit varient peu et sont toujours en provenance des mêmes directions, ce qui rend ces emplacements très intéressants pour des mesures de précision comme celles de WMAP. Le second point de Lagrange (L2) est situé sur l’axe Soleil-Terre, au-delà de notre planète et ainsi dans l’ombre de la Terre.


Détection Bolomètres Bolomètres Bolomètre vient du Grec « bolē » signifiant « jet » d’où son emploi pour désigner des rayons lumineux, et non verre de cidre comme on pourrait l’imaginer. On retrouve ce terme, par exemple, dans le mot discobole.

Prototype d’ « Aerodrome » installé sur la catapulte fatale. Constante solaire C’est l’énergie solaire arrivant perpendiculairement sur une surface de 1m2 placée au niveau de l’orbite terrestre. Elle vaut 1367 W/m2. L’énergie reçue au niveau du sol est inférieure car elle est atténuée par l’atmosphère et dépend de la direction du Soleil. Pont de Wheatstone On dit qu’il est à l’équilibre lorsque aucun courant ne passe dans l’ampèremètre (A). Dans ce cas les valeurs des résistances satisfont l’égalité : R1 x R4 = R2 x R3 Si une des résistances change, on peut relier sa variation au courant circulant entre les deux bras.

Principe de fonctionnement d’un bolomètre Les bolomètres ont été inventés vers la fin des années 1800 par Samuel Pierpont Langley qui est un des pionniers du passage de l’astronomie à l’astrophysique : il a cherché à appliquer les lois de la physique pour expliquer le rayonnement stellaire ainsi que l’influence du rayonnement solaire sur la Terre. À l’époque, on s’intéresse à la constante solaire et à l’énergie émise par le Soleil en fonction de la longueur d’onde. Pour ces mesures, Langley développe, à partir d’une idée non concrétisée d’Adolf Ferdinand Svanberg (1806-1857), un nouveau type d’appareil utilisant la variation de la résistance des métaux avec la température : le bolomètre.

Les rayons du Soleil sont focalisés sur une feuille de platine très mince (de l’ordre du micron) ce qui induit une variation de la température du métal ainsi que de sa résistance électrique. Ce changement est mesuré, à l’époque, en utilisant un pont de Wheatstone dont les autres résistances sont maintenues à température constante par contact avec un bain thermique. L’instrument est sensible à des variations infimes de température (soit, disait-on à l’époque, « à la présence d’une vache paissant à 500 mètres de l’appareil »). Pour ne pas être perturbé par les ruminants ni par les nombreuses usines sidérurgiques de Pittsburgh (ville située à proximité de l’observatoire où il effectuait ses recherches), Langley fait des mesures au sommet du mont Whitney situé dans les Montagnes Rocheuses au Sud Est de la Californie. Opérer en altitude a aussi l’avantage de diminuer les effets parasites de l’atmosphère. Son expédition est relatée dans le New York Times en juillet 1881 avec une typo malencontreuse qui parle de « balometer » (que l’on pourrait traduire par «détecteur de ballot») alors qu’en pratique pour mettre en œuvre cet instrument extrêmement sensible, il faut dépenser des trésors d’ingéniosité pour être sûr que les variations observées sont bien le résultat du phénomène étudié.

page 34

DR

DR

Samuel Pierpont Langley (1834-1906), est un astrophysicien américain qui a effectué des travaux pionniers dans la mesure de la constante solaire et dans l’étude de la partie infrarouge du spectre solaire (1894). Pour ces mesures, il invente et développe le bolomètre. Dans les années 1880 il participe aux débuts de l’aviation, étudiant en soufflerie les différents paramètres conditionnant le vol d’un plus lourd que l’air. Il fait voler plusieurs prototypes sans pilote, dès 1896, mais échoue par deux fois dans ses tentatives de vol piloté. En octobre et décembre 1903, son prototype « Aerodrome A » ne survit pas au lancement par une catapulte bâtie sur la rivière Potomac en Virginie (rassurez-vous le pilote n’a pas péri). Quelques jours plus tard les frères Wright effectuent leur premier vol dans l’état voisin de Caroline du Nord.

Comme leur nom l’indique, les bolomètres sont sensibles à l’énergie déposée par un rayonnement. Inventés pour l’observation du Soleil à la fin du XIXe siècle, ils restent les plus performants dans le domaine allant de l’infrarouge aux ondes millimétriques, bien que de nombreux autres appareils, basés sur des technologies différentes, aient été développés. D’où l’utilisation des bolomètres sur le satellite Planck (voir « Expérience »). Ils sont aussi employés dans un tout autre champ de recherches que nous évoquerons également à cause de ses liens avec la cosmologie : celui de la « matière noire ».

Le principe du bolomètre consiste donc à transformer en chaleur l’énergie transportée par un rayonnement et à mesurer l’élévation de température correspondante via un circuit électrique. De nos jours, il comporte un absorbeur et un thermomètre, dont le rôle est joué par une thermistance, qui est en contact avec un bain thermique ou source froide. Un courant, dit de polarisation, traverse en permanence la résistance dont on mesure la tension aux bornes. Sans apport

ÉLÉMENTAÍRE


Principe du fonctionnement d’un bolomètre.

extérieur, le système fonctionne à température constante et est à l’équilibre, ���������� c’est-à-dire que la puissance produite dans la résistance par effet Joule est ����������� ������������ évacuée en permanence vers la source froide. Si l’absorbeur reçoit l’énergie véhiculée par un photon, celle-ci provoque une élévation de température ����������� ����������� qui induit une variation de la résistance (appelée thermistance à cause de cette propriété) ce qui modifie la tension mesurée. C’est ce signal qui est enregistré après avoir été amplifié. Sa durée dépend de la capacité ������������� thermique de l’absorbeur et de la vitesse d’évacuation de la chaleur. Les ��������� bolomètres sont refroidis à très basse température afin de diminuer la valeur �������������� de la capacité thermique ce qui permet d’augmenter leur sensibilité à des dépôts d’énergie de plus en plus faibles. Opérer à basse température est aussi Bain thermique un moyen de diminuer l’importance des différentes sources de bruit. Réservoir de matière ayant une grande

inertie thermique, dont la température reste constante et qui sert à évacuer la chaleur déposée dans le bolomètre.

Les photons du Big Bang capturés par la toile d’araignée de Planck

En plus de sélectionner un domaine de longueurs d’onde, la structure adoptée pour ces bolomètres a d’autres avantages. Sa faible masse fait qu’elle est peu sensible à la présence de rayons cosmiques, qui vont pour la plupart la traverser sans y interagir. Pour la même raison, elle est peu sensible aux vibrations issues de l’environnement et notamment lors du lancement du satellite. Enfin, sa faible capacité thermique entraîne une réponse rapide à un dépôt de chaleur. Au signal recherché – les photons du CMB (voir « Découverte ») dont les fréquences étudiées par Planck varient entre 100 et 860 GHz – s’ajoutent de nombreux bruits de fond dont l’importance est diminuée par le fonctionnement à basse température des bolomètres et par l’utilisation d’une modulation temporelle (connue) des signaux recherchés. Cette dernière propriété vient du mouvement de Planck, qui effectue une rotation autour de son axe toutes les minutes. Compte tenu de l’extrême sensibilité des bolomètres, leur conception et leur installation ont nécessité d’étudier et de maîtriser ces différentes sources de bruit. Des mesures au sol sur le satellite complet ont permis de s’assurer que le système atteindra une sensibilité 10 fois supérieure à celle de la mission précédente (WMAP). Certains des bolomètres équipant le satellite Planck permettent de mesurer la polarisation des photons incidents. De conception similaire à ceux décrits

ÉLÉMENTAÍRE

Plomb archéologique : pour obtenir du plomb peu radioactif on doit éliminer les noyaux instables qu’il contient. Si ces noyaux ne sont pas du plomb, des méthodes chimiques de séparation peuvent être utilisées. La radioactivité résiduelle provient alors d’isotopes instables du plomb et notamment du 210Pb qui a une période de 22 ans. Cet isotope est issu de la désintégration du radon, un gaz émis en permanence depuis le sol par la désintégration de l’238U présent dans la croûte terrestre. On fabrique les lingots en réduisant de l’oxyde de plomb avec du charbon issu de végétaux contenant du 210Pb. Ces noyaux vont se répartir dans tout le volume du métal et vont donc concourir à la radioactivité des lingots. Le plomb dit archéologique a l’avantage de ne plus contenir pratiquement de cet élément : extrait des mines et coulé en lingots au cours de l’Antiquité, il a séjourné par exemple sous terre ou dans la mer. Le 210 Pb contenu dans les lingots s’est désintégré au bout de quelques siècles tandis que les nouveaux dépôts de cet isotope, qui ont lieu en permanence, n’ont affecté que la surface des lingots. Le plomb utilisé dans Edelweiss est issu de la cargaison de 22 tonnes d’un bateau celte qui a fait naufrage vers l’an 400 sur le site des Sept Îles. page 35

Les bolomètres installés sur le satellite Planck ont été fabriqués par le Jet Propulsion Laboratory (Pasadena, États-Unis). L’absorbeur est une structure mince en nitrure de silicium recouverte d’une couche d’or, d’épaisseur voisine du micron. Elle est dite en toile d’araignée car elle comporte de nombreux vides. L’absorbeur sélectionne ainsi les longueurs d’onde dont la valeur est supérieure à la taille de ces structures. Les photons dont la longueur d’onde est plus courte traversent l’absorbeur pratiquement sans interagir. Cet absorbeur est relié au bain thermique, maintenu à 0,1 K, par une dizaine de bras et en son centre est placée une thermistance en germanium de 100 x 100 x 25 μm3.

Capacité thermique C’est le rapport entre l’énergie déposée dans un corps et la variation de température correspondante. À très basse température la capacité thermique peut devenir extrêmement faible. On obtient ainsi des variations de température mesurables pour d’infimes dépôts d’énergie.


Bolomètres s précédemment, ils sont équipés de grilles qui absorbent seulement les photons dont le champ électrique est parallèle aux fils. Une seconde grille, dont les fils sont perpendiculaires à ceux de la précédente, absorbe l’autre composante de la polarisation. Chaque grille est reliée à une thermistance.

© Edelweiss

De l’arachnéen au massif : Edelweiss Vue partielle de l’expérience Edelweiss montrant certains des écrans de protection (blindage en plomb), et le cryostat, qui sert à maintenir à 20 mK la température des détecteurs placés à l’intérieur du gros capot en cuivre.

© Edelweiss

L’énergie cinétique de recul Lorsqu’une particule de matière noire entre en collision avec un noyau ce dernier va se déplacer. L’énergie cinétique qu’il acquiert dépend de celle de la particule incidente (E) et de l’angle suivant lequel elle est diffusée. Cette énergie varie entre zéro et une valeur maximale qui est déterminée par les masses (m et M) du projectile et de la cible. Elle est égale à : 4 m ME/(m + M)2. Pour des particules de matière noire ayant des masses (m) comprises entre 10 et 1000 GeV/c2 l’énergie de recul maximale varie entre 1 et 100 keV. La limite de détection pour Edelweiss est aux environs de 20 keV.

Germanium : plusieurs matériaux sont utilisés pour détecter la matière noire. Le germanium en fait partie car il permet de mesurer à la fois l’énergie de la collision et l’ionisation créée par le noyau de recul. Il peut être d’autre part utilisé sous forme de cristaux très purs et de masse élevée.

page 36

Un des cristaux en germanium : son diamètre est de 70 mm et son épaisseur de 20 mm.

L’expérience Edelweiss (Expérience pour DEtecter Les Wimps En Site Souterrain) se propose de détecter la présence de matière noire dans notre environnement. Les particules recherchées sont neutres, relativement lourdes et animées d’un mouvement tel qu’elles restent piégées dans la Galaxie. Elles ont une faible probabilité d’interagir avec la matière ordinaire. En fonction de différents modèles, on s’attend à une interaction par kilogramme - voire par tonne - et par an. Si une de ces particules entre en collision avec un noyau atomique, ce dernier se déplace sous l’effet du choc et on mesure l’énergie cinétique de recul qui doit être comprise entre quelques keV et quelques dizaines de keV. Cette valeur dépend de la masse des particules et de leur vitesse. Contrairement au cas de Planck, on utilise l’absorbeur le plus massif possible de manière à augmenter la chance que des particules de matière noire y interagissent. On a choisi pour cela des cristaux de germanium de 320 g chacun. La première phase de l’expérience, maintenant terminée, comportait 3 cristaux ; 120 devraient équiper au final la seconde. Si la présence de matière est nécessaire pour la détection de la matière noire, elle rend également l’appareil sensible à de nombreux bruits de fond. Pour se protéger des rayons cosmiques l’expérience fonctionne dans le tunnel du Fréjus. On a également construit le détecteur, et le blindage qui l’entoure, avec des matériaux faiblement radioactifs ; ainsi du plomb archéologique est utilisé dans le blindage. L’interaction de photons dans les cristaux reste malgré tout 100 000 fois plus probable que les signaux recherchés. Ces photons proviennent principalement de désintégrations de substances radioactives contenues dans le blindage de cuivre le plus externe. Afin de réduire cette pollution on mesure non seulement l’énergie déposée dans les bolomètres mais aussi l’ionisation générée dans les cristaux. Cette dernière est, pour un même dépôt d’énergie, 3 à 4 fois plus faible quand elle est produite par un noyau de recul que par un électron (éjecté d’un atome par un photon ayant interagi). L’expérience Edelweiss espère observer prochainement un signal car elle est maintenant sensible à une gamme de masses et de probabilités d’interaction compatibles avec certains modèles de matière noire. Leur vitesse : la vitesse des particules de matière noire par rapport à la Terre résulte de la composition de plusieurs mouvements. Tout d’abord ces particules se déplacent au sein du halo entourant la Galaxie selon un mouvement supposé isotrope avec des vitesses distribuées suivant une loi de Maxwell dont la valeur moyenne est estimée à 270 km/s. On doit y ajouter le mouvement de rotation galactique (~ 230 km/s), de celui du soleil par rapport aux étoiles voisines (~10 km/s) et enfin de la rotation de la Terre autour du Soleil (~30 km/s) et on néglige le mouvement propre de la rotation terrestre.

ÉLÉMENTAÍRE


Retombées Le GPS Premier septembre 1983 : en provenance de New York via Anchorage (Alaska) et à destination de Séoul, le vol 007 de la Korean Airlines s’écarte de sa trajectoire. Le réglage incorrect du pilote automatique échappe à la vigilance de l’équipage et le Boeing 747 pénètre dans l’espace aérien soviétique. Repéré par les radars et pris en chasse par des appareils militaires il est, selon la version la plus vraisemblable, confondu avec un avion espion américain qui vole dans la même zone, de grande importance stratégique. L’appareil est abattu et ses 269 occupants trouvent la mort au large de l’île de Sakhaline. Suite à cette tragédie qui marque un renforcement très net de la guerre froide, le président américain Ronald Reagan annonce que le « GPS », alors encore en développement, sera accessible aux civils (et donc aux avions de ligne) une fois opérationnel. Ironie de l’Histoire, c’est donc une page sombre du XXe siècle qui est à l’origine du transfert vers le grand public de cette technologie militaire.

Écusson du système GPS.

Effet Doppler Les ondes (sonores ou électromagnétiques) émises par une source en déplacement voient leur longueur d’onde (et donc leur fréquence) modifiée quand elles sont captées par un récepteur immobile. Ainsi le bruit d’un moteur nous paraît plus aigu/ grave quand la voiture vient vers nous/se fait plus distante. De même, la lumière en provenance d’une galaxie qui s’éloigne de la Voie Lactée est « décalée vers le rouge ». Plus généralement, la différence entre la longueur d’onde du signal reçu et celle qu’il aurait si sa source était immobile permet de déterminer la vitesse relative de l’émetteur par rapport au récepteur.

La mise au point du GPS est l’aboutissement de plusieurs décennies de recherche. En effet, les premiers systèmes de guidage des avions par ondes radio depuis le sol apparaissent lors de la seconde guerre mondiale. En 1957, des scientifiques américains sont chargés de surveiller les transmissions radio de Spoutnik, le premier satellite artificiel lancé par l’URSS le 4 octobre de cette même année. Ils découvrent alors que les variations du signal émis par l’engin spatial (et plus particulièrement la modification de la fréquence du signal qu’il émet par effet Doppler) donnent accès à sa position le long de son orbite à condition de connaître avec précision les coordonnées de l’endroit d’où ils effectuent leurs observations. Dès 1960 – les premiers vols habités n’auront lieu que l’année suivante –, une constellation de cinq satellites permet à la marine américaine de connaître la position de ses bâtiments une fois par heure. En 1968, le système de navigation Omega, associant sept pays dont les Etats-Unis et la France, utilise les informations de huit stations au sol pour localiser avions et navires, avec pour objectif de couvrir l’ensemble des océans du globe. La précision limitée des mesures, entre cinq et dix kilomètres en moyenne, ne permet que le guidage en haute mer. D’abord réservé aux militaires, Omega s’ouvre peu à peu aux civils ; le système est finalement abandonné en 1997, victime du succès de la technologie GPS.

ÉLÉMENTAÍRE

DR

page 37

Le GPS (« Global Positioning System » en français « Géo-Positionnement par Satellite » pour conserver l’acronyme) est un système permettant d’établir précisément la position d’un récepteur (R), a priori situé n’importe où sur la Terre. Pour cela, ce dernier reçoit à intervalles réguliers des signaux provenant de satellites (S) dont les positions sont connues en temps réel et les traite grâce à son calculateur intégré. Les ondes électromagnétiques (lumière, radio, etc.) se déplaçant à la vitesse de la lumière, le temps mis par un signal pour aller d’un satellite au récepteur donne la distance (D) séparant les deux objets. Le récepteur se situe donc quelque part sur une sphère de centre S et de rayon D. En combinant les informations de plusieurs satellites, on obtient autant de sphères dont l’intersection fournit finalement la position précise de R. La même mesure effectuée à des instants

R

D

S

Reconstruction de la position du récepteur à partir des mesures des satellites GPS.


Le GPS successifs permet ainsi de suivre les déplacements du récepteur (vitesse et direction), qu’il soit sur le bateau d’un navigateur solitaire doublant le Cap Horn ou dans votre voiture. Les premiers satellites GPS sont lancés en 1978. Les mises sur orbite se succèdent ensuite, afin d’augmenter la taille de la flotte et de remplacer les anciens instruments par de nouveaux, plus performants. Le système devient opérationnel sur l’ensemble du globe en 1995 ; enfin, le 1er mai 2000, le président américain Bill Clinton annonce la fin du système de brouillage des signaux destinés aux civils : la précision des mesures s’améliore d’un facteur dix, ce qui ouvre la voie à la diffusion du GPS – rien qu’en France 2,5 millions de récepteurs ont été vendus en 2007.

Le GPS comment ça marche ?

Un satellite GPS, exposé au musée de l’Air et de l’Espace à San Diego (Californie).

page 38

© ASSDM

Les 31 satellites GPS actuellement en orbite se répartissent sur six orbites inclinées de 55 degrés par rapport à l’équateur et d’altitude moyenne 20 200 km. Chacun de ces plans contient au minimum quatre satellites répartis de manière équidistante et on passe d’une orbite à ses voisines par une rotation de ±60 degrés autour de l’axe Sud-Nord. Dans cette configuration, quatre (six) satellites sont visibles de n’importe quel point du globe (presque) en permanence. À hautes latitudes les satellites sont plus bas sur l’horizon sans que cela n’affecte de manière significative la précision de la mesure GPS. Le système est également robuste vis-à-vis de pannes multiples.

Pour connaître les trois grandeurs (latitude, longitude et altitude) définissant la position d’un objet sur Terre il faut au minimum trois informations et donc, dans le cas du GPS, trois satellites. En fait, cette configuration minimale n’est pas satisfaisante, à la fois pour une raison fondamentale sur laquelle nous reviendrons dans la suite, mais aussi parce que la précision des mesures dépend de la position des satellites, laquelle varie en permanence. De plus, des problèmes temporaires sur l’un ou l’autre des émetteurs ne doivent pas interrompre la circulation de l’information GPS. Il y a donc au minimum 24 satellites GPS en orbite, disposés de manière à ce que quatre d’entre-eux au minimum (et bien plus la plupart du temps) soient visibles quelle que soit la position du récepteur sur Terre. Ils font un tour de la Terre en 11 heures 58 minutes et reviennent donc régulièrement à la même position dans le ciel, ce qui simplifie leur suivi depuis le sol. Leur guidage est assuré par l’armée de l’air américaine depuis ses bases enterrées dans les Montagnes Rocheuses au Colorado et par un réseau de stations de télémétrie réparties sur l’ensemble du globe. En plus des données à usage purement militaire, chaque satellite GPS émet deux types de signaux « en clair », à destination des civils. Leur fréquence, de l’ordre du gigahertz, est un compromis entre spécifications techniques et lois physiques gouvernant la propagation des ondes électromagnétiques dans l’atmosphère. • Une suite de 1023 bits répétée toutes les millisecondes est utilisée pour déterminer la distance émetteur-récepteur. • Le signal de navigation est émis avec un débit de 50 bits/s et chaque message dure typiquement 30 secondes. Durant les six premières, le satellite envoie des informations sur son état – un engin dont l’orbite est instable, par exemple parce qu’elle est en train d’être modifiée depuis le sol, ne Bits doit pas être utilisé pour déterminer Le bit est le bloc d’information élémentaire : une position GPS – ainsi que des il ne peut prendre que deux valeurs, 0 ou paramètres de correction pour les 1. Tout chiffre, et plus généralement tout caractère, peut être codé par une succession horloges atomiques embarquées. de bits et la transmission d’information Ensuite, l’éphéméride, c’est-àpar le biais de cet alphabet, est à la base de dire tout ce qu’il faut savoir sur l’électronique et de toutes ses applications. l’orbite particulière du satellite, est

ÉLÉMENTAÍRE


Déterminer la distance émetteur-récepteur Chaque satellite émet une suite de 1023 bits qui lui est propre. Les séries utilisées sont aussi différentes que possible de manière à assurer une identification sans erreur des émetteurs visibles. Le récepteur les connaît toutes et les génère en boucle. Il estime ainsi la distance le séparant de chacun des satellites en comparant les séquences produites avec les signaux reçus. Le principe est simple : chaque série de bits peut être vue comme une bande de tissu bicolore (par exemple blanc pour « 0 » et noir pour « 1 »). Posant les bandes « émetteur » et « récepteur » l’une sous l’autre, le décalage entre les deux motifs permet de remonter à la distance séparant les deux instruments. En pratique, l’opération est plus complexe : la bande de tissu livrée par le satellite arrive « froissée » (à cause de l’effet Doppler dû au mouvement relatif entre émetteur et récepteur) et « salie » (du bruit parasite s’est ajouté au signal sur son parcours) ; il faut donc la « repasser » et la « nettoyer » pour assurer le succès de la comparaison. La précision du résultat est très bonne : de l’ordre du centième de l’intervalle de temps séparant deux bits consécutifs, soit trois mètres environ une fois convertie en distance – la vitesse de propagation des ondes électromagnétiques vaut 300 000 km/s.

Le GPS transmis pendant douze secondes. Bien que ces données soient valables quatre heures, elles sont normalement mises à jour toutes les deux heures. Enfin vient l’almanach, un ensemble d’informations sur la constellation dans son ensemble (orbite, statut technique, code numérique d’identification, etc. pour chaque satellite) ainsi que des données environnementales nécessaires pour corriger la mesure. L’almanach représentant un volume de données conséquent, chaque message met à jour 4% de son contenu.

Précisions, corrections et applications et limites du GPS

erreurs :

© N. Arnault

11 satellites GPS (en jaune) visibles par un récepteur situé à Rome le 28 juillet 2008 à 17h20.

ÉLÉMENTAÍRE

page 39

À la base du GPS se trouvent donc des mesures de temps dont la précision doit être d’autant plus grande que le facteur de conversion temps → distance – la vitesse de propagation des ondes électromagnétiques – est gigantesque : une erreur d’un millionième de seconde conduit à une position fausse de trois cent mètres ! Non seulement vous n’êtes pas dans l’allée du garage de beau-papa mais en plus vous avez probablement roulé sur les rosiers très rares de belle-maman avant d’atterrir avec votre voiture dans le ruisseau en contrebas... Pour éviter ce scénario catastrophe, les inventeurs du GPS ont pensé à tout : la redondance des mesures (quatre au minimum pour déterminer seulement trois coordonnées ; un récepteur standard est aujourd’hui capable de lire douze, voire vingt canaux en parallèle) permet de calculer et de corriger le décalage du récepteur par rapport aux émetteurs, synchronisés entre eux grâce aux informations contenues dans les messages de navigation.

Une difficulté supplémentaire provient du fait que la séquence est courte : elle revient toutes les millisecondes soit tous les 300 km à la vitesse de la lumière ! La mesure n’est donc pas absolue puisqu’elle correspond à plusieurs distances, une seule étant correcte. La position du récepteur est déterminée par itérations successives en comparant les données issues de plusieurs satellites et en utilisant sa dernière position connue. Ceci explique pourquoi la phase d’initialisation d’un boîtier GPS longtemps éteint peut être assez longue, surtout s’il a été transporté sur une grande distance : en plus de prendre contact avec les satellites maintenant visibles, il lui faut comprendre où il se trouve !


Retombées Le GPS

© B. Mazoyer

Horloges atomiques Mesurer un temps revient toujours à compter le nombre de fois où un phénomène répétitif ou défini par convention (oscillation d’un balancier, seconde, etc.) se produit pendant la « durée » d’observation. Une horloge est donc un métronome dont la précision dépend de la stabilité de la mesure qu’elle bat. Celles qui sont actuellement – et de très loin – les meilleures sont basées sur une conséquence de la mécanique quantique : l’énergie d’un atome est quantifiée, c’est-à-dire qu’elle ne peut prendre que des valeurs bien précises. L’état fondamental correspond à l’énergie la plus basse tandis que les autres niveaux décrivent des états dits « ex-cités ». Les seules transitions permises correspondent à l’absorption (l’émission) d’un photon détecteur apportant (emportant) exactement la différence d’énergie entre les états final et B B cavité initial. Or l’énergie d’un photon est directement proportionnelle à la fréquence de A+B B A+ A l’onde électromagnétique associée. A Il « suffit » ainsi d’utiliser une transition atomique particulière d’un état « A » à four un état « B » pour obtenir un étalon de fréquence parfaitement stable. Une horloge atomique contient un oscillateur mécanique (par exemple un morceau de quartz comme dans les montres-bracelets) dont le battement est accéléré jusqu’à avoir une fréquence aussi proche que possible de celle de la transition atomique utilisée. f = 9 192 631 770 Hz L’oscillation ainsi générée est convertie en signal électrique puis envoyée dans une cavité spécialement conçue pour entretenir une onde électromagnétique de même asservissement fréquence et dans laquelle des atomes dans l’état A sont injectés. Les passages A → B sont d’autant plus probables que la fréquence est proche de celle de la transition Principe de fonctionnement d’une horloge atomique atomique – phénomène dit de résonance. La comparaison du débit d’atomes dans l’état A/B à l’entrée/sortie de la cavité est finalement utilisée comme « signal d’erreur » et sert à ajuster l’oscillation mécanique. Une fois le système stabilisé (dans la réalité, les opérations décomposées ci-dessus s’enchaînent et se répètent continuellement), on dispose d’un métronome ultra-précis sur des durées très longues : en février 2008, des scientifiques de l’université de Boulder ont annoncé avoir mis au point une horloge dont l’erreur est inférieure à une seconde chaque 200 millions d’années. Une telle montre mise en route lors de la formation de la Terre serait décalée de moins de trente secondes aujourd’hui !

page 40

Horloge atomique à « fontaine de césium » utilisée comme référence aux États-Unis depuis l’an 2000. Une horloge similaire est employée comme étalon en France. En effet, la définition officielle de la seconde (et par ricochet celle du mètre puisque la vitesse de la lumière dans le vide est fixée à 299 792 458 m/s) est actuellement basée sur une transition particulière de l’atome de césium 137 dont la fréquence vaut très précisément 9 192 631 770 Hz. Les atomes de césium, refroidis et donc ralentis autant que possible, sont injectés de bas en haut dans la cavité contenant l’onde électromagnétique de très haute fréquence : comme ils finissent par retomber sous l’effet de leur poids, le temps qu’ils passent dans celle-ci est donc doublé ce qui améliore la précision de la mesure. Dans les satellites GPS, les horloges atomiques embarquées sont évidemment beaucoup moins encombrantes.

La précision du GPS vient également de la rigueur et de la qualité des lois physiques sur lesquelles il est basé. En particulier, deux effets relativistes dégraderaient considérablement les performances du système s’ils étaient ignorés. La Relativité Restreinte nous apprend que les horloges des satellites – en mouvement à grande vitesse (environ 10 600 km/h) autour de la Terre – battent plus lentement que celles restées immobiles au sol. La différence n’est pas négligeable, 7,2 microsecondes (µs) par jour ou 2200 mètres d’erreur environ pour un signal voyageant à la vitesse de la lumière. Quant à la Relativité Générale, elle prédit un effet opposé et plus conséquent (45,9 µs/jour) dû au fait que le champ gravitationnel est plus faible en orbite. Le décalage cumulé est donc d’environ 39 µs/jour. Pour le compenser, la fréquence des horloges embarquées est légèrement plus faible que celles des stations au sol : 10,22999999543 MHz au lieu de 10,23 MHz. De plus, les conditions atmosphériques influent sur la propagation des impulsions GPS – la vitesse de la lumière n’est constante que dans le vide absolu ; ailleurs elle est plus faible et varie en fonction du milieu traversé. Ces effets, inconnus a priori puisqu’ils dépendent de la densité de l’air, jouent d’autant plus que l’émetteur est bas sur l’horizon et le récepteur à faible altitude. Les variations d’humidité et de pression dans les basses couches de l’atmosphère sont locales et évoluent rapidement ce qui rend leur prise en compte difficile. Par contre, leur effet dépend de la fréquence de l’onde électromagnétique. Or, un satellite GPS émet plusieurs signaux à des fréquences bien distinctes. En comparant leurs distorsions, on peut estimer la correction à apporter à la mesure sans même avoir besoin de décoder les signaux supplémentaires utilisés comme référence.

ÉLÉMENTAÍRE


Le GPS

0.0

0.1

0.2

0.3

0.4

Précision du GPS Un récepteur du commerce a une précision d’environ 5 mètres. Cette valeur remarquable suffit à expliquer le succès de cet outil auprès du grand public et vaut la peine qu’on s’y arrête un instant. Que signifie-t-elle en pratique ? On peut représenter la distribution de l’erreur d’une position GPS donnée, par exemple celle de la Tour Eiffel à Paris, par une fonction gaussienne, de moyenne μ et d’écart-type σ. μ vaut évidemment 0 (faute de quoi le 34.1% 34.1% relevé GPS serait décalé d’une quantité fixe ce qui n’aurait pas beaucoup d’intérêt) tandis que σ correspond à la précision : σ = 5 mètres 2.1% 2.1% 0.1% 0.1% 13.6% 13.6% Comme le montre la figure ci-dessus, 68,2% des mesures donnent effectivement un résultat meilleur que « 1σ », soit 5 mètres. Par contre, dans environ un tiers des cas, l’erreur est plus −3σ −2σ −1σ µ 1σ 2σ 3σ grande. Par exemple la probabilité qu’elle dépasse 10 mètres (« 2σ ») n’est pas négligeable : 4,4%. Heureusement, la fonction gaussienne décroit assez rapidement à mesure que l’écart par rapport à sa moyenne (là-aussi exprimé en « unité de σ ») augmente et seules 2 mesures sur 1000 environ sont fausses de plus de 15 mètres (« 3σ »). Au final, une précision de 5 mètres signifie que le GPS donne « souvent » un résultat meilleur et qu’il ne se trompe « presque jamais » de plus de 15 mètres. Dans certains cas (relevés topographiques, séismologie ou volcanologie, transport, etc.) ces performances se révèlent insuffisantes et des systèmes plus complexes doivent être mis en place pour les améliorer. Le GPS différentiel utilise une station de référence proche dont la vraie position est connue avec précision. La comparaison entre cette valeur et la mesure donne l’ordre de grandeur de l’erreur GPS à un instant donné et cette information permet de corriger le relevé du point étudié. Dans le domaine du transport aérien les systèmes WAAS (États-Unis) et EGNOS (Europe, encore en développement) servent au guidage de précision des avions dans les phases d’atterrissage et de décollage : leur précision est de l’ordre du mètre, simultanément dans les trois dimensions d’espace.

Un des premiers récepteurs GPS grand public, exposé au Musée de la Science et de l’Industrie de Chicago.

Logo du futur système européen de positionnement global par satellite Galileo. page 41

ÉLÉMENTAÍRE

© Élémentaire

Les réflexions multiples (sur un immeuble, dans une vallée encaissée, etc.) sont une autre source potentielle d’erreur de mesure car elles allongent le parcours des ondes. On peut s’en affranchir quand le récepteur est en mouvement car les signaux réfléchis donnent des positionnements aberrants et donc facilement détectables. Parmi les autres limitations du système, on peut citer la faiblesse du signal reçu sur Terre et la facilité avec laquelle il peut être perturbé, au moins localement, par d’autres émetteurs utilisant le spectre électromagnétique. Un dernier atout du GPS, et pas le moindre, est qu’il est entièrement basé sur une technologie passive : comme son nom l’indique, le récepteur ne fait que ... recevoir et ne renvoie aucune information, ce qui rend illimité le nombre potentiel d’utilisateurs. Vue d’Europe, le seul point critiquable de ce système de navigation est le fait qu’il est propriété des États-Unis et que ses satellites sont contrôlés par l’armée américaine. Cette dépendance stratégique n’étant pas souhaitable sur le long terme, l’Union Européenne s’est lancée dans la mise au point de son propre système de positionnement par satellite, Galileo. Cette initiative, très mal vue au départ OutreAtlantique, a finalement été acceptée et un accord a été trouvé pour que les utilisateurs puissent passer d’un type de signal à l’autre dans le cas où celui qu’ils utiliseraient aurait une défaillance. Après de nombreux retards dus en grande partie à la nécessité d’adapter les demandes de participation des États aux réalités industrielles et à la recherche d’un équilibre entre secteurs public et privé, le projet semble enfin être sur les bons rails. La phase de démonstration des technologies, marquée par le lancement de deux satellites est en voie d’achèvement ; elle sera suivie par l’envoi de quatre satellites de validation – en 2010 au plus tôt – avant un déploiement de la constellation (une trentaine de satellites au total) vers 2013-2015.


Analyse Transformée de Fourier et...

DR

Joseph Fourier (1768-1830), effectue des études si brillantes à l’École royale militaire d’Auxerre, ville dont il est originaire, qu’il y devient professeur avant d’avoir dix-sept ans. Ses origines modestes (fils de tailleur, orphelin à neuf ans) l’empêchent d’entrer dans l’artillerie – d’après Arago, le ministre de la Guerre de l’époque aurait déclaré « Fourier n’étant pas noble, ne pourrait entrer dans l’artillerie, quand il serait un second Newton ». Un temps tenté par le séminaire, la Révolution française le fait changer de trajectoire. Il est élève à l’École Normale Supérieure tout juste créée, puis professeur à l’École Polytechnique (1794) après avoir été repéré par Monge. Ce dernier l’emmène en Égypte avec Bonaparte en 1798 pour une expédition aux objectifs à la fois militaires et scientifiques. Si les Anglais remportent finalement la victoire sur le terrain, les savants présents sur place accumulent une quantité impressionnante d’informations dans de nombreux domaines. Fourier coordonne la publication du rapport de l’expédition « Description de l’Égypte » : dix volumes de planches gravées, neuf de texte et un atlas. Ses qualités d’organisateur et de négociateur qui se sont révélées à cette période conduisent le Premier Consul à le nommer préfet de l’Isère, poste que Fourier n’accepte qu’à contrecœur car il est d’un naturel extrêmement frileux – la petite histoire, très certainement apocryphe, veut d’ailleurs expliquer par cette particularité physique la persévérance qu’il a montrée dans l’étude de l’équation de la chaleur. Destitué par Louis XVIII après l’abdication de Napoléon, il retrouve son poste lors des Cent Jours mais le perd tout aussi vite car il s’oppose à la politique répressive qu’on lui demande d’appliquer. Malgré cela il est ostracisé lors de la Restauration et traverse une période difficile – tout comme la communauté scientifique, divisée entre partisans de l’Empire et royalistes. Finalement ses compétences scientifiques sont reconnues et il accède à la reconnaissance qu’il mérite. Laissons le mot de la fin à Auguste Comte lui rendant hommage après sa mort : « (...) je ne crains pas de prononcer, comme si j’étais à dix siècles d’aujourd’hui que, depuis la théorie de la gravitation, aucune création mathématique n’a eu plus de valeur que celle-ci [l’œuvre de Fourier], quant aux progrès généraux de la philosophie naturelle (...) ».

Un préfet mathématicien Notre histoire commence en Isère dans les années 18041807. Joseph Fourier est préfet de ce département, unité administrative créée par l’Assemblée Constituante en 1789. À première vue, rien ne le distingue de ses collègues qui gèrent la France pour Napoléon sous le Consulat comme sous l’Empire. Pourtant, il a une qualité particulière qui le fera passer à la postérité. Cela aurait pu être sa popularité qui rendrait jaloux beaucoup de personnalités publiques actuelles – on raconte que les Grenoblois s’arrêtaient pour le saluer lorsqu’ils le croisaient dans la rue – ou encore son « Mémoire sur les températures du globe terrestre et des espaces planétaires » (1824) dans lequel il présente les bases du mécanisme connu aujourd’hui sous le nom d’effet de serre. Mais si Fourier est encore aujourd’hui célèbre et célébré dans le milieu scientifique, c’est en premier lieu parce qu’il était également mathématicien et qu’il a cherché à résoudre l’équation de la chaleur dans un cadre général.

Deux observations le mettent sur la bonne voie. Il remarque d’une part que la solution est calculable lorsque la température au bord du solide étudié (on parle de condition aux limites) est donnée par une sinusoïde en temps. C’est par exemple le cas du sol que le Soleil chauffe le jour et qui se refroidit la nuit. D’autre part, les expériences qu’il mène dans son appartement de fonction le convainquent que la solution de l’équation de la chaleur devient rapidement proche d’une fonction trigonométrique classique (cosinus ou sinus) pour peu que la condition aux limites soit périodique (par exemple le solide est chauffé pendant une minute puis refroidi la minute suivante et les mêmes actions se répètent de manière cyclique). Il suppose alors que toute fonction périodique peut s’écrire comme une somme de cosinus et de sinus dont les fréquences sont des multiples de la fréquence originale de la fonction. Il définit également les règles permettant de calculer les coefficients de pondération de ces différents termes. Comme l’équation de la chaleur est linéaire, il suffit de la résoudre dans les cas où la condition aux limites est l’une des sinusoïdes utilisées pour décomposer la fonction périodique : la solution générale cherchée est alors la somme pondérée des solutions particulières.

page 42

Fourier et l’effet de serre « C’est ainsi que la température est augmentée par l’interposition de l’atmosphère, parce que la chaleur trouve moins d’obstacle pour pénétrer l’air, étant à l’état de lumière, qu’elle n’en trouve pour repasser dans l’air lorsqu’elle est convertie en chaleur obscure. » L’atmosphère est essentiellement transparente pour le rayonnement solaire visible. Celui-ci arrive sur le sol, qui l’absorbe puis le réémet sous forme de rayonnement infrarouge (« chaleur obscure ». L’atmosphère est plus opaque à ce rayonnement et l’absorbe, ce qui contribue à augmenter sa température.

« Et ignem regunt numeri » [Le feu aussi est régi par les nombres] Devise utilisée par Fourier en épigraphe de ses principales publications.

ÉLÉMENTAÍRE


...application au CMB Équation de la chaleur et conditions aux limites L’étude de la chaleur et de l’évolution de la température d’un objet en fonction du temps est bien antérieure à Fourier : Newton, puis un siècle plus tard Laplace et Lavoisier, s’y intéressent mais ils butent sur la définition de la chaleur et sur le processus physique qui la fait se propager dans un solide. L’approche choisie par Fourier est plus pragmatique et lui permet d’obtenir l’équation qui gouverne le phénomène sans s’attarder sur sa nature précise. Elle est basée sur deux principes : la chaleur se déplace de la région chaude vers la région froide d’un objet perpendiculairement aux isothermes et le flux de ce « courant » à un instant donné est d’autant plus important que la température varie rapidement sur son parcours ; de plus, la quantité de chaleur d’un volume donné est proportionnelle à sa température, laquelle varie donc dans le temps en fonction des apports et des prélèvements externes. La juxtaposition de ces deux énoncés se traduit mathématiquement par une équation aux dérivées partielles. Mais cela ne suffit pas pour résoudre un problème donné : il faut également connaître une ou plusieurs conditions aux limites qui vont obliger la solution de l’équation à avoir un comportement prédéfini dans certaines zones du milieu (par exemple au bord) ce qui la contraint de manière unique. Ainsi, pour étudier précisément l’évolution de la température d’un volume d’eau mis à bouillir sur une plaque électrique il faut tenir compte du fait que le fond de la casserole est maintenu à la température (connue) de la plaque, se demander si le couvercle est ou non posé sur le récipient pour limiter les pertes de chaleur dans l’atmosphère ou encore avoir mesuré la conductivité thermique des parois. Une propriété importante de l’équation de la chaleur est qu’elle est linéaire : la somme de deux solutions en est également une solution.

Fort des succès qu’il obtient avec cette approche, Fourier va même plus loin : il étend sa décomposition au cas des fonctions non-périodiques – qui peuvent, d’une certaine manière, être vues comme des fonctions dont la période est infinie. Sans en avoir vraiment conscience, il est en train de faire avancer les mathématiques d’un pas de géant. D’abord, il jette les bases d’une nouvelle discipline – appelée maintenant analyse de Fourier en son honneur – et qui s’est révélée extrêmement féconde. Ainsi, les méthodes numériques de traitement d’un signal (comme une émission de radio) ou d’une image sont en grande partie basées sur la correspondance entre leurs variations, temporelle ou spatiale, et leurs décompositions comme somme de fréquences élémentaires. C’est par exemple le cas du format de compression JPEG très utilisé actuellement en informatique. De plus, sa méthode (réexpression d’un objet mathématique compliqué comme somme d’objets plus simples et plus faciles à manipuler ; utilisation de cette nouvelle formulation pour résoudre des problèmes difficiles ; application de la transformation inverse une fois que la décomposition n’est plus utile) s’est avérée très générale et s’applique dans de nombreux domaines scientifiques, au premier rang desquels l’astronomie et l’astrophysique. Les fréquences et leur étude jouent également un rôle primordial en musique.

Période

j k l n Temps

j

k

l

n

© N. Arnaud

Amplitude

Coefficients de Fourier

Fréquence

ÉLÉMENTAÍRE

La figure du haut montre l’évolution temporelle de différentes sinusoides dont la fréquence augmente : 1, 2, 3 et 5 Hz en allant du haut vers le bas. En dessous, les mêmes sinusoïdes sont représentées dans l’espace de Fourier qui décrit leur contenu en fréquence. Ces courbes sont des composants de base de la décomposition en série de Fourier, ce qui explique que tous leurs coefficients soient nuls à l’exception d’un seul – celui correspondant précisément à leur fréquence. On peut voir sur la figure que leurs amplitudes sont égales.

2 Coefficients

1 Coefficient

Amplitude des coefficients

j

k l

6 Coefficients

page 43

Sinusoïdes

Approximation d'une fonction créneau

m

n

o

Fréquence des coefficients

Approximation d’une fonction créneau par sa série de Fourier. Plus le nombre de coefficients augmente (1, 2 puis 6 de gauche à droite et de haut en bas), plus cette dernière se rapproche du modèle. Les petites oscillations visibles sur les portions « horizontales » des courbes rouges sont appelées « phénomène de Gibbs » et apparaissent chaque fois qu’une fonction discontinue (ici le créneau passe brutalement de ± π/4 à son opposé chaque demi-période) est approchée par sa série de Fourier. Le graphique en bas à droite montre comment l’amplitude des coefficients (axe vertical) décroit en fonction de la fréquence des sinusoïdes associées (axe horizontal). Ces figures illustrent parfaitement le résultat mathématique, aussi beau que peu intuitif, selon lequel une combinaison précise de sinusoïdes peut donner n’importe quelle forme.


Transformée de Fourier et... Fréquences & musique Un son est produit par les vibrations d’un objet (par exemple une corde de guitare) qui se propagent dans l’air avant d’être détectées par notre oreille. Il se caractérise par sa fréquence, ou hauteur en musique : le « la » du diapason correspond ainsi à une vibration à 440 Hz. En fait, un son n’est jamais simple : en plus du mode principal (le « fondamental »), il comporte d’autre composantes, appelées harmoniques, et dont la fréquence est le produit de celle du fondamental par un quotient de nombres entiers (3/2, 5/3, etc.). Les poids relatifs du fondamental et des harmoniques dans un son définissent son timbre, différent par exemple pour un violon ou une flûte jouant la même note. Remarquons que l’oreille humaine procède naturellement à une décomposition de Fourier des sons : nous caractérisons les sons par leur fréquence (plus aigu, plus grave) et leur intensité ; spontanément, nous percevons la superposition de plusieurs ondes sonores comme l’accord de plusieurs notes de fréquences distinctes. On peut aussi analyser les différentes harmoniques produites par un instrument à l’aide des méthodes développées par Fourier pour résoudre l’équation de la chaleur.

Toute médaille a son revers : la pensée de Fourier est tellement novatrice que les mathématiques ne sont pas assez développées à son époque pour ordonner et formaliser tous les concepts qu’il introduit et utilise, sans toujours les démontrer ni justifier leur emploi. Un exemple : les sommes de sinusoïdes élémentaires qu’il manipule sont le plus souvent infinies et leur convergence (c’est-à-dire leur existence en mathématiques) ne va pas de soi. Ce manque de rigueur et ses démonstrations pas toujours convaincantes – deux éléments essentiels en mathématiques – lui sont reprochés par ses contemporains et Fourier doit lutter de longues années pour voir son travail reconnu. Il remporte finalement un concours de l’Académie des Sciences en 1812 (sur le thème « La Propagation de la Chaleur ») avant d’en devenir membre cinq ans plus tard. En 1822 enfin il publie son ouvrage de référence, « La Théorie analytique de la chaleur ».

©Benoît Mosser/Observatoire de Paris

Dans les décennies suivantes, d’autres mathématiciens – en particulier l’école allemande, dont les figures marquantes sont Dirichlet, Riemann et Cantor – font avancer la théorie des fonctions en général et l’analyse de Fourier en particulier. Ils démontrent rigoureusement la plupart des points sur lesquels Fourier s’est appuyé et mettent de l’ordre là où c’est nécessaire. Fourier avait ainsi été trop optimiste en supposant que toute fonction périodique pouvait se décomposer en somme de sinus et de cosinus. En effet, on peut trouver des contre-exemples « exotiques » qui ne satisfont pas à cette loi, heureusement vérifiée par une très large gamme de fonctions qui inclut celles que l’on rencontre dans les problèmes concrets, par exemple en biologie ou en physique.

Représentation de la partie réelle des premiers harmoniques sphériques sur la sphère : l croit à chaque ligne et m varie de 0 à l. La valeur de la fonction est d’autant plus élevée que la couleur utilisée pour la représenter est chaude : rouge ⇔ valeur positive ; bleu ⇔ valeur négative ; blanc ⇔ valeur nulle.

page 44

CMB et séparation angulaire En raison de l’expansion de l’Univers, un degré sur la carte du CMB correspond à une distance d’environ 200 mégaparsec (Mpc) aujourd’hui. C’est la taille des superamas de galaxies, les structures les plus larges connues à ce jour. Par comparaison, un amas de galaxies et une galaxie ont des tailles caractéristiques de 10-20 Mpc et 1 Mpc respectivement. Quant à la résolution spatiale du satellite Planck, elle sera de 5 minutes d’arc environ (soit 4 fois mieux que WMAP et 50 fois mieux que COBE).

Et les anisotropies de température du CMB dans tout ça ? À la lecture de ce numéro d’Élémentaire il ne vous a sans doute pas échappé que la carte du « ciel CMB » montrant les fluctuations de température de ce rayonnement en fonction de la direction d’observation est un élément essentiel de la cosmologie actuelle. Cette image peut être vue comme une fonction périodique de deux angles (une « latitude » et une « longitude »), exactement comme un planisphère terrestre. Qui dit périodicité dit analyse de Fourier : des développements mathématiques aussi rigoureux que techniques (et sur lesquels nous jetons un voile pudique dans cet article) nous apprennent qu’une telle carte peut être décomposée comme somme de fonctions « simples », appelées poétiquement harmoniques sphériques et qui généralisent à deux dimensions les cosinus et les sinus qui nous sont plus familiers.

ÉLÉMENTAÍRE


..application au CMB

© WMAP

Ces harmoniques sphériques sont par convention numérotées avec deux nombres entiers : ℓ qui est positif ou nul et m qui varie entre – ℓ et +ℓ. Comme dans le cas de Fourier et de son équation de la chaleur, un calcul donne les poids de ces fonctions dans la carte des anisotropies du CMB. L’indice ℓ joue un rôle prépondérant. Tout d’abord on peut le relier à un angle (noté θ) par la relation approchée ℓ ~ (100 degrés) / θ. À ℓ fixé, les poids associés, notés Cℓ, quantifient l’intensité des fluctuations de température moyennes entre des points séparés angulairement de θ sur le ciel : plus ℓ est grand, plus on s’intéresse à des angles petits. Le spectre du CMB n’est autre que la variation des poids Cℓ en fonction de l’indice ℓ. Il décrit la présence (ou l’absence) de structures dans le CMB selon l’échelle considérée. La décomposition du CMB (en haut à gauche) sur les premières harmoniques sphériques : les modes sont identifiés par leur indice ℓ. L’ensemble du ciel est représenté sur ces cartes ; par convention, leur centre correspond au centre de la Voie Lactée et le plan galactique est horizontal.

Comme l’existence et la taille de structures dans le CMB peut être prédite au niveau théorique par différents modèles cosmologiques, la comparaison entre les données expérimentales et les courbes attendues permet de départager ces modèles.

Le spectre du CMB La connaissance expérimentale du spectre du CMB est résumée dans la figure ci-après ; les coefficients Cl sont mesurés soit par des satellites comme WMAP, soit par des expériences terrestres, au sol ou en ballon. Plusieurs zones sont visibles sur ce graphique. À bas ℓ (et donc grand angle), le spectre est presque plat : les distances correspondantes sont plus grandes que l’horizon au moment de la recombinaison (voir « Théorie ») et les anisotropies n’ont pas eu le temps d’évoluer : elles restent à un niveau « moyen ».

Horizon En astronomie, l’horizon correspond à la distance maximale que l’on peut observer depuis la Terre à un moment donné. Cette grandeur dépend de la vitesse de la lumière et de l’expansion de l’Univers qui étire les distances.

Pour des ℓ compris entre 100 et 1000, les angles correspondent à des distances inférieures à l’horizon et les inhomogénéités ont pu évoluer de manière significative : des « pics acoustiques » sont visibles. Ils sont le reflet de deux processus concurrents qui se produisent dans le plasma d’électrons et de protons au moment de la recombinaison. La gravitation a tendance à attirer encore plus de matière là où elle est déjà en excès tandis que les photons exercent une pression de rayonnement qui tend au contraire à repousser la matière et à diluer les anisotropies. L’importance de ces effets n’est pas la même selon l’échelle considérée : tantôt la gravité l’emporte et parvient à former des anisotropies (c’est un pic), tantôt la pression des photons aplanit une grande partie des variations (c’est un creux).

Recombinaison La recombinaison correspond au moment (environ 300 000 ans après le Big Bang) où la température de l’Univers a suffisamment baissé pour que les électrons se combinent avec des noyaux légers pour former les premiers atomes stables. À partir de ce moment, les photons, qui jusque là interagissaient sans cesse avec les particules chargées présentes en abondance dans l’Univers, peuvent se propager librement : le CMB est justement formé de ces photons et constitue une « photographie » de l’Univers au moment de la recombinaison.

ÉLÉMENTAÍRE

page 45

Enfin, à très grand ℓ (c’est-à-dire à très petite échelle angulaire), le spectre présente des oscillations qui s’atténuent progressivement. La recombinaison n’a pas été instantanée : lors de ce processus, des photons ont pu être diffusés de zones chaudes vers des zones froides à proximité, ce


Transformée de Fourier et... qui a eu pour effet d’atténuer les anisotropies aux petites échelles. Ainsi, les liens du CMB avec la présence (ou l’absence) de structures dans l’Univers à différentes échelles expliquent son rôle clé dans la validation de modèles cosmologiques. La composition exacte de matière dans l’Univers primordial (baryons, neutrinos, matière noire), les paramètres cosmologiques comme la géométrie de l’Univers, la constante de Hubble ou l’énergie noire ainsi que la répartition des anisotropies initiales contrôlent les positions et les amplitudes des pics du spectre ainsi que des « vallées » qui les séparent. La mesure précise du spectre du CMB est donc essentielle pour faire progresser les modèles cosmologiques et améliorer la connaissance de leurs paramètres... une analyse impossible à mener à bien sans les travaux de Joseph Fourier, si controversés à son époque !

Pression de rayonnement La pression de rayonnement traduit la force exercée sur une surface exposée à un rayonnement électromagnétique. Par exemple, la pression de rayonnement exercée par les rayons du Soleil sur la Terre est de l’ordre de quelques micro pascal (μPa) – à comparer avec la pression atmosphérique qui est de l’ordre de 100 000 Pa.

Spectre du CMB obtenu en combinant les mesures du satellite WMAP intégrées sur cinq ans (points gris) avec les données enregistrées par d’autres expériences terrestres (Acbar et CBI) ou en ballon (Boomerang). Les barres verticales donnent les erreurs associées à chaque point expérimental. La courbe rose correspond à la prédiction du meilleur modèle cosmologique ajusté sur les données de WMAP. On peut remarquer que les expériences terrestres et satellitaires sont complémentaires car elles sont sensibles à différentes régions du spectre du CMB.

page 46

Quelques formules pour les passionnés d’équations

ÉLÉMENTAÍRE


Accélérateur Les accélérateurs co(s)miques

À ce flux de particules neutres s’ajoutent des corpuscules chargés (pour 99% des noyaux atomiques, essentiellement de l’hydrogène et, en proportion moindre, de l’hélium ; 1% d’électrons), appelés « rayons cosmiques » de manière générique. On croyait initialement que ces particules étaient des sortes de photons, d’où l’emploi (erroné mais entré dans l’usage) du mot « rayon ». Leur étude, entamée avant la mise au point des premiers accélérateurs, se poursuit aujourd’hui avec un intérêt soutenu. Les champs magnétiques terrestre et solaire ainsi que l’atmosphère nous protègent des effets nocifs de ces rayonnements en déviant, éliminant ou atténuant les particules les plus énergétiques, potentiellement dangereuses.

© Simon Swordy

La Terre est bombardée en permanence par une multitude de particules venues de l’espace. Les plus familières sont certainement les photons émis dans le domaine du visible par le Soleil ou les autres étoiles et qui font partie de notre environnement. Mais ce sont loin d’être les seules : les progrès de la science dans la seconde moitié du XIXe siècle puis tout au long du XXe ont permis d’en découvrir beaucoup d’autres (voir Élémentaire N°3). Ainsi, le spectre électromagnétique ne se limite pas à la lumière visible ; des photons sont émis dans une très large gamme d’énergie qui va des ondes radio aux rayons X et γ en passant par les microondes, l’infrarouge, toutes les nuances de l’arc-en-ciel et l’ultraviolet. Ils sont parfois associés à des phénomènes violents, courants à l’échelle de l’Univers mais au sujet desquels les scientifiques ont encore beaucoup à apprendre : noyaux actifs de galaxie (AGNs), sursauts gamma...

Spectre du rayonnement cosmique. Ce graphique montre le nombre de particules chargées d’énergie donnée arrivant sur Terre par seconde, par m2 et provenant d’une direction donnée. Les deux échelles (énergie sur l’axe horizontal, flux de particules en vertical) sont logarithmiques, ce qui veut dire que chaque (grande) graduation correspond à une variation d’un facteur 10. Entre le haut et le bas de la courbe, l’énergie des particules est multipliée par près de mille milliards tandis que leur nombre est divisé par dix mille milliards de milliards de milliards (ouf !) environ. Si réaliser un tel spectre est un vrai défi sur le plan expérimental, interpréter le résultat obtenu se révèle tout aussi complexe. Au premier abord la courbe paraît très régulière : elle suit assez bien la forme d’une loi de puissance, représentée sur la figure par les pointillés noirs. En fait, elle comporte plusieurs structures qui reflètent la diversité des sources de rayons cosmiques ainsi que celle des mécanismes assurant leur accélération bien au-delà de ce que les accélérateurs « terrestres » les plus performants peuvent produire. Ainsi quelques particules produisant une énergie au moins égale à celle des collisions protonsprotons dans le LHC (14 TeV) arrivent chaque heure sur une surface d’un kilomètre carré.

Le spectre des rayons cosmiques Intéressons-nous plus particulièrement aux rayons cosmiques qui arrivent sur Terre de manière individuelle et incohérente, en provenance de sources multiples ; leur spectre est riche d’enseignements.

Ensuite, la variation du flux de rayons cosmiques en fonction de l’énergie est, en première approximation, simple ; chaque fois que l’énergie est multipliée par 10, le nombre de particules incidentes est divisé par un facteur compris entre 500 et 1000. Cette loi est qualitativement conforme à l’intuition : plus un rayon cosmique est énergétique, plus il doit être rare. De manière plus quantitative, on passe de plusieurs centaines de particules par mètre carré et par seconde à moins d’une par kilomètre

ÉLÉMENTAÍRE

page 47

Tout d’abord ces particules couvrent une gamme d’énergie considérable : plus de treize ordres de grandeur (un facteur dix mille milliards !) entre les deux extrémités du spectre. Les rayons cosmiques les moins énergétiques subissent l’influence du champ magnétique et du vent solaire tandis que les plus puissants créent des gerbes géantes de particules lors de leur interaction avec l’atmosphère. Les difficultés d’estimer précisément l’énergie de tels événements et leur rareté suscitent de nombreuses discussions – voire des controverses – au sein de la communauté des physiciens.


Les accélérateurs co(s)miques carré et par an quand l’énergie s’approche de sa valeur maximale. Le spectre contient également quelques structures, détaillées plus avant dans l’article.

page 48

Le match Technologie / Nature Sur le plan de l’énergie absolue, la Nature gagne sans contestation possible : le plus puissant des accélérateurs, le LHC, atteindra « seulement » des énergies de 1,4×1013 eV lors des collisions proton-proton et de 2,8×1012 eV par nucléon lorsque les noyaux d’hydrogène seront remplacés par des ions plomb quelques semaines par an. L’énergie d’un rayon cosmique, elle, peut dépasser 1019 eV ! Par contre, la technologie reprend l’avantage au niveau du nombre de particules accélérées (trois cent mille milliards de protons circuleront simultanément dans le LHC), de la fréquence de répétition des événements (40 millions de collisions par seconde, toujours au LHC) et surtout grâce à sa capacité à générer les collisions là où elles doivent se produire pour être observables dans leurs moindres détails, c’est-à-dire au centre des détecteurs ! La technologie est également plus « économique » que la Nature : grâce aux collisionneurs (voir Élémentaire N°6) l’énergie des particules circulant dans le LHC est bien inférieure à celle que doit avoir un rayon cosmique pour que sa collision avec un proton terrestre (au repos) produise autant d’énergie. - Pour obtenir une énergie de collision Ecollision = 14 TeV, l’énergie des protons du LHC doit valoir E = 7 TeV (les énergies des deux particules impliquées dans le choc s’ajoutent). - Dans le cas d’une collision rayon cosmique – proton « terrestre » au repos (d’énergie équivalente Mc2 ≈ 1 GeV), il faut E ≈ (Ecollision)2/(2Mc2) ≈ 105 TeV, soit quatorzemille fois plus !

Enfin, les rayons cosmiques les plus énergétiques sont du genre « costauds ». Leur énergie peut atteindre celle emmagasinée par une balle de tennis de 57 g lancée à 85 km/h soit 32 Joules, ou 1020 eV. Les meilleurs accélérateurs de particules, pourtant à la pointe de l’innovation technologique, font pâle figure par rapport à ces records « 100% naturels ». Comprendre les mécanismes à l’origine de telles accélérations, trouver les sources d’énergie sans lesquelles ces phénomènes ne pourraient se produire, ou découvrir de nouvelles particules dont la désintégration serait à l’origine de certains rayons cosmiques, sont trois des questions que se posent actuellement les physiciens spécialistes des « astroparticules », c’est-à-dire des particules élémentaires en provenance de l’espace. Contrairement aux photons, certains rayons cosmiques ont une charge non nulle ce qui les rend sensibles aux champs électriques et magnétiques présents dans le cosmos. Cette caractéristique importante est à l’origine de mécanismes d’accélération spécifiques . À basse énergie (jusqu’à 1010 eV environ), le flux de rayons cosmiques est sensible au vent solaire, un plasma chargé (protons, électrons, noyaux d’hélium, etc.) émis par notre étoile à une vitesse d’environ 400 km/s. Celui-ci crée un puissant champ magnétique dont l’effet se fait sentir dans tout le système solaire et qui dévie une grande partie des particules chargées incidentes. Au-delà, le flux en fonction de l’énergie E varie en « loi de puissance », c’est-à-dire qu’il est proportionnel à E-γ. Expérimentalement, γ = 2,7 jusqu’à 1015 eV environ avant de passer brusquement à 3,1 – le flux chute. Cette transition est appelée poétiquement le « genou » par les physiciens, jamais en mal d’inspiration pour donner des noms à leurs observations ! Le taux décroît donc plus fortement sur plus de trois ordres de grandeur avant de « ralentir » vers 1019 eV. Sans surprise, cette seconde structure se nomme la « cheville ». Des particules d’énergies aussi diverses sont nécessairement créées par des processus très différents. Jusque vers 1018 eV, elles sont issues de notre galaxie. Au-delà, elles viennent probablement de régions de l’Univers plus lointaines car le champ magnétique galactique ne parvient pas à maintenir de tels projectiles suffisamment longtemps dans la Voie Lactée pour qu’ils aient une chance de croiser la Terre sur leur chemin. En fait, la plupart des rayons cosmiques subissent l’influence de nombreux champs magnétiques sur leur parcours ; ceux-ci dévient leur trajectoire, rendant très difficile, voire impossible, l’identification des sources. Expérimentalement, leur distribution sur le ciel apparaît isotrope avec une précision de un pour mille. Pour les particules les plus énergétiques, la situation est différente : un article récent de l’expérience AUGER semble montrer un lien entre rayons cosmiques et noyaux actifs de galaxies. Au-delà de ces énergies, le faible nombre de rayons cosmiques et les possibles biais dans la mesure de l’énergie compliquent l’interprétation

ÉLÉMENTAÍRE


Les accélérateurs co(s)miques Un article récent de l’expérience AUGER

des résultats expérimentaux. Une contrainte forte est apportée par des calculs théoriques qui prédisent une énergie limite – appelée « coupure GZK » en l’honneur des trois physiciens Kenneth Greisen, Georgi Zatsepin et Vadem Kuzmin qui déterminèrent sa valeur en 1966. En effet, les rayons cosmiques les plus énergétiques interagissent avec les photons du CMB ce qui limite leur énergie pour peu qu’ils aient parcouru une distance suffisante. D’autre part, on ne connaît aucune source qui soit assez puissante pour produire de telles particules et suffisamment proche pour que la coupure GZK ne s’applique pas. La conjonction de ces deux éléments fait qu’on ne devrait observer aucun rayon cosmique d’énergie supérieure au seuil GZK. Or une expérience basée au Japon (AGASA) et qui a pris des données de 1990 à l’an 2000 a annoncé avoir détecté une douzaine de rayons cosmiques qui, d’après l’argument précédent, ne devraient pas exister ! La question de savoir si ces événements sont réels ou si leur énergie a été surestimée par les mesures a agité pendant plusieurs années la communauté des physiciens, dans l’attente des résultats de l’expérience Auger. Finalement publiées mi-2008, ces mesures donnent raison à une expérience antérieure, HiRes, et montrent que la coupure GZK est bien présente : le taux de particules décroît très fortement au niveau du seuil en énergie.

AUGER (voir Élémentaire N°3) a récemment publié une étude des premiers rayons cosmiques de très haute énergie enregistrés dans ses détecteurs. Sa conclusion, basée sur une trentaine d’événements d’énergie supérieure à 57 × 1018 eV environ, est que ces particules ont tendance à provenir de sources « peu éloignées » (moins de 75 Mpc, soit en-dessous de la « coupure GZK » dont nous parlons dans un encadré voisin) et que leurs directions (observables car ces rayons cosmiques sont peu déviés par les champs magnétiques du cosmos) sont proches de celles de noyaux actifs de galaxie (AGNs) déjà connus. Bien que ce résultat ne soit encore basé que sur une tendance statistique – si les sources sont isotropes, les observations d’Auger sont peu probables mais pas impossibles – il est intéressant car les AGNs sont considérés par ailleurs comme de bons candidats pour produire de tels rayons cosmiques. Cette hypothèse sera confirmée ou invalidée lorsque plus de données seront analysées dans les prochaines années, réduisant ainsi les incertitudes statistiques sur ces mesures.

Mais qu’est-ce qui fait courir les rayons cosmiques ?

ÉLÉMENTAÍRE

Projection de la sphère céleste; les cercles noirs de rayon 3,1 degrés montrent les directions d’arrivée des 27 rayons cosmiques les plus énergétiques (énergie supérieure à 57 × 1018 eV) détectés par la collaboration Auger. L’expérience est sensible à la partie du ciel en bleu : la Terre masque les autres directions. Les points rouges montrent les 472 (!) AGNs connus situés à moins de 75 millions de parsec (Mpc, 1 parsec = 3,6 annéeslumière). La comparaison précise de ces cartes indique une corrélation entre elles (à confirmer avec plus de données) ; en particulier, rayons cosmiques et noyaux actifs de galaxie semblent se concentrer autour du plan matérialisé par la ligne pointillée et qui contient un grand nombre de galaxies proches de la nôtre.

page 49

Coupure GZK À partir d’une énergie très élevée (de l’ordre de 6×1019 eV pour des protons), un rayon cosmique interagit avec les photons du rayonnement fossile. À chaque collision, des particules (les pions) sont produites et emportent une partie de l’énergie disponible – 15% environ. Lentement (une interaction tous les quinze millions d’années en moyenne) mais sûrement (une telle particule peut voyager des centaines de millions d’années) le processus se poursuit jusqu’à ce que l’énergie du rayon cosmique passe en dessous du seuil d’interaction. En conséquence, pour chaque type de rayon cosmique, il existe une distance de propagation critique (plusieurs centaines de millions d’années-lumière pour un proton) au-delà de laquelle l’énergie de la particule est forcément inférieure au seuil GZK, et ce quelle qu’ait pu être son énergie initiale.

© The Auger collaboration

Les rayons cosmiques étant chargés, ils interagissent avec les champs électromagnétiques qu’ils rencontrent sur leur parcours. Les zones où ces champs sont présents sont de taille astronomique (étoiles, nébuleuses, trous noirs etc.) ; il est donc logique que des particules microscopiques puissent parfois acquérir une énergie colossale en les traversant. Dès la fin des années 1940, Enrico Fermi s’intéresse aux mécanismes d’accélération des rayons cosmiques. En 1948 il propose


Les accélérateurs co(s)miques

DR

une théorie basée sur des chocs avec des nuages de gaz se comportant comme des miroirs magnétiques, phénomène également à l’origine des ceintures de Van Allen qui entourent la Terre. Lorsque miroir et particule vont l’un vers l’autre (se suivent), la particule accélère (ralentit) après le choc. Comme le premier type de collisions est plus probable que le second (il est plus « facile » de croiser des objets qui viennent en sens inverse que de rattraper ceux qui se déplacent dans la même direction), les rayons cosmiques gagnent de l’énergie en moyenne. La variation relative de l’énergie est alors proportionnelle au carré de la vitesse des nuages – on parle d’accélération de Fermi du second ordre. Si ce phénomène donne bien un spectre d’énergie en loi de puissance, il a également plusieurs problèmes qui le rendent irréaliste. Tout d’abord il est trop lent : les rayons cosmiques devraient être au moins dix fois plus vieux que ce qui est effectivement observé. Ensuite, il demande une énergie initiale importante (sans laquelle le mécanisme s’inverse et ralentit la particule). Enfin, il faut effectuer un ajustement fin (et donc peu naturel) des paramètres du modèle pour s’approcher du spectre en énergie observé. Malgré ces défauts, la théorie de Fermi est passée à la postérité car elle contient la bonne idée : le gain d’énergie s’obtient par réflexions multiples. À la fin des années 1970, plusieurs équipes de chercheurs ont proposé, de manière indépendante, un nouveau mécanisme d’accélération. Une particule traversant une onde de choc voit son énergie augmenter d’un terme proportionnel à la différence entre les vitesses de propagation du milieu interstellaire avant et après le choc. Si des miroirs magnétiques sont situés de part et d’autre de cette frontière, le rayon cosmique se

Effet du mécanisme GZK sur des protons cosmiques d’énergies supérieures à 1020 eV. Leur énergie décroît en fonction de la distance parcourue – comptée en Mpc – à cause des interactions avec les photons du CMB et la variation est d’autant plus rapide que l’énergie est élevée. Au-delà d’une certaine distance de propagation, quelques centaines de Mpc dans le cas du proton, les particules ont des énergies très voisines bien qu’elles aient été initialement très différentes. Cela signifie que l’énergie d’un proton qui a parcouru un trajet aussi long ne peut excéder une valeur limite, de l’ordre de 6×1019 eV et appelée « coupure GZK ». trajectoire en spirale de la particule chargée

Ceintures de Van Allen Un miroir magnétique est une configuration particulière d’un champ magnétique dont l’effet est de ralentir, puis de réfléchir les particules chargées incidentes – dont les énergies peuvent parfois augmenter par ce mécanisme. Ce phénomène peut se produire lorsque l’intensité du champ magnétique varie le long des lignes de champ, ce qui est par exemple le cas pour le champ magnétique terrestre, plus fort au niveau des pôles. Les ceintures de Van Allen, du nom du scientifique américain qui a interprété les données des premiers satellites qui les ont traversées, sont ainsi une conséquence directe de cet effet. Il s’agit de zones en forme d’anneau regroupant des particules chargées qui font sans cesse l’aller-retour entre les deux pôles de notre planète où elles sont immanquablement réfléchies par ces « miroirs ». Chaque traversée dure de l’ordre d’une seconde mais une particule donnée peut rester prisonnière de ces régions pendant plusieurs années.

Terre

Page d’un carnet de notes d’Enrico Fermi datée du 4 décembre 1948 et contenant son modèle d’accélération des rayons cosmiques par des nuages de gaz agissant comme miroirs magnétiques. Moins de quatre semaines plus tard Fermi enverra un article au journal scientifique « Physical Review » qui le publiera en avril 1949.

Bibliothèque de l’Université de Chicago.

ligne de champ magnétique

page 50

© B. Mazoyer

points miroir

Ni les hommes ni les circuits électroniques ne résisteraient à un séjour prolongé dans les ceintures de Van Allen dont la présence doit donc être prise en compte avec soin lors de la préparation de missions spatiales. Comme les pôles géographiques et magnétiques ne sont pas alignés (l’écart est d’environ 11 degrés) et que les deux axes associés (rotation et magnétique) sont décalés d’environ 450 km, les ceintures de Van Allen ne sont pas à la même altitude partout sur la Terre. Ainsi, l’endroit où ce flot de particules est le plus proche du sol est localisé à la verticale du Brésil. Cette « anomalie magnétique de l’Atlantique Sud » a nécessité la pose d’un blindage supplémentaire sur la station spatiale internationale dont l’orbite passe parfois au travers de cette région. De même, le télescope spatial Hubble et le satellite GLAST-Fermi éteignent leurs instruments lorsqu’ils traversent cette zone. Dans tous les cas, il s’agit de se protéger des dommages que pourraient causer cette densité inhabituelle de particules chargées. Pas d’inquiétude au niveau du sol : les ceintures de Van Allen ne s’approchent pas à moins d’une centaine de km d’altitude. Il n’est donc pas nécessaire de mettre un heaume de chevalier pour visiter Copacabana !

ÉLÉMENTAÍRE


les accélérateurs co(s)miques Dix fois plus vieux L’âge des rayons cosmiques est estimé en regardant l’abondance relative de noyaux radioactifs. Ceux-ci se désintègrent au cours du temps selon un rythme qui leur est propre ; comparer leurs abondances relatives permet de situer le moment où ils ont été créés.

retrouve au milieu d’une partie de flipper géante et accélère chaque fois qu’il la traverse. Les calculs montrent que cette accélération de Fermi du premier ordre (proportionnelle à la vitesse du choc et non pas à son carré) « colle » mieux à la réalité même si elle est loin d’expliquer tous les phénomènes observés. Ce domaine d’étude, au confluent de nombreuses disciplines, est actuellement en plein développement. Il progresse grâce à des avancées théoriques (mises au point de modèles complexes et prenant en compte toujours plus de phénomènes) et numériques : une fois les équations écrites, il faut encore les résoudre de manière approchée avec des ordinateurs gourmands en temps de calcul. Le but est de modéliser de manière précise les ondes de choc et, par voie de conséquence, les événements qui les produisent dans l’Univers. Pour les rayons cosmiques d’origine galactique, les ondes de choc générées par des supernovæ sont de bons « candidat-accélérateurs ». En comparant le taux de ces phénomènes (quelques-unes par siècle) à la densité de particules mesurée (de l’ordre de 1 eV/cm3), on montre qu’une dizaine de pourcents de l’énergie émise par ces explosions d’étoiles suffisent pour alimenter la production de ces particules. Le gain d’énergie peut atteindre 1000 eV/s pendant plusieurs centaines d’années d’affilée, ce qui est beaucoup mais insuffisant pour rendre compte de l’ensemble du spectre des rayons cosmiques. D’autres mécanismes doivent y contribuer mais les observations ne permettent pas actuellement de trancher entre les candidats potentiels. Le diagramme de Hillas est une manière commode de caractériser les différentes sources possibles au moyen de leur champ magnétique B et de leur taille L. En effet, l’énergie apportée à un rayon cosmique de charge q est forcément inférieure au produit qBcL, l’énergie maximale, où c est la vitesse de la lumière dans le vide. En faisant des hypothèses sur le rendement du processus, on obtient les relations que doivent satisfaire B et L pour fournir des énergies données – des droites en échelle doublement logarithmique. En plus des noyaux actifs de galaxie déjà mentionnés plus haut dans l’article, les sursauts gamma (voir « ICPACKOI »), voire les étoiles à neutrons, pourraient accélérer une partie des rayons cosmiques de (très) haute énergie.

V v

© B. Mazoyer

v + 2V

Analogie entre le mécanisme d’accélération de Fermi et le tennis.

page 51

ÉLÉMENTAÍRE

© B. Mazoyer

Énergie maximale : une particule de charge q et d’énergie E, plongée dans un champ magnétique B, décrit un cercle dans le plan perpendiculaire à l’axe de ce champ. Le rayon R de cette trajectoire est donné par R=E/qBc. Ce mouvement se fait sans gain d’énergie. Le champ B, présent dans la zone d’accélération sans en être responsable, limite l’énergie acquise par la particule à cause de la relation écrite cidessus. Pour que l’accélération ait lieu, il faut que le rayon R de la trajectoire reste plus petit que la taille caractéristique L de la zone où ce processus a lieu. On obtient alors directement la valeur maximale Emax de l’énergie : R ≤ L => E ≤ Emax= qBcL.

Diagramme de Hillas montrant la relation entre champ magnétique et taille pour différentes sources potentielles de rayons cosmiques de haute énergie (les deux échelles sont logarithmiques). Les droites rouges illustrent l’exemple de protons d’énergie 1020 eV (trait plein) ou 1021 eV (pointillés) ; la droite verte montre le cas d’ions Fer d’énergie 1021 eV.


Les accélérateurs co(s)miques

Une onde de choc est une perturbation qui se propage dans un milieu. Les deux régions séparées par cette zone (en amont et en aval du choc) ont des propriétés très différentes. Ainsi lors d’une explosion, une bulle de gaz à très haute pression se forme tandis que l’air extérieur reste à la pression atmosphérique. D’autres exemples d’ondes de choc sont le « bang » supersonique émis par un avion lorsqu’il passe le mur du son ou la lumière Cerenkov (Élémentaire N°4) qui apparaît lorsqu’une particule chargée traverse un milieu à une vitesse supérieure à celle qu’aurait la lumière dans ce matériau. Puisque nous parlons beaucoup de champs magnétiques dans l’article, on peut également mentionner la zone où le vent solaire rencontre le champ magnétique terrestre. Cette onde de choc a été observée pour la première fois le 7 octobre 1962 à 15h46 temps universel par Mariner 2, alors en route pour Vénus. Comme le montre le graphique ci-dessous, le champ magnétique mesuré par la sonde spatiale augmente brutalement lorsque celle-ci quitte le bouclier magnétique terrestre pour se retrouver avec le vent solaire turbulent de face.

© MPIfR / A. Jessner

Ce photomontage présente d’une part (à gauche) une image de la nébuleuse du Crabe dans la constellation du Taureau et d’autre part (à droite) des photographies (ordonnées par colonne) illustrant le cycle d’émission du pulsar central, une étoile à neutrons créé par l’explosion d’une supernova en 1054. Selon l’instant de la prise de vue, le pulsar (au-dessous et à droite de l’étoile fixe) est « allumé » ou « éteint ». Tous ces clichés ont été pris avec le télescope Mayall de 4 mètres de l’observatoire du Kitt Peak (Arizona).

Et les particules neutres ?

© The HESS Collaboration

Au contraire des particules chargées, sans cesse soumises à l’action de champs électriques et magnétiques, les particules neutres se propagent en ligne droite sans réellement subir l’influence du milieu interstellaire. Elles apportent donc des témoignages plus fidèles sur leurs sources et les mécanismes d’accélération associés. Les photons (rayons X ou gamma) et les neutrinos sont des produits secondaires d’interaction entre protons tandis que les électrons peuvent également rayonner des photons par effet synchrotron lorsque leurs trajectoires sont courbées par des champs magnétiques. De nombreuses expériences, déjà opérationnelles ou encore en préparation, sont dédiées à la détection des particules neutres de haute énergie. Pour les photons, il faut soit aller dans l’espace (satellite GLAST-Fermi, voir «ICPACKOI») soit utiliser un réseau d’antennes au sol (télescope HESS en Namibie). Pour les neutrinos, toujours aussi discrets, il faut de grands volumes d’eau (projet ANTARES au large de Toulon, voir Élémentaire N°5) ou de glace (expériences Amanda puis IceCube, voir Élémentaire N°3). Observées de tous côtés, les particules énergétiques qui nous arrivent en provenance de l’espace finiront bien par dévoiler leurs secrets.

page 52

Étoile à neutrons Comme son nom l’indique, il s’agit d’un astre composé presque exclusivement de neutrons. Une étoile à neutrons a un rayon d’une dizaine de kilomètres et « pèse » environ 1,4 masse solaire : sa densité (de l’ordre du milliard de tonnes/cm3) est donc phénoménale. Elle résulte de l’effondrement gravitationnel d’une étoile en fin de vie qui a fini de brûler tout son combustible nucléaire : une supernova.

HESS « High Energy Stereoscopic System » (HESS) est un réseau de télescopes situés en Namibie et qui utilise la lumière Cerenkov produite par les gerbes de particules chargées qui apparaissent lorsqu’un photon très énergétique interagit dans l’atmosphère. HESS étudie ainsi en détail les sources connues de rayons gamma (comme le pulsar du Crabe) et permet également d’en découvrir de nouvelles grâce à son excellente sensibilité.

ÉLÉMENTAÍRE


Découvertes Le rayonnement fossile Y’a de la friture sur la ligne ...

© Bell Laboratories

Printemps 1965 : Arno Penzias et Robert Wilson sont perplexes. Voilà bientôt un an que l’instrument qu’ils utilisent pour des observations de radioastronomie enregistre un signal d’origine inconnue. L’antenne de Crawford Hill (New Jersey, États-Unis) a été construite en 1960 pour recevoir les données des premiers satellites de télécommunication américains « Echo » (de simples ballons métalliques réfléchissant des ondes radio envoyées depuis le sol). Sa forme de cornet lui permet de se Robert Wilson (à gauche) et Arno Penzias (à droite) focaliser sur une petite région du ciel et de minimiser les signaux parasites posant en 1975 devant l’antenne de Crawford Hill, reçus des autres directions. Les ondes radio venues de l’espace étant très instrument de leur découverte. faibles, elles sont amplifiées dans des circuits électriques refroidis à quelques degrés au-dessus du zéro absolu grâce à de l’hélium liquide La famille d’Arno Penzias fuit Munich peu de temps après afin de limiter leur bruit. Penzias et Wilson ajoutent aux instruments sa naissance en 1933 et s’installe à New York. Devenu déjà existants un système leur permettant de tester séparément les citoyen américain en 1946, Penzias étudie à l’Université performances de l’antenne et de l’électronique. Le bruit inattendu observé par Penzias et Wilson dégrade les performances de leur détecteur et l’empêche d’atteindre la sensibilité espérée. Cette perturbation se traduit par une élévation de la « température » mesurée. L’un des avantages de cette description concise est que la température mesurée dans le cas où deux contributions sont simultanément détectées (par exemple une émission radio en provenance de l’espace et un signal parasite dû à une imperfection de l’instrument) est simplement la somme des deux températures individuelles.

L’altitude de demi-absorption est celle à laquelle le rayonnement arrivant sur Terre est diminué par deux. On voit que le rayonnement ultraviolet est absorbé à haute altitude alors que l’atmosphère est quasi transparente au visible et aux micro-ondes.

ÉLÉMENTAÍRE

Température : si leur antenne mesure une énergie E, il est commode de parler de sa température équivalente T, exprimée en Kelvin. Les deux quantités sont reliées par la relation E = k × T où k= 8,62×10−5 eV K−1 est la constante de Boltzmann. Une température de 3 K correspond donc à une énergie de 0,00026 eV.

Radioastronomie Il s’agit d’une branche de l’astronomie dédiée à l’étude des émissions radio des corps célestes. Bien que très récente (la première observation d’un signal radio en provenance du centre galactique date de 1933), elle a permis de nombreuses découvertes : le CMB bien sûr mais également les pulsars en 1967. En effet, la gamme de fréquence d’un signal électromagnétique dépend du processus physique à l’origine de l’émission. Et donc chaque nouveau mode d’observation du ciel (optique, radio, infrarouge, rayons X, etc...) améliore notre connaissance de l’Univers. Comparées à celles de la lumière visible, les longueurs d’onde radio sont grandes : de 400 à 700 nanomètres dans le premier cas, du millimètre au mètre dans l’autre. Or la résolution d’un télescope (c’est-à-dire la taille angulaire minimale de la région du ciel associée à un signal donné) varie comme le rapport entre le diamètre de l’instrument et la longueur d’onde observée. Une antenne radio doit donc être très étendue pour être performante : ainsi, le radiotélescope d’Arecibo situé sur l’île de Porto Rico a un diamètre de 305 mètres. Heureusement, l’atmosphère est transparente pour les ondes radio – comme le montre la figure ci-contre – ce qui permet d’installer de tels détecteurs sur la Terre plutôt qu’en orbite. page 53

© COBE

Bruit : tout circuit électronique ajoute une contribution parasite aux signaux physiques qu’il reçoit et transforme. Le bruit thermique, dû au mouvement aléatoire des électrons dans les conducteurs peut être réduit en abaissant la température de l’ensemble. D’autres bruits, également réductibles, dépendent de la qualité de fabrication du circuit et de sa mise au point.

de Columbia où il soutient son doctorat en 1962. Il rejoint ensuite les Laboratoires Bell (où ont été inventé entre autres le transistor électronique, le système d’exploitation Unix dont Linux dérive, ou encore les langages de programmation C et C++) et commence à travailler sur des récepteurs micro-ondes cryogéniques avec Robert Woodrow Wilson. Ce dernier, de trois ans son cadet, a fait ses études au « California Institute of Technology » à Pasadena (Californie). Tous deux reçoivent en 1978 le prix Nobel de physique pour leur mise en évidence expérimentale du rayonnement fossile.


Le rayonnement fossile

© R. Wilson

La calibration utilisant un cylindre métallique « étalon » également refroidi à l’hélium liquide (et dont le bruit thermique est connu avec précision) donne des résultats satisfaisants : la température détectée (autour de 4K) correspond à la valeur attendue, ce qui démontre la qualité des systèmes de lecture et de refroidissement. En effet, un défaut au niveau de l’un ou l’autre de ces éléments se serait forcément traduit par une mesure plus élevée. Les deux chercheurs s’attendent donc à trouver une température de 3,3 K au niveau de l’antenne, dominée par les radiations venant de l’atmosphère (2,3 K) et de l’antenne ou du sol (1 K). À leur grande surprise, la valeur mesurée est bien supérieure : 7,5 K ! Si la différence n’est pas énorme en absolu, Penzias et Wilson ont acquis au fil des mois une compréhension très détaillée de leur détecteur qui ne laisse pas place au doute : l’excès de température est réel et donc, quelque chose, quelque part, le produit. D’accord, mais quoi et où ? Une après l’autre les explications « logiques » sont réfutées. Le bruit mystérieux ne dépend pas du pointage de l’antenne ni de l’heure de la mesure, ni même des saisons. Il n’est donc pas d’origine humaine et, en particulier, il ne vient pas de la ville de New York toute proche. De plus, le mouvement de la Terre autour du Soleil induirait forcément une modulation du signal si la source était dans le système solaire. Enfin, cette dernière n’est pas non plus dans la Voie Lactée : les variations de bruit observées en direction du plan galactique sont compatibles avec l’excès de signal attendu en provenance de ces régions, denses et donc riches en émetteurs potentiels d’onde radio.

Sensibilité de l’antenne de Crawford Hill en fonction de l’angle du signal incident – indiqué en degrés sur les quatre côtés de la figure, le 0° correspondant à la direction vers laquelle pointe le cornet (voir schéma ci-dessous). Chaque cercle concentrique indique une réduction d’un facteur dix de la sensibilité. Celle-ci est donc maximale dans l’axe du cornet et décroît très vite lorsqu’on s’en éloigne : à ± 10° elle n’est plus qu’1/100 000ème de l’optimum. L’antenne est donc très directionnelle, contrairement à une antenne isotrope dont le diagramme idéal (sensibilité identique dans toutes les directions) est matérialisé par le cercle en gras au niveau 40.

D’autres hypothèses sont alors envisagées. La plus fameuse implique un malheureux couple de pigeons qui ont niché dans un recoin abrité de l’antenne. Découverts lors d’une inspection de la structure, ils sont chassés et le guano – « un matériau diélectrique blanc » d’après Penzias – qu’ils avaient déposé est nettoyé avec soin. Sans succès : aucune différence significative n’est observée entre avant et après la phase de ramonage ... La possibilité que le bruit soit la conséquence d’une explosion nucléaire à haute altitude datant de 1962 est également envisagée : cet essai nucléaire a produit un grand nombre d’ions dans les couches les plus élevées de l’atmosphère dont la contribution au signal de l’antenne aurait pu ne pas avoir été bien prise en compte. Là encore, l’absence de variation de la mesure sur une longue durée (alors que cet excès d’ions diminue avec le temps) rend l’hypothèse caduque.

guide d'ondes

signal

© B. Mazoyer

cornet évasé

MIT et Princeton Le « Massachusetts Institute of Technology » (MIT) et l’Université de Princeton (New Jersey) sont deux des établissements d’enseignement supérieur les plus prestigieux de la côte Est des États-Unis avec Harvard. Ils ont été fondés en 1861 et 1764 respectivement.

page 54

« Les gars, on s’est fait griller ! » Vient alors le petit coup de pouce du destin qui va mener nos deux chercheurs au prix Nobel de physique 1978 : leur signal parasite est en fait une avancée scientifique majeure qui n’attend que son interprétation. Au détour d’une conversation, Arno Penzias mentionne à Bernard Burke, professeur au MIT, l’existence de ce bruit inexpliqué. Ce dernier lui explique alors que des travaux théoriques récents, menés à l’université de Princeton autour de Robert Dicke et Jim Peebles, prédisent l’existence d’une radiation résiduelle à une température d’environ 10K qui emplirait

ÉLÉMENTAÍRE


Le rayonnement fossile tout l’espace et serait un témoignage des premiers instants de l’Univers. Penzias et Wilson se font envoyer l’article en question et commencent à réaliser la portée de leur découverte. Ils invitent alors les chercheurs de Princeton à leur rendre visite et les convainquent sans peine de la qualité de leurs mesures. Décision est alors prise de publier deux articles dans le même numéro de la revue « Astrophysical Journal », soumis respectivement les 7 et 13 mai 1965 : • un article théorique signé par le groupe de Princeton, présentant le rayonnement fossile micro-ondes (CMB pour «cosmic microwave background») et expliquant son origine ; • un article expérimental, écrit par Penzias et Wilson, « Mesure d’un excès de température d’antenne à 4080 MHz », décrivant l’excès de température enregistré dans l’antenne du New Jersey (3,5 ± 1,1 K, isotrope au niveau de 10%) sans mentionner ses implications possibles en cosmologie.

Rayonnement (CMB)

page 55

Des recherches dans des publications plus anciennes montrent alors que la première indication, non pas du CMB mais d’un excès d’énergie à une température voisine de 3 K, est en fait cachée dans des spectres d’émission du milieu interstellaire ! Ces observations vieilles de près de trente ans montrent en effet la présence d’une raie de cyanure dans le milieu interstellaire (une molécule formée d’un atome de carbone et d’un atome d’azote, produite comme plus de cent autres par des réactions chimiques dans l’Univers). Les atomes absorbent l’énergie de photons du CMB dont l’énergie correspond précisément à la différence entre le fondamental et le premier niveau excité du cyanure. Puis ils reviennent au repos en ré-émettant un photon de même énergie. Les photons forment la raie du spectre d’émission détectée sur Terre, lequel porte donc la marque du CMB.

ÉLÉMENTAÍRE

micro-ondes

Après le Big Bang, l’Univers est resté opaque 380 000 ans environ : avant cette date, sa température est telle que les photons qu’il contient interagissent continuellement avec la matière ionisée ce qui les empêche de voyager sur de grandes distances et donc de nous apporter leur « lumière ». À mesure que l’Univers se dilate, sa température diminue. Lorsque les photons n’ont plus assez d’énergie pour ioniser l’atome le plus simple, l’hydrogène, ils se découplent de la matière et l’Univers devient transparent (voir « Théorie »). C’est l’empreinte de cet événement que Penzias et Wilson ont découvert dans leur antenne. L’expansion de l’Univers s’étant poursuivie pendant plus de treize milliards d’années, ces photons ont « refroidi » jusqu’à 2,7 K. L’émission du CMB correspond donc à un instant bien précis de l’histoire de l’Univers. Si nous l’observons en permanence aujourd’hui, c’est parce qu’il s’est produit au même moment en chaque point de l’espace. Comme l’Univers est très étendu, il y a toujours une partie de la « surface de dernière diffusion » située à une distance telle que les photons émis de cet endroit nous parviennent maintenant. Le même genre de phénomène serait observé par une personne placée au milieu d’une foule immense dont tous les membres hurleraient le même mot au même moment. Bien que le cri ne dure qu’un instant, la personne entendrait un cri continu qui proviendrait sans cesse d’un endroit plus éloigné.

La petite histoire veut que Dicke, apprenant la découverte de Penzias et Wilson, ait dit à ses collaborateurs : « les gars, on s’est fait griller ». Si sa remarque s’adresse dans son esprit uniquement à son équipe – laquelle construit une antenne précisément pour détecter ce rayonnement, ce qu’elle parvient d’ailleurs à faire au mois de décembre de la même année – elle a une portée plus large. L’excès de température était en fait déjà présent (mais presque invisible) dans des données enregistrées à Crawford Hill lors des expériences de communication avec les satellites Echo : au lieu d’une valeur attendue de 18,9 ± 3,0 K pour la température de l’antenne, les mesures avaient donné 22,2 ± 2,2 K. Comme l’excès était dans la fourchette d’erreur attendue, il ne fut pas jugé significatif. De toute manière le dispositif expérimental ne permettait pas de séparer les bruits de l’antenne de ceux de l’électronique, ce qui rendait impossible l’identification de sa source. Cet épisode montre bien le mérite de Penzias et Wilson : par leur compréhension de l’instrument et la précision de leurs mesures, ils ont préparé le terrain pour leur découverte... fortuite !

Les fondements théoriques du CMB sont également assez anciens. Les pionniers dans ce domaine sont Gamov, Alpher et Herman qui « inventent » le CMB entre 1948 et 1950 et estiment sa température : 50, ensuite 5 puis 28K. Par contre, il n’est pas encore clair pour eux que ce rayonnement

fossile


Le rayonnement fossile

Comparaison des spectres de corps noir aux températures de 5777 K (Soleil), 300 K et 2,73 K (CMB) en fonction de la longueur d’onde, exprimée en microns. Les deux échelles sont logarithmiques ce qui signifie que chaque variation d’une unité correspond à un changement d’un facteur dix. L’émission du CMB est donc très faible.

doit être isotrope et présent partout dans l’Univers. Leurs travaux sont redécouverts indépendamment par Zel’dovich et Dicke au début des années 1960. En 1964, Dorochkevitch et Novikov déterminent les principales propriétés du CMB et soulignent le potentiel de ... l’antenne Bell de Crawford Hill pour sa recherche ! L’observation de Penzias et Wilson l’année suivante retient donc immédiatement l’attention de la communauté des chercheurs et leurs mesures sont immédiatement interprétées et comparées aux prédictions alors disponibles.

Les brillants résultats de COBE L’une des prédictions fondamentales de la théorie du CMB est que son spectre, c’est-à-dire son intensité en fonction de la longueur d’onde (ou de la fréquence), est celle d’un corps noir, caractérisé uniquement par sa température TCMB. La grande majorité des mesures effectuées durant les vingt années qui suivent la découverte du CMB confortent cette hypothèse et donnent TCMB ≈ 2,7K. La confirmation vient en 1990 lorsque les mesures de l’instrument FIRAS embarqué sur le satellite COBE sont publiées : TCMB = 2,725 ± 0,002K et le spectre est en parfait accord avec celui d’un corps noir. Si elles existent, les déviations relatives par rapport à cette courbe sont inférieures à 50 millionièmes, ce qui fait du CMB le meilleur corps noir connu aujourd’hui. Deux ans plus tard, les scientifiques en charge de l’analyse des données de DMR, un autre détecteur emporté par COBE, rendent publique la première carte des asymétries du CMB, c’est-à-dire des différences de température du rayonnement en fonction de la direction d’observation. Les premières mesures de Penzias et Wilson montraient un rayonnement isotrope, aux erreurs de mesure près. Et de fait, les anisotropies sont minuscules : au niveau du millième de pourcent, une fois soustraites les contributions Doppler liées au mouvement de la Terre autour du Soleil et de celui-ci par rapport au CMB, qui sont de l’ordre du dixième de pourcent. Comprendre l’origine de ces variations de température et expliquer leur amplitude est une question très importante pour la Cosmologie. En particulier, il est intéressant de comparer les températures dans deux directions données en fonction de l’angle qui les sépare et de moyenner ces informations sur tout le ciel. On obtient alors le spectre angulaire des Intensité du CMB en fonction de la longueur fluctuations de température d’onde, mesurée par le satellite COBE. C’est du CMB qui est, lui aussi, à l’heure actuelle le spectre expérimental se rapprochant le plus de celui d’un corps noir riche d’enseignements.

page 56

théorique.

ÉLÉMENTAÍRE

© COBE

© COBE

Corps noir C’est un objet physique idéal qui absorbe la totalité du rayonnement qu’il reçoit sans rien réfléchir ni transmettre – d’où son qualificatif : « noir ». Un corps noir émet un rayonnement caractéristique, entièrement déterminé par un paramètre unique, appelé température. Le CMB est, à l’heure actuelle, le phénomène qui se rapproche le plus d’un corps noir parfait car l’Univers était à l’équilibre thermique au moment où ce rayonnement a été émis. Plus prosaïquement, un four maintenu à température constante est un bon exemple de « quasi-corps noir ». Les étoiles peuvent également être décrites comme des corps noirs, ce qui permet de déterminer avec une assez bonne précision leur température de surface. Pour la petite histoire, les nombreux travaux théoriques menés dans le dernier quart du XIXe siècle pour expliquer la forme du spectre du corps noir ont ouvert la voie vers « l’invention » du photon et la mécanique quantique.


Le rayonnement fossile

© COBE © COBE

Avec la mesure du spectre de corps noir du CMB et la mise en évidence des anisotropies de température, COBE apparaît vraiment comme une expérience fondatrice. Le jury du prix Nobel de physique 2006 a d’ailleurs récompensé George Smoot et John Mather (responsables respectivement des instruments DMR et FIRAS) en justifiant ainsi son choix : « le projet COBE a marqué l’entrée de la cosmologie parmi les sciences de précision ». Par contre, ce sont ses successeurs qui ont mené à bien la détermination précise du spectre angulaire du CMB et son interprétation cosmologique : tout d’abord des expériences au sol ou en ballon (comme BOOMERANG ou ARCHEOPS), puis le satellite WMAP, dont la précision et la variété des mesures ont surpassé tous les résultats obtenus jusqu’alors.

Les mesures de précision de WMAP La NASA lance en 2001 le satellite WMAP. L’expérience a publié en février 2003 ses premiers résultats basés sur les données accumulées la première année. En 2006 et 2008, ils ont été mis à jour en utilisant trois, puis cinq années d’observation. Toujours en fonctionnement, WMAP devrait continuer à cartographier le CMB jusqu’à l’automne 2009. Contrairement à COBE, WMAP n’est pas en orbite autour de la Terre : il est positionné au second point de Lagrange (L2) du système Terre-Soleil (voir « Expérience ») qu’il a rejoint après un voyage de trois mois. Cet emplacement a été choisi pour minimiser les émissions parasites du système solaire et pour lui assurer une excellente stabilité thermique. Afin d’avoir accès à l’ensemble du ciel sans jamais regarder en direction du Soleil, WMAP décrit une orbite complexe dans la zone de ce point de Lagrange. De plus, il fait un tour sur lui-même toutes les deux minutes et neuf secondes tandis que son axe de rotation précesse à une vitesse d’un tour par heure ! Toutes ces caractéristiques permettent au satellite de couvrir l’ensemble du ciel en six mois. Sa calibration repose d’une part sur la mesure de l’anisotropie de température due au mouvement propre du Soleil et d’autre part sur les signaux produits par les passages de Jupiter dans la visée des détecteurs. Dix paires de télescopes observent en permanence le ciel dans vingt directions, deux à deux opposées ; ce sont les différences de température qui sont mesurées. Cinq bandes de fréquence allant de 23 à 94 GHz servent aux observations, ce qui permet de quantifier et de soustraire les bruits de fond de notre galaxie et des sources extragalactiques qui contaminent le CMB. En effet, le signal et les bruits de fond ont des caractéristiques différentes selon la fréquence et ces variations sont utilisées pour séparer le bon grain de l’ivraie. Plusieurs méthodes permettent d’optimiser cette phase de soustraction de bruit, cruciale pour obtenir la carte des anisotropies ainsi que leur spectre angulaire. L’instrument est maintenu à une température constante tandis que la puissance nécessaire aux instruments (419 Watts) est fournie par des panneaux situés sur le « bouclier solaire » de cinq mètres de diamètre qui isole également les télescopes du Soleil. page 57

ÉLÉMENTAÍRE

Anisotropies du CMB (écart par rapport à la température moyenne) mesurées par l’instrument DMR du satellite COBE (les zones en rouge sont plus chaudes que les zones en bleu, la différence étant de quelques dizaines de millionièmes de degrés). Cette carte est une sorte de « photo » de l’Univers prise alors qu’il n’avait que 380 000 ans environ.

© COBE

COBE Le satellite COBE (« Cosmic Background Explorer ») est lancé par la NASA en novembre 1989, près de quinze ans après les premières études de prospective d’un tel engin. Il emporte deux instruments consacrés à l’étude du CMB. ■ FIRAS (« Far-InfraRed Absolute Spectro-photometer ») ; il a mesuré le spectre d’émission du CMB et vérifié qu’il s’agissait bien de celui d’un corps noir. ■ DMR (« Differential Microwave Radiometer ») ; il a cartographié les anisotropies du CMB dans le ciel en fonction de la direction de visée.


Le rayonnement fossile Les paramètres mesurés par WMAP sont présentés dans l’article « Théorie ». Ici, on peut simplement dire qu’ils concernent son âge, son évolution (de la phase d’inflation initiale à l’expansion actuelle) ou encore sa composition. À mesure que la quantité de données analysée augmente et que son traitement s’améliore, les mesures se font plus précises et plus complètes : la moisson de WMAP n’est pas encore terminée !

© WMAP

Le futur : Planck et la mesure de la polarisation du CMB

Le satellite WMAP, « Wilkinson Microwave Anisotropy Probe », en français « observatoire Wilkinson de l’anisotropie du rayonnement micro-ondes », baptisé en l’honneur de David Wilkinson, un membre de la collaboration MAP décédé en septembre 2002 et qui travaillait déjà sur le CMB dans le groupe de Dicke à Princeton près de quarante ans auparavant.

© WMAP

Vous en saurez plus en lisant l’article de ce numéro consacré à ce satellite, qui a été lancé le 14 mai 2009. Le satellite Planck améliorera les résultats de WMAP à toutes les échelles angulaires. Il réalisera également les premières mesures détaillées de la polarisation du CMB (fluctuations au niveau du microkelvin), fondamentales pour comprendre encore mieux les premiers instants de l’Univers : c’est la nouvelle frontière du rayonnement fossile !

page 58

Comparaison des mesures de Penzias et Wilson (en haut), COBE (au milieu) et WMAP (en bas) respectivement. WMAP est quarante-cinq fois plus sensible que COBE et a une résolution angulaire trente-trois fois meilleure. Ses cartes du ciel comptent un peu plus de trois millions de pixels. Cette définition, qui pourrait faire sourire étant données les performances actuelles des appareils photo numériques, est en fait remarquable vue la complexité des processus mis en œuvre (voir « Expérience »). La bande horizontale « rouge » correspond au rayonnement de la galaxie et a été soustraite dans l’image cicontre.

Après le succès des expériences COBE et WMAP, que nous reste-t-il à apprendre du CMB ? Beaucoup de choses en fait : des scientifiques américains et européens ont mis la dernière main à l’expérience de la prochaine génération : Planck, du nom du physicien allemand Max Planck dont les travaux sur la compréhension du spectre du corps noir ouvrirent, à la toute fin du XIXe siècle, la voie vers la mécanique quantique.

Carte des anisotropies du CMB obtenue par WMAP après analyse de cinq ans de données. Tous les bruits de fond sont ici soustraits pour ne conserver que les anisotropies du CMB.

ÉLÉMENTAÍRE


Théorie Le modèle cosmologique standard Principe d’équivalence Le principe d’équivalence, postulé par Einstein, stipule que tout champ de gravité est localement indiscernable d’une accélération. Ainsi, quand vous prenez un ascenseur pour monter quelques étages, vous ressentez au départ une accélération qui vous donne l’impression de peser plus lourd. Imaginons maintenant une tour très haute où circule un ascenseur en accélération constante. D’après le principe d’équivalence, il est impossible à un physicien réalisant des expériences dans cet ascenseur de déterminer s’il est en accélération constante ou bien s’il est au repos dans un champ de pesanteur : dans les deux cas, la pomme qu’il jette en l’air lui retombe sur la tête suivant la même trajectoire ! À l’inverse, le principe d’équivalence implique qu’on peut annuler un champ de pesanteur en appliquant au système qui le subit une accélération égale et opposée. Ainsi, quand l’ascenseur décélère à la fin de son ascension pour s’arrêter à l’étage de votre choix, vous avez l’impression de moins peser. Pour un champ de gravité non uniforme, qui dépend de l’endroit où l’on se trouve, comme le champ de gravité terrestre, les choses sont plus complexes, mais aussi plus intéressantes quant à leurs conséquences : le champ de pesanteur est alors équivalent à une accélération différente en chaque point de l’espace. Or toute accélération est mathématiquement équivalente à un changement de coordonnées d’espace et de temps de sorte qu’un champ gravitationnel est équivalent à une déformation de l’espace-temps : on retrouve ainsi les idées de la relativité générale.

Une galaxie qui s’enfuit dans la nuit En 1916, Albert Einstein élabore sa théorie de la relativité générale, proposant une nouvelle vision de la gravité, basée sur le principe d’équivalence. Un objet déforme l’espace-temps à sa proximité, et ce d’autant plus qu’il est massif. Un corps qui passe à sa proximité ressent cette déformation et voit sa trajectoire modifiée, exactement comme s’il était attiré par sa gravité... Si la théorie d’Einstein permet de retrouver la formulation de Newton dans la plupart des cas (en particulier la mécanique céleste, qui décrit le mouvement des planètes autour du Soleil), elle prédit certains écarts notables, en particulier pour des objets très massifs, ou se déplaçant à des vitesses proches de celle de la lumière.

ÉLÉMENTAÍRE

DR

Einstein n’apprécie guère les idées de Friedmann et de Lemaître – il affirme même à ce dernier : « Vos calculs sont corrects, mais votre physique est abominable ». En effet, le modèle de Lemaître est celui d’un univers en expansion, né d’une « graine » initiale (que Lemaître appelle « atome primitif ») – une vision en opposition

Photographie en négatif d’une éclipse de Soleil prise par l’astronome anglais Arthur Eddington en 1919 sur l’île de Principe, dans le golfe de Guinée. La position des étoiles apparaissant à proximité du Soleil est indiquée par une paire de fins traits horizontaux (combien en voyez-vous sur cette photo ?). Cette position est légèrement décalée par rapport à la position réelle des étoiles : la présence (massive !) du Soleil courbe la trajectoire des rayons issus des étoiles, en accord qualitatif et quantitatif avec la théorie de la relativité générale. page 59

Tandis que les astronomes cherchent à vérifier ou infirmer sa théorie, en particulier en étudiant des clichés d’éclipses du Soleil, Einstein met déjà en pratique ses toutes nouvelles équations en les appliquant à l’Univers dans son ensemble, ce qui requiert une description relativiste de la gravitation. Il ouvre ainsi un nouveau domaine, la cosmologie relativiste, qui est le cadre de toutes les théories cosmologiques actuelles. Mais si Einstein a bel et bien montré ce que la théorie de la relativité générale pouvait apporter à la cosmologie, son modèle d’un univers statique, où rien ne bouge, va s’avérer complètement erroné. Il faudra attendre les années 20 pour que deux physiciens, le soviétique Alexander Friedmann et le belge Georges Lemaître, proposent indépendamment une solution alternative, le premier en 1922, le second en 1927. Comment s’y prennent-ils ? Ils ajoutent à l’idée d’un Univers homogène et isotrope sur les grandes échelles (voir « Apéritif ») un ingrédient supplémentaire : il peut se contracter ou s’étendre au fil du temps. Prenez un ballon sur lequel vous avez dessiné des points, puis gonflez-le : les points s’écartent progressivement les uns des autres, non pas du fait de leur mouvement propre, mais simplement parce que la surface du ballon – l’espace – s’étire. Friedmann et Lemaître imaginent que l’Univers s’étire d’une manière similaire, et écrivent des équations dérivées de la relativité générale pour montrer comment le contenu en matière de cet univers « simplifié » affecte son expansion ou sa contraction.


Le modèle

Effet Doppler La sirène d’une ambulance semble plus aiguë lorsqu’elle roule dans votre direction, et plus grave quand elle s’éloigne de vous. Ce phénomène se rencontre plus généralement quand une source émet des ondes tout en se déplaçant par rapport à un observateur – y compris quand il s’agit d’ondes lumineuses. L’effet Doppler permet de déterminer la vitesse de déplacement de la source par rapport à l’observateur.

avec le modèle statique préféré alors par Einstein. Lemaître tire de son modèle une conséquence simple et pourtant remarquable. Remplacez les points de notre ballon par des galaxies. Lorsqu’on gonfle le ballon, ces galaxies s’éloignent les unes des autres, et ce d’autant plus vite qu’elles sont éloignées.

DR

Depuis les années 1917-18, on soupçonne une telle fuite des galaxies. En effet, plusieurs astronomes analysent la lumière provenant de galaxies lointaines. Sur son parcours, celle-ci traverse des nuages de gaz qui absorbent certaines fréquences bien précises (lesquelles dépendent de la composition du gaz). En décomposant le spectre de la lumière reçue, on observe donc des raies noires dites raies d’absorption. Mais les raies observées par nos astronomes ne se trouvent pas là où elles devraient être, elles sont systématiquement à des fréquences plus basses que prévues, on dit qu’elles sont « décalées vers le rouge ». Parmi les nombreuses explications proposées, l’une des plus naturelles consiste à penser que ces galaxies s’éloignent de nous, ce qui engendre le décalage observé – aussi appelé « redshift » – par effet Doppler. En 1929, l’astronome américain Edwin Hubble va plus loin. En observant certaines étoiles, les Céphéides, il détermine la distance de 46 galaxies dont le décalage vers le rouge est connu. Avec Milton Humason, il conclut alors à une proportionnalité entre la distance des galaxies et leur vitesse – une relation appelée loi de Hubble, en accord avec la solution de Friedmann-Lemaître.

Alexander Alexandrovich Friedman (1888-1925) © NASA/ESA

DR

Georges Lemaître Georges Lemaître est né à Charleroi le 17 juillet 1894. Après avoir étudié les humanités chez les Jésuites, il entre à dix-sept ans à l’école d’ingénieurs de l’Université catholique de Louvain. En 1914, il interrompt ses études et s’engage comme volontaire dans l’armée belge (ce qui lui vaudra la Croix de guerre). Après la guerre, il étudie la physique et les mathématiques, tout en se dirigeant vers une carrière sacerdotale. En 1920, il passe un doctorat sur « L’approximation des fonctions de plusieurs variables réelles », et s’intéresse à la théorie de la relativité. En 1923, Lemaître est ordonné prêtre, et il obtient plusieurs bourses pour se rendre à Cambridge (Royaume-Uni) et... à Cambridge (USA) pour étudier l’astronomie. De retour en Belgique, il devient chargé de cours à l’Université catholique de Louvain en 1925. Deux ans plus tard, il présente un mémoire intitulé « Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extragalactiques », où il expose sa théorie sur l’expansion de l’Univers. En 1931, il présente son idée d’un « Atome primitif », peu appréciée par la communauté scientifique de l’époque, qui la juge trop proche de certains concepts religieux – la vocation de son instigateur n’est certainement pas étrangère à ce rejet. En 1936, il est élu membre de l’Académie Pontificale des Sciences, et en 1960 il est nommé prélat. À la fin de sa vie, Lemaître se consacre de plus en plus au calcul numérique, en s’intéressant aux calculateurs les plus avancés de l’époque. Il meurt à Louvain le 20 juin 1966.

page 60

Une Céphéide dans la galaxie M100, représentée sur la photographie du bas. Les trois clichés en haut de l’image correspondent à la même région de M100 à trois moments différents : au centre de chaque cliché se trouve la même Céphéide, dont la luminosité varie au cours du temps.

Céphéides Les Céphéides sont des étoiles de luminosité variable, dont le nom vient de l’une de leur représentantes, Delta de la constellation de Céphée. Ces étoiles géantes connaissent une alternance de contractions et d’expansions. La période de ce cycle est reliée de façon étroite à la luminosité de l’étoile, ce qui fait des Céphéides des étalons de luminosité (des « chandelles standard »). En comparant la luminosité d’une Céphéide, déterminée par cette relation, avec la luminosité mesurée sur Terre, il est possible d’estimer la distance de l’étoile, et donc de la galaxie qui la contient.

ÉLÉMENTAÍRE


Décalage vers le rouge

La figure extraite de l’article original de Hubble (1929). Les points noirs et la ligne continue correspondent aux données dans le cas où les différentes nébuleuses étaient considérées individuellement. Les cercles et la ligne discontinue correspondent à un regroupement des nébuleuses, pour limiter les effets du mouvement propre des nébuleuses les unes par rapport aux autres. Les deux lignes correspondent à des valeurs de H nettement plus élevées que la valeur actuellement mesurée.

Une version moderne du diagramme de Hubble, tracée à l’aide de relevés de supernovæ en 1998. Les courbes correspondent à différents modèles d’expansion de l’Univers.

Boum, quand l’Univers fait boum L’idée de base de Friedmann et Lemaître est par la suite reprise par Howard Robertson et Arthur Walker, puis développée et raffinée dans les années 50 par un étudiant de Friedmann, le physicien George Gamow. L’hypothèse d’un Univers en expansion a de nombreuses conséquences qui ne tarderont pas à trouver une vérification expérimentale.

ÉLÉMENTAÍRE

page 61

En effet, si l’Univers est en expansion, il a dû être plus dense dans le passé. Et si cette expansion dure depuis les premiers instants, comme suggéré par la théorie de Friedmann et Lemaître, on peut rembobiner le film en partant de l’Univers que nous connaissons, où la matière qui l’emplit est concentrée dans et autour des galaxies, séparées par d’immenses régions vides... En remontant dans le temps, les galaxies se rapprochent et se mélangent, l’Univers primordial est une « soupe » chaude et dense de matière atomique plus ou moins uniforme. En remontant encore plus loin dans le temps, on peut même imaginer des densités et des températures telles que les atomes eux-mêmes se dissocient en un plasma de particules chargées, noyaux atomiques et électrons. Plus tôt encore, l’Univers doit être empli d’une soupe de constituants encore plus fondamentaux. Nos connaissances actuelles ne nous permettent pas, par principe, de remonter indéfiniment l’histoire de l’Univers, jusqu’à son éventuel commencement, nommé « Big Bang ». En effet, on se heurte inévitablement à la« barrière de Planck », temps auquel l’Univers est si dense que les effets de gravité quantique ne peuvent plus – comme c’est le cas aux échelles accessibles dans nos accélérateurs – être négligés.

Proportionnalité La tâche que Hubble et Humason avaient à accomplir pour énoncer leur loi n’était pas simple. Les mesures de distances par Hubble étaient entachées d’incertitudes. De plus l’astronome ne prenait pas en compte le fait que certaines galaxies ont un mouvement propre causé par l’attraction des galaxies et des amas de galaxies situés à proximité. Cet effet modifie le décalage vers le rouge généré par l’expansion générale de l’Univers. Il n’est donc pas étonnant que le graphique original de Hubble, représentant le décalage vers le rouge des galaxies en fonction de leur distance, ne montre pas une belle droite, mais plutôt un essaim de points plus ou moins alignés.. ce qui amène néanmoins Hubble et Humason à postuler que vitesse d’éloignement et distance sont approximativement proportionnelles, selon un rapport H aujourd’hui appelé constante de Hubble. Ils obtiennent la valeur approximative de 150 km/s par million d’années-lumière. À l’heure actuelle, on a mesuré le décalage vers le rouge d’un grand nombre de galaxies et on sait corriger les effets des mouvements propres des galaxies pour obtenir une valeur plus précise de la constante de Hubble, reliant distance et vitesse des galaxies : H = 75 km/s par million d’années-lumière, ce qui signifie qu’une galaxie située à un million d’années-lumière de la Terre s’en éloigne à la vitesse de 75 km/s.

© (c) Supernova Cosmology Project

DR

Magnitude effective

Le modèle cosmologique standard


Le modèle cosmologique standard Notre histoire commence donc il y a 13,7 milliards d’années, après que l’Univers s’est suffisamment dilué pour qu’on puisse négliger ces effets inconnus et séparer la gravitation « classique » des autres interactions fondamentales, qui requièrent une description quantique aux échelles d’énergie considérées. En imaginant qu’il existe un « début » de l’Univers, cela correspondrait à environ 10-43 seconde après cet instant initial. L’Univers est alors rempli de manière homogène d’une soupe de particules extrêmement dense et chaude : sans cesse, certaines se désintègrent tandis que d’autres sont créées sous forme de paires particule-antiparticule. L’Univers est en expansion rapide, ce qui diminue la densité des particules, tout comme la température. Au fur et à mesure, il devient donc de plus en plus difficile de créer des particules massives, qui se désintègrent et disparaissent au détriment de particules plus légères.

Asymétrie particule/antiparticule Le physicien soviétique Andreï Sakharov a formulé en 1967 les trois conditions nécessaires pour créer une asymétrie entre matière et antimatière dans l’Univers, alors que le Big Bang est a priori une situation symétrique : • asymétrie des interactions de la matière et de l’antimatière : il faut que les symétries C (conjugaison de charge) et CP (conjugaison de charge et renversement par parité) ne soient pas respectées par certaines interactions. • création de baryons (contenant trois quarks, comme le proton et le neutron) : il faut qu’il existe des processus ne conservant pas le nombre baryonique, c’est-à-dire que le nombre de baryons et le nombre d’antibaryons créés au cours de certains processus soient différents. • rupture de l’équilibre thermique : s’il y avait équilibre thermique, les taux des réactions produisant un excès de baryons seraient égaux à ceux des réactions produisant un excès d’antibaryons, de sorte qu’aucune asymétrie ne se produirait. Le Modèle Standard de la physique des particules contient bien des processus satisfaisant ces critères, mais ils sont trop faibles pour expliquer l’asymétrie entre matière et antimatière dans l’Univers. Parmi les pistes alternatives, on évoque, entre autres, diverses extensions du Modèle Standard, ou encore la création d’une asymétrie initiale entre leptons et antileptons convertie par la suite en asymétrie entre baryons et antibaryons...

Tandis que l’Univers s’étend progressivement tout en se refroidissant, différents phénomènes se produisent. Vers 10-36 seconde, la force forte et la force électrofaible se différencient. Puis vers 10-12 seconde, la force électrofaible se scinde en forces électromagnétique et faible, et toutes les particules acquièrent une masse du fait de la brisure de la symétrie électrofaible, liée aux propriétés du boson de Higgs (voir Élémentaire N°6). À cette époque, les particules et les forces en présence sont tout à fait équivalentes à celles connues actuellement et étudiées dans les accélérateurs de particules, mais la température et la densité sont bien supérieures à tout ce que nous connaissons. Une légère asymétrie entre particules et antiparticules serait apparue de sorte qu’une petite quantité de matière ait survécu, alors que (presque) toute l’antimatière a disparu.Il faut attendre 10-6 seconde après le Big Bang pour que la situation soit assez calme et que les quarks puissent s’associer pour former des hadrons, comme les protons et les neutrons – auparavant, l’agitation environnante aurait rapidement éjecté un des quarks hors de notre pauvre hadron, réduit en miettes ! À partir de trois minutes, l’Univers est donc essentiellement empli de photons, d’électrons, de protons et de neutrons. Ces derniers ne vivent pas vieux quand ils sont tous seuls, hors des noyaux atomiques : au bout de seulement quinze minutes, ils se désintègrent en protons. Ne peuvent survivre que les neutrons qui s’associent avec des protons pour former les premiers noyaux stables, en particulier ceux d’hélium. Les réactions de fusion nucléaire permettant cette nucléosynthèse primordiale ne sont possibles que pendant une petite vingtaine de minutes : l’expansion de l’Univers a ensuite trop dilué les noyaux pour autoriser ces réactions. L’Univers continue à se refroidir, tout comme les photons qu’il contient. Environ 380 000 ans après le Big Bang, ces derniers sont si peu énergétiques qu’ils ne peuvent plus empêcher les électrons et les noyaux de s’associer pour former des atomes neutres électriquement. À la fin de ce processus de « recombinaison », les photons ne rencontrent plus de particules chargées, mais des atomes neutres qu’ils ne peuvent plus ioniser. Ils peuvent donc parcourir de longues distances sans interagir avec la matière. L’Univers devient donc transparent, empli principalement d’hydrogène, d’hélium, de lithium et de photons. Ces nuages de gaz sont très homogènes, mais il existe quand même des zones page 62

Photons Au fur et à mesure de l’expansion de l’Univers, la distance s’accroît progressivement entre deux points qui n’ont pas de mouvement relatif propre. De la même manière, les photons voient leur longueur d’onde augmenter, ce qui correspond à une diminution de la température associée.

ÉLÉMENTAÍRE


Le modèle cosmologique standard légèrement plus denses ou moins denses. Les zones plus denses tendent, par gravité, à attirer encore un peu plus la matière environnante et vident les zones moins denses. Il faut attendre au moins 150 millions d’années après le Big Bang pour voir apparaître les premiers objets lumineux (les quasars) et les premières étoiles ! Leur lumière ionise les nuages d’hydrogène interstellaire, tandis qu’en leur cœur, les noyaux légers fusionnent pour constituer des éléments plus lourds. Plusieurs générations d’étoiles se succèdent et, autour de l’une d’entre elles, au bout de neuf milliards d’années, se forme notre système solaire. Enfin, onze milliards d’années après le Big Bang, la vie apparaît sur Terre. Les conséquences les plus marquantes de l’expansion de l’Univers sont l’existence d’un rayonnement fossile emplissant le cosmos et les abondances relatives de certains noyaux légers, comme le deutérium et l’hélium-4. La découverte de ce qui est aujourd’hui appelé le rayonnement fossile (CMB, voir « Découverte ») et la mesure des abondances relatives des noyaux légers assoient définitivement cette théorie d’un Univers en expansion, qui sera progressivement enrichie des connaissances croissantes en astronomie, en astrophysique et en physique des particules. De façon ironique, c’est un adversaire acharné de Gamow, l’astronome Fred Hoyle, qui baptise « Big Bang » cette théorie au cours d’une émission de vulgarisation de la BBC. Elle constitue en quelque sorte le modèle standard cosmologique. Tout comme dans le cas du modèle standard de la physique des particules, les physiciens cherchent à le mettre en défaut afin de l’améliorer. Il constitue la meilleure description de nos connaissances sur l’évolution de l’Univers, mais cela ne veut pas dire qu’il soit parfait !

Une représentation schématique de l’évolution de l’Univers, depuis l’inflation jusqu’à nos jours.

Des problèmes à l’horizon

ÉLÉMENTAÍRE

page 63

Le CMB est donc constitué des photons issus de l’Univers primordial qui portent la marque de la dernière interaction qu’ils ont connue, environ 380 000 ans après le Big Bang. Les différentes observations provenant de satellites et de ballons atmophériques (voir « Découverte »), ont fourni une carte précise de ce rayonnement fossile : si celui-ci est extrêmement homogène sur tout le ciel, de température moyenne 2,7K, on a pu mettre en évidence d’infimes fluctuations de température - de l’ordre de 1 pour 100 000 - d’une direction du ciel à l’autre ! De telles anisotropies reflètent les légères différences de densité de la matière au moment de l’émission de ces photons. Ces hétérogénéités primordiales seront le germe des nuages qui donneront naissance aux étoiles, aux galaxies, puis aux amas de galaxies etc.

Le deutérium et l’hélium-4 Ces éléments sont de bons indicateurs des processus liés à la nucléosynthèse primoridale. Les étoiles produisent l’hélium-4 lors de réactions thermonucléaires, mais en quantité nettement insuffisante pour expliquer l’abondance actuelle de cet élément (25% en masse de la matière ordinaire de l’Univers) – c’est donc à la nucléosynthèse primordiale d’expliquer cette proportion. A contrario, lors de la nucléosynthèse primoridale, le deutérium fraîchement créé se combine très facilement pour donner de l’hélium- 4, mais l’expansion de l’Univers empêche ce processus de faire complètement disparaître tout le deutérium. Ainsi, les processus de nucléosynthèse primordiale et l’expansion de l’Univers sont fortement contraints par les mesures de l’abondance de ces deux éléments légers dans l’Univers.


Mais dès les années 70, les observations des radioastronomes imposent des contraintes très strictes sur ces hétérogénéités : le CMB semble extrêmement homogène. Une victoire pour le modèle de Friedmann et Lemaître, basée sur l’idée même d’isotropie et d’homogénéité ? Plutôt un problème supplémentaire à résoudre. Pour le comprendre, il faut passer par la notion d’horizon. Tout comme dans la vie courante, l’horizon d’un observateur délimite la zone à l’intérieur de laquelle se trouvent les objets dont il peut percevoir la présence. En cosmologie, l’horizon est essentiellement défini par la question : une lumière émise de tel point a-t-elle eu le temps de parcourir l’espace jusqu’à moi depuis le début de l’Univers (Big Bang) ? Si c’est le cas, ce point est à l’intérieur de mon horizon. © S. Descotes-Genon

Au fil de l’expansion de l’Univers, l’horizon d’un observateur s’étend : de plus en plus de points entrent dans notre champ de vision et le CMB que nous percevons provient de régions de plus en plus éloignées de nous. Prenons deux photons du CMB qui arrivent sur la Terre de deux directions opposées : ils proviennent de deux régions de l’espace qui viennent d’entrer dans notre horizon. Cependant, on peut montrer qu’à l’époque où ces photons ont été émis, ces deux régions n’avaient pas encore eu le temps de communiquer entre elles. Autrement dit, elles ne sont pas dans l’horizon l’une de l’autre : elles n’ont donc aucune raison d’avoir des caractéristiques physiques similaires. Comment se fait-il qu’elles aient un CMB avec des températures aussi proches ? On s’attendrait à observer des fluctuations beaucoup plus importantes.

Les régions de l’espace ayant pu être en contact causal et pouvant donc présenter un aspect homogène, représentées ici par des cercles contenant des symboles semblables, sont de taille limitée du fait de la vitesse finie de propagation de tout signal – ou interaction – physique. Dans un scénario de type Big Bang sans inflation, la taille de telles régions au moment de l’émission du CMB est très inférieure à celle de l’horizon (Univers observable), lequel devrait donc présenter un haut degré d’inhomogénéité, en contradiction flagrante avec l’observation. Au contraire, dans un scénario d’inflation, la taille des régions causalement connectées est dilatée exponentiellement avant l’émission du CMB et devient nettement supérieure à celle de notre horizon.

L’inflation cosmique : soufflez dans le ballon !

page 64

Pour résoudre ce problème, confirmé par les observations, les théoriciens ont proposé une solution assez originale : l’inflation. Elle n’a (heureusement) pas grand-chose à voir avec celle des économistes, et part d’une idée simple : si les interactions physiques ne peuvent pas se propager plus vite que la lumière, rien ne contraint la vitesse d’expansion de l’Univers lui-même, c’est-à-dire la rapidité avec laquelle le ballon se gonfle. Ainsi, les théoriciens ont imaginé que l’Univers ait subi une phase d’expansion accélérée extrêmement rapide (exponentielle). On la situe généralement entre 10-36 et 10-32 seconde après le Big Bang, alors que les interactions fondamentales commencent à acquérir leur individualité. Ainsi, les théoriciens pensent souvent que ce phénomène d’inflation est lié à cette différenciation progressive des forces fondamentales. Dans la phase d’inflation, un tout petit domaine de l’Univers enfle démesurément pour atteindre des dimensions gigantesques, qui dépassent, à l’époque, la taille de la région qui deviendra notre horizon actuel. Le problème de l’horizon est résolu : toute la partie visible de l’Univers, que nous observons à travers le CMB, provient de ce domaine initial.

ÉLÉMENTAÍRE


La répartition de la matière dans l’Univers proche effectuée par le 2dF Galaxy Redshift Survey. Chaque point bleu correspond à une galaxie. La distance au centre du diagramme correspond à la distance mesurée et donc à l’ancienneté de la galaxie. On voit que dans le passé (grandes distances) l’Univers était relativement homogène Au cours du temps de nombreux superamas et zones de vide apparaissent.

© Richard Powell

Répartition des superamas de galaxies dans un rayon de 100 millions d’années lumière autour de la Voie Lactée. En particulier, notre galaxie appartient au superamas de la Vierge.

Mais ce n’est pas tout ! En prime, l’inflation résoud un autre problème de la théorie du Big Bang. En effet, dans un univers en expansion décélérée, tel que celui de Friedman et Lemaître, la courbure spatiale augmente avec le temps. Il est donc difficile de comprendre le fait que notre Univers soit spatialement plat à une très bonne approximation (voir « Apéritif »). Au contraire, un univers en expansion accélérée devient de plus en plus plat : l’inflation fournit une explication naturelle au problème de la « platitude ».

© NASA

Et ce n’est pas fini ! Durant l’inflation, d’éventuelles inhomogénéités initiales sont diluées exponentiellement, donnant lieu à un univers extrêmement homogène, reflété par le haut degré d’isotropie du CMB. Mais alors, comment comprendre la présence de légères anisotropies dans ce même CMB ? Si, par essence, l’inflation donne lieu à un univers parfaitement homogène, il ne faut tout de même pas en oublier les principes fondamentaux de la mécanique quantique. Ceux-ci nous disent, d’après le principe d’incertitude d’Heisenberg, que l’Univers ne peut pas être exactement homogène : il existe toujours des fluctuations - quantiques irréductibles aux échelles microscopiques. Celles-ci seront dilatées exponentiellement par l’inflation pour donner lieu à des fluctuations sur des échelles macroscopiques, lesquelles laissent leur empreinte dans le CMB. À ce jour, les prédictions génériques des modèles d’inflation concernant les anisotropies de température du CMB sont confirmées avec succès par les observations. Les plus grandes structures observées à l’heure actuelle seraient donc d’origine microscopique... quantique : l’inflation est un formidable pont entre l’infiniment petit et l’infiniment grand.

Le contenu énergétique de l’Univers à l’heure actuelle, et au moment où le CMB est apparu. La part relative des différents constituants a varié au cours du temps, en particulier en ce qui concerne l’énergie noire, responsable de l’accélération récente de l’expansion de l’Univers.

Le modèle cosmologique standard À l’heure actuelle, nous disposons d’un modèle, nommé poétiquement ΛCDM (pour Lambda Cold Dark Matter), qui vise à expliquer simultanément des observations très différentes - les propriétés du CMB, l’organisation des structures à grande échelle (amas et superamas de galaxies), les observations des supernovæ suggérant une accélération de plus en plus rapide de l’Univers. Ces différents phénomènes sont liés à divers constituants du modèle standard de la cosmologie, qui contribuent au bilan

ÉLÉMENTAÍRE

page 65

© 2dF Galaxy Redshift Survey

Le modèle cosmologique standard

Organisation des structures de grande échelle Les galaxies, amas et superamas de galaxies ne s’organisent pas au hasard dans l’espace. En fait, ils adoptent souvent des structures de fi laments et de plans, comme s’ils étaient à l’interface de grandes bulles de vide. En relevant les positions relatives des galaxies, on peut caractériser ces surfaces et ainsi proposer des modèles décrivant la formation de ces structures.


Le modèle cosmologique standard Observation de supernovæ Certaines étoiles en fin de vie, les supernovæ de type IA, explosent en produisant une grande quantité de lumière pendant une durée limitée, avant de perdre progressivement en luminosité. L’étude de cette évolution permet de déterminer leur éclat initial, et donc leur distance. En 1998, le Supernova Cosmology Project a mesuré des supernovæ à de très grandes distances de la Terre – en étudiant leur décalage vers le rouge, il est apparu que l’expansion de l’Univers s’accélère progressivement, en contradiction avec les modèles de l’époque. En effet, dans un Univers ne contenant que de la matière et du rayonnement, l’expansion de l’Univers devrait être progressivement ralentie. Le concept d’énergie noire a été proposé pour expliquer cette accélération de l’expansion de l’Univers.

énergétique de l’Univers. Ce modèle repose sur les équations de la relativité générale, les hypothèses de Friedmann et Lemaître (isotropie et homogénéité) et sur l’hypothèse d’une période d’inflation. Il suppose que les différents constituants de l’Univers se comportent comme divers fluides. Le contenu du modèle est le suivant : • le rayonnement, c’est-à-dire les photons, ayant une contribution négligeable, • la matière effectivement observée par les télescopes (galaxies, étoiles, planètes, gaz interstellaires), qui constitue 4% de l’énergie de l’Univers, • une matière massive, non-relativiste, invisible aux télescopes et uniquement détectée par ses effets gravitationnels (la « matière noire froide »), qui constitue environ 23% de l’énergie de l’Univers, • une composante au comportement mal compris, appelée faute de mieux « énergie noire », et qui constitue... 72% de l’énergie de l’Univers ! De façon tout à fait remarquable, notre ignorance sur la nature exacte de l’énergie noire n’empêche pas d’obtenir des contraintes intéressantes sur les différents paramètres du modèle. En particulier, la structure détaillée des anisotropies du CMB est assez sensible à de nombreux paramètres de ce modèle... Mais ce n’est évidemment pas la fin de l’histoire : de nombreuses questions restent sans réponse, en particulier sur les premiers instants du Big Bang et la nature précise des différents constituants du ΛCDM. De quoi alimenter notre rubrique « La question qui tue » ! Structure détaillée des anisotropies du CMB

Comment le spectre du CMB varie quand on modifie certains paramètres du modèle standard cosmologique, à savoir la courbure de l’Univers, la densité d’énergie noire, celle de matière baryonique (« ordinaire ») et celle de matière (y compris la matière noire). On voit que la hauteur et la position des pics sont sensibles à certains de ces paramètres.

page 66

© NASA

L’analyse des anisotropies du CMB peut être faite par le biais d’harmoniques sphériques (voir « Analyse ») – un peu comme l’extraction des fréquences qui composent un signal sonore. La figure résultante peut être interprétée comme la mesure des corrélations existant entre les températures de deux régions de l’espace éloignées d’une certain angle : plus le « moment du multipôle » ℓ est grand, plus l’angle est petit. On voit apparaître des oscillations, qu’on peut expliquer par la compétition entre deux processus antagonistes : la gravitation, qui tend à accroître les hétérogénéités de matière, et la pression de radiation, qui cherche au contraire à diluer ces hétérogénéités. À grand ℓ, on s’attend à une décroissance des hétérogénéités, du fait d’interactions physiques entre des zones séparées par de faibles distances. Le caractère oscillatoire de ce spectre est un reflet de la phase d’inflation de l’Univers primordial. La hauteur et la position des pics dépendent de façon importante des valeurs de certains paramètres du modèle ΛCDM, par exemple la densité de matière, mais pas de tous (elle n’est par exemple guère affectée par la densité d’énergie noire).

ÉLÉMENTAÍRE


Le LHC Démarrage du LHC le 10 septembre 2008

© CERN

Ce jour était impatiemment attendu par la communauté mondiale des physiciens des hautes énergies. La première injection d’un faisceau de protons dans le LHC allait être tentée. Tous ceux qui depuis des années – souvent depuis plus de 20 ans - ont travaillé à la construction de l’accélérateur, la réalisation des détecteurs, la préparation des infrastructures et des analyses, sentaient enfin approcher la période excitante de la prise de données et la fièvre des premiers résultats. Les experts de l’accélérateur avaient préparé soigneusement cet événement depuis des semaines : des essais de transfert de protons entre le SPS et l’anneau du LHC avaient déjà été réalisés avec succès quelques semaines auparavant. Par ailleurs, le CERN et ses pays membres avaient lancé une couverture médiatique sans précédent pour informer les citoyens des tenants et des aboutissants de ce démarrage. Les articles dans les journaux et les reportages à la télévision se succédaient, présentant les enjeux de la mise en fonctionnement du plus grand accélérateur au monde. La procédure d’injection allait être suivie en particulier par des équipes de la BBC et retransmise en direct dans le monde entier.

Le complexe accélérateur du CERN. Avant d’arriver dans le LHC, les protons sont progressivement accélérés par un accélérateur linéaire et plusieurs anneaux (en particulier le PS et le SPS). Dans le SPS, ils atteignent 450 GeV et sont par la suite injectés dans le LHC.

ÉLÉMENTAÍRE

Centre de contrôle du LHC le 10 septembre 2008 : quelques secondes avant le premier tour de protons, les yeux rivés sur les écrans .

page 67

La réalisation du premier tour de protons dans le LHC s’est faite par étapes. Les paramètres de l’accélérateur n’étant pas, a priori, parfaitement ajustés, l’unique paquet de protons ne peut parcourir que quelques kilomètres avant de s’écraser sur l’un des collimateurs (des blocs de matériau dense permettant d’arrêter les faisceaux quand cela est nécessaire). Les capteurs disposés tout au long de la chambre à vide dans laquelle circule le faisceau suivent en détail ce trajet et leurs informations permettent aux ingénieurs de modifier les champs magnétiques pour que l’orbite des protons puisse rester circulaire plus longtemps à l’avenir. Après chaque perte du paquet de protons, un nouveau paquet est injecté et réussit à aller plus loin que le précédent. Quatre essais ont été ainsi nécessaires pour accomplir un tour complet du LHC (soit 27 km). À ce moment, le responsable en chef du projet LHC, Lyn Evans, a expliqué devant les micros que la réussite du prochain essai allait se traduire sur les écrans de contrôle par l’apparition

© CERN

Le 10 septembre 2008, c’était donc la foule des grands jours dans le centre de contrôle du LHC. Ingénieurs, journalistes et physiciens allaient et venaient dans cette salle comble, tandis que le personnel du CERN suivait la retransmission sur des écrans placés dans plusieurs bâtiments du site. Tous les anciens directeurs du CERN étaient présents pour assister à ce grand moment auquel ils avaient contribué, chacun à sa façon, au cours de leurs mandats respectifs. La procédure de démarrage du LHC était établie depuis longtemps : d’abord, un seul paquet de protons injecté depuis le SPS devait parcourir les 27 kilomètres de l’anneau à son énergie initiale de 450 GeV. Une fois ce parcours réalisé, on allait tenter d’augmenter l’énergie en mettant en marche les cavités accélératrices et en réglant les aimants supraconducteurs. Puis, deux faisceaux sont injectés dans des sens opposés dans le LHC. Enfin, le nombre de paquets circulant est augmenté de façon à obtenir plus de collisions. Ce calendrier prévoyait un à deux mois de réglages avant d’obtenir des collisions à l’énergie nominale de 14 TeV.

Par injection on désigne le transfert des particules d’un accélérateur à un autre, par exemple du SPS au LHC. À l’aide d’aimants puissants, les particules sont déviées de leur trajectoire, extraites de la première machine et dirigées vers la seconde.


Instantané des paquets de protons dans le plan perpendiculaire à l’axe des faisceaux. Les deux taches du paquet de protons correspondent à des mesures de courant effectuées localement à un des multiples points de contrôle installés le long du LHC. Si elles ont déclenché des applaudissements enthousiastes, elles signifient aussi que la trajectoire suivie par ce paquet n’est pas parfaitement fermée puisqu’au bout d’un tour, celui-ci ne revient pas exactement sur sa position initiale. En effet, en absence de réglages supplémentaires, ce paquet continuera de dévier et sera perdu lors des tours suivants. On peut lire sur les axes de ce cliché les dimensions du paquet de protons : environ 10 mm (et 5 mm) de diamètre horizontal (vertical). L’apparition des deux taches est quasi simultanée puisque les protons mettent un dixième de milliseconde pour effectuer un tour dans le LHC.

Les directeurs du CERN du plus récent (en exercice jusqu’au mois de janvier 2009) au plus ancien, réunis dans la salle de contrôle du LHC pour assister à son démarrage (de gauche à droite) : Robert Aymar, Luciano Maiani, Chris LlewellynSmith, Carlo Rubbia et Erwin Schopper. Tous ont contribué durant leurs mandats respectifs à la réalisation de ce projet de longue haleine.

de deux taches lumineuses décalées : la première correspondra au paquet entrant dans le LHC et la seconde, au même paquet ayant accompli un tour complet. Tous les yeux se tournèrent vers les écrans alors que Lyn Evans égrenait « 5,4,3,2,1,0 ».. et les applaudissements fusèrent de partout au moment de l’apparition simultanée des deux fameuses taches. Par la suite, les spécialistes de la machine ont réussi avec la même facilité apparente l’injection du faisceau dans le sens opposé. Puis, les efforts se sont concentrés sur l’augmentation du temps de vie du paquet. Les protons perdent de l’énergie par rayonnement en tournant dans l’anneau avec des conséquences qui s’enchaînent: la dispersion en énergie du paquet augmente, ses dimensions aussi. En effet, le champ magnétique dipolaire courbe différemment les protons suivant leur énergie et au fil des passages, la taille des paquets augmente et les protons sont perdus par collision avec des obstacles. Pour palier ces pertes, on surveille les paramètres du paquet de protons (étendue latérale, dispersion en énergie des protons) en plusieurs points de sa trajectoire et on corrige des déviations éventuelles en agissant d’une part sur les aimants de façon à ce que les particules passent exactement par le même point tour après tour et d’autre part sur la radiofréquence pour les accélérer à leur énergie nominale.

© R.Ciapala CERN

après 250 tours après 10 tours

Dans les salles de contrôle des expériences Alice, Atlas, CMS et LHCb la fièvre montait. On a vite enregistré les premières traces créées par le passage du paquet, en particulier certains muons qui accompagnaient le faisceau. Les événements les plus spectaculaires étaient les splashs, observés lorsque le faisceau heurtait les collimateurs placés à 150m en amont des expériences. Dans ce cas, les protons sont rapidement stoppage 68

Temps de vie du paquet On mesure le signal du faisceau tous les 10 tours du LHC (le temps s’écoule de bas en haut). Chaque ligne représente le signal électrique mesuré par un compteur placé sur la circonférence du LHC. La petite bosse correspond au courant électrique vu par le compteur lorsque le paquet des protons passe devant. À gauche, aucune correction de radiofréquence (RF) n’est appliquée pour préserver l’énergie de tous les protons et la cohésion du paquet. La forme du faisceau s’élargit et le paquet est perdu après environ 250 tours. Au milieu, une correction RF est appliquée, la forme du paquet reste bonne mais sa position oscille. La figure de droite montre la stabilité de la forme du paquet avec des corrections adéquates. Elle a été obtenue quelques heures après la première injection.

© CERN

© R.Bailey CERN

Démarrage du LHC le 10 septembre 2008

ÉLÉMENTAÍRE


pés, absorbés par la matière, et créent des gerbes de particules. Parmi celles-ci seules parviennent à émerger hors des collimateurs celles qui interagissent le plus faiblement, en particulier les nombreux muons apparus lors du choc des protons. Compte tenu du grand nombre de protons ayant heurté les collimateurs et de muons créés par chacune des collisions, une pluie de particules a inondé l’ensemble des détecteurs. En ajoutant les énergies de tous les dépôts dans les calorimètres, on a mesuré des centaines de TeV pour de tels événements ! Ce grand nombre de particules est très utile pour certains types d’études, en particulier pour la synchronisation de tous les canaux d’électronique. Sachant que toutes les particules contenues dans un événement sont produites au même instant, elles doivent aussi être mesurées simultanément. Si tous les canaux des détecteurs ne donnent pas une réponse simultanée, c’est alors que certains retards internes (câbles de longueur différentes, temps de traitement, etc), spécifiques à chaque canal, n’ont pas été compensés.

Le 19 septembre : un croche-pied en plein élan

© CERN

Démarrage du LHC le 10 septembre 2008

Visualisation d’un événement « splash » dans ATLAS. L’image comprend une coupe du détecteur suivant l’axe du faisceau (en bas) et une coupe perpendiculaire (en haut). Depuis le point d’interaction (au centre des deux coupes) on rencontre les différentes parties de sous-détecteurs, de reconstruction des traces chargées, suivis des calorimètres électromagnétique et hadronique et finalement du spectromètre pour les muons (voir la description d’ATLAS dans Élémentaire N°2). Sur les deux coupes on voit un grand nombre de signaux enregistrés dans le détecteur, représentés en vert et rouge.

page 69

ÉLÉMENTAÍRE

© CERN

Après la première injection, le rodage de la machine a continué en mode simple, c’est-à-dire en faisant circuler un seul paquet de protons en provenance du SPS sans accélération supplémentaire dans le LHC. Les experts de l’accélérateur profitent des moments sans faisceau pour préparer les dipôles en y injectant le courant nécessaire à la prochaine montée en énergie de 450 GeV à 5 TeV. Le 19 septembre, lors d’essais d’alimentation des dipôles du secteur 3- 4, une défaillance dans une connexion électrique s’est produite en une région située entre un dipôle et un quadripôle. Les analyses effectuées ultérieurement ont montré que lorsqu’on a augmenté le courant pour un fonctionnement à une énergie de 5.5 TeV, une résistance électrique est apparue, ce qui a fait disjoncter le système d’alimentation. Ceci a déclenché la procédure de sécurité prévue dans ce cas, à savoir la vidange du courant déjà stocké dans les aimants. Une série de transitions résistives (appelées aussi quench, présentées dans la rubrique LHC, N°6) a eu lieu dans une multitude d’éléments supraconducteurs. Un arc électrique s’est développé au niveau de la connexion défectueuse et a perforé l’enceinte contenant l’hélium. Celui-ci s’est alors déversé dans l’enceinte d’isolation du cryostat et s’est brutalement réchauffé. La pression est montée à cet endroit, exerçant des forces importantes sur les barrières entre les soussecteurs. Les soupapes de sécurité ont fonctionné en relâchant l’hélium dans le tunnel. Mais leur réaction n’a été pas suffisamment rapide pour évacuer à temps toute la pression due à la détente de l’hélium sans provoquer de dégâts mécaniques.

Ci-dessus, on montre l’endroit où l’incident initial a eu lieu sur la connexion électrique entre un dipôle et un quadripôle. Cette connexion est en fait conçue comme un sandwich contenant les deux câbles supraconducteurs (en photo à gauche) soudés par un alliage d’argent et de cuivre. L’incident du secteur 3-4 a provoqué la rupture de cette connexion et l’apparition d’un arc électrique qui a déclenché le réchauffement.


Démarrage du LHC le 10 septembre 2008

© CERN

Ainsi, les équipes envoyées sur place pour l’inspection de la situation ont trouvé une cinquantaine d’éléments (dipôles et quadripôles) endommagés à différents degrés, sur une longueur de 300 m. Au point le plus « chaud », les contraintes mécaniques ont provoqué le déplacement d’un aimant de 40 centimètres ! Lors des examens qui ont suivi on a contrôlé tous les points d’interconnexion le long de l’accélérateur, ce qui a mis en évidence des faiblesses similaires sur d’autres aimants. Suite à cet incident malheureux, on a évidemment interrompu le rodage du LHC. Une cinquantaine d’éléments ont été réchauffés, démontés et remontés en surface avant Noël. Depuis avril 2009 les éléments réparés ou ceux de remplacement sont de nouveau en place. Par ailleurs, des systèmes de détection plus sensibles ont été ajoutés aux fameux points d’interconnexion et des soupapes additionnelles ont été percées sur les aimants pour éviter que cet incident ne se reproduise.

© CERN

Et maintenant ? Les physiciens des quatre expériences sont évidemment affectés par ce retard tout autant que les personnels travaillant sur l’accélérateur. Toutefois, les chercheurs « profitent » de ce temps supplémentaire sans faisceau pour parfaire leurs détecteurs et affiner la préparation de différentes analyses. L’incident a obligé la communauté à revoir certains de ses plans. Lors d’une réunion qui a eu lieu à Chamonix en février 2009, les ingénieurs du LHC et des physiciens représentant les quatre expériences ont défini une nouvelle feuille de route, combinant au mieux une reprise progressive et sans risque de l’accélérateur, avec l’accumulation suffisante de données intéressantes. Ainsi, l’énergie par faisceau ne dépassera pas les 5 TeV la première année de prises de données. L’accélérateur, qui devra démarrer durant l’automne 2009, ne s’arrêtera pas avant d’avoir fourni une luminosité intégrée de 200 pb-1 (vers l’été ou l’automne 2010). En tenant compte de ces conditions, les physiciens ont ré-évalué les prévisions des signaux attendus dans les expériences, puisque le scénario précédent prévoyait un fonctionnement à 14 TeV. Cette énergie sera atteinte après 2010.

Sur cette photo, la région d’interconnexion entre deux aimants endommagés est montrée avant (en haut, à droite) et après (en haut à gauche) avoir retiré le soufflet de protection. La différence de niveau entre les deux parties provient du fort déplacement de l’aimant qui s’est décroché de son support (en bas) sous la force de la détente de l’hélium.

La luminosité permet de calculer le nombre d’événements produits par seconde pour un processus donné dont on connaît la section efficace. La luminosité intégrée correspond au nombre d’événements produits sur une période de temps donnée. Sa valeur tient compte des arrêts de fonctionnement de la machine et des variations de sa luminosité instantanée. page 70

Une chose est sûre, malgré leur déception les ingénieurs et les physiciens n’ont pas chômé depuis l’arrêt provisoire du LHC !

ÉLÉMENTAÍRE


ICPACKOI ? [isepasekwa] ? GLAST : une nouvelle « star » dans le ciel

© NASA

Mercredi 11 juin 2008, 8h 30 du matin en Californie. L’un des grands amphithéâtres du Stanford Linear Accelerator Center est noir de monde : l’auditoire a les yeux rivés sur un mur d’écrans installé sur l’estrade. Sur le plus grand d’entre eux on peut voir une fusée sur le point d’être lancée par la NASA au Kennedy Space Center (Floride). Les autres écrans montrent plusieurs groupes de personnes regardant les mêmes images depuis leurs laboratoires respectifs : les équipes de la collaboration GLAST (« Gamma ray Large Area Space Telescope ») attendent le départ du satellite sur lequel elles ont travaillé pendant de nombreuses années. Soudain, les visages se font plus tendus : le compte à rebours vient de s’arrêter à H – 5 minutes. Une station radar située sur l’île d’Antigua (dans les Antilles) et chargée de suivre la fusée après le lancement n’est plus opérationnelle tandis qu’un voyant d’alarme au niveau du pas de tir vient de s’allumer. Suit presque immédiatement une intervention de la station météo de Cape Canaveral indiquant que la fenêtre de lancement pour la journée se refermera dans une vingtaine de minutes à cause des nuages qui s’amoncellent au-dessus de Cocoa Beach. Pour l’assistance c’est la douche froide : le départ de GLAST va-t-il être retardé ?

Lancement du satellite d’observation gamma GLAST, le 11 juin 2008 par une fusée Delta-II, à Cape Canaveral. Le panache au second plan est causé par la vaporisation d’un grand volume d’eau stocké sous le pas de tir et qui sert à évacuer la chaleur produite lors du décollage ainsi qu’à diminuer le volume sonore généré. En fond on peut voir l’Océan Atlantique. Les pas de tirs d’où ont été lancés tous les vols spatiaux américains (vers la Lune, les navettes, etc.) sont situés à quelques kilomètres sur la même île.

Heureusement les deux problèmes se révèlent bénins. Le décompte repart et, à 9h05, la fusée Delta-II décolle. Le lancement est un succès complet : à 10h20 GLAST est placé sur orbite basse à 550 km d’altitude. En 12 minutes ses panneaux solaires se déploient et apportent l’énergie nécessaire pour alimenter les ordinateurs de bord et les instruments scientifiques. Une fois cette phase critique terminée, les tests des systèmes embarqués peuvent commencer : il s’agit de s’assurer de leur bon fonctionnement et de calibrer les différents détecteurs. Ces vérifications doivent prendre de un à deux mois, ce qui est finalement peu par rapport à la durée de vie du satellite : cinq ans d’après le cahier des charges tandis que les équipes de chercheurs espèrent au moins le double. GLAST, dont le coût total est environ deux cent millions de dollars, est une mission de la NASA conçue en collaboration avec des laboratoires

ÉLÉMENTAÍRE

page 71

Calibrer L’étalonnage d’un instrument scientifique est un préalable obligatoire à toute expérience : on utilise une référence pour laquelle on connaît à l’avance le résultat de la mesure afin de faire la correspondance entre le signal enregistré par le détecteur et l’unité dans laquelle on veut le convertir. En pratique on effectue plusieurs mesures avec différentes références afin d’obtenir la description la plus complète possible de l’instrument. GLAST n’échappe pas à la règle et son bon fonctionnement requiert de nombreux étalonnages : - performances (niveau de bruit et d’amplification) des circuits électroniques ; - alignement des différents détecteurs les uns par rapport aux autres et orientation absolue du satellite dans l’espace ; - correspondance entre signaux enregistrés et énergies des rayons gamma détectés ; - synchronisation temporelle de tous les composants, etc. Selon leur stabilité (estimée par des tests au sol avant le lancement ou des simulations informatiques), ces étalonnages sont mis à jour plus ou moins rapidement. Pour les plus sensibles, des nouvelles données sont enregistrées plusieurs fois par seconde ; dans tous les cas, des systèmes complexes de surveillance suivent leur évolution et interviennent lorsqu’une dérive est observée sur les signaux de contrôle. Ces étalonnages sont en général basés sur des phénomènes physiques offerts par la Nature, par exemple des étoiles fixes pour l’orientation ou les rayons cosmiques (qui viennent frapper GLAST en permanence) pour l’énergie. Des protons (le bruit de fond dominant) servent aux étalonnages absolus en énergie tandis que les signatures caractéristiques des ions lourds (carbone, azote, oxygène, fer, etc.) sont utilisées pour suivre leurs dérives.


[isepasekwa] ?

© NASA

américains, européens (Allemagne, France, Italie et Suède) et japonais. Ce satellite embarque deux instruments spécialisés dans l’observation des rayons gamma : des photons, similaires à ceux qui constituent la lumière visible, mais bien plus énergétiques. Ces particules, émises par des objets extérieurs au système solaire, ne peuvent pas pénétrer l’atmosphère à moins d’avoir une énergie considérable. Ainsi, les phénomènes détectables sur Terre sont limités en nombre et les signaux reçus sont de faible intensité. Or les rayons gamma sont des « messagers cosmiques » très intéressants : neutres et sans masse, ils apportent des informations sur la nature de leur source ; de plus, leur énergie est essentiellement préservée sur leur parcours, ce qui permet d’obtenir des renseignements sur les phénomènes qui leur ont donné naissance : explosions d’étoiles, annihilation de particules encore inconnues, etc. Les satellites d’observation gamma comme GLAST sont donc des éléments essentiels pour ce domaine d’étude.

Installation en juin 2008 du satellite GLAST dans la coiffe de son lanceur Delta-II.

Le premier télescope, le LAT (« Large Area Telescope ») est en quelque sorte un détecteur « classique » de physique des particules lancé dans l’espace. Son grand champ de vue, sa sensibilité (c’est-à-dire sa capacité à détecter un signal faible) et son excellente résolution angulaire, assurant la localisation précise des sources de photons, lui permettront de réaliser une cartographie du « ciel gamma » sans équivalent à ce jour entre 20 MeV et 300 GeV. Seuls des événements très violents à l’échelle de l’Univers (explosions d’étoiles, pulsars, trous noirs etc) sont susceptibles d’émettre des photons de plusieurs centaines de GeV.

Grand champ de vue Le LAT observe en permanence 20% de la voûte céleste et couvre l’ensemble du ciel en deux orbites, soit toutes les 192 minutes. Cette rapidité de balayage est nécessaire car les signaux émis peuvent être très faibles : il faut alors observer de nombreuses fois la même zone pour accumuler suffisamment de photons. De plus, il est ainsi possible de suivre des sources « transitoires », dont l’intensité du rayonnement varie avec le temps. À chaque cycle, une direction donnée du ciel est observée pendant 30 minutes en moyenne.

L’autre instrument embarqué, le GBM (« Gamma Burst Monitor »), vise à détecter et à étudier les sursauts gamma, dans une large plage d’énergie (10 keV – 30 MeV) et avec un champ de vue maximal. Les observations ont lieu simultanément dans toutes les directions, le Soleil et son voisinage immédiat étant occultés pour éviter que les détecteurs ne soient éblouis par son rayonnement. Environ 215 détections sont attendues chaque année, dont 70 seront également visibles par le LAT qui pourra alors aider à la localisation de la source et suivre son évolution.

page 72

LAT Le LAT utilise une technologie qui le rend très similaire aux détecteurs de physique des particules. Il est composé de seize tours identiques, ordonnées en quatre lignes et quatre colonnes. La partie supérieure est un détecteur de traces, un assemblage de couches de silicium séparées par de minces feuilles de tungstène. Lorsqu’un photon traverse l’une de ces dernières, il a une probabilité non nulle (et croissante avec son énergie) de se convertir en une paire électron-positron. Au contraire des photons les particules chargées laissent des traces dans le silicium ce qui permet de reconstruire leurs trajectoires, quasi-rectilignes et dans le prolongement du rayon gamma – en fait leur direction est modifiée de manière aléatoire à chaque interaction avec le silicium mais la déviation est d’autant plus faible qu’elles sont énergétiques. Le bas des tours contient un calorimètre qui mesure l’énergie des particules. Les informations combinées des deux détecteurs sont utilisées pour sélectionner les événements intéressants. De plus, le LAT est entouré d’un « détecteur d’anti-coïncidences » à scintillations (l’ACD) sensible aux particules chargées (des rayons cosmiques qui interagissent avec le détecteur de traces et le calorimètre) mais pas aux photons. Lorsque l’ACD détecte une de ces particules les données du LAT sont ignorées puisqu’elles ont vraisemblablement été produites par ce signal parasite. Les algorithmes de décision au niveau du satellite permettent ainsi d’éliminer 75% du bruit de fond ce qui améliore le potentiel de détection du télescope tout en limitant le flot de données transmises vers le sol. 99% du bruit de fond restant est rejeté lors de la phase d’analyse au sol, effectuée par 600 ordinateurs basés à SLAC. L’ensemble de la chaîne de traitement, du satellite GLAST aux stations de travail des physiciens, prend à peine quelques heures. Au final le taux de gamma « célestes » enregistré est de l’ordre d’une particule par seconde, soit tout de même plusieurs dizaines de millions de photons par an !

ÉLÉMENTAÍRE


Sursauts gamma Les sursauts gamma sont des émissions violentes de photons énergétiques qui durent de quelques secondes à quelques dizaines de minutes, apparaissent de manière aléatoire dans le ciel (à une fréquence de l’ordre d’un événement par jour) et dont les sources sont très éloignées de la Terre. Ce sont les phénomènes les plus puissants jamais observés : l’énergie dégagée par chaque sursaut gamma correspond au rayonnement émis par un millier d’étoiles comme le Soleil pendant toute leur vie. C’est également l’ordre de grandeur de l’énergie qu’on obtiendrait si la totalité de la masse du Soleil était convertie en énergie par la formule d’Einstein E = Mc2. Ces phénomènes furent détectés pour la première fois en 1969 par des satellites espions américains chargés de vérifier que tous les pays se conformaient au traité international d’interdiction des essais nucléaires atmosphériques. Ces observations étaient si mystérieuses que l’information ne fut pas rendue publique avant 1973. Il fallut ensuite attendre une quinzaine d’années pour que les expériences PHEBUS (France) et BATSE (États-Unis) montrent que les sursauts se divisent en deux catégories. - Les courts : quelques secondes au plus ; ils sont sans doute dus à une collision cataclysmique entre deux astres compacts très massifs (étoiles à neutrons ou trous noirs), orbitant l’un autour de l’autre dans un mouvement de spirale de plus en plus rapide et rapproché à mesure que le système perd de l’énergie. - Les longs : jusqu’à vingt minutes ; on sait aujourd’hui qu’ils sont provoqués par la mort d’étoiles massives, l’association sursauts gamma – supernovæ de type I ayant été démontrée en 2003. En février 1997 le satellite BeppoSAX fut le premier à observer une émission résiduelle dans d’autres longueurs d’onde à la suite d’un sursaut gamma. Le satellite SWIFT a maintenant pris sa suite.

© LAT collaboration SLAC

[isepasekwa] ?

Simulation du passage d’un photon dans une des seize tours du LAT. Le gamma se convertit dans une feuille de tungstène en deux particules chargées (en bleu) dont les traces sont ensuite détectées par plusieurs couches de silicium (croix vertes).

GLAST participe ainsi à un réseau global de surveillance de ces phénomènes qui comprend plusieurs autres observatoires dont le satellite SWIFT (lancé en 2004). Ce dernier étudie les émissions électromagnétiques moins énergétiques prolongeant le sursaut gamma dans les domaines des rayons X et du visible, améliorant ainsi notre connaissance de ces phénomènes. Le 26 août 2008, une conférence de presse a présenté la première carte du ciel gamma de GLAST, obtenue en analysant 95 heures de données prises en juin lors de la phase de mise au point du satellite. Celui-ci fonctionnant parfaitement, il a été rebaptisé, comme le veut la tradition de la NASA : GLAST est maintenant le « Fermi Gamma-ray Space Telescope » (FGST), du nom du physicien italo-américain Enrico Fermi qui fut, entre autres, le premier à proposer un mécanisme expliquant comment des particules chargées pouvaient être autant accélérées lors de leur traversée

ÉLÉMENTAÍRE

page 73

© NASA DOE

Sursaut gamma observé le 23 janvier 1999 par le télescope spatial Hubble. Première carte du ciel gamma de GLAST, rendue publique le 26 août 2008 et utilisant 95 heures de données prises en juin. Plus la couleur d’une zone est chaude et plus le nombre de photons gamma reçus de cette direction est élevé. On distingue parfaitement le plan galactique ainsi que quatre sources très brillantes déjà bien connues, dont le pulsar du crabe (à l’extrême droite de l’image), vestige d’une supernova ayant explosé en 1054 et observée par les astronomes de l’époque, en particulier chinois. Ni l’étalonnage en énergie, ni l’alignement ne sont parfaits mais l’important est, par cette première analyse, de montrer que le satellite est opérationnel.


du milieu interstellaire – les rayons cosmiques contiennent des particules bien plus énergétiques que celles produites par les plus puissants des accélérateurs terrestres – (voir « Accélérateurs »). Pour la petite histoire, le délai entre la prise des données (juin) et leur présentation (fin août) est principalement dû à la difficulté de contacter le ... petit-fils de Fermi pour obtenir son accord à propos du nouveau nom du satellite – traditionnellement annoncé en même temps que les premiers résultats scientifiques.

© LAT collaboration SLAC

Vue d’artiste montrant le satellite GLAST en orbite autour de la Terre avec, en arrièreplan, quelques exemples de corps célestes (fortement grossis et artificiellement regroupés) qui seront observés par ses instruments.

À gauche : carte du ciel dans le domaine des rayons gamma (énergie supérieure à 100 MeV) obtenue en accumulant toutes les données enregistrées par le prédécesseur de GLAST, l’observatoire EGRET (« Energetic Gamma Ray Experiment Telescope ») en service de 1991 à 2000. À droite : une simulation de la carte équivalente que devrait obtenir GLAST après seulement un an de prise de données. La comparaison est éloquente : on dirait deux clichés du même paysage, l’un flou et l’autre correctement mis au point ! Sur ces cartes, plus le nombre de rayons gamma venant d’une direction donnée est grand, plus la zone correspondante est brillante. La bande horizontale claire correspond au plan galactique où des rayons gamma sont produits par interaction de rayons cosmiques avec le milieu interstellaire, plus dense dans ces régions.

L’objectif principal de la première année de prise de données du LAT est la mise en place d’un catalogue de sources : sur les 271 émissions détectées à ce jour, l’objet céleste à l’origine des rayons gamma n’a pas encore été déterminé dans deux tiers des cas, en particulier à cause du manque de résolution angulaire des satellites de la génération précédente. De plus, la sensibilité de GLAST devrait lui permettre de trouver plusieurs milliers de nouvelles sources par an. Ensuite, la surveillance systématique du ciel se poursuivra, en parallèle avec des campagnes d’observation spécifiques, ouvertes à des chercheurs extérieurs à la collaboration GLAST. Les données seront rendues publiques très rapidement – quelques mois au plus après leur enregistrement – afin que l’ensemble de la communauté scientifique puisse en bénéficier. L’autre appareil embarqué, le GBM, n’est pas en reste : fin août, plus d’une trentaine de sursauts gamma avaient été repérés.

page 74

Évolution de la sensibilité de GLAST après 100 secondes (en haut à gauche), 1 orbite (en bas à gauche), 1 jour (en haut à droite) et 1 an (en bas à droite) de prise de données. Le code de couleur donne l’intensité que doit avoir une source pour être détectable : plus la couleur est chaude, plus l’émission doit être intense.

Logo du satellite FGST. Le « F » initial de Fermi est représenté (de manière artistique) par un « noyau actif de galaxie », une source de rayons gamma que les scientifiques espèrent bien étudier avec les données de GLAST – pardon, de FGST !

© NASA/Sonoma State University/ Aurore Simonnet

© GLAST

© EGRET NASA

[isepasekwa] ?

ÉLÉMENTAÍRE


[isepasekwa] ? Non, non, Élémentaire n’a pas décidé de vous envoyer une carte postale de Malibu, mais plutôt de vous faire part d’une nouvelle surprenante concernant les rayons cosmiques. Notre Pamela n’est autre... qu’un détecteur installé sur un satellite, dont le nom est l’acronyme de Payload for Antimatter Exploration and Light-nuclei Astrophysics. Le lancement de la sonde Lancé le 15 juin 2006 par une fusée russe CAPRICE 94 avec le ballon en Soyouz, comme nous l’annoncions dans l’air et la sonde au sol. le numéro 3 d’Élémentaire (rubrique « Centre »), Pamela a été placé sur le satellite russe Resurs-DK1 qui évolue entre 350 et 610 kilomètres d’altitude sur une orbite elliptique autour de la Terre. Prenant la suite de travaux menés à l’aide de ballons-sondes, cette collaboration entre l’Italie, la Russie, l’Allemagne et la Suède a décidé d’étudier la composition des rayons cosmiques (constitués d’électrons, positrons, protons, antiprotons, noyaux légers) pour des énergies allant de 50 MeV à quelques centaines de GeV.

© WiZard collaboration

Pamela : Alerte aux positrons

ÉLÉMENTAÍRE

page 75

© NASA-ESA

Un peu comme GLAST (voir article précédent), Pamela contient plusieurs détecteurs permettant de séparer les différents types de particules contenues dans les rayons cosmiques et de mesurer leur énergie. On y trouve entre autres un spectromètre magnétique qui identifie les caractéristiques des particules chargées, un calorimètre capable de distinguer les électrons (positrons) des antiprotons (protons) et des noyaux légers, un système de mesure du temps de vol Une éruption solaire vue par le satellite pour déterminer la masse des particuSoho. les, et un détecteur de neutrons. En octobre dernier, Pamela a surpris les physiciens et enfiévré bien des esprits. En effet, la collaboration a rendu public des résultats sur la proportion d’électrons et de positrons dans les rayons cosmiques entre 1 et 100 GeV. En-dessous de 10 GeV, les résultats sont compatibles avec les données prises antérieurement par des ballons-sondes, à condition de prendre en compte les effets du vent solaire. Mais au-dessus de 10 GeV, la fraction de positrons présents dans les rayons cosmiques augmente avec l’énergie. Si les électrons sont très communs dans l’Univers, les positrons nécessitent des circonstances un peu plus originales pour être produits. En effet, on s’attend à ce que des paires électrons-positrons soient créées lorsque des protons, ou des noyaux légers, accélérés se propagent dans la Galaxie et interagissent avec les protons des nuages de

Ballons-sondes Pamela a été conçu par la collaboration italienne WiZard, qui a mené de nombreuses campagnes de mesures sur ballonssondes entre 1989 et 1998. Ces ballons qui, comme MASS89, MASS91, TS93, CAPRICE94 et CAPRICE98, portaient des détecteurs très proches de ceux utilisés en physique des particules ont mesuré le rapport particule/antiparticule et le spectre en énergie pour les antiprotons et les positrons contenus dans les rayons cosmiques. Les résultats accumulés, et complétés par d’autres mesures en ballonssondes, ont débouché sur une collaboration russo-italienne, avec des expériences embarquées sur la station spatiale russe MIR à partir de 1995. Des détecteurs à base de silicium y étaient utilisés pour étudier les rayonnements solaires et cosmiques de basse énergie. Pamela constitue l’étape suivante de cette collaboration.

Vent solaire Le vent solaire est un flux de particules chargées issues des couches supérieures du Soleil. Il est principalement constitué d’électrons et de protons qui échappent à l’attraction gravitationnelle du Soleil en raison de la température élevée régnant à sa surface. Ces particules sont entre autres responsables des aurores polaires quand elles pénètrent l’atmosphère terrestre (voir Élémentaire N°3). L’intensité du vent solaire dépend de l’activité du Soleil lui-même, qui varie selon un cycle régulier de 11 ans (correspondant à un retournement complet du champ magnétique solaire). Ainsi, suivant les années, les mesures de positrons et d’électrons dans les rayons cosmiques de basse énergie sont modulées plus ou moins intensément par le vent solaire. Il faut donc prendre en compte les variations du cycle solaire pour comparer les résultats des expériences en ballons menées de 1994 à 2001 avec ceux de Pamela, accumulés ces deux dernières années.


[isepasekwa] ? gaz interstellaires (les mêmes processus peuvent avoir lieu avec des noyaux légers). Ce phénomène s’ajoute aux nombreux autres processus astrophysiques (supernovæ, pulsars, noyaux actifs de galaxies...) qui produisent en proportion variable des électrons, des positrons, et les autres constituants des rayons cosmiques.

© Pamela

Au final, donc, rien d’étonnant à ce que Pamela observe des positrons. Mais selon les modèles astrophysiques en vigueur, leur proportion devrait diminuer avec l’énergie, alors que Pamela observe au contraire une augmentation ! Au même moment, des ballons-sondes des collaborations ATIC et PPB-BETS, qui ne sont pas sensibles à la charge des particules, mais seulement à leur énergie, ont également observé un excès du nombre total de positrons et d’électrons dans les rayons cosmiques autour de 700 GeV. Rapidement, plusieurs explications ont été avancées... Certains physiciens suggèrent que le modèle décrivant la production de positrons souffre de grandes incertitudes (énergie des protons initiaux, interaction avec le gaz interstellaire, propagation des rayons cosmiques dans la galaxie). D’autres évoquent la création de paires électrons-positrons par des pulsars (voir « Centre ») situés à proximité de la Galaxie. Mais si les résultats de Pamela entretiennent tant la fébrilité de certains chercheurs, c’est parce qu’un excès de positrons de haute énergie est aussi attendu dans de nombreux modèles de matière noire. En effet si cette fameuse matière noire était constituée de particules exotiques très massives situées dans le halo galactique, elles se rencontreraient de temps à autre et s’annihileraient en une paire électronpositron très énergétique. Ce mécanisme pourrait donc en principe expliquer l’anomalie vue par Pamela. Mais avant de crier victoire, il faut encore fournir un modèle cohérent de matière noire qui explique quantitativement les résultats de Pamela tout en restant en accord avec les autres observations cosmologiques et les contraintes de physique des particules. D’une part, le nombre d’antiprotons observés dans les rayonnements cosmiques à ces énergies (quelques centaines de GeV) est en bon accord avec les modèles astrophysiques actuels. D’autre part, les caractéristiques de la matière noire ont un impact sur l’évolution de l’Univers depuis le Big Bang jusqu’à nos jours. Il faut aussi tenir compte des contraintes fournies par la physique des particules sur la masse et les interactions des constituants potentiels de la matière noire. Si des modèles de physique nouvelle excitent l’imagination de nombreux théoriciens, d’autres étudient l’éventualité que les modèles actuels décrivant le fond astrophysique soient à revoir (par exemple en raison de supernovæ dans notre environnement proche capables de libérer les positrons observés). Un sacré casse-tête sur lequel planchent actuellement les théoriciens, pendant que Pamela, mais aussi d’autres expériences comme Fermi, continuent à accumuler des données pour mieux comprendre la composition du rayonnement cosmique !

Pamela dans toute sa splendeur : 470 kilogrammes de haute technologie dans un volume de 130 × 70 × 70 cm3.

page 76

© M. Cirelli

Halo galactique Le halo galactique désigne une région approximativement sphérique qui entoure chaque galaxie et qui englobe tous les objets liés gravitationnellement à cette dernière. Dans le cas de notre Galaxie, la matière noire se situerait dans un halo dont le rayon serait de l’ordre de plusieurs centaines de milliers d’années-lumière – à titre de comparaison, la partie visible de notre Galaxie est un disque dont le rayon est de cent mille années-lumière, avec une épaisseur de mille années-lumière.

Évolution de la fraction de positrons dans les rayons cosmiques en fonction de l’énergie. La mesure de Pamela apparaît en rouge avec d’autres, effectuées par des ballons-sondes (MASS, CAPRICE, HEAT). Un modèle décrivant la production de positrons par la propagation de rayons cosmiques dans la Galaxie prédit la courbe grisée en aplat. On n’a pas représenté ici les incertitudes théoriques du modèle, liées aux différentes hypothèses en jeu.

ÉLÉMENTAÍRE


La question qui tue ! Combien pèse le vide ? L’obscure clarté qui tombe des étoiles L’étude du passé lointain de l’Univers durant le demi-siècle dernier s’est avérée très fructueuse. Non seulement les physiciens ont compris de nombreux aspects de son histoire, mais ils ont aussi trouvé dans la cosmologie primordiale – l’étude de son passé lointain – une fenêtre unique pour l’étude de la physique des très hautes énergies (et donc des très petites distances) au-delà du Modèle Standard des interactions élémentaires. Pour autant, les observations détaillées de l’Univers récent ne sont pas dénuées d’intérêt et ont, en fait, mis à jour des phénomènes inattendus. Par exemple, un « petit » détail : à force de scruter l’Univers, les physiciens ont découvert que seul 5% du contenu énergétique actuel de l’Univers observable – sa masse – est de nature connue ! Mais alors comment peuvent-ils affirmer avoir une bonne compréhension, non seulement qualitative, mais quantitative, de l’histoire de l’Univers ? En fait la proportion de « physique connue » a varié au cours du temps et était plus importante, et même dominante, dans l’Univers primordial. Bien, mais nous avons tout de même un problème sur les bras pour « expliquer » l’Univers actuel, un problème grave... et nous pesons nos mots !

Deux représentations graphiques du contenu en énergie de l’Univers, avec sa part directement observée... et le reste !

Les tentatives d’explication théorique de ce phénomène suivent essentiellement deux pistes : la première consiste à supposer que les lois de la gravitation décrites par la relativité générale d’Einstein ne sont plus valables à très grande distance et doivent être modifiées ; la seconde postule l’existence d’une nouvelle forme de « matière », génériquement appelée « quintessence », dont l’influence gravitationnelle est telle qu’elle donne lieu au phénomène observé. Les données observationnelles

ÉLÉMENTAÍRE

page 77

Regardons les choses de plus près : toute masse, et plus généralement, d’après la théorie de la relativité générale, toute forme d’énergie, est source de gravitation, autrement dit... pèse. Mais tout ne gravite pas de la même façon. Une partie des 95% inconnus gravite comme la matière ordinaire, c’est-à-dire qu’elle donne lieu à une force de gravité attractive, subit l’effondrement gravitationnel – ce qui pour la matière ordinaire, donne lieu à la formation d’étoiles ou de galaxies, etc... On parle de « matière noire », qui constitue environ 23% de la masse de l’Univers. Il pourrait s’agir de particules nouvelles, prévues par certaines extensions théoriques du Modèle Standard des interactions élémentaires, suffisamment massives pour n’avoir encore jamais été observées dans les expériences étudiant les collisions effectuées par des accélérateurs de particules. Les 72% restant sont nettement plus mystérieux, donnant lieu, en particulier, à une force de gravité répulsive à grande distance, responsable de l’accélération de l’expansion de l’Univers observée récemment. Nous traversons actuellement une nouvelle phase d’inflation (voir « Théorie ») ! Mais une expansion quand même nettement plus lente que l’inflation des premiers âges de l’Univers. Pour désigner ces 72% mystérieux, on parle « d’énergie noire ».


Combien pèse le vide ? Particules nouvelles La plupart des extensions du Modèle Standard des particules et interactions élémentaires (voir Élémentaire N°6), qui visent à unifier les interactions connues, ou à fournir des explications à des faits qui sont de simples hypothèses du Modèle Standard, prévoit l’existence de nouvelles particules et/ou interactions, activement recherchées par les physiciens. Certaines sont stables, d’autres interagissent très peu avec la matière ordinaire ou ont des temps de vie extrêmement longs, de l’ordre de l’âge de l’Univers et pourraient donc être présentes en quantité non négligeable aujourd’hui. En général, ces particules n’interagissent que très peu avec la matière ordinaire. Toutes, cependant, se comportent, d’un point de vue gravitationnel, comme cette dernière. Celles qui satisfont à ces critères sont autant de candidates possibles pour expliquer la matière noire. Parmi les nommées, nous trouvons les neutralinos, particules neutres et stables, prévues par les théories supersymétriques; ou encore le (ou les) neutrino(s) supermassif(s) prévu(s) par les extensions du Modèle Standard cherchant à expliquer la masse des neutrinos connus. Mais il y en a bien d’autres.

Dans les théories supersymétriques, chaque particule connue est associée à un partenaire, une particule de nature différente. Ces particules seraient très massives, de sorte qu’elles n’ont pas encore été observées dans les accélérateurs de particules. La particule supersymétrique la plus légère est un bon candidat pour la matière noire de l’Univers.

actuelles, si elles ne permettent pas de trancher, semblent légèrement favoriser la première hypothèse et, en particulier, la modification la plus simple possible de la théorie d’Einstein, modification introduite... par Einstein lui-même en 1917.

Une (grande) constante... En effet, Einstein, appliquant sa toute nouvelle théorie de la relativité générale à l’Univers dans son ensemble, introduit un terme dans ses équations, baptisé « constante cosmologique », dont le rôle est de permettre l’existence de solutions statiques (sans expansion), qui lui semblent les seules satisfaisantes. Plus tard, il mentionnera cet épisode comme sa plus grande erreur. Toujours est-il qu’un tel terme est permis par les postulats de base de la relativité générale et n’a, a priori, aucune raison d’être nul. Selon son signe, il peut soit ralentir l’expansion (et même l’annuler, comme le souhaitait Einstein initialement), soit l’accélérer ! À lui seul, ce terme permet de rendre compte de l’accélération récente de l’Univers de manière très économique sans recourir à de nouveaux principes ou inventer de nouvelles formes exotiques de matière. Problème résolu ? Ce serait compter sans les principes de base de la mécanique quantique qui, s’ils ne permettent pas d’exclure cette solution, la rendent très insatisfaisante. Voyons cela de plus près.

Une simulation numérique de la répartition de matière noire dans un cube d’un milliard d’années-lumière de côté. Le trajet de rayons lumineux émis par des galaxies lointaines est représenté en jaune : selon la relativité générale, la présence de matière (noire) dévie ces rayons !

page 78

... plus une (grande) constante... La mécanique quantique implique l’existence d’une constante cosmologique. En effet, un système quantique ne peut jamais être véritablement « au repos » au sens classique du terme, c’est-à-dire avec une position donnée et une vitesse nulle. En vertu du principe de Heisenberg, position et vitesse ne peuvent avoir simultanément des valeurs parfaitement déterminées. Elles ont, au contraire, des valeurs qui fluctuent « inévitablement » : on parle de fluctuations quantiques. Il s’ensuit que tout système quantique, même dans son état de plus basse énergie, l’état « fondamental », a une énergie non nulle et, par conséquent, pèse ! C’est le cas, en particulier, de l’état fondamental d’un système de particules quantiques. On l’appelle aussi « vide » car il

ÉLÉMENTAÍRE


Combien pèse le vide ?

... égal une (petite) constante ?

Fluctuations quantiques En mécanique classique, l’état d’une particule ponctuelle est, à tout instant, complètement déterminé par la donnée de sa position et de sa vitesse : connaissant les valeurs de ces dernières à un moment donné, les lois de la mécanique classique permettent de prédire l’état de la particule (position et vitesse) à tout instant ultérieur (ou antérieur), c’est-à-dire la trajectoire de la particule. En particulier, on obtiendra invariablement le même résultat si on répète un grand nombre de fois la même expérience, en préparant notre particule invariablement et strictement dans le même état de départ, et en mesurant sa position et sa vitesse à un instant ultérieur (si on omet les incertitudes expérimentales dans la préparation et la mesure). Les choses sont bien différentes en mécanique quantique. En général, on ne peut pas prédire avec une assurance parfaite le résultat de la mesure d’une quantité (observable). On peut seulement prédire la probabilité que la mesure d’une observable aboutisse à telle ou telle valeur. En d’autres termes, si on répète un grand nombre de fois une même mesure, on n’obtient en général pas le même résultat : on dit que l’observable en question « fluctue ». Si ces fluctuations quantiques sont petites (en particulier devant les inévitables incertitudes expérimentales relatives à la préparation de l’expérience et à la mesure), la mécanique classique fournit une description approximativement correcte.

En effet, les estimations théoriques montrent que, dans le cadre du Modèle Standard, la contribution des fluctuations quantiques du vide à la constante cosmologique (le « poids du vide ») est beaucoup trop importante par rapport à la valeur mesurée, et ce de plusieurs dizaines d’ordres de grandeur (un ordre de grandeur correspondant à un facteur 10) ! Mais non contente d’être incompatible avec la valeur mesurée, cette contribution qui, rappelons-le, provient de la seule « physique connue », est incompatible avec notre existence, avec l’existence même de notre Univers. En effet, une telle valeur de la constante cosmologique aurait donné lieu à une expansion exponentielle de l’univers dans ses tous premiers instants, ne permettent pas la formation des premiers noyaux, atomes, l’allumage des premières étoiles etc... Courrons-nous à la catastrophe !? Pas complètement.

La constante introduite par Einstein qui, comme nous l’avons dit plus haut, est a priori non nulle, fournit une autre contribution, classique celle-là, à la constante cosmologique. La valeur mesurée est donc une valeur effective, somme des contributions classique et quantique. Il suffit d’ajuster la contribution classique pour que la somme des deux soit compatible avec la valeur observée. Nous voilà sauvés ?

L’insoutenable légèreté du vide Cette solution, tout à fait cohérente, est pourtant loin d’être satisfaisante pour les (esprits retords des) physiciens. En effet, il faut viser juste ! La constante classique d’Einstein doit être ajustée avec une précision extrême, sur plusieurs dizaines de décimales. Ceci signifie que pour une raison obscure, notre Univers, loin de correspondre à une solution générique des équations de la Physique, en est, au contraire, une solution très particulière, très

ÉLÉMENTAÍRE

Champs Dans le cadre de la théorie quantique des champs, qui combine relativité restreinte et mécanique quantique, les particules ne sont plus l’objet central de la description mathématique. Elles sont les excitations élémentaires d’un objet plus fondamental : le champ. Ce dernier est une fonction prenant des valeurs différentes en différents points de l’espace-temps. En guise d’illustration, on peut imaginer un « champ » qui mesure la hauteur de l’eau sur l’océan par rapport à un certain niveau de référence. Ce champ prend des valeurs différentes à différents endroits. Les excitations élémentaires de ce champ sont des vagues qui se propagent sur l’océan. En mécanique quantique, la hauteur des vagues ne peut prendre que certaines valeurs précises (on dit qu’elles sont « quantifiées ») et ces « vagues élémentaires » ne sont autres que les particules. Il existe un type de champ pour chaque type de particule. Une conséquence remarquable de la théorie des champs est qu’elle permet d’expliquer pourquoi toutes les particules d’un même type (par exemple, tous les électrons de l’Univers) ont exactement les mêmes caractéristiques (masse, charge, etc.) : elles sont les excitations d’un seul et même champ (tout comme une vague sur l’Océan Indien n’est pas intrinsèquement différente d’une vague sur la Méditerranée). page 79

correspond à l’état vide de particules – ici les quantités qui fluctuent ne sont pas les positions et les vitesses (il n’y a aucune particule dans ce vide...), mais les champs associés aux différents types de particules connues, tels les champs électrique et magnétique associés au photon (voir Élémentaire N°6). Donc, le vide pèse et, tenez vous bien : l’effet gravitationnel des fluctuations quantiques du vide est strictement identique à celui d’une constante cosmologique ! Il semblerait que le problème de l’énergie noire soit en passe d’être résolu, avec la seule physique connue. Eh bien non !


Combien pèse le vide ? peu naturelle. On parle d’un problème d’ajustement fin ou de « fine tuning » en anglais. Une erreur minime dans cet ajustement donne lieu à des conséquences désastreuses quant à l’évolution de l’univers qui en résulte (absence de formation de galaxies etc). On peut adopter deux attitudes face à une telle situation. La première est de penser qu’il s’agit d’une coïncidence, d’un hasard. Après tout, contrairement aux autres domaines de la physique, nous n’avons qu’un seul Univers sous la main, c’est-à-dire qu’une seule solution des équations. Il n’y a pas de raison de s’attendre à ce qu’il corresponde à une solution générique. Il y a d’autres exemples de telles situations en physique. Le rayon de l’orbite sur laquelle s’est formée la Terre doit être très finement ajusté pour permettre l’apparition de la vie telle que nous la connaissons. Notre planète n’est donc pas un cas générique. Pour les planètes, on peut le vérifier car on connaît de nombreux autres cas où la vie ne s’est pas développée. On parle de principe « anthropique » : les paramètres décrivant notre Univers doivent être compatibles avec l’apparition de l’espèce humaine (laquelle peut être prise comme un fait expérimental)... et peu importe si ce choix nous semble peu naturel ! À l’inverse, on peut penser que le problème d’ajustement fin de la constante cosmologique signale que quelque chose de plus profond nous échappe. L’ajustement fin ne serait pas un hasard, mais la conséquence d’une nouvelle loi de la physique encore à découvrir. Ou encore, il se peut que notre compréhension limitée des effets de gravité quantique soit à l’origine du problème.

Un exemple d’ajustement fin lié au principe anthropique : pour voir apparaître la vie sur Terre, basée sur la présence d’eau liquide et de molécules carbonées, il faut que notre planète ne soit ni trop chaude ni trop froide. Des situations différentes en ce qui concerne la position de la Terre et la masse du Soleil n’auraient pas permis à l’être humain d’apparaître... et de s’interroger sur les problèmes d’ajustement fin dans notre Univers.

page 80

Ce problème, soulevé par l’observation de l’Univers récent, est une des grandes questions de la cosmologie actuelle. Sa résolution ouvrira peutêtre les portes de mondes inconnus dans le domaine de la physique des très hautes énergies, jusqu’ici chasse gardée de la cosmologie primordiale.

ÉLÉMENTAÍRE


Énergie nucléaire ITER vers une future source d’énergie? Fission-Fusion La fission d’un gros noyau en deux noyaux plus petits produit de l’énergie. C’est la différence de masse des différents constituants qui permet de dégager environ 200 MeV dans la réaction de fission de l’235U. 235 U → 139Te + 94Zr + 2 neutrons + 197 MeV

Les décisions sont arrêtées. Le chantier est lancé. Le réacteur thermonucléaire ITER (International Thermonuclear Experimental Reactor), implanté à Cadarache, entrera en service en 2015-2016, même si certains physiciens ont contesté l’opportunité de cette entreprise. ITER (en latin la voie) est une étape sur le chemin de l’autre source d’énergie nucléaire : des réactions de fusion de noyaux légers qui comme les réactions de fission, fragmentation de noyaux lourds, sont exothermiques. Mais alors que la fission, maîtrisée dans des réacteurs depuis 1942, est passée au stade industriel vers 1970, la fusion en est encore au stade expérimental. Ce long délai est dû à des causes spécifiques : masse de nouvelles connaissances qu’il fallait acquérir, nombreuses techniques d’avant garde à développer, nécessité d’expérimenter sur des installations de grande taille, extrêmement coûteuses.

Dans le cas de noyaux légers, il faut au contraire fournir de l’énergie pour pouvoir les scinder. À l’inverse, en réalisant la fusion de ces noyaux, on peut produire de l’énergie. La somme des masses de petits noyaux est plus grande que la masse du noyau issu de leur fusion. C’est ce processus qui est à la base de la production d’énergie des étoiles.

Fusion thermonucléaire

ÉLÉMENTAÍRE

Régime thermonucléaire : Taux de réaction de divers processus de fusion en fonction de la température.

Né à Lille, le 30 septembre 1870, Jean-Baptiste Perrin fit ses études à l’École Normale Supérieure en 1891 où il resta attaché comme agrégé préparateur. Chargé de créer l’enseignement de la Chimie-Physique à la Sorbonne, Jean Perrin y professa jusqu’en 1940. Il chercha à étayer par des preuves expérimentales certaines l’hypothèse atomique, encore très contestée à l’époque. Il fit, en 1908, la première détermination incontestable du nombre d’Avogadro qui fixe les grandeurs moléculaires. Ses expériences mémorables, et notamment la vérification de la théorie d’Einstein sur le mouvement brownien, pour lequel lui fut décerné, en 1926, le prix Nobel de Physique, furent exposées en 1913 dans un livre : « Les Atomes ». Jean Perrin s’est beaucoup investi dans la vulgarisation de la science avec, entre autres, la fondation du Palais de la Découverte. L’astronomie passionnait Jean Perrin qui fut le premier à trouver l’origine du flux d’énergie rayonnée par le soleil en montrant dès 1920 que seule la fusion d’hydrogène en hélium peut en rendre compte. page 81

DR

Par application de la formule E = mc2, la fusion de 4 noyaux d’hydrogène pour former un noyau d’hélium, plus léger que la somme de 4 protons, est depuis 1919 (Jean -Baptiste Perrin) reconnue comme la source d’énergie du Soleil et des autres étoiles. La réaction proton-proton est une interaction faible dont la probabilité, excessivement petite, garantit la longue vie du Soleil en même temps qu’elle exclut toute mise en œuvre sur la Terre. En revanche, les réactions du deutérium, découvertes en 1934 par Rutherford et ses collaborateurs, ont des probabilités (sections efficaces) qui les rendent compatibles avec une source d’énergie terrestre à la condition d’être produites en régime thermonucléaire : au sein d’un gaz chaud complètement ionisé (plasma), projectiles et cibles ont une distribution en énergie dont une seule tranche, vraiment active, correspond au maximum de probabilité de la réaction. Située à une énergie très supérieure à la moyenne (température du plasma), elle est constamment renouvelée. Les étoiles et toutes les machines à fusion construite à ce jour fonctionnent sous ce régime. Les températures sont nécessairement élevées : au moins 107 K ou en unités d’énergie 1 keV.


ITER vers une future source d’énergie? Un demi-siècle de confinement magnétique

DR

Les recherches sur la fusion contrôlée ont vraiment commencé dans les années 50. Elles visaient à provoquer la réaction de fusion la plus favorable, celle entre le deutérium et le tritium (DT), dans un plasma ténu, chaud et isolé de toute paroi par un champ magnétique de confinement. La température d’allumage, telle que le chauffage par les produits de réaction chargés compense les pertes inévitables de chaleur par rayonnement, est de 4,5 107 K. Une température de fonctionnement raisonnable est 108 K. Un bilan d’énergie positif est alors obtenu si le plasma est suffisamment dense et stable. On utilise le produit de la densité du plasma par le temps pendant lequel on a pu l’obtenir pour décrire le fonctionnement du réacteur. Les premières années furent de grande créativité : on essaya nombre de configurations, mais les succès furent modestes. L’horizon s’éclaircit en 1968. Une machine imaginée par Andreï Sakharov et depuis longtemps à l’étude à l’Institut Kourchatov de Moscou sous la direction de Lev Artsimovitch, le TOKAMAK (pour TOroidalnaia KAmera i MAgnetnaia Katouchka, soit chambre torique et bobine magnétique), avait fourni des valeurs apparemment reproductibles de la température électronique (c’està-dire celle du plasma) et du temps de confinement (la « durée de vie » du plasma) : 10 millions de Kelvins et 20 millisecondes, respectivement (soit un ordre de grandeur à peine des 108 K nécessaires). Confirmés par une équipe britannique dépêchée sur place, ces résultats étaient bien meilleurs que tous ceux qui avaient été obtenus par ailleurs Ce fut le point de départ du développement d’une véritable filière. À partir de 1970, des installations de plus en plus grosses et performantes ont été construites et exploitées de par le monde. L’un des buts de ces expériences

Andreï Sakharov Né à Moscou le 21 mai 1921, il effectue des recherches sur les armes thermonucléaires et entre à l’Académie des sciences d’URSS en 1953. Il participe à la mise au point de la bombe à hydrogène soviétique mais s’oppose quelques années plus tard à la poursuite des expériences nucléaires. En 1966, il rallie l’intelligentsia dissidente au régime soviétique en place et crée en 1970 le Comité pour la défense des droits de l’homme, ce qui lui vaut le prix Nobel de la paix en 1975. Déchu de ses titres et de ses fonctions, il est assigné à résidence à Gorki et surveillé par le KGB de 1980 à 1986. Une fois réhabilité, il est élu en 1988 au présidium de l’Académie des sciences et en 1989 au Congrès des députés du peuple. Il meurt le 14 décembre 1989 à Moscou... un peu plus d’un mois après la chute du mur de Berlin.

© ITER organization

Réactions de l’hydrogène et du deutérium

page 82

Le premier Tokamak soviétique.

La réaction proton-proton (qui a lieu au cœur du Soleil et des autres étoiles) : H + H → D + e + + νe produit un noyau de deutérium (D = 1 proton + 1 neutron). Celui-ci est une curiosité naturelle : stable mais peu lié, il entre dans des processus dont les sections efficaces sont les plus grandes des réactions de fusion. Le deutérium agit d’abord sur lui-même selon deux voies également probables : D + D → T (1,0 MeV) + H (3,0 MeV) D + D → 3He (0,8 MeV) + n (2,5 MeV) produisant soit un tritium (T), hydrogène superlourd (un proton et deux neutrons), soit un hélium 3 (3He, deux protons et un neutron). Ces noyaux peuvent à leur tour réagir avec le deutérium pour fournir de l’hélium 4 et une grande quantité d’énergie : D + T → 4He (3,5 MeV) + n (14,1 MeV) D + 3He → 4He (3,7 MeV) + H (14,7 MeV) La réaction DT est la plus intéressante. Elle est la seule envisagée dans les projets actuels. Le deutérium existe en abondance dans les océans : un verre d’eau lourde (molécule de D2O contrairement à l’eau normale composée de la molécule de H2O) par m3 d’eau de mer. Le tritium, radioactif, doit être produit en bombardant du lithium avec des neutrons. C’est pour cela que la couverture d’un réacteur thermonucléaire doit incorporer du lithium afin de régénérer le tritium, combustible de la réaction.

ÉLÉMENTAÍRE


ITER vers une future source d’énergie?

Schéma de principe d’un tokamak : a) le transformateur et sa cage ; b) surfaces magnétiques

1973-75 1975-77 1983 1991 1997 2000

Élaboration du projet Discussions pour le choix du site Premier plasma Première expérience DT Pfusion : 16 MW (DT), Énergie : 13 MJ. Rétrocession à la Grande Bretagne

Les grandes dates de la vie du JET JET, toujours en service en 2008. Construire puis exploiter un grand Tokamak est une entreprise extrêmement lourde sur tous les plans : scientifique, technique, administratif et bien entendu financier.

© ITER

était de trouver les quantités qui régissent le temps de confinement de l’énergie et leurs dépendances. Tous les résultats montrent un effet simple de taille : la machine est d’autant plus performante qu’elle est plus grosse. En trente ans, trois générations de tokamaks de taille croissante se sont succédées. En raison du prix de construction et du coût d’exploitation, la troisième génération n’a donné lieu qu’à trois machines : en Europe le JET (Joint European Tokamak), aux États-Unis TFTR (Tokamak Fusion Test Reactor, stoppé en 1997 une fois ses objectifs atteints) et enfin JT-60 au Japon. L’introduction du tritium dans le plasma s’accompagne de contraintes liées à la radioactivité propre de cet isotope du noyau d’hydrogène et à l’activation de certains matériaux devenant radioactifs après l’absorption des neutrons de 14 MeV produits lors des réactions de fusion. C’est pourquoi cette opération est toujours envisagée avec circonspection et n’a été planifiée que vers la fin des programmes expérimentaux de TFTR et de JET. TFTR a fourni 10 MW de fusion DT en 1993. Cette performance fut dépassée en 1997 par le JET avec un résultat de 16 MW de fusion DT pour 25 MW de chauffage auxiliaire, c’est-à-dire dépensés pour faire fonctionner la machine. Quel chemin parcouru depuis les débuts ! Deux ordres de grandeur gagnés sur le produit densité-temps et deux autres sur la température. Cependant, les tokamaks construits jusqu’à aujourd’hui consomment toujours plus d’énergie qu’ils n’en produisent.

ÉLÉMENTAÍRE

page 83

Tokamak La mise en œuvre du Tokamak commence par la réalisation d’un vide extrêmement poussé dans la chambre torique qui contiendra le plasma. Puis on emplit la chambre du gaz désiré pour l’expérience (hydrogène, deutérium ou hélium) à la pression requise (quelques millitorrs, millièmes de la pression atmosphérique). Les bobinages créant un champ magnétique de confinement et le champ de compensation sont alimentés en courant quasi continu. On connecte alors le primaire du transformateur à un générateur d’impulsions. Le champ d’induction est suffisant pour mettre en mouvement les quelques électrons libres toujours présents, les accélérer, puis par un processus d’avalanche provoquer l’ionisation du gaz qui devient ainsi conducteur d’électricité, en obtenant une densité électronique de 1019 à 1020 m-3. Pendant la montée du courant, le plasma s’échauffe progressivement par effet Joule. Il devient de plus en plus conducteur au point que dans toutes les machines exploitées à ce jour, lorsque la température électronique atteint environ 2 107 K, la résistivité du plasma, excessivement faible, se compare à celle des supraconducteurs. L’effet Joule est alors inopérant. Pour atteindre des températures plus élevées, il convient d’injecter de l’énergie dans le plasma. Le tokamak est ainsi accompagné de systèmes de chauffage auxiliaires par arrosage avec des ondes électromagnétiques de haute fréquence ou par injection de particules neutres que nous allons à présent expliquer. Il a été relativement aisé de développer des générateurs de puissance adaptés aux fréquences en jeu. Il faut en effet que le plasma absorbe plusieurs mégawatts de radiofréquences pour obtenir l’élévation de température désirée. Des antennes alimentées par des circuits haute fréquence ou des guides d’ondes sont disposées à l’intérieur de l’enceinte à vide de façon à irradier le plasma selon les directions les plus favorables au chauffage. Un autre usage des ondes est la génération non inductive de courant permettant de prendre le relais de l’impulsion envoyée dans le transformateur et d’amorcer un régime quasi continu. Autre procédé de chauffage du plasma : l’injection de particules neutres d’une énergie largement supérieure à l’énergie thermique du milieu dans lequel elles pénètrent (en pratique 100 keV à 1 MeV) peut servir en plus à compenser les pertes de particules. Une bouteille magnétique étant étanche dans les deux sens, il est nécessaire de rendre les ions électriquement neutres pour qu’ils puissent aller jusqu’au cœur du plasma, or on ne sait accélérer que des objets chargés. Un dispositif de formation de faisceaux de particules neutres comporte donc successivement une source d’ions dont le diamètre peut atteindre 1 m, un étage accélérateur, un étage de neutralisation et un dispositif pour l’élimination des ions résiduels. En entrant dans le plasma, les neutres sont d’abord ionisés. Les ions ainsi formés vont céder leur énergie par collisions successives.


ITER vers une future source d’énergie? Vers ITER

© JET

Rapport Q La performance d’un tokamak fonctionnant avec le mélange deutériumtritium est donnée par le rapport Q de la puissance de fusion à la puissance de chauffage fournie de l’extérieur. Ce rapport s’est rapproché de l’unité dans le JET et devrait atteindre 10 dans ITER pendant un temps court de 400 secondes.

Intérieur du JET JET.

Grand rayon du plasma (m) Petit rayon du plasma (m) Volume du plasma (m3) Courant plasma (MA) Champ magnétique (T) Durée du plasma Type de Plasma Puissance thermonucléaire (Pth) Q = Pth / puissance de chauffage Puissance neutronique au bord

Tore Supra 2.25 0.7 25 1.7 4.5 180 s D-D ~ kW ~0 20 W/m2

Tokamakologie comparée : les principaux paramètres de Tore Supra, JET, ITER.

page 84

Paramètres

Mis en service dans les années 80, les Tokamaks de troisième génération ont donné leur pleine mesure dans les années 90. Les résultats obtenus ont été utilisés pour préparer l’étape suivante : ITER. À de rares exceptions près, les recherches sur la fusion ont été menées par de grands organismes nationaux ou au sein de la structure européenne Euratom. L’augmentation de taille des machines entraînant celle de leur coût, le niveau de décision s’est élevé à proportion. Aux U.S.A. les décisions sur le choix de TFTR, sa construction puis sa fermeture ont été prises par le gouvernement fédéral tandis que la communauté européenne prenait à son compte le projet JET. Plus spectaculaire encore de ce point de vue fut le lancement du projet ITER après la rencontre au sommet, tenue en Islande en 1986, entre Ronald Reagan et Mikhaïl Gorbatchev. Comment mieux marquer le début d’une ère nouvelle des relations entre l’Est et l’Ouest sinon par une entreprise commune de longue haleine sur un objectif ambitieux – sans être vital à court terme – et impliquant une réelle et permanente coopération ? La fusion magnétique offrait une opportunité idéale. Mais lorsqu’en 1998, le devis lui a été présenté en même temps que les plans de la machine, le Comité Directeur du projet ITER a reculé devant l’ampleur de la dépense : environ 7 milliards de dollars de l’époque, sans garantie de non-dépassement, pour un allumage incertain. Peut-être l’aurait-il approuvé si la prise de conscience par l’opinion de la menace du changement climatique avait été au niveau actuel. D’un autre coté il ne pouvait être question d’abandonner la filière Tokamak. C’eût été un énorme et immérité constat d’échec, condamnant pour des décennies la voie du confinement magnétique. Les progrès accomplis en 30 ans n’avaient mis à jour aucune raison sérieuse d’agir ainsi. En particulier rien n’était venu contredire le bien fondé des lois d’échelle. Alors, les responsables se sont ralliés à une demi-mesure. Les dimensions d’ITER ont été réduites par rapport au projet initial de sorte que le volume du plasma n’est plus que 800 m3 au lieu de 2 000. De même, la puissance de fusion attendue est abaissée à 500 MW contre 1-500 prévus initialement. L’allumage, JET ITER DEMO qui permet l’auto-entretien de la réaction sans recours 3 6.21 6.5 < R < 8.5 à des chauffages auxiliaires, 1.25 2.0 2<à<3 est reporté à des temps 155 837 > 1 000 meilleurs. 5-7 15 > 20 On peut s’interroger sur 3.4 5.3 >5 la pertinence d’une telle 10 s > 300 s 1h démarche. Repartir pour un D-D / D-T D-T D-T tour dans ces conditions est50kW/ 16MW 500 MW > 2 GW ~1 10 > 30 il de bonne politique ? Mais 60 kW/m2 0.6 MW/m2 > 5 MW/m2 selon Paul-Henri Rebut, directeur du JET et ancien chef de projet d’ITER, les

ÉLÉMENTAÍRE


ITER vers une future source d’énergie? méthodes de travail et l’articulation des équipes étaient mal adaptées à un projet aussi ambitieux. La machine aux objectifs limités, aujourd’hui en construction, est sans doute ce que l’on pouvait concevoir et réaliser de mieux à l’époque.

ITER © ITER

La décision de construire ITER a été prise en 2003. Le site, choisi en 2005 après une recherche menée au niveau mondial, est situé en France en lisière du Centre CEA de Cadarache (dans la vallée de la Durance) où est implanté depuis les années 1980 le tokamak Tore-Supra. Le premier plasma est prévu vers 2016. Puis une dizaine d’années s’écoulera avant d’atteindre le fonctionnement à plein régime sous tritium. Le projet vise un rapport Q (qui mesure le rendement de la machine) de l’ordre de 10 pour une puissance de fusion DT de 500 MW pendant 400 secondes. Ce sera donc un banc d’essai à objectifs multiples avant l’étape décisive de la production d’électricité. Le dessin d’ITER (voir ci-contre) adopte une section méridienne en forme de D (comme le JET) et intègre trois éléments majeurs : un solénoïde supraconducteur, un divertor destiné à éliminer les produits de réaction ainsi que les impuretés du plasma et enfin un dispositif de récupération de l’énergie de fusion, la couverture. Les deux premiers éléments ont déjà été expérimentés. Les supraconducteurs ont fait leurs preuves sur le ToreSupra, les divertors sur le JET et JT-60, après des premiers essais sur de petits tokamaks. La couverture sera mise en œuvre pour la première fois. Modulaire, ses éléments sont traversés par un fluide de refroidissement dont la température ne dépassera pas 100 à 150°C en service normal ce qui est insuffisant pour faire tourner une turbine couplée à un générateur

© ITER

Vue éclatée d’ITER avec, en bleu, la silhouette d’une personne donnant une idée de l’énorme taille de l’ensemble.

ÉLÉMENTAÍRE

Le site d’ITER à Cadarache avec les projets des bâtiments de ITER dessinés page 85

© ITER

Disposition de la couverture et du divertor dans ITER. Les ions indésirables sont guidés jusqu’à des absorbeurs par les lignes de champs des surfaces magnétiques ouvertes.


ITER vers une future source d’énergie? électrique. Certains de ces modules comporteront du lithium en vue de la régénération du tritium par réaction des neutrons sur les parois. Réactualisée, la note à payer par l’ensemble des nations partenaires s’élève à cinq milliards d’euros d’investissements jusqu’à la mise en service. Cinq autres milliards seront nécessaires pour 15 à 20 ans d’exploitation à partir de 2016, suivis du démantèlement de l’installation.

Du simple fait qu’il met en œuvre des réactions nucléaires, ITER est source de craintes. Au moindre incident, le plasma très ténu se refroidit immédiatement et la réaction est bloquée net. La crainte d’une explosion est donc totalement infondée. Quant au problème de la radioactivité, il est sans commune mesure avec celui des réacteurs à fission. Le tritium est bien radioactif, mais les quantités manipulées (avec des précautions renforcées par toute l’expérience acquise au JET) se comptent en grammes. Par contre les neutrons de 14 MeV activent les matériaux de structure et cette radioactivité résiduelle perdure après l’arrêt définitif de l’installation qui ne sera donc démantelée qu’au bout de quelques décennies. Le site reviendra alors à son état d’avant le chantier.

© ITER

Après ITER ?

page 86

Des tokamaks actuels (Tore Supra et JET) à DEMO, ou comment se dessine l’avenir de la filière. Les encadrés recensent les principaux objectifs de recherche relatifs à chaque étape. La mise en service de DEMO pourrait être contemporaine de la quatrième génération des réacteurs à fission.

Dans ses ambitions premières, ITER visait, à échéance 2010-2020, la démonstration de l’allumage de la réaction thermonucléaire confinée. Cela aurait constitué l’équivalent de ce que fut pour la fission la divergence de la réaction en chaîne obtenue le 2 décembre 1942 à Chicago par Enrico Fermi. Dans le calendrier actuel, ce pas ne sera franchi qu’après 2030 avec un réacteur de démonstration, DEMO, destiné à produire de l’électricité. Tous les aspects scientifiques et techniques de la filière tokamak auront été mis à l’épreuve sur ITER, sauf un : la tenue des matériaux (notamment ceux de la première paroi) au flux de neutrons de 14 MeV émis par le plasma en réaction. Dans ITER, celui-ci est comparable à celui rencontré dans un réacteur à fission à haut flux. Il sera 10 fois plus important dans DEMO. Pour cette raison, une installation spécifique, IFMIF (pour International Fusion Material Irradiation Facility), doit être construite au Japon pour un coût de l’ordre de 15% des investissements du programme ITER. Le flux de neutrons y sera créé par l’impact de deutérons accélérés jusqu’à une énergie de 40 MeV sur des cibles de lithium ou de béryllium. DEMO, contemporain des réacteurs à fission de quatrième génération, devrait donc apporter la preuve expérimentale qui manque toujours : allumer de façon contrôlée les réactions thermonucléaires. Le construire et le faire fonctionner prendra du temps, en plus du délai nécessaire à la prise de décision. Après seulement, il deviendra possible d’envisager le passage au stade industriel, processus qui, on le sait d’expérience, ne dure jamais moins d’une vingtaine d’années. Encore faudra-t-il que loin dans la seconde moitié du XXIe siècle, le réacteur à fusion soit compétitif par rapport aux autres sources d’énergie alimentant le réseau électrique. Sera-ce toujours un tokamak ? Peut-être. Mais si les efforts de recherche sur la fusion ont été concentrés sur cette configuration, c’est parce qu’à la fin des années 1960, elle était supérieure à toutes les autres. Rien ne dit qu’un siècle plus tard il en sera toujours ainsi. D’autres configurations magnétiques, mais aussi la voie inertielle (qui consiste à comprimer et à chauffer une très petite masse de DT jusqu’à 10 000 fois la densité du liquide et à quelques keV de température afin qu’elle explose) ou encore des réacteurs hybrides utilisant la fusion et la fission pourraient représenter l’avenir de cette forme d’énergie nucléaire.

ÉLÉMENTAÍRE


Échelle des distances 10-1 m = 0,1 m

Les puissances de dix

101m = 10 mètres

© CERN

102 m = 100 m

© CERN

104 m = 10 000 m

= 100 000 m

Une vue du CERN à l’altitude d’un oiseau avec au centre le bâtiment du Microcosm.

© CERN

106 m = 1000 000 m

© CERN

Quelques bâtiments du CERN.

© CERN

105 m

103 m = 1000 m © CERN

Dans le numéro 1 vous avez «vu» une mouche de 1 à 10-15 mètre, regardons aujourd’hui dans l’autre sens.

Cette image recouvre approximativement la même surface que le plus grand accélérateur de particules du CERN, le LHC, le grand collisionneur de hadrons.

© CERN

107 m = 10 000 000 m

© CERN

1020 m = 100 000 000 000 000 000 000 m

1026 m = 100 000 000 000 000 000 000 000 000 m

page 87

ÉLÉMENTAÍRE

Notre galaxie apparaît toute petite. Les Nuages de Magellan sont les deux galaxies voisines à gauche de l’image.

© CERN

© CERN

© CERN

© CERN

1022 m = 100 00 000 000 000 000 000 000 m

Notre système solaire apparaît faiblement sur fond d’étoiles. De 1014 m à 1019 m peu de changements.

109 m = 1 000 000 000 m

© CERN

1015 m = 1000 000 000 000 000 m

108m = 1 00 000 000 m © CERN

Le lac de Genève étale clairement ses 1000 km2.

La Lune en orbite autour de la Terre. Jamais un humain n’a voyagé plus loin. C’est l’échelle de la plus grande photo jamais prise, Chacun des 9325 points est une galaxie semblable à la nôtre. Elles se rassemblent en paquets appelés «superclusters» autour d’immenses espaces vides pouvant atteindre une taille de 150 millions d’années lumière.



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.