Page 1

N° 466 › 6,50 ₏ JUILLET-AOÛT 2012



 SpĂŠcial

L’actualitÊ des sciences

8

Êro m u N ’ÊtÊ d ages 116 p

PHYSIQUE

8 8





DU

XXI SIĂˆCLE e

Matière noire

Boson de Higgs

Neutrinos ThĂŠorie des cordes SupersymĂŠtrie

Constante cosmologique

Énergie sombre

Particules

Ondes gravitationnelles

ARCHÉOLOGIE : la

saga de la grotte Chauvet

LR_466_001Couv_001 1

Trous noirs

!"$%%6.43.58F>>B

Expansion Gravitation quantique de l’Univers Énergie du vide M 01108 - 466 - F: 6,50 E - RD

PHYSIQUE DU XXIe SIĂˆCLE

N° 466 JUILLET-AOÛT 2012

MENSUEL DOM 6,90 â‚Ź BEL 7,50 â‚Ź LUX 7,50 â‚Ź D 8,20 â‚Ź ESP 7,50 â‚Ź GR 7,50 â‚Ź ITA 7,50 â‚Ź PORT.CONT 7,50 â‚Ź CAN 10,50 $ CAN CH 13 FS MAR 63 DH TUN 6,50 TND MAYOTTE 8,90 â‚Ź TOM S 970 XPF TOM A 1620 XPF - ISSN 002956711

LA RECHERCHE

8

12/06/12 17:04:33


actualités

L’événement

Grotte Chauvet : la fin de la polémique ?

Par Nicolas Constans, journaliste scientifique.

En utilisant l’estompe et les dégradés, les peintres de la grotte Chauvet étaient-ils en avance sur leur temps ? Une nouvelle étude permet de trancher une des plus grosses controverses sur l’art préhistorique. lus de 400 dessins et peintures d’animaux, des traces de pas humains dans des sols préhistoriques intacts, les restes de feux… Dès sa découverte en décembre 1994 en Ardèche, la grotte Chauvet frappe l’imagination des préhistoriens. Mais c’est surtout la date des peintures qui stupéfait les spécialistes. Réalisées il y a plus de 35 000 ans, elles devancent de près de 15 000 ans toutes celles connues jusqu’alors ! Du jamais-vu, car il s’agit alors des plus anciennes peintures

P

figuratives du monde… À moins que ces datations soient erronées. Depuis, la controverse fait rage. Elle rebondit aujourd’hui avec de nouvelles datations à Chauvet, ainsi que d’autres découvertes dans le monde. Lorsqu’ils visitent la grotte pour la première fois en 1994, les préhistoriens découvrent des peintures d’une impressionnante maîtrise artistique. Les peintres ont souvent préparé leur support : ils aplanissaient avec soin la surface de la paroi de la grotte en la raclant au préalable, ce qui rendait également le fond

plus clair. Sur certaines figures comme les chevaux, l’artiste a utilisé l’estompe, étalant le pigment, peut-être avec son doigt mouillé, pour créer des dégradés. Parfois, il a incisé ces derniers par endroits pour créer des rehauts clairs. En sortant de ce lieu sans égal, les préhistoriens sont formels : une telle maîtrise est typique des périodes les plus récentes de la Préhistoire, le Solutréen, qui débute il y a 24 000 ans, ou le Magdalénien, qui le suit à partir d’il y a 20 000 ans. C’est d’ailleurs de cette époque que date l’art des grottes de Lascaux,

8 s La Recherche | JUILLET-AOÛT 2012 s Nº 466

LR_466_008evenement_008 8

12/06/12 15:52:26


Š J.-M. GENESTE, AVEC L’AIMABLE AUTORISATION DU MINISTĂˆRE DE LA CULTURE ET DE LA COMMUNICATION

Le panneau des chevaux (à gauche) et une partie de l’alcôve des lions (à droite) font partie des peintures les plus ÊlaborÊes de la grotte Chauvet. Les peintres ont reprÊsentÊ les animaux avec un rÊalisme minutieux et utilisÊ l’estompe.

en Dordogne, ou de Niaux, dans l’Ariège. Mais, six mois après la dÊcouverte, les datations du  noir  des peintures provoquent la stupÊfaction : ce pigment remonte non pas à 20 000 ans mais à plus de 35 000 ans, d’après les datations au carbone-14 rÊalisÊes par le laboratoire

des sciences du climat et de l’environnement (LSCE), Ă Gif-sur-Yvette. Chauvet devient alors une anomalie dans l’art prĂŠhistorique. Plus question, en effet, d’imaginer comme c’Êtait le cas depuis des dĂŠcennies que l’art prĂŠhistorique a suivi une lente ĂŠvolution, passant de simples dessins gĂŠomĂŠtriques Ă  des reprĂŠsentations de plus en plus ďŹ guratives. Pour certains chercheurs, l’anciennetĂŠ des peintures de Chauvet montre que l’histoire de l’art procède par Ă -coups : des techniques artistiques sont dĂŠcouvertes puis oubliĂŠes, pour ĂŞtre ensuite rĂŠinventĂŠes. Pour d’autres, elle conďŹ rme que l’arrivĂŠe de l’homme moderne en Europe, il y a 45 000 Ă  40 000 ans a donnĂŠ lieu Ă  une explosion artistique sans prĂŠcĂŠdent. C’est en effet autour de cette date que se multiplient dans les sites des ornements et qu’apparaissent en Allemagne des Ýtes et des ďŹ gurines en ivoire et en os.

Histoire du site. Toutefois, la parentĂŠ des peintures de Chauvet avec les ĂŠpoques magdalĂŠniennes et solutrĂŠennes est si forte que, pour certains spĂŠcialistes des grottes ornĂŠes, il est impensable

Fig.1 Un ĂŠboulement rĂŠvĂŠlateur # !"" "

Š LABORATOIRE EDYTEM, UNIV. SAVOIE, CNRS

 

  

"# "" "$ "    # 





L’ÉBOULEMENT qui a scellÊ l’entrÊe de la grotte Chauvet vient d’être datÊ. CommencÊ il y a 34 500 ans, il s’est terminÊ il y a 26 000 ans. En tombant, il a progressivement exposÊ une partie de la falaise aux rayons cosmiques, ce qui a permis la datation.

L’essentiel > LES PEINTURES recouvrant les parois de la grotte Chauvet sont d’une grande modernitÊ pour leur âge : 35 000 ans.

> DES ARCHÉOLOGUES doutent des datations rÊalisÊes à Chauvet, affirmant que des hommes ont pu peindre ces animaux après 24 000 ans. > LA DATATION de l’Êboulement qui a fermÊ la grotte plaide en faveur de la première hypothèse.

que ces fresques appartiennent Ă une autre pĂŠriode. ÂŤ Elles prĂŠsentent de nombreuses particularitĂŠs qui n’apparaissent qu’au MagdalĂŠnien ou au SolutrĂŠen, affirme Paul Bahn, archĂŠologue indĂŠpendant, spĂŠcialiste reconnu de l’art pariĂŠtal europĂŠen. C’est le cas de la reprĂŠsentation très fidèle de l’anatomie des animaux, le souci du dĂŠtail, la prĂŠsence exceptionnelle durant la PrĂŠhistoire d’animaux vus de face, l’abondance des rennes‌ Âť Cette thĂŠorie se heurte aux datations. Selon ces dernières, l’homme n’a occupĂŠ la grotte que pendant deux pĂŠriodes,antĂŠrieures au SolutrĂŠen et au MagdalĂŠnien. Pour l’Êquipe scientiďŹ que chargĂŠe de l’Êtude de la grotte par le ministère de la Culture, l’histoire de ce site est la suivante. Il y a 36 000 ans, des hommes ont fait des feux, toujours visibles sur le sol de la grotte. Pour cela, ils ont, sans doute Ă  dessein, utilisĂŠ des branches de pin, car celles-ci produisent de gros charbons. Or c’est probablement ces derniers qu’ils ont utilisĂŠs pour rĂŠaliser les peintures noires, qui datent de la mĂŞme pĂŠriode. Ces hommes ont laissĂŠ derrière eux, ĂŠparpillĂŠs sur le sol de la grotte, un grand nombre de ces charbons. Puis, il y a environ 30 000 ans, d’autres habitants ont occupĂŠ la grotte. De temps en temps, parce que leurs torches brĂťlaient moins bien, ils ont donnĂŠ un petit coup sur la paroi, pour en Ă´ter le charbon excĂŠdentaire. Ce sont ces traces caractĂŠristiques, ainsi que quelques charbons, qui ont fourni les dates de cette seconde pĂŠriode. >>> NÂş 466 s JUILLET-AOĂ›T 2012 | La Recherche s 9

LR_466_008evenement_009 9

12/06/12 15:52:29


actualités

Astres

Des étoiles « hypervéloces » aux confins de la Voie lactée

En bref

ASTROPHYSIQUE

SUPERTERRE

B.-O. Demory et al., ApJL, à paraître.

DEUX SITES POUR SKA Le plus grand radiotélescope du monde, SKA, sera réparti sur les deux sites qui étaient candidats à son installation, l’un en Australie et l’autre en Afrique du Sud. La majorité des équipements sera regroupée dans ce dernier pays. SKA comportera près de 3 000 antennes, équivalant à une seule d’une surface de 1 kilomètre carré, dont certaines seront éloignées de plusieurs milliers de kilomètres. Grâce à cet agencement, l’instrument pourra observer des objets très lointains avec une grande finesse dans les détails. La construction débutera en 2019 en Afrique du Sud.

sur le web http://neo.jpl.nasa.gov La liste de tous les astéroïdes qui vont frôler la Terre, avec leur probabilité d’impact (en anglais).

calculer leur vitesse avec précision, mais vu la distance qu’elles ont parcourue depuis le cœur de notre galaxie, il y a forcément un bon nombre d’étoiles hypervéloces dans l’échantillon. Par quel mécanisme ces étoiles atteignent-elles de telles vitesses ? C.B. Par un phénomène qui implique un trou noir situé au cœur de la Voie lactée. Sa masse est estimée à environ 4 millions de fois celle du Soleil, raison pour laquelle on le dit « supermassif ». Il est entouré d’une forte densité d’étoiles de toutes natures. Ces étoiles vont souvent par paire. Lorsqu’une des étoiles d’une paire s’approche du

moment il l’est devenu. Deux scénarios sont possibles. Le premier est que le trou noir Christian supermassif s’est formé en Boily est même temps que la Voie lacastrophytée. Ce scénario est étayé par sicien le fait qu’on n’observe quaà l’observasiment pas de galaxies sans toire astronomique trous noirs supermassifs. Le de Strasbourg. second scénario met en jeu une formation progressive Une population d’étoiles du trou noir supermassif, par dites hypervéloces a été accrétion de trous noirs plus identifiée aux confins de petits. Il repose sur le fait que la Voie lactée. Quelles sont l’on voit, au voisinage des leurs caractéristiques ? trous noirs supermassifs, une C.B. La vitesse à laquelle grande quantité de matière ces étoiles parcourent leur qui peut être accrétée. orbite atteint les 1 000 kiloLes étoiles hypervéloces mètres par seconde. Elles sont peuvent-elles conforter donc dix fois plus rapides que l’un ou l’autre scénario ? les autres étoiles de la Voie C.B. Oui, parce qu’elles lactée, qui ont des vitesses nous permettent de de 100 kilomèremonter le temps. tres par seconde En connaissant leur vitesse En effet, si on en moyenne. et leur distance, on peut savoir connaît leur vitesse Jusqu’à présent, quand ces étoiles ont été éjectées et leur distance, on ne connaissait on peut dater le qu’une dizaine moment de leur éjection. de ces étoiles hypervéloces trou noir, elle est attirée et Si la nature hypervéloce dans notre galaxie. Mais finit par être absorbée par des étoiles découvertes se l’équipe de Lauren Palladino, celui-ci. Elle transfère alors confirme, on disposera d’un de l’université Vanderbilt à son énergie cinétique à son Nashville, aux États-Unis, a étoile compagne, qui est alors échantillon suffisamment significatif d’étoiles pour dire analysé les données du proéjectée vers l’extérieur de la gramme d’observation Sloan à quelle époque le trou noir Voie lactée. En se fondant Digital Sky Survey, et détecté est devenu supermassif et sur la densité actuelle des 677 étoiles très lointaines : capable d’éjecter des étoiles étoiles autour du trou noir, elles se trouvent au bord on estime que ce phénomène en nombre. On pourra alors extrême de la Voie lactée. tenir compte de ce caractère doit se produire tous les Certaines, qui atteignent supermassif pour étudier cer100 000 ans en moyenne. 6 millions d’années-lumière, tains phénomènes, comme Quand ce trou noir a-t-il sont même dans l’espace les épisodes de formation commencé à éjecter des qui sépare la Voie lactée des d’étoiles qu’a connus la Voie étoiles en nombre ? galaxies les plus proches, C.B. Quand il est devenu lactée. N Propos recueillis par comme Andromède [1]. supermassif. Tout l’enjeu qui Jean-François Haït Le spectre lumineux de ces sous-tend le travail de Lauren [1] L.E. Palladino et al., The Astronomical étoiles devra être réalisé pour Palladino est de savoir à quel Journal, 143, 128, 2012. QUESTIONS À L’EXPERT

© DR

Pour la première fois, à l’aide du télescope spatial Spitzer, la lumière d’une « superterre », c’est-à-dire une exoplanète de moins de dix fois la masse de la Terre, a été captée directement. 55 Cancri e, en effet, a été observée juste avant son passage derrière son étoile. La lumière de cette dernière a été soustraite, pour ne conserver que la lumière de la planète, dont l’analyse a permis de calculer sa température. Résultat : plus de 2 000 kelvins du côté de la planète exposé à son étoile. Les auteurs retiennent deux hypothèses : soit la planète est rocheuse avec une atmosphère très fine ; soit il s’agit d’une « planète-océan » constituée d’un noyau recouvert d’une couche d’eau sous forme « supercritique ». Cet état de l’eau, lorsqu’elle est portée à haute température et à haute pression, lui confère des propriétés entre celles des liquides et celles des gaz.

12 s La Recherche | JUILLET-AOÛT 2012 s Nº 466

LR_466_012astres_012 12

7/06/12 15:17:41


Les étranges aurores polaires d’Uranus Des lueurs observées dans la haute atmosphère d’Uranus révèlent la complexité du champ magnétique de la planète.

L

a Terre n’est pas la seule planète à connaître des aurores polaires, boréales ou australes. Toutes les planètes qui possèdent un champ magnétique peuvent être sujettes à ce phénomène. C’est le cas de Jupiter, de Saturne et de la très lointaine Uranus. L’équipe de Laurent Lamy, du laboratoire d’études spatiales et d’instrumentation en astrophysique à l’Observatoire de Paris, a utilisé le télescope spatial Hubble pour observer en 2011 les aurores polaires d’Uranus en période d’équinoxe de la planète [1]. Une opportunité rare, sachant que celle-ci met 86 ans pour faire le tour du Soleil. « La sonde Voyager avait réalisé les premières détections d’aurores polaires sur Uranus en 1986, en période de solstice, explique Laurent Lamy. Ces aurores prenaient la forme d’émissions de photons accen-

29 novembre 2011

tuées du côté nuit de la planète, comme cela se produit sur Terre. Nos observations montrent quelque chose de différent : des lueurs localisées du côté éclairé de la planète. » Particules solaires. Sur Terre, comme sur Uranus, les aurores polaires sont générées par des particules (protons et électrons essentiellement) issues du Soleil. Ces dernières pénètrent la magnétosphère, la région d’influence du champ magnétique terrestre, où elles circulent avant de se déverser brutalement dans la partie de la magnétosphère opposée au Soleil. Ces particules se propagent alors le long des lignes de champ magnétique

où elles sont accélérées. Elles viennent finalement heurter les molécules de la haute atmosphère de la Terre. Les collisions engendrées provoquent l’émission de photons à l’origine des fameuses lueurs multicolores observées dans le ciel. « Les magnétosphères planétaires restent très mal connues en tant qu’objets physiques. Il est donc utile de comparer celle de la Terre et des autres planètes comme Uranus, souligne Laurent Lamy. Mais le seul moyen d’étudier les plus lointaines reste l’observation des aurores polaires. » Pour observer celles d’Uranus, les chercheurs ont eu une idée ingénieuse. Ils ont tiré parti de très grosses éruptions de particules en

Jean-François Haït [1] L. Lamy et al., Geophys. Res. Lett., 39, L07105, 2012.

Spirales de lave sur Mars

Ces spirales de 5 à 30 mètres de diamètre d’une étonnante netteté, comme gravées dans le sol de la vallée d’Athabasca, juste au-dessus de l’équateur de Mars, mettent fin à une controverse sur l’origine de cette vallée. Cette dernière présente de grandes plaques fracturées. De telles plaques peuvent se former soit par l’action de glace d’eau, soit par d’importants écoulements de lave. Les observations détaillées de la sonde Mars Reconnaissance Orbiter, qui ont révélé 269 de ces motifs en spirale, prouvent, selon les auteurs, que c’est la lave qui est en cause. Ces formes seraient en effet le résultat de l’interaction de courants de lave qui s’écoulent à des vitesses différentes. De tels motifs ont d’ailleurs été retrouvés sur Terre. A.J. Ryan, P. R. Christensen, Science, 336, 449, 2012.

© NASA/JPL-CALTECH/UA

zoom

16 novembre 2011

Ces points brillants sont des aurores polaires observées sur Uranus après l’éruption deux mois plus tôt de particules issues du Soleil. Leur position changeante traduit le mouvement des pôles magnétiques.

© LAURENT LAMY/ OBSERVATOIRE DE PARIS/ CNES/ ESA/ NASA

PLANÉTOLOGIE

provenance de la couronne du Soleil (son atmosphère externe, très étendue) survenues en septembre 2011. Connaissant leur vitesse de propagation, ils ont calculé la date à laquelle les particules arriveraient sur Uranus, et ont observé, environ deux mois plus tard, des lueurs dont la position changeante traduit le mouvement des pôles magnétiques. Uranus présente en effet une différence majeure par rapport à la Terre : son axe de rotation est quasi couché dans le plan de son orbite. Quant à l’axe de son champ magnétique, il fait un angle de 60° avec l’axe de rotation de la planète. Conséquence : la morphologie de la magnétosphère au solstice et à l’équinoxe est extrêmement différente, alors qu’elle varie relativement peu pour la Terre. D’où les différences remarquées sur Uranus entre les observations de Voyager et celles de Hubble. L’équipe souhaite désormais procéder à de nouvelles observations pour préciser la topologie du champ magnétique d’Uranus, et pour vérifier si son axe présente, comme celui de la Terre, une variation séculaire. N

Nº 466 s JUILLET-AOÛT 2012 | La Recherche s 13

LR_466_012astres_013 13

7/06/12 15:17:43


actualités

Santé En bref

Les lésions dues au psoriasis

DIX TYPES DE CANCER DU SEIN Le cancer du sein recouvrirait dix pathologies sensiblement différentes. Pour parvenir à cette conclusion, le consortium international Metabric a analysé le génome de près de 2 000 tumeurs de patientes. Puis les chercheurs ont croisé ces données avec l’évolution de la maladie de chaque patiente suivie pendant cinq à dix ans. Résultat : l’équipe a identifié dix sous-types de la maladie à la fois caractérisés par des profils génétiques différents et une évolution distincte de la maladie. Ces résultats ouvrent la voie à une amélioration des traitements personnalisés actuellement développés.

DERMATOLOGIE

Deux candidats médicaments sont parvenus à réduire de trois quarts les symptômes de cette pathologie cutanée. L’un cible une molécule inflammatoire, l’autre son récepteur.

C. Curtis et al., Nature, doi:10.1038/ nature10983, 2012.

CALCULS RÉNAUX ET GÉNÉTIQUE

Y. Gong et al., EMBO Journal, 31, 1999, 2012.

sur le web Viroxchange.com/fr Ce site permet de suivre, notamment au travers de vidéos de chercheurs du monde entier, les derniers progrès scientifiques en virologie, avec une large place donnée à la lutte contre le sida.

pour les patients résistants ou intolérants aux traitements actuellement disponibles. Le psoriasis est dû à un dérèglement du système immunitaire qui considère comme étrangères les cellules de la peau, et les attaque grâce à certains globules blancs nommés « lymphocytes T ». Ces

derniers libèrent des molécules de la famille des cytokines qui vont activer le processus d’inflammation cutanée. Une des stratégies thérapeutiques actuelles consiste donc à neutraliser certaines de ces cytokines. « Mais les cytokines participent à la protection de l’organisme contre les

SCOLIOSE CONGÉNITALE Une interaction entre QUESTIONS À L’EXPERT

© DR

Le risque de calculs rénaux augmente avec l’activité d’un gène précis. Une équipe internationale a révélé son mode d’action. Elle a découvert sur des souris que lorsque le filtrage opéré par les reins est normal, l’expression du gène est inhibée par deux fragments moléculaires (des ARN). Mais en cas de régime chargé en sel ou en calcium et de trop faible consommation d’eau, les deux ARN relâchent leur emprise. Ainsi activée, l’expression du gène provoque la concentration du calcium dans l’urine, à l’origine des calculs rénaux. Cette découverte pourrait déboucher sur des traitements mimant ces fragments d’ARN.

Molécule produite par certains globules blancs, l’interleukine-17 – représentée ici en trois dimensions – semble jouer un rôle important dans le psoriasis : les lésions des malades diminuent lorsqu’elle est neutralisée.

© WIKIMEDIA COMMONS/ BOGHOG

L’

arsenal thérapeutique disponible contre le psoriasis pourrait prochainement s’enrichir de nouveaux traitements d’une efficacité exceptionnelle. Testés sur des volontaires atteints de cette pathologie inflammatoire de la peau, deux médicaments sont en effet parvenus à réduire d’au moins 75 % leurs lésions. Un véritable espoir, notamment

Gérard Bollini est spécialiste de la scoliose congénitale à l’hôpital de la Timone, à Marseille. Pour tenter de découvrir les mécanismes à l’origine de certaines malformations à la naissance, une équipe s’est penchée sur la scoliose congénitale. En quoi consiste cette pathologie ? G.B. Contrairement à la scoliose « classique » dont les causes sont inconnues, la forme congénitale est liée à un développement anormal des vertèbres au stade embryonnaire. En France,

un bébé sur 1 000 naît avec cette malformation caractérisée par une courbure pathologique de la colonne vertébrale. Pilotée par Sally Dunwoodie, de la faculté de médecine de Sydney, l’étude menée par cette équipe suggère que, pour se développer, cette pathologie nécessiterait la combinaison d’une mutation génétique, et d’une période de manque d’oxygène durant la grossesse [1]. Comment est-elle parvenue à cette conclusion ? G.B. En étudiant les membres de deux familles touchées par cette pathologie, ces chercheurs ont découvert que les malades ne possédaient souvent qu’une

seule copie fonctionnelle pour l’un ou l’autre de deux gènes nommés MESP2 et HES7. Mais certains individus sains possédaient aussi cette variante. Par ailleurs, de précédentes études sur la souris avaient montré qu’un manque d’oxygène durant la gestation (hypoxie) peut induire des malformations vertébrales. D’où l’hypothèse d’une combinaison entre ce facteur génétique et l’hypoxie. Qu’ont-ils découvert ? G.B. L’équipe a poursuivi son étude sur des souris porteuses d’embryons présentant ce facteur génétique. Durant les 21 jours de gestation, certaines de ces souris ont été exposées à

28 s La Recherche | JUILLET-AOÛT 2012 s Nº 466

LR_466_028sante_028 28

6/06/12 16:52:36

g


infections, indique Armand Bensussan, spécialiste des maladies inflammatoires de la peau à l’Inserm. Tout l’enjeu consiste donc à identifier la “bonne cytokine” : celle qui semble la plus impliquée dans la pathologie, et dont la neutralisation ne devrait pas trop perturber le système immunitaire. » Parmi les candidates, on trouve l’interleukine-17 (IL-17) produite par une catégorie particulière de lymphocytes : les lymphocytes T de type 17 ; retrouvés en grande quantité dans les lésions psoriasiques, ils semblent jouer un rôle majeur dans la pathologie. Baptisé ixekizumab, le premier médicament est un anticorps destiné à neutraliser directement l’IL-17 en se

fixant sur elle comme une clé dans une serrure. Il a été testé dans le cadre d’un essai sur 142 malades par une équipe internationale pilotée par Craig Leonardi, du département de dermatologie de la faculté de médecine de SaintLouis, aux États-Unis [1].

Waterloo au Canada, le second essai visait à tester l’efficacité d’un autre anticorps, le brodalumab [2]. Celui-ci ne bloque pas l’IL-17 directement, mais le récepteur sur lequel il se fixe au niveau des cellules et au travers duquel il agit. Ici, 198 malades ont reçu le brodalumab ou un placebo à différents dosages. Au bout de douze semaines, 82 % des patients ayant reçu 210 milligrammes de l’anticorps ont vu leurs symptômes réduire d’au moins 75 %, contre aucun dans le « groupe placebo ».

Injections. Tous les volontaires ont reçu plusieurs injections sous-cutanées d’ixekizumab ou d’un placebo, à différents dosages. Résultat : au bout de douze semaines, 82,1 % des malades traités avec 150 milligrammes d’ixekizumab par injection ont vu leurs lésions cutanées réduites d’au moins 75 % contre 7,7 % des patients traités avec le placebo. Piloté par Kim A. Papp, du Probity Medical Research de

femme enceinte ? G.B. La cigarette, certaines drogues, les hautes altitudes, l’anémie, l’hyperglycémie, un mauvais fonctionnement du placenta…, divers facteurs peuvent provoquer une hypoxie durant la grossesse. Si ces résultats se confirment sur l’homme, ils pourraient aboutir à des mesures de prévention. En évitant ces facteurs d’hypoxie durant la grossesse, les femmes de familles touchées par cette pathologie pourraient peut-être réduire le risque de scoliose congénitale, voire d’autres malformations chez le bébé à naître. N Propos recueillis par J.-P. B. [1] D. B. Sparrow et al., Cell, 149, 295, 2012.

[1] C. Leonardi et al., NEJM, 366, 1190, 2012. [2] K. A. Papp et al., NEJM, 366, 1181, 2012.

Mieux diagnostiquer la maladie d’Alzheimer

gènes et environnement une légère hypoxie pendant huit heures. Résultat : chez les embryons des souris ayant subi ce manque d’oxygène, le risque de malformation sévère de la colonne vertébrale était jusqu’à dix fois supérieur. En poussant plus loin leur investigation, les auteurs ont découvert que cette hypoxie avait perturbé l’activité de nombreux gènes impliqués dans la mise en place des structures biologiques à partir desquelles se développe la colonne vertébrale, mais aussi les membres, le cœur, les reins, le cerveau… Dans quelles circonstances ce phénomène d’hypoxie peut-il survenir chez une

« Les résultats obtenus par ces deux candidats médicaments sont très intéressants, estime Louis Dubertret, fondateur de l’Institut de recherche sur la peau, à Paris. Néanmoins, un suivi à plus long terme sera nécessaire pour confirmer cette efficacité, et pour s’assurer de l’absence d’effets indésirables liés à la possible survenue d’infections. » N Jean-Philippe Braly

zoom

© SOURCE PROF. DORAISWAMY, ICAD PRÉSENTATION, PARIS, 2011/AVID RADIOPHARMACEUTICALS

e

réduites de 75 % !

Aux États-Unis, les neurologues disposent désormais d’un outil pour les aider à diagnostiquer la maladie d’Alzheimer : l’Amyvid. Injecté en intraveineuse, ce produit radioactif est capable de se lier aux plaques amyloïdes, dont l’accumulation dans le cerveau constitue l’une des caractéristiques de la pathologie. Marquées à l’Amyvid, ces plaques émettent alors un signal radioactif visualisable par tomographie par émission de positrons, technique d’imagerie médicale. C’est ce que montrent ces images obtenues sur des malades (en bas) et sur des individus sains (en haut) : plus la couleur vire au rouge, plus le signal est fort. Mais attention, un test positif n’est pas suffisant pour poser le diagnostic : il ne constitue qu’une indication. http://tinyurl.com/d5cr8mv

Nº 466 s JUILLET-AOÛT 2012 | La Recherche s 29

LR_466_028sante_029 29

6/06/12 16:52:38


dossier

la physique du xxie siècle

Les neutrinos défient les physiciens Les neutrinos, infimes particules, n’en finissent pas d’intriguer. De nouvelles expériences cherchent à mettre à l’épreuve des théories divergentes quant à leur nature et à ouvrir la voie à une « nouvelle physique ».

PAR Gilles Cohen-Tannoudji ET Étienne Klein, qui travaillent au laboratoire de recherche sur les sciences de la matière du CEA.

LR_466_038NEUTRINOS-KLEIN_038 38

e 23 septembre 2011, des chercheurs de l’expérience Opera, installée dans le laboratoire souterrain du Gran Sasso, en Italie, présentaient un résultat intrigant : les neutrinos semblaient pouvoir aller plus vite que la lumière ! Cette annonce, qui laissa les physiciens plutôt sceptiques, déclencha un

L

enthousiasme médiatique considérable : Einstein se serait donc trompé ? Opera est une expérience internationale, destinée à observer le phénomène d’« oscillation de neutrinos » dont on attend qu’il nous renseigne sur la masse encore inconnue de ces particules. Elle utilise un faisceau de neutrinos de haute énergie produit par l’un des accélérateurs du CERN, à Genève, dirigé

13/06/12 16:15:29


Le rôle de l’anomalie. Cet épisode n’est pas dénué d’enseignements. D’abord, il rappelle, s’il en était encore besoin, que les erreurs sont possibles en science, notamment lorsque les expériences sont d’une très grande complexité. Il montre également qu’il peut toujours arriver que des données nouvelles obligent les chercheurs à réexaminer leurs connaissances les mieux établies. Même lorsqu’il ne s’agit finalement que d’une fausse alerte, cet exercice n’est jamais inutile.

L’expérience Gerda lors de sa construction : les détecteurs contenant du germanium-76 sont plongés dans 70 mètres cubes d’argon liquide, le tout installé dans une cuve d’eau au laboratoire souterrain du Gran Sasso, en Italie. © KAI FREUND/ UNIVERSITY OF TÜBINGEN

© ALBERTO PIZZOLI/ AFP

vers un détecteur installé à Gran Sasso, à environ 730 kilomètres de distance. L’avance de 60 nanosecondes affichée par les neutrinos, révélée par ses mesures, était donc sans rapport direct avec son objectif principal. Depuis, à l’issue d’un long travail de détective, deux sources d’erreur expérimentale ont été découvertes : une mauvaise connexion entre un GPS et un ordinateur avait réduit le temps de vol des neutrinos de 75 nanosecondes, tandis qu’une horloge vibrant plus vite que prévu l’avait augmenté de 15 nanosecondes… La somme des deux effets explique les 60 nanosecondes d’avance, indûment constatées. Icarus, une autre expérience installée au Gran Sasso, et ayant des objectifs voisins de ceux d’Opera, n’avait d’ailleurs pas confirmé l’anomalie détectée par sa consœur. Quelques mois auront donc suffi pour que les choses « rentrent dans le rang », c’est-à-dire pour qu’on ait l’assurance que les neutrinos, comme toutes les autres particules, respectent le droit canon mis en place en 1905 par la théorie de la relativité restreinte. En d’autres termes, la vitesse de la lumière demeure toujours cohérente avec son anagramme : elle « limite les rêves au-delà ».

En contrôlant tout le système, les physiciens de l’expérience Opera, qui avaient annoncé avoir détecté des neutrinos plus rapides que la lumière, ont finalement découvert que leurs mesures étaient entachées d’erreurs. L’annonce des résultats d’Opera a suscité de nombreux échanges entre physiciens de différentes spécialités. Les uns ont expliqué que ces résultats ne pouvaient être pris au sérieux. Soit pour des raisons théoriques, comme les physiciens américains Andrew Cohen et Sheldon Glashow, qui ont très vite montré que de tels neutrinos supraluminiques auraient de toute façon perdu la quasi-totalité de leur énergie, par une sorte de rayonnement de freinage, avant d’atteindre le détecteur d’Opera [1]. Soit parce que ces résultats étaient en contradiction flagrante avec d’autres observations, notamment celles faites lors de l’explosion d’une supernova nommée 1987A [2]. D’autres chercheurs ont traqué les failles possibles ou les biais éventuels de l’expérience, concernant par exemple la synchronisation des horloges, la prise en compte des erreurs statistiques, les incertitudes sur les instants d’émission des neutrinos… D’autres ont proposé des interprétations alternatives du résultat, s’interrogeant en particulier sur la notion de temps de vol en théorie de la relativité générale. D’autres encore ont tenté de « recycler » d’anciennes théories, notamment celle des « tachyons », particules hypothétiques supraluminiques satisfaisant malgré tout aux postulats de la relativité restreinte [3], ou bien ont réexaminé le statut du principe de causalité dans un cadre relativiste. D’autres enfin ont cherché à

rendre compte des résultats d’Opera, soit à partir d’une nouvelle physique impliquant des neutrinos authentiquement supraluminiques, soit à partir de théories physiques encore à l’ébauche, comme la théorie des supercordes qui envisage des dimensions supplémentaires d’espacetemps que les neutrinos auraient pu emprunter entre Genève et l’Italie… Ces diverses réactions, mises ensemble, sont venues enrichir une sorte de leçon d’épistémologie que l’histoire de la physique nous a déjà largement >>>

> LA QUESTION Le neutrino est-il sa propre antiparticule ? Cette question fondamentale est liée aux recherches sur sa masse, que l’on cherche toujours à déterminer.

> L’EXPÉRIENCE Les physiciens cherchent à détecter un type de désintégration nucléaire, très rare, la double désintégration ß sans émission de neutrino, à partir de noyaux atomiques particuliers.

> L’ÉCHÉANCE La nouvelle génération d’expériences internationales, développées actuellement, devrait fournir des données à l’horizon 2015.

Nº 466 s JUILLET-AOÛT 2012 | La Recherche s 39

LR_466_038NEUTRINOS-KLEIN_039 39

13/06/12 16:15:31


dossier

la physique du xxie siècle

Les neutrinos défient les physiciens >>> enseignée : d’une façon générale,

lorsque le résultat d’une expérience ou d’une observation constitue une « anomalie » au sens où il contredit les prédictions d’une théorie par ailleurs solidement éprouvée, trois sortes d’hypothèse peuvent être simultanément envisagées : 1 - Le résultat expérimental tient à une erreur de mesure, ou à une mauvaise interprétation des données, comme cela fut le cas pour Opera. 2 - Il existe une « entité » ou une « substance » non encore découverte dont l’existence permettrait d’annuler le désaccord entre la théorie et l’expérience. La solution consiste alors à compléter le mobilier ontologique de l’Univers au nom de l’universalité de lois physiques bien établies par ailleurs. C’est ainsi qu’a été formulée l’hypothèse de la « matière noire » (lire « L’insaisissable nature de la matière noire », p. 48), censée expliquer que les galaxies subissent l’effet gravitationnel de masses plus importantes que les seules masses visibles. Et comme nous allons le voir – ironie de l’histoire –, c’est précisément ce type d’hypothèse qui a permis la prédiction de l’existence du neutrino en 1930. 3 - Les lois physiques sur lesquelles s’étaient appuyées les prédictions théoriques ne sont pas aussi exactes qu’on l’avait cru. Dans ce cas, la solution du problème est de nature législative : il faut corriger les lois physiques, peut-être même bâtir une nouvelle théorie, radicalement différente de la précédente. Ainsi, l’anomalie de l’avance du périhélie de Mercure constatée au XIXe siècle n’a été résolue que grâce à l’élaboration, en 1915, d’une nouvelle théorie de la gravitation, la relativité générale d’Einstein. Aujourd’hui, certains physiciens tentent d’ailleurs de corriger cette théorie afin de rendre compte du mouvement des galaxies sans faire l’hypothèse qu’une matière noire existe. Aucun de ces trois types d’hypothèse ne peut être écarté a priori. L’histoire de

la physique montre en effet qu’il n’existe pas de recette systématique permettant de prévoir laquelle se révélera finalement être la bonne : des crises ont été résolues de façon législative, d’autres par des ajouts ontologiques, d’autres enfin se sont évanouies lorsqu’il a été constaté qu’elles provenaient d’erreur de mesure ou d’interprétation. Reste que les mésaventures d’Opera – qui sont en réalité l’aventure même de la recherche – ne retirent rien au parfum de mystère qui continue d’entourer les neutrinos, ni aux enjeux fondamentaux qui leur sont aujourd’hui associés et qui ont trait, pour la plupart d’entre eux, à des questions liées à leur masse, que l’on cherche toujours à déterminer. Il faut dire que, depuis qu’ils sont entrés dans le champ de la physique, les neutrinos ont toujours eu le statut de particules un peu « à part ».

Le petit du neutron. Tout commença avec l’épineux problème que constituait à la fin des années 1920 l’un des trois types de radioactivité, celle dite « ß » : lorsqu’un noyau contient trop de neutrons pour être stable, il se transforme en un autre noyau en émettant un électron. Au cours de l’année 1930, cette transformation nucléaire semblait encore très énigmatique. Les mesures indiquaient que l’énergie de l’électron émis n’est pas chaque fois la même.Elle peut prendre une valeur quelconque, tantôt grande, tantôt petite, alors qu’on s’attendait à ce qu’elle ait une valeur bien précise, toujours la même, celle qui correspond précisément à la différence d’énergie entre le noyau initial et le noyau final. Ces résultats semblaient violer la loi de conservation de l’énergie qui, dans une telle situation, indique que l’énergie de l’électron doit être parfaitement déterminée. Pour sauver cette loi essentielle de la physique, Wolfgang Pauli fit une hypothèse audacieuse : contrairement aux apparences, le noyau ne se désintègre pas en deux corps (un autre

noyau et un électron), mais en trois. Une troisième particule, pensa-t-il, est émise simultanément, qui emporte l’énergie manquante. Le premier physicien à prendre cette idée au sérieux fut Enrico Fermi, qui baptisa « neutrino » la particule de Pauli, ce qui signifie en italien quelque chose comme « petit du neutron ». En 1933, quelques mois après la découverte du neutron par James Chadwick, il mit à profit ces deux nouvelles particules – le neutron et l’hypothétique neutrino – pour élaborer l’une de ses plus belles œuvres, la théorie de la désintégration ß, qui s’appuie sur deux hypothèses : le proton et le neutron sont deux états différents d’un même objet fondamental ; quant à l’électron expulsé, il ne préexiste pas dans le noyau mais il est créé en même temps que le neutrino, lors du processus de transformation d’un neutron du noyau en un proton. Ce « modèle de Fermi » ouvrira un chapitre très important de la physique de l’interaction nucléaire « faible », cette force responsable de la désintégration ß et de bien d’autres phénomènes qui ont cours dans le monde de l’infiniment petit. Il est le précurseur de ce que l’on appelle aujourd’hui le « modèle standard » de la physique des particules. Peu à peu, au gré des discussions entre physiciens, les caractéristiques du neutrino s’affinèrent : il s’agit d’abord d’une particule de masse très faible, peut-être nulle, de même spin* que l’électron ; elle interagit, en outre, à peine avec la matière, ce qui la rend très difficilement détectable. De fait, l’existence de cette particule presque insaisissable ne sera confirmée que vingt-cinq ans plus tard, en 1956, par deux Américains, Frederick Reines et Clyde Cowan, qui sauront profiter du très haut flux de neutrinos émis par le cœur d’un des premiers réacteurs nucléaires américains, à Savannah River, en Caroline du Sud, pour en capturer quelques-uns.

Masse exacte. Et aujourd’hui encore, les neutrinos (car il y en a de plusieurs espèces, capables d’osciller de l’une à l’autre dès lors que leur masse est non nulle) continuent de défier les

40 s La Recherche | JUILLET-AOÛT 2012 s Nº 466

LR_466_038NEUTRINOS-KLEIN_040 40

13/06/12 16:15:32


Fig.1 La désintégration à détecter  

 

 

n

b



n  

 



UNE DÉSINTÉGRATION (ß-) CLASSIQUE (à gauche) correspond à la transformation dans le noyau d’un neutron en proton, avec émission d’un électron (e-) et d’un antineutrino (n- ). Si comme le permet la théorie de Majorana, le neutrino est identique à l’antineutrino, une double transformation très rare devient possible : l’antineutrino/neutrino émis par désintégration (ß-) par le premier neutron est alors absorbé par le deuxième neutron, et celui-ci n’émet plus qu’un électron. Au final, seuls deux électrons sont émis. C’est la désintégration double ß sans émission de neutrino (à droite). © INFOGRAPHIE BRUNO BOURGEOIS

physiciens. Certaines de leurs propriétés nous échappent encore. Quelle est leur masse exacte ? Sont-ils leurs propres antiparticules ? Cette dernière énigme, vieille de quatre-vingts ans, attend toujours sa réponse, avec une impatience grandissante.

Neutrino et antineutrino ? Dans les années 1930, un jeune prodige de la physique, Ettore Majorana, a proposé une alternative séduisante à la théorie de l’antimatière que Paul Dirac avait formulée en 1931. Sa « théorie symétrique de l’électron et du positron » demeure au cœur de certaines études expérimentales menées aujourd’hui sur les neutrinos, qui pourraient déboucher sur des résultats révolutionnaires. Pour Paul Dirac, à chaque particule de matière, même dépourvue de charge électrique, est associée une antiparticule qui ne lui est pas identique. Majorana, lui, envisage les choses autrement : il propose une équation, différente de celle de Dirac, pour laquelle les particules neutres, sans charge électrique donc, sont nécessairement identiques à leurs propres antiparticules. *LE SPIN est une propriété purement quantique associée à chaque particule.

*LA DEMI-VIE désigne la durée au bout de laquelle la moitié des noyaux d’un échantillon se sont désintégrés.

À ce jour, personne ne sait lequel de ces deux génies avait vu juste. Mais le neutrino, parce qu’il est la seule particule de matière qui soit à la fois élémentaire et électriquement neutre, pourrait trancher le débat. S’il avait une masse nulle, comme le supposait Pauli, le fait qu’il soit « de Dirac » ou « de Majorana » importerait peu, car cela ne conduirait à aucune différence de comportement. Mais on sait depuis 2001 que ce n’est pas le cas : Raymond Davis et Masatoshi Koshiba ont reçu en 2002 le prix Nobel pour avoir établi que les neutrinos sont bel et bien massifs, sans pouvoir toutefois préciser la valeur exacte de leur masse. Il n’est donc plus indifférent de savoir si les neutrinos sont identiques ou non à leur propre antiparticule, dès lors qu’on peut imaginer des expériences qui conduiraient à des résultats différents dans l’un et l’autre cas. Mais comment faire ? Il arrive que des paires de neutrinos soient produites lors d’événements extrêmement rares, comme la « double désintégration ß » où, au lieu d’un électron et un neutrino comme dans la désintégration ß classique, ce sont simultanément deux électrons et deux neutrinos (en fait deux antineutrinos) qui sont émis par un noyau atomique [fig.1]. Cette désintégration, spécifique de certains noyaux tels le calcium 48, le germanium 76, le sélénium 82 et quelques autres, ne

survient que très rarement (les demivies* radioactives de ces noyaux sont de l’ordre de 1020 ans ). Mais des physiciens essaient aujourd’hui de détecter des événements encore plus rares où seuls deux électrons seraient émis, c’est-à-dire sans émission d’aucun neutrino. Leur idée est que, si le neutrino était identique à sa propre antiparticule, il devrait pouvoir s’annihiler dès qu’il rencontre l’un de ses congénères, neutrino ou antineutrino, de sorte que les deux neutrinos émis par désintégration ß pourraient disparaître de l’état final. Plusieurs expériences internationales sont actuellement sur les rangs pour traquer cette « double désintégration ß sans émission de neutrino ». Le premier démonstrateur de Supernemo devrait être installé au laboratoire de Modane dans le tunnel du Fréjus à la fin 2014. Gerda est déjà en développement dans le souterrain du Gran Sasso qui doit aussi héberger sa consœur Cuore. D’autres expériences, Exo et Majorana, devraient démarrer aux États-Unis… Le principe est de rassembler la plus grande quantité d’atomes candidats, par exemple du sélénium 82 pour Supernemo, ou du germanium 76 pour Gerda, de les protéger du rayonnement cosmique dans un souterrain, et d’attendre patiemment qu’un tel phénomène se produise et se laisse détecter. Cette nouvelle génération d’expériences vise à atteindre la centaine de kilogrammes de l’élément choisi, soit un ordre de grandeur de plus que la génération précédente. Selon la théorie de Dirac, cette nouvelle forme de radioactivité est rigoureusement impossible, alors qu’elle doit pouvoir être observée, selon la théorie de Majorana. Sans aucun doute, sa mise en évidence serait une découverte cruciale puisqu’elle obligerait à modifier le statut des neutrinos dans l’actuel modèle standard de la physique des particules et ouvrirait la voie à une « nouvelle physique ». N [1] A.G. Cohen et S. Glashow, arXiv:1109.6562v1 [2] Daniel Fargion, arXiv: 1109.5368v1. [3] F.R. Klirkhamer, arXiv:1111.4931v1. Nº 466 s JUILLET-AOÛT 2012 | La Recherche s 41

LR_466_038NEUTRINOS-KLEIN_041 41

13/06/12 16:15:33


dossier

la physique du xxie siècle

Là où se cache le boson S’il est un résultat attendu, c’est bien la découverte du boson de Higgs, particule clé de l’édifice théorique décrivant les interactions fondamentales. Au moment où l’on écrit ces lignes, les mesures permettent surtout d’affirmer là où il n’est pas. > Le boson de Higgs

© MAXIMILIEN BRICE/CERN 2005

Les particules élémentaires et leurs interactions sont aujourd’hui décrites par un cadre théorique, le « modèle standard ». Ce modèle ne répond pas à une question fondamentale : pourquoi les particules ont-elles une masse ? La solution la plus simple pour y remédier est d’introduire dans ce modèle un mécanisme qui postule l’existence d’une nouvelle particule, le boson de Higgs. Ce serait en interagissant avec lui que toutes les autres particules acquerraient une masse. Mais le modèle ne prédit pas la masse de ce boson de Higgs. Seul un instrument capable d’explorer une large gamme d’énergie, comme le Grand collisionneur de hadrons (LHC) à Genève, permet donc sa recherche expérimentale.

> Un événement vu dans le détecteur Atlas Cet événement, enregistré par le détecteur Atlas, est un bon candidat d’une collision qui aurait produit un boson de Higgs s’étant, à son tour, désintégré en deux photons. Surimposées aux différents éléments du détecteur, on distingue les traces des particules sortant du point de collision. En particulier, les lignes blanches correspondent aux particules chargées de basse énergie. Apparaissent aussi clairement deux dépôts intenses d’énergie (en vert), mesurés dans le calorimètre. Ces signaux correspondent à ceux que devraient provoquer les deux photons, dont la trajectoire à partir du point de collision est représentée en pointillés bleus.

> Zones d’exclusion > Les expériences Atlas et CMS Au LHC, deux faisceaux de protons sont accélérés dans un anneau souterrain. Ils ont atteint une énergie de 4 000 gigaélectronvolts (GeV) chacun en avril 2012. Les expériences, Atlas et CMS, sont installées aux points de rencontre de ces faisceaux pour détecter toutes les particules produites par leurs collisions. Elles en analysent l’énergie, la direction et l’identité afin de repérer toute trace du boson de Higgs.

Les différentes expériences ont éliminé au fur et à mesure les valeurs possibles pour la masse du boson de Higgs (voir ci-contre). Le LEP, prédécesseur du LHC, avait exclu dès 2000 toute masse inférieure à 114 GeV (en violet). Et l’état de l’art daté de mars 2012 – Tevatron au Fermilab à Chicago (en jaune), CMS au LHC (en vert), Atlas au LHC (en rouge) – montre qu’il ne reste plus qu’une fenêtre très restreinte autour de 125 GeV, sans oublier les très hautes énergies non explorées. Fin 2012, trois à quatre fois plus de données qu’en 2011 devraient avoir été collectées et permettre de trancher quant à l’existence du boson de Higgs. Les prochains résultats sont attendus pour ce mois de juillet. À suivre sur http://larecherche.typepad.fr/boson

42ȩsȩ s La Recherche | JUILLET-AOÛT 2012ȩsȩ s Nº 466

LR_466_042infog_HIGGS_042 42

12/06/12 15:42:15

d


de Higgs

> La production du boson de Higgs

PAR SANDRO DE CECCO, MEMBRE DE L’EXPÉRIENCE ATLAS, LPNHE, UNIVERSITÉ PARIS-VII-DIDEROT.

Dans les collisions du LHC, l’un des constituants de chaque proton – quark ou gluon – participe au mÊcanisme de production du boson de Higgs. Ci-dessous, ce sont deux gluons qui, par un processus de fusion mettant en jeu un couplage intermÊdiaire, avec des quarks top, conduisent au boson.

ATLAS EXPERIMENT Š CERN 2012 - INFOGRAPHIES BRUNO BOURGEOIS

‌ et sa dÊsintÊgration Le boson de Higgs se dÊsintègre ensuite, par le biais d’un autre couplage, en deux photons g. Ce mode de productiondÊsintÊgration est particulièrement pertinent si le boson de Higgs a une masse autour de 125 GeV. D’autres modes sont aussi recherchÊs. Et c’est la combinaison de tous les rÊsultats qui permet de conclure à la dÊcouverte ou non.

  





)#+$!%

  



  





  



  %%*'*"%"!**%*!*+ &$"!(" &%









Nº 466 s JUILLET-AOÛT 2012 | La Recherche sȊ43

LR_466_042infog_HIGGS_043 43

12/06/12 15:42:24


dossier

la physique du xxie siècle

La matière noire n’en finit pas d’échapper aux physiciens. Mais ces derniers s’en rapprochent, notamment grâce au perfectionnement de leurs instruments, de plus en plus sensibles.

PAR Jules Gascon, professeur à l’institut de physique nucléaire de Lyon et membre de la collaboration Edelweiss.

> LA QUESTION Quelle particule se cache derrière la matière noire, substance qui représente près de 85 % de la matière totale de l’Univers ?

> L’EXPÉRIENCE Les physiciens ont imaginé trois méthodes d’observation : la détection directe, la détection indirecte, ainsi que la création de matière noire en accélérateur.

> L’ÉCHÉANCE L’amélioration progressive de leurs instruments laisse entrevoir sa découverte dans les années à venir.

L

a matière noire, qui constitue près de 85 % de la matière totale de l’Univers, ne se laisse pas observer par le premier détecteur venu. Depuis quatre-vingts ans, les astrophysiciens la recherchent sans succès. Grâce à l’amélioration de leurs instruments, ils ont toutefois resserré l’étau autour des mystérieuses particules qui la composent. Détecteurs plus sensibles, accélérateurs de particules plus puissants : la découverte ne semble plus être qu’une question d’années. C’est l’astronome suisse Fritz Zwicky qui, dans les années 1930, a proposé le premier qu’il existait de la matière noire. Il avait en effet observé que des galaxies se déplaçaient plus vite que prévu par la théorie newtonienne de la gravitation. Pour l’expliquer en restant en conformité avec la théorie, il a supposé l’existence d’une matière invisible, lourde et stable, présente au voisinage des galaxies, qu’il nomma matière noire. D’abord oubliés, les résultats de Fritz Zwicky ont été confirmés dans les années 1970 grâce à des mesures de vitesse des étoiles en fonction de leur distance au centre de leur galaxie. Aujourd’hui, la grande majorité des astrophysiciens sont convaincus de l’existence de cette matière noire. Mais ils ignorent toujours sa nature. Ils ont d’abord suspecté qu’elle était faite d’objets massifs peu lumineux tels que des trous noirs et des naines brunes*. Mais ceux-ci sont trop rares pour expliquer toutes les observations. De plus, les calculs de la quantité de matière noire dans l’Univers ont montré que celle-ci ne peut être constituée de matière baryonique, la matière ordinaire. Cette dernière, dont on peut calculer par ailleurs la quantité totale, dans le cadre du modèle du Big Bang, n’est pas suffisamment abondante.

Après avoir un temps suspecté qu’il pouvait s’agir de neutrinos (lire « Les neutrinos défient les physiciens », p. 38), les physiciens pensent désormais que la matière noire est constituée de particules encore inconnues, dont l’existence est prévue par certains modèles de la physique des particules tels que les modèles supersymétriques (lire « La supersymétrie ébranlée par l’expérience », p. 44). Mais que sait-on vraiment de ces particules ? Les observations des galaxies ont établi qu’elles sont soumises à la force de gravitation. Autre propriété, déduite de l’impossibilité de les détecter : elles n’émettent et n’absorbent aucun rayonnement électromagnétique.

© NASA, ESA ET R. MASSEY (CALIFORNIA INSTITUTE OF TECHNOLOGY)

L’insaisissable nature de la matière noire

Modèles supersymétriques. Les modèles supersymétriques ont quant à eux suggéré qu’elles seraient sensibles à la force d’interaction faible, l’une des quatre forces fondamentales connues de l’Univers. Toujours selon ces modèles, elles seraient de 10 à 10 000 fois plus massives que le proton, soit une masse de 10 à 10 000 gigaélectronvolts (GeV). Dans un tel intervalle de masse, il y a de la place pour des particules assez différentes les unes des autres. Mais on les regroupe toutes sous le nom de « Wimps », acronyme anglais pour « particule massive interagissant faiblement ». Pour lever le voile sur les Wimps, astrophysiciens et physiciens des particules ont imaginé trois types d’observations : une détection directe, une détection indirecte et la création de matière noire dans des accélérateurs de particules. La recherche simultanée sur ces trois fronts permettra d’identifier intégralement la nature des Wimps. *UNE NAINE BRUNE est un astre dont la masse est supérieure à celle d’une planète, mais inférieure à celle d’une étoile.

48 s La Recherche | JUILLET-AOÛT 2012 s Nº 466

LR_466_048MAT-NOIRE-GASCON_048 48

13/06/12 16:16:30


Cette carte tridimensionnelle, élaborée à partir d’observations du télescope spatial Hubble, montre la distribution de la matière noire dans une région du ciel de 2 degrés carrés, soit neuf fois la surface apparente de la pleine Lune. Fabriquer des détecteurs pour observer directement la matière noire semble une option toute trouvée. Notre galaxie devrait, comme les autres, baigner dans un large halo de matière noire. Nous serions ainsi traversés en permanence par un flux de ces particules, on peut donc essayer d’en « attraper » quelques-unes. Pour cela, les astrophysiciens ont construit des détecteurs capables

d’interagir avec elles. Certains utilisent ainsi du xénon liquide purifié. En Italie, le détecteur Xenon, le plus sensible actuellement, en utilise 162 kilogrammes. Le détecteur Zeplin, au cœur de la mine de Boulby en Grande-Bretagne, utilise aussi ce liquide. D’autres, tels les détecteurs CDMS, aux États-Unis, et Edelweiss, près du tunnel du Fréjus, ont recours à une cible solide en cristaux de germanium.

Un système solaire sans matière noire ? Les rebondissements autour du mystère de la matière noire sont courants, et le resteront tant qu’il ne sera pas résolu ! Le dernier en date provient d’astronomes de l’Observatoire européen austral. Au mois de mai, ceux-ci ont annoncé avoir observé les mouvements de 400 étoiles proches. Verdict : ces derniers s’expliquent parfaitement par l’attraction gravitationnelle de la seule matière ordinaire. Autrement dit, il n’y aurait pas de matière noire dans un rayon de 13 000 années-lumière autour du Soleil [1]. Ces résultats suggèrent que les recherches en détection directe seraient inutiles. Encore faut-il que les mesures soient correctes : plusieurs équipes ont exprimé des doutes sur ce point. De futures expériences, notamment réalisées par le satellite européen GAIA en 2013, les vérifieront avec plus de précision.

Les détecteurs doivent être très sensibles : ces particules peuvent traverser des milliers de kilomètres de matière solide sans interagir avec elle. Mais même avec les meilleurs détecteurs actuels, on n’attend pas plus d’une interaction par an. Lorsqu’une particule de matière noire interagit avec un atome du détecteur, un signal tel qu’un flash lumineux ou une augmentation de la température est généré [fig. 1]. Mais il ne suffit pas d’attendre un hypothétique signal : en fait les détecteurs sont sollicités en permanence par d’autres phénomènes. Ainsi, le rayonnement cosmique*, flux de particules qui bombarde la Terre en permanence, est une source de bruit de fond. Pour s’isoler de ce rayonnement, les installations sont construites sous terre, parfois à plus de 1 000 mètres de profondeur. >>> *LE RAYONNEMENT COSMIQUE est un flux de particules sidérales constitué de noyaux atomiques et de particules de haute énergie.

[1] C. Moni Bidin et al., ApJ, à paraître, http://goo.gl/rnKCs, 2012. Nº 466 s JUILLET-AOÛT 2012 | La Recherche s 49

LR_466_048MAT-NOIRE-GASCON_049 49

13/06/12 16:16:33


dossier

la physique du xxie siècle

Les nouveaux dÊtecteurs d’ondes gravitationnelles Einstein l’avait prÊdit : les masses dÊforment l’espace-temps, et ces dÊformations se propagent. Les amÊliorations apportÊes aux dÊtecteurs pour augmenter leur sensibilitÊ devraient permettre d’observer ce phÊnomène. PAR Pascaline journaliste.

Minet,

es physiciens en ont la certitude : les ondes gravitationnelles existent. Ces vibrations de la courbure de l’espace-temps sont prÊvues par la thÊorie de la relativitÊ gÊnÊrale, proposÊe par Einstein en 1915 et abondamment confirmÊe depuis. Produites par des cataclysmes astrophysiques dans notre galaxie et au-delà , elles se propageraient à travers l’Univers, telles des vaguelettes à la surface de l’eau. S’ils parvenaient à dÊtecter ces ondes, les astrophysiciens disposeraient d’un nouveau moyen d’Êtudier l’Univers, complÊmentaire des modes d’observation existants. Elles les renseigneraient

L

Fig.1 L’interfÊromètre Virgo

aussi sur les dÊbuts de l’Univers, puisque des ondes gravitationnelles Êmises lors du Big Bang sont thÊoriquement toujours perceptibles. Enfin, leur dÊtection apporterait une confirmation supplÊmentaire des prÊdictions d’Einstein. Depuis le dÊbut du XXIe siècle, plusieurs installations de dÊtection de ces ondes sont entrÊes en service, en Europe et aux États-Unis. Sans succès jusqu’à prÊsent. Mais des amÊliorations de ces dÊtecteurs ont ÊtÊ entreprises rÊcemment afin d’augmenter leur sensibilitÊ. De leur côtÊ, des astronomes tentent d’utiliser les signaux radio Êmis par certaines Êtoiles pour dÊtecter le passage de telles ondes dans l’espace. Il

 



    "



 "  



#

Š INFOGRAPHIE PHILIPPE MOUCHE



 

   







  " 

    "

! 

DANS LA VERSION  AVANCÉE  de l’interfÊromètre Virgo, une source laser de 400 watts fournit le faisceau lumineux (1). Celui-ci est envoyÊ par moitiÊs dans les deux bras, grâce à un miroir sÊparateur (2). La lumière y fait 250 allers et retours (3) avant de ressortir. Le miroir de recyclage de puissance rÊflÊchit lui aussi les faisceaux, 30 fois, ce qui augmente d’autant la longueur parcourue, donc la sensibilitÊ de l’instrument. En sortie (4), les faisceaux se recombinent et interfèrent (5) : la luminositÊ reçue par le dÊtecteur dÊpend de la diffÊrence de longueur des bras, modifiÊe par le passage d’une onde gravitationnelle. Le miroir de recyclage du signal amplifie celui-ci avant dÊtection en le renvoyant dix fois dans l’interfÊromètre.

56 s La Recherche | JUILLET-AOÛT 2012 s Nº 466

LR_466_056ONDES-GRAVIT-MINET_056 56

12/06/12 15:38:32


© EGO-VIRGO/ IN2P3/ CNRS PHOTOTHÈQUE - © DANIEL ENARD/EGO/CNRS PHOTOTHÈQUE

L’antenne de détection des ondes gravitationnelles Virgo, avec ses deux tunnels de 3 kilomètres de long (détail en médaillon), a été inaugurée en 2003 à Cascina, en Italie. n’y a pas de doute : la première observation d’une onde gravitationnelle ne devrait plus tarder. La théorie de la relativité générale énonce que toute masse dans l’Univers déforme l’espace-temps à son voisinage. Plus la masse est importante, plus la déformation associée l’est aussi. Quand une masse est accélérée, la déformation de l’espace-temps qui lui est associée est modifiée, et se propage dans l’Univers : c’est ce que l’on désigne sous le terme d’onde gravitationnelle. De manière similaire aux ondes électromagnétiques, produites par des accélérations de particules chargées, les ondes gravitationnelles sont donc générées par des accélérations d’objets * UNE ÉTOILE À NEUTRONS est un astre très dense et de quelques kilomètres de diamètre composé de neutrons maintenus ensemble par la force de gravitation.

massifs. Ces accélérations se produisent à l’occasion d’événements astrophysiques violents. Par exemple, lorsque deux étoiles tournent l’une autour de l’autre avant de fusionner. Et comme plus les étoiles sont massives, plus les ondes émises sont intenses, on s’attend à observer d’abord des fusions de trous noirs ou d’étoiles à neutrons*.

Astre double. C’est d’ailleurs un couple d’étoiles à neutrons qui a apporté dans les années 1970 une preuve indirecte de l’existence des ondes gravitationnelles. Preuve qui a valu en 1993 le prix Nobel de physique aux Américains Joseph Taylor et Russell Hulse. Ces physiciens ont en effet observé un astre double, appelé PSR B1913+16, constitué de deux étoiles à neutrons tournant l’une autour de l’autre. L’une de ces étoiles est un pulsar, c’està-dire une étoile qui produit une émission radio très directionnelle, comme un phare balaie régulièrement l’horizon de son faisceau lumineux. Vue de la Terre, celle-ci devient une impulsion, répétée à intervalles très réguliers. En observant ce signal radio pendant plusieurs années,

les astrophysiciens se sont aperçus que la vitesse de rotation des étoiles l’une autour de l’autre augmentait. Et ils ont calculé que l’accélération observée correspondait assez précisément à celle prévue par la théorie, si on considérait que le système perdait de l’énergie sous forme d’ondes gravitationnelles [1]. >>>

> LA QUESTION La théorie de la relativité générale prédit que des déformations de l’espace-temps peuvent se propager, formant des ondes gravitationnelles.

> L’EXPÉRIENCE Trois grands interféromètres ont été construits, aux États-Unis et en Italie, afin de détecter ces ondes, qui modifient les longueurs à leur passage.

> L’ÉCHÉANCE Ces installations sont en cours d’amélioration, et leur sensibilité sera décuplée d’ici 2014 et 2015.

Nº 466 s JUILLET-AOÛT 2012 | La Recherche s 57

LR_466_056ONDES-GRAVIT-MINET_057 57

12/06/12 15:38:35


 

dossier

 ##!#

la physique du xxie siècle

L’anomalie Pioneer enfin expliquÊe ? LancÊes dans les annÊes 1970, les deux sondes Pioneer sont freinÊes dans leur progression par une force mystÊrieuse. IntriguÊs, les physiciens n’ont pas hÊsitÊ pour l’expliquer à remettre en question les lois de la gravitation. PAR Julien

ÂŤ

Bourdet, journaliste.

’ L

accÊlÊration anormale [des sondes Pioneer] n’est pas en contradiction avec la physique connue.  C’est la conclusion d’un article postÊ le 11 avril 2012 par Slava Turyshev et ses collègues de la NASA sur le serveur de prÊpublication ArXiv [1]. Ils affirment ainsi avoir rÊsolu une Ênigme qui tourmentait les physiciens depuis une trentaine d’annÊes. Cette Ênigme, connue sous le nom d’ anomalie Pioneer , a ÊtÊ posÊe par l’observation des sondes Pioneer 10 et Pioneer 11. LancÊes par l’Agence spatiale amÊricaine au dÊbut des annÊes 1970 pour observer Jupiter et Saturne, celles-ci ont depuis poursuivi leur route, dans deux directions diamÊtralement opposÊes, vers l’espace interstellaire. La seule force qui s’exerce sur elles est, en principe, l’attraction gravitationnelle du Soleil, qui faiblit à mesure qu’elles s’Êloignent. Mais le suivi prÊcis de leur trajectoire a rÊvÊlÊ qu’elles ralentissaient plus que prÊvu. Certes, ce freinage supplÊmentaire est très petit : environ un nanomètre par seconde carrÊe, soit cent mille fois moins que l’attraction gravitationnelle exercÊe par le Soleil au niveau de

l’orbite de Saturne. Mais il n’en fallait pas plus pour que des physiciens s’y intÊressent. Et certains n’ont pas hÊsitÊ, pour l’expliquer, à remettre en question la thÊorie actuelle de la gravitation. Aujourd’hui, malgrÊ l’annonce des chercheurs de la NASA, tous ne considèrent pas que l’affaire est close. L’anomalie Pioneer a ÊtÊ dÊcouverte, par hasard, en 1980. Après le passage de Pioneer 10 à proximitÊ de Jupiter en 1973, et celui de Pioneer 11 aux environs

> LA QUESTION Les sondes spatiales Pioneer 10 et Pioneer 11, qui se dirigent vers l’extÊrieur du système solaire, avancent moins vite que prÊvu.

> L’EXPÉRIENCE Une modÊlisation de l’Êvolution thermique de Pioneer 10 explique cette anomalie par la chaleur des rÊacteurs nuclÊaires embarquÊs.

> L’ÉCHÉANCE Des physiciens prÊparent toutefois une nouvelle mission spatiale pour tester plus prÊcisÊment le phÊnomène. Son lancement n’est pas programmÊ.



"# # ##!#

 

Pioneer 10 est passĂŠe Ă proximitĂŠ de ne sont pas connues avec prĂŠcision. de Saturne en 1979, la NASA avait en effet continuĂŠ de suivre les deux sondes jumelles. Elle leur envoyait rĂŠgulièrement un signal radio, qu’elles renvoyaient ensuite sur Terre. L’espoir ĂŠtait alors que des perturbations de leurs trajectoires trahissent la prĂŠsence d’une hypothĂŠtique planète au-delĂ  de Pluton. Au lieu de cela, les ingĂŠnieurs ont remarquĂŠ quelque chose de plus simple, mais aussi de plus troublant : les deux engins ĂŠtaient en retard sur leurs positions prĂŠdites par le calcul. Et chaque annĂŠe qui passait ne faisait que conďŹ rmer ce mystĂŠrieux dĂŠcalage. Ă€ tel point qu’en 2003, la dernière fois que Pioneer 10 a donnĂŠ de ses nouvelles, elle affichait un retard de 400 000 kilomètres (elle en avait alors parcouru plus de 12 milliards).

DĂŠrive des continents. Les scientiďŹ ques de la NASA ont alors passĂŠ au crible toutes les explications imaginables : mauvais positionnement des antennes de rĂŠception terrestres dĂť Ă la dĂŠrive des continents ou Ă  la rotation de la Terre ; ralentissement des ondes radio entre la Terre et les sondes Ă  cause du vent solaire* ; fuite de carburant ; friction des sondes sur des poussières interplanĂŠtaires ; etc. Mais après environ quinze ans d’enquĂŞte, ils ont dĂť se

66 s La Recherche | JUILLET-AOÛT 2012 s Nº 466

LR_466_066ANOMALIE-PIONEER_066 66

12/06/12 15:35:47


  

$ 

   

 



 ###

"# # ##!#

Jupiter, tandis que Pioneer 11 a aussi visitÊ Saturne. Les positions actuelles des deux sondes, lancÊes en 1972 et 1973, On ne capte plus aucun signal de leur part depuis respectivement 2003 et 1995. Š INFOGRAPHIE BRUNO BOURGEOIS

* LE VENT SOLAIRE est un flux de particules chargĂŠes ĂŠlectriquement que notre ĂŠtoile ĂŠjecte dans le milieu interplanĂŠtaire

dans le solide ĂŠdiďŹ ce de la relativitĂŠ gĂŠnĂŠrale. En 1998, des observations montraient en effet que l’expansion de l’Univers est accĂŠlĂŠrĂŠe, obligeant ainsi les thĂŠoriciens Ă inventer le concept d’Ênergie noire, dont ils peinaient (et peinent encore aujourd’hui) Ă  expliquer la nature (lire ÂŤ Brian Schmidt :“Cet Univers semble fou, mais c’est bien celui dans lequel nous vivonsâ€? Âť, p. 52).

L’anomalie Pioneer apportait surtout des arguments Ă ceux qui, depuis plus longtemps, affirmaient qu’il fallait complĂŠter, ou modiďŹ er, la thĂŠorie de la gravitation. Ainsi, dès les annĂŠes 1930, l’astronome Fritz Zwicky avait constatĂŠ que la vitesse de rotation des galaxies ĂŠtait plus ĂŠlevĂŠe que celle prĂŠdite par le calcul, comme si elles contenaient plus de matière que ce qu’elles laissent voir. >>>

Fig.1 Modèle et mesures LA MODÉLISATION THERMIQUE de Pioneer 10 (ci-contre l’extĂŠrieur de – 155 °C en bleu à – 108 °C en rouge) a permis de reconstituer la pression de rayonnement infrarouge sur son antenne parabolique (non figurĂŠe) durant son parcours. L’accĂŠlĂŠration anormale correspondante (en jaune, ci-dessous) explique les donnĂŠes recueillies de 1980 Ă  1998 (en rouge).     

 

Š JPL/ CALTECH/ NASA

rendre Ă l’Êvidence : aucune d’elles ne rendait compte de l’anomalie. Si bien qu’en 1994, pour la première fois, certains Ă  la NASA, dont Slava Turyshev lui-mĂŞme, ont osĂŠ ĂŠvoquer une autre hypothèse : la thĂŠorie actuelle de la gravitation, la relativitĂŠ gĂŠnĂŠrale, ĂŠnoncĂŠe par Einstein, ĂŠtait peut-ĂŞtre incomplète. Et en 1998 ils se dĂŠcidèrent Ă  partager leur dĂŠcouverte et leurs interrogations, rĂŠvĂŠlant pour la première fois Ă  la communautĂŠ scientiďŹ que l’existence de l’anomalie Pioneer [2]. Leur article ne suscita qu’une indiffĂŠrence polie chez la majoritĂŠ des physiciens et des cosmologistes. Comment les dĂŠrives de deux sondes hors d’âge dans le système solaire contesteraientelles une thĂŠorie maintes fois attaquĂŠe mais encore jamais mise en dĂŠfaut ? Pour eux, l’anomalie Pioneer n’Êtait qu’un biais de mesure. En marge du courant principal, quelques thĂŠoriciens prirent toutefois très au sĂŠrieux cette anomalie, considĂŠrant qu’elle pourrait avoir une origine bien plus profonde. D’autant que, la mĂŞme annĂŠe, une autre brèche s’Êtait ouverte



e

 

 



 

 













Nº 466 s JUILLET-AOÛT 2012 | La Recherche s 67

LR_466_066ANOMALIE-PIONEER_067 67

12/06/12 15:35:49


idées

Question d’éthique Devra-t-on utiliser des techniques de manipulation du climat pour lutter contre l’effet de serre ? L’annulation d’une expérience prévue en septembre met en exergue les problèmes que soulèverait une telle approche.

La géo-ingénierie en mal de gouvernance À 1 kilomètre d’altitude, un dirigea- en géo-ingénierie, David Keith, de l’université Harvard, le ble pompe 150 litres d’eau de mer via un soulignait récemment dans la revue Scientific American : journaliste long tube le reliant à l’océan, et la rejette « Cette technologie permet à n’importe quel pays d’affecter à La Recherche. dans l’atmosphère sous forme de vapeur le climat global de façon massive. Aussi nous pensons qu’elle d’eau… À première vue, difficile d’imagi- doit rester dans le domaine public. » Venant de quelqu’un ner une expérience plus anodine : pas la moindre consé- qui n’a pas d’opposition de principe aux brevets (Keith préquence environnementale ! Pourtant, pour certains, elle side une start-up nommée Carbone Engineering), l’assersent le soufre car c’est un premier pas. Le premier pas tion pousse d’autant plus à réfléchir. Problème : selon un vers la mise en œuvre d’une approche très controversée rapport publié en 2010 par l’université du Michigan, les d’ingénierie du climat : l’épandage, à haute altitude, dans techniques de gestion du rayonnement solaire avaient la stratosphère, de particules capables de réfléchir vers déjà, à cette date, suscité le dépôt de 10 brevets. l’espace le rayonnement solaire. Il ne s’agirait alors pas Alors ? Alors, des voix s’élèvent pour appeler à la mise en place de modalités de gouvernance de de vapeur d’eau, mais de particules de souPour en savoir plus la géo-ingénierie à l’échelle mondiale, et fre ou de dioxyde de titane. L’objectif de cette technique ? Refroidir la planète, comme les http:// pas seulement concernant les brevets. 10 millions de tonnes de soufre crachées thereluctantgeoengineer. Si le sujet est peu abordé en France, la blogspot.fr/ Le blog par le Pinatubo l’avaient fait en 1991 : l’an- de Matthew Watson, Chambre des communes britannique, la née suivante, la température moyenne de la coordinateur du projet Spice. Chambre des représentants des États-Unis, Terre avait diminué de 0,5 degré. ou encore le Parlement européen s’en sont http://tinyurl.com/ Geoengineering-Royaldéjà emparés, de même que l’Unesco et la Society Le rapport Convention sur la diversité biologique (le Gestion du rayonnement solaire. de la Royal Society GIEC, lui, fera le point sur les recherches L’expérience du dirigeable, anodine et pour- sur la géo-ingénierie. en géo-ingénierie dans son prochain raptant emblématique, devait avoir lieu en http://tinyurl.com/ port). Les sociétés savantes ne sont pas en septembre prochain. Ce ne sera finalement GeoengineeringUnesco-2011 Le point reste, la Royal Society britannique en tête, pas le cas : début mai, ses promoteurs, des de vue de l’Unesco. auteur en 2009 d’un rapport de référence. scientifiques de quatre universités britanniques, ont décidé de l’annuler. Le projet de recherche Ou encore des associations, en particulier le très actif « Spice », dont elle constituait le volet expérimental, se « ETC Group », basé au Canada. Un point commun se dégage : l’inquiétude. L’inquiétude poursuivra sans elle. Mais, annulation ou pas, les questions soulevées par les approches de « gestion du rayon- face aux dangers que feraient courir les techniques de gestion du rayonnement solaire, avec leurs effets s’exernement solaire » demeurent. Le coordinateur de Spice, Matthew Watson, de l’univer- çant à l’échelle de la planète. L’inquiétude face à un sité de Bristol, s’en ouvre sur son blog : les membres de remède qui pourrait être pire que le mal. L’inquiétude Spice ont découvert que deux d’entre eux avaient déposé de se retrouver, un jour, dans l’obligation d’y recourir. un brevet décrivant la technologie envisagée. Dans la plu- Inquiétude exagérée ? Le 24 mai, l’Agence internatiopart des domaines de recherche, la démarche est classique. nale de l’énergie a annoncé qu’en 2011 les émissions de Mais la gestion du rayonnement solaire n’a, elle, rien d’ha- dioxyde de carbone avaient atteint la valeur record de bituel. L’un des plus fervents promoteurs de la recherche 31,6 gigatonnes, 1 gigatonne de plus qu’en 2010. N

Cécile Klingler,

98 s La Recherche | JUILLET-AOÛT 2012 s Nº 466

LR_466_098Ethique_098 98

12/06/12 15:47:11


Le grand débat Présentée comme une solution à la surpêche, la pisciculture est remise en question par plusieurs équipes de recherche dans le monde. Les techniques d’élevage utiliseraient trop de poissons sauvages pour nourrir ceux d’élevage.

L’élevage sauvera-t-il les poissons ? a pisciculture permet-elle de sauver les poissons de la surpêche et des effets du réchauffement climatique ? Pas si sûr… Dans un récent rapport intitulé Little Fish, Big Impact (Petits Poissons, gros impacts), treize scientifiques internationaux alertent : les captures de petits pélagiques (sardine, anchois, chinchard, sprat, capelan ou hareng), utilisés pour fabriquer farine et huile destinées à nourrir les poissons d’élevage, devraient être divisées par deux si l’on veut protéger les ressources en petits poissons et leurs prédateurs qui en dépendent [1]. Selon l’étude, les petits poissons représentent 37 % de l’ensemble de la pêche dans le monde contre 8 % il y a cinquante ans. Et certains d’entre eux ont déjà disparu dans des régions comme la mer Noire ou la mer du Japon. Cette surpêche met aussi en danger les animaux prédateurs

L

qui dépendent du menu fretin pour leur nourriture : les gros poissons, les oiseaux de mer et les mammifères marins. C’est l’avertissement lancé par Philippe Cury, de l’Institut de recherche pour le développement, qui a contribué à l’étude. Pour lui, il est urgent de réduire et de repenser la place et le rôle de la pisciculture. En revanche, Sadasivam Kaushik, de l’Institut national de recherche agronomique, soutient que le développement de l’aquaculture est essentiel à la consommation humaine. Il souligne que près de 50 % de la consommation de poissons dans le monde provient de l’élevage et affirme que les pistes de recherche visant à réduire la quantité de poissons sauvages utilisés sont prometteuses. ฀Anna Consalvi [1] E. Pikitch et al., Little Fish, Big Impact : Managing a Crucial Link in Ocean Food Webs, Lenfest Ocean Program, 2012.

Philippe Cury est directeur de recherche à

Sadasivam Kaushik est directeur

l’Institut de recherche pour le développement. Il a publié en 2008, avec Yves Miserey, Une mer sans poissons aux éditions Calmann-Lévy, et appartient au groupe de travail international qui a publié le rapport Little Fish, Big Impact.

de recherche à l’Institut national de la recherche agronomique dans l’unité de recherche nutrition, métabolisme et aquaculture à Saint-Pée-sur-Nivelle, dans les Pyrénées-Atlantiques.

© IRD - DR

Les grandes dates

DÉBUT DU XVIe SIÈCLE

1910

2006

AVRIL 2012

Les Européens découvrent la pêche à la morue à Terre-Neuve, où l’on « marche sur les poissons ». Naissance d’une croyance : les ressources marines seraient inépuisables.

La pisciculture d’eau douce (pratique ancestrale en Chine) se développe en France. Au début des années 1980, c’est au tour de la pisciculture marine.

Dans son rapport sur la situation mondiale des pêches et de l’aquaculture, l’Organisation des Nations unies pour l’alimentation et l’agriculture prévient : trois quarts des réserves marines surveillées sont à présent complètement exploitées, surexploitées, voire épuisées.

Treize scientifiques internationaux alertent sur le déclin des poissons sauvages, utilisés pour nourrir ceux d’élevage, dans l’étude Little Fish, Big Impact.

Nº 466 s JUILLET-AOÛT 2012 | La Recherche s 99

LR_466_099grand_debat_099 99

12/06/12 15:15:48

la-recherche_20130908185838  
Read more
Read more
Similar to
Popular now
Just for you