Issuu on Google+

2012

editorial La physique, fondement du progrès Jean-Pierre Hauet

Numéro

4

énergie

ENTRETIEN avec Gérard Théry Ancien Directeur Général des Télécommunications

telecommunications

signal

composants

automatique

informatique

Cette aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro d'octobre 2012. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.

dossiers

Les atomes froids

ISSN 1265-6534

L'article invité

Smart grids et normalisation Par Alain Doulet www.see.asso.fr


editorial

jean-pierre hauet

La physique, fondement du progrès

A

l’heure où nous bouclons ce numéro de la REE, la nouvelle de l’attribution du prix Nobel de physique au Français Serge Haroche et à l’Américain David J. Wineland nous parvient, récompensant les travaux que l’un et l’autre ont menés, chacun de leur côté, sur la manipulation de photons et d’atomes à un niveau où la description de la matière passe du domaine de la physique classique à celui de la physique quantique, où le déterminisme cède la place à la connaissance probabiliste, en parvenant, au prix d’expériences infiniment délicates, à mettre en évidence le phénomène fondamental de la décohérence.

La REE se réjouit bien entendu de l’attribution du prix de Nobel de physique à un 13e lauréat français. Elle s’en réjouit d’autant plus qu’elle vient récompenser des travaux d’une valeur incontestée qui ouvrent la voie à des sauts technologiques fantastiques, sur la mesure du temps avec des niveaux de précision extraordinaires et puis, à plus long terme, sur les fameux ordinateurs quantiques. La REE s’intéresse depuis longtemps à ces travaux. En novembre 2004, elle publiait un article invité du Dr. Yury Mukharsky « Les qubits et le calcul quantique ». Au printemps dernier, elle consacrait un long Flash-Info à la réalisation par IBM d’un dispositif supraconducteur intégré sur une puce de silicium, réalisant une opération logique sur 2 qubits. Aujourd’hui, nous publions un dossier complet sur les atomes froids, ces atomes ralentis par laser jusqu’à un stade où les ondes de matière associées deviennent observables et utilisables dans des centrales inertielles ou des gravimètres extraordinairement précis. Avec les premiers travaux sur les atomes froids, qui valurent

le prix Nobel 1997 au Français Claude Cohen-Tannoudji – qui naguère fut directeur de thèse de Serge Haroche, s’ouvrait l’ère des manipulations quantiques sur la matière et de l’exploration de nouveaux états. Tout ceci est bien lointain penseront certains et fort éloigné de nos préoccupations quotidiennes. Il n’en est rien. Notre deuxième dossier sur les nouvelles technologies de l’éclairage vient à point nommé pour le montrer. Pendant plus d’un siècle, la lampe à incandescence, inventée en 1879, a régné en maître dans les foyers apportant un confort inconnu jusqu’alors mais au prix d’un rendement lumineux extrêmement médiocre (1 à 2 %). Pendant des décennies, la technologie a tâtonné, incapable de proposer une solution efficace apportant un confort visuel équivalent à celle des lampes de Swan et d’Edison. Et puis tout d’un coup, les LED et les OLEDs, issues à la fois de la recherche fondamentale et du progrès technologique, font une irruption massive dans les supermarchés, avec des durées de vie et des efficacités énergétiques 10 fois supérieures à celles des solutions traditionnelles. Nous sommes convaincus que dans quelques décennies, les grands centres de calcul, véritables gouffres à énergie dont le rendement thermodynamique n’excède pas 1 ‰, tireront parti des principes fondamentaux que le prix Nobel 2012 est venu récompenser. Dans la grisaille du moment, ces découvertes, replacées dans la perspective de l’évolution technologique de l’éclairage, sont autant de lueurs d’espoir.

Jean-Pierre Hauet Président du Comité Editorial

REE N°4/2012 ◗ 1


sommaire Numéro 4 2012

1 Editorial

La physique, fondement du progrès Par Jean-Pierre Hauet

2 sommaire 5

Flash Infos

Serge Haroche : le 13e prix Nobel de physique français

La découverte du Boson de Higgs, si elle est avérée, confirmera le modèle standard

p. 1

Un transistor optique à 10 GHz

REVEL : un contact virtuel dans un monde réel

Les batteries au lithium-Ion : de beaux jours en perspective ?

Le mystère des batteries au plomb enfin éclairci ?

Un mois de juin très chaud…..

15 A retenir

Congrès et manifestations

18 Vient de paraître

p. 29

La REE vous recommande

21 Article invité

Smart grids et normalisation Par Alain Doulet

29 Les grands dossiers

p. 55

L'éclairage Introduction : L’éclairage : un remarquable saut technologique Par Jean-Pierre Hauet

31 La révolution technologique de l’éclairage

Par Christophe Cachoncinlle, Georges Zissis

42 Evolutions et perspectives de l’éclairage - Applications des OLEDs

p. 21

p. 89

p. 101

Credit photo couverture : Multi Colored Building © openlens - Fotolia.com. Conception, JC. Malaterre

2 ◗ REE N°4/2012

Par Marc Ternisien, David Buso, Georges Zissis, Sounil Bhosle

48 Les technologies nouvelles de l’éclairage : leur impact sur l’environnement et la santé Par Sébastien Point


55 Les atomes froids Introduction : Les atomes froids Par Michèle Leduc, Pierre Cladé

Par Saïda Guellati-Khelifa, Pierre Cladé

67 S enseurs d’inertie à ondes de matières. Des appareils de précision pour la navigation, la géophysique et les tests spatiaux

Par Philippe Bouyer, Arnaud Landragin

71 Atomes froids et physique du solide

Par Frédéric Chevy, Xavier Leyronas, Laurent Sanchez-Palencia

81 retour sur ...

MEA

More Electric Aircraft

2012

57 Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques

Le paradoxe EPR Par Marc Leconte

89 Entretien avec...

Gérard Théry Ancien Directeur Général des Télécommunications

93 Enseignement & Recherche SONDRA – Un “golden gate” entre Paris-Saclay et Singapour

Par Marc Lesturgie, Sylvain Azarian

96 Echos de l’enseignement supérieur

Par Bernard Ayrault

20-21 November 2012 Bordeaux (France) For more information, please contact: > Registration: congres@see.asso.fr > Exhibition: aaaftlse@aol.com

99 CHRONIQUE

Prospective et utopie

Par Bernard Ayrault

101 libres propos

Les réseaux au secours de l’écosystème

Par Thierry Gaudin

105 SEE en direct

La vie de l'association

http://www.mea2012.eu/venue

REE N°4/2012 ◗ 3


FlashInfos

Serge Haroche et son équipe ont découvert que plus l’in-

Serge Haroche : le 13 prix Nobel de physique français e

tervalle de temps entre l’envoi de deux atomes était long, plus leurs états différaient à la sortie, ce qui montrait que

Le prix Nobel de physique 2012

la superposition d’états disparaissait rapidement. On sa-

a été décerné à Serge Haroche,

vait que le phénomène de décohérence apparaissait très

professeur au Collège de France

rapidement mais on n’avait pas observé la transition, qui

et directeur de recherche au La-

a été mise en évidence expérimentalement sans que la

boratoire Kastler Brossel au sein

« boîte de Schrödinger » soit ouverte, c’est-à-dire sans que

de l’École normale supérieure à

les photons aient été absorbés. Les expériences conçues

Paris, et à David Wineland, cher-

par Serge Haroche ont permis la manipulation des états

cheur de l’Institut américain des étalons et de la techno-

quantiques dans des cavités supraconductrices, manipu-

logie (NIST) à Boulder aux États-Unis. Le comité Nobel

lations que certains physiciens cherchent à exploiter pour

a motivé l’attribution du prix par leurs recherches es-

réaliser des ordinateurs quantiques1.

sentielles dans la conception de dispositifs permettant

Les travaux de David Wineland, colauréat du prix No-

de contrôler et de mesurer des systèmes quantiques

bel, sont complémentaires de ceux de Serge Haroche. Le

dont les applications vont des horloges de précision à la

physicien américain a étudié des ensembles d’atomes

conception de futurs ordinateurs quantiques.

ionisés et piégés par un champ électrique, dans des dis-

Serge Haroche et ses collègues du laboratoire de l’ENS

positifs nommés pièges de Paul. Des photons contrôlent

ont, mis au point des systèmes de cavités supraconductri-

l’état quantique des ions avec précision. David Wineland a

ces contenant quelques photons piégés par deux miroirs

ainsi expérimenté des opérations élémentaires de calcul

réfléchissants se faisant face. Il a ainsi développé une

quantique, composants d’un futur mais encore hypothé-

technique permettant d’obtenir l’état des photons par un

tique ordinateur quantique. Toujours avec des ions, il a

changement d’état de l’atome sonde, sans perturber le

également développé une horloge optique reposant sur

système. Avec ce dispositif, Serge Haroche et son équipe

les oscillations d’ions aluminium plus précise d’un ordre

ont réussi à reproduire matériellement le phénomène de

de grandeur que les horloges au césium. Une telle hor-

la décohérence qui décrit le passage du comportement

loge fonctionnant depuis le début de l’univers donnerait

quantique d’un système, pouvant être dans une superpo-

l’heure avec une erreur de moins de cinq secondes.

sition d’états quantiques, à un comportement classique.

Le prix Nobel de physique a été créé en 1901 et deux

La décohérence est un résultat important de l’interpré-

de ses lauréats Gabriel Lippmann et Louis de Broglie ont

tation moderne de la mécanique quantique et apporte

été en leur temps président de la SEE. Serge Haroche est

une réponse au célèbre paradoxe du chat de Schrödinger.

le treizième prix Nobel français de physique après Henri

En 1935, Erwin Schrödinger a imaginé un chat dans une

Becquerel, Pierre et Marie Curie en 1903, Gabriel Lippmann

boîte fermée où l’on aurait introduit un atome radioactif.

en 1908, Jean-Baptiste Perrin en 1926, Louis de Broglie

Si cet atome se désintégrait, du cyanure était libéré dans

en 1929, Alfred Kastler en 1966, Louis Néel en 1970, Pier-

la boîte et tuait le chat. La désintégration de l’atome sui-

re-Gilles de Gennes en 1991, George Charpak en 1992,

vant une loi de probabilité, le chat acquiert, une probabi-

Claude Cohen-Tannoudji en 1997 et Albert Fert en 2007.

lité d’être en vie ou d’être empoisonné par le cyanure. En

Le prix Nobel de Serge Haroche s’inscrit dans la filiation de

conséquence l’animal est à la fois mort et vivant jusqu’à

ceux décernés à Claude Cohen-Tannoudji, Alfred Kastler

ce que l’on ouvre la boîte. Serge Haroche, plus clément à

et Louis de Broglie. C’est en effet la physique quantique

l’égard des chats, les a remplacés par des photons dans

dont Louis de Broglie est l’un des fondateurs qu’explore

une cavité entre deux miroirs sphériques à très basse

Serge Haroche depuis le début de sa carrière commen-

température pour réduire au maximum les interactions

cée au début des années 70 au sein du laboratoire de

avec le milieu. Un atome est préparé à l’aide d’impul-

physique de l’Ecole normale supérieure. Son directeur de

sions micro-ondes afin qu’il se trouve dans deux états

thèse est Claude Cohen-Tannoudji et sa thèse a pour titre

d’énergie superposés, puis cet atome est envoyé dans

« l’atome habillé ». L’impressionnante liste de ses publica-

la cavité, amenant le champ de photons dans un état de

tions dans des revues spécialisées permet de dessiner la

superposition quantique. Un deuxième atome est envoyé

suite de ses travaux depuis 1971 qui ont le point com-

et comparé à la sortie à celui du premier et ainsi de suite.

mun de s’intéresser aux propriétés des objets quantiques.

REE N°4/2012 ◗ 5


FlashInfos

Il est remarquable de constater la fécondité du Laboratoire

recherche de simplification des modèles par l’unification

Kastler Brossel de physique de l’Ecole normale supérieure

des forces de la nature et la recherche de symétries a

qui fut animé par Alfred Kastler et qui a su redonner un

été un puissant moteur de découverte. De Newton à

prestige international à la physique française après la guer-

Einstein, on pensait que le monde n’était fait que de ma-

re. Il est également remarquable de constater que ce sont

tière dans un éther. Au début du 20e siècle la relativité

deux équipes françaises qui ont concrétisé les deux gran-

restreinte a fait disparaître l’éther et on a inversé la pro-

des expériences de la pensée de la physique quantique,

position, le monde n’est fait que de champ et la matière

le chat de Schrödinger avec Serge Haroche et le paradoxe

est l’une des manifestations du champ qui est donc le

d’Einstein Podolsky Rosen avec Alain Aspect2. ■

socle fondamental. On s’est attelé à l’unification des deux

ML

champs connus à l’époque, le champ gravitationnel et

1

Voir REE N°2/2012 page 6

le champ électromagnétique. Cette unification a été un

2

On trouvera sur ce paradoxe un développement dans la rubrique « Retour sur… » de ce même numéro.

échec. Einstein aura cherché jusqu’à la fin de sa vie mais sans succès à mettre au point sa théorie des champs unifiés. Cependant, l’approche quantique du champ électromagnétique sera un plein succès et donnera naissance

La découverte du boson de Higgs, si elle est avérée, confirmera le modèle standard

à l’électrodynamique quantique de Tomonaga, Schwinger

4 juillet 2012 : le boson de Higgs aurait été découvert

que ont permis d’approfondir la connaissance du noyau,

et Feynman. En parallèle la découverte de nouvelles particules élémentaires et les progrès de la physique atomi-

Le 4 juillet 2012 éclatait dans tous les médias l’annonce

de la force nucléaire forte qui assure sa cohésion et de

par le CERN de la découverte très probable du boson de

la force nucléaire faible qui est responsable de la désin-

Higgs. Des titres parfois extravagants envahissaient la pres-

tégration β (un neutron se transformant en proton plus

se généraliste en plein été, parlant de particule de Dieu, de

d’autres particules).

particule manquante qui allait expliquer l’univers, etc.

A partir des années 60, les physiciens ont construit

Dans l’un des quotidiens du soir (le Monde) on pou-

le modèle standard qui décrit les trois interactions élec-

vait trouver une illustration suggestive montrant un puzzle

tromagnétique, forte et faible. Un modèle mathématique

auquel il manquait une pièce : le boson de Higgs. Celui-

découlant d’un principe de symétrie unique commun à

ci fait en effet partie des particules élémentaires qui ont

tous les modes d’interaction constitue le cadre théorique

été postulées au sein d’un même modèle théorique, le

du modèle standard.

modèle standard, et pour la recherche desquelles de gi-

Une première unification a été réalisée par Glashow,

gantesques accélérateurs de particules ont été construits

Salam et Weinberg entre l’interaction faible et l’interac-

en Europe et aux Etats-Unis. Le dernier en date est le LHC

tion électromagnétique sous forme d’un champ unique

(Large Hadron Collider) exploité depuis 2008 par le CERN,

appelé interaction électrofaible qui forme aujourd’hui la

près de Genève, et qui, grâce à un anneau de 26,6 km

première composante du modèle standard. Les bosons

de circonférence, permet d’organiser des collisions proton-

porteurs de cette interaction, les W ± et Z0, dont l’existence

proton à un niveau d’énergie jamais atteint à ce jour de 14

avait été prédite dès les années 1960, ont été découverts

TeV1. Deux grands programmes de recherche, fondés sur

au CERN en 1983 et confirmés par la suite grâce au LEP

les détecteurs géants ATLAS et CMS, ont été immédiate-

(Large Electron-Positron Collider).

ment lancés afin de traquer le fameux boson.

La chromodynamique quantique fondée sur l’existence des quarks en tant que constituants élémentaires des

Retour sur le modèle standard Depuis que la physique utilise les mathématiques comme modèle de représentation des phénomènes, la 1

L’électron-volt (eV) et ses multiples (keV, MeV, GeV, TeV) sont des unités de mesure d’énergie utilisées en physique des particules pour exprimer les niveaux d’énergie rencontrés dans les accélérateurs de particules. Un eV équivaut à 1,60217653 × 10 -19 joule (J). L’eV.c-2 est une unité de masse et équivaut à 1.783 10 -36 kg.

6 ◗ REE N°4/2012

protons et neutrons, a été mise au point dans les années 60 et constitue le deuxième pilier du modèle standard tel que nous le connaissons aujourd’hui. La rupture de symétrie de la force électrofaible et le champ de Higgs L’idée d’unification de l’électromagnétisme et de la force faible consistait à considérer que ces interactions étaient


FlashInfos

régies par des forces de jauge, ou symétries de jauge, dont le prototype le plus simple est l’électromagnétisme. Le porteur ou «  boson  » de l’interaction électromagnétique est le photon dont la masse nulle autorise une interaction à portée infinie. En 1957 les expériences de Yang et Mills permirent d’affirmer que la force faible était également une force de jauge. La très courte portée de l’interaction faible impliquait des bosons massifs, mais la théorie stipulait que les bosons de jauge devaient être de masse nulle ce qui soulevait une contradiction théorique. Abdus Salam et Steven Weinberg avancèrent alors

Figure 1a.

l’idée que cette contradiction pouvait être la conséquence d’une brisure de symétrie et que les masses de bosons W ± et Z0 médiateurs de l’interaction faible devaient provenir d’une transition de phase comme il en existe beaucoup dans la nature (passage de l’eau en glace par exemple). L’idée émise fut qu’il existait un champ scalaire, dénommé champ de Higgs du nom de l’un de ses inventeurs, capable d’interagir avec les bosons intermédiaires W ± et Z0 mais sans effet sur le photon de masse nulle. Ce champ se manifesterait par le mécanisme de Higgs2 expliquant que dans le domaine des basses énergies les bosons W ± et Z0 acquièrent une masse inertielle

Figure 1b.

qui les différencie du photon. Dans le domaine des hautes énergies, celui qui prévalait peu après le big bang, la « mélasse » Higgsienne ne remplit plus l’espace et la symétrie entre les bosons W ± , Z0 et le photon se trouve rétablie. L’introduction du champ de Higgs était une façon élégante de préserver la symétrie à haute énergie tout en expliquant la brisure de la symétrie à basse énergie. Qui dit champ, dit boson Mais si un champ électrofaible existe, il doit exister, selon le principe de la dualité onde-particule, une particule porteuse du champ. Cette particule putative a été

Figure 1c.

dénommée « boson de Higgs » et c’est sur ce boson que s’est concentrée la recherche scientifique pour étayer l’hypothèse du mécanisme de Higgs. L’enjeu était essentiel. Il fallait comme indiqué ci-dessus valider le modèle standard en expliquant la brisure de symétrie observée dans l’interaction électrofaible dans le domaine des basses énergies. Mais le mécanisme de Higgs va beaucoup plus loin. Il conduit en effet à considérer la masse inertielle des bosons intermédiaires et plus généralement de toute particule, non pas comme une 2

E n fait mécanisme de Brout-Englert-Higgs-Hagen-Guralnik-Kibble pour mentionner tous ceux qui à la même époque et de façon indépendante ont émis la même théorie.

Figure 1d. Source : CERN pour le compte de David Miller http://www.hep.ucl.ac.uk/~djm/higgsa.html

REE N°4/2012 ◗ 7


L'article invité

Alain DOULET L'article invité

Smart grids et normalisation

I

Introduction

Il est essentiel de bien distinguer le concept de «  smart

l n’est plus d’étude sur les réseaux de distribution où

grids » des autres concepts tels que « smart city » ou « smart

l’on ne parle de «  smart grids  » ou de «  smart me-

home ». Les smart grids sont d’abord un réseau électrique,

ters ». Certains s’interrogent toujours sur la réalité du

allant du moyen de production au compteur du consomma-

concept entre l’effet de mode et la vraie révolution

teur, mais qui s’insère dans un cadre plus vaste de « smart

en matière de réseaux de distribution. Mais dans tous les

system » dans lequel diverses briques seront assemblées. Un

cas, les smart grids sont une réalité dont on peut considérer

des objectifs recherchés est bien sûr de dessiner cette brique

qu’elle va renouveler la vision systémique du réseau.

de façon qu’elle s’assemble facilement avec les autres en ap-

En effet, au moment où de nouveaux besoins émergent tant en termes de politique énergétique que de services au

portant les services que l’on peut attendre de sa fonction. Pour mener à bien ce travail, trois structures de travail ont

client final, l’offre technologique progresse rapidement et la

été créées, centrées sur trois questions-clés :

rencontre de ces deux approches permet de définir ce nou-

• Quels sont les fonctionnalités et les services que doivent of-

veau concept de smart grids. Cela constitue une opportunité

frir a minima les smart grids aux clients européens et quelle

de modernisation pour tous les opérateurs de réseau confron-

coordination faut-il assurer avec les actions engagées en

tés à des programmes de renouvellement ou de renforcement

matière de smart meters ?

d’infrastructures importants. Les smart grids ouvrent égale-

• Quelles recommandations convient-il de formuler pour ga-

ment la porte à l’élaboration de nouveaux business models du

rantir la sécurité des données et la protection du consom-

fait d’un nouvel équilibre possible entre acteurs.

mateur ?

Mais l’ampleur de l’évolution dessinée pose de nouvelles

• Comment se répartissent les rôles et les responsabilités des

questions. L’une d’elles, non la moindre, est celle de l’impact

acteurs impliqués dans le déploiement des smart grids et

sur les travaux de normalisation.

notamment comment organiser leur financement et quel im-

Le concept de smart grids Le terme n’est pas explicite en lui-même ; beaucoup ont placé sous ce vocable un contenu sans s’assurer qu’il était

pact auront-ils sur les mécanismes de régulation en place ? A l’issue du travail du premier groupe qui a réuni des experts de tous horizons, six services de haut niveau ont été identifiés (figure 2) :

partagé par tous les acteurs. La Commission européenne a bien ressenti ce besoin et

1. Intégration de nouvelles exigences dans l’accès au ré-

avant de savoir s’il y avait lieu à légiférer en matière de dé-

seau  : on trouve ici les questions liées à la production

veloppement de smart grids, a souhaité homogénéiser la vi-

décentralisée de petite comme de grande taille, intégrant

sion européenne du sujet. C’est la raison de la création d’une

son caractère aléatoire, mais aussi au raccordement des

« task force smart grids » en 2010 sous l’égide de la Direction

utilisateurs nouveaux du réseau tels que les véhicules

Générale Energie. L’objectif de cette structure était d’étudier

électriques ou les équipements de stockage de l’énergie.

les éléments relevant de la technique, de la régulation et des

2. Amélioration de l’efficacité opérationnelle  : les systè-

échanges commerciaux sur les smart grids afin de préparer

mes de surveillance, de pilotage, de localisation de défaut

leur déploiement dans le cadre du troisième paquet énergie,

améliorent la qualité de service et le coût de la gestion du

considérant que les smart grids constituaient l’un des outils

réseau. La connaissance des flux va améliorer la gestion

importants de l’atteinte des objectifs énergétiques affichés.

des pertes, l’optimisation de la maintenance.

Les mots-clés mis en avant étaient : efficacité, performance

3. Sécurité et qualité de service : l’acquisition en temps réel

économique, bénéfice pour le consommateur, services. Cet-

d’informations sur le fonctionnement du réseau permet

te démarche a complété les initiatives antérieurement prises

d’améliorer le suivi de la production intermittente, la ges-

par la Direction Générale Recherche en vue de favoriser les

tion de la réserve primaire, le contrôle du niveau de ten-

expérimentations de techniques ou de services engagées par

sion distribuée. La sécurité du système face aux attaques

les opérateurs.

de tous ordres en sera renforcée. L’action sur la demande

REE N°4/2012 ◗ 21


L'article invité

Figure 1 : Concept de smart-grid.

Figure 2 : Smart grids – Articulation entre réseaux et services – Source : EU Commission Task Force for Smart Grids – Expert group 1 – Décembre 2010.

22 ◗ REE N°4/2012


Introduction

LES GRANDS DOSSIERs

L'éclairage : un remarquable saut technologique Inventée en 1879 par Joseph Swan et amélio-

d'électricité très substantielles, avec des effica-

rée par les travaux de Thomas Edison, la lampe

cités lumineuses qui peuvent atteindre dans

à incandescence fut l'une des vedettes de l'ex-

les applications domestiques 65 lm/W contre

position internationale de l'électricité de 1881 à

25 lm/W pour de bonnes lampes à incandes-

Paris. Elle apportait une solution simple et fiable

cence. Les pouvoirs publics ont pris appui sur

au problème essentiel de l'éclairage domestique.

cette technologie pour encourager l'usage des

Des lampes adaptées à chaque usage, qui peuvent fonctionner pendant plusieurs centaines d'heures, que l'on allume ou que l'on éteint en actionnant un simple commutateur, qui utilisent des tensions relativement basses... que rêver de

Jean-Pierre Hauet Associate Partner KB Intelligence Membre Emérite de la SEE

mieux. La lampe à incandescence représentait

lampes à basse consommation afin de réduire les consommations d'électricité liées à l'éclairage qui représentent encore à peu près 14 % de la consommation d'électricité totale des ménages. Au niveau européen, le risque a été pris d'interdire progressivement à partir de la mi-2009 la

un tel progrès par rapport aux systèmes dont l'humanité avait

commercialisation des lampes à incandescence et, depuis

dû se contenter pendant des siècles, qu'il semblait inimagina-

le 1er septembre 2012, ce sont toutes les ampoules à incan-

ble que l'on pût un jour s'en passer. Par métonymie, le flux lu-

descence qui sont concernées par l’interdiction de mise sur

mineux était assimilé à la puissance électrique de l'ampoule

le marché.

et une lampe de 100 W, dans les foyers d'après guerre, était le synonyme de l'aisance et du confort.

Mais les lampes fluorescentes n'ont jamais conquis l'amour du public  : disgracieuses, chères, à la lumière blafarde, dif-

Pendant plus de 100 ans, le monde reposa donc sur la

ficilement «  gradables  », elles souffrent encore aujourd'hui

lampe à incandescence jusqu'au jour où l'on réalisa qu'elle

du syndrome congénital de la durée d'allumage qui fait que

était vraiment trop dispendieuse en énergie, avec un rende-

lorsqu'on entre dans une pièce la lumière commence à avoir

ment lumineux qui, exprimé en % de la valeur maximale pos-

atteint un niveau satisfaisant au moment où l'on en sort. Qui

sible, n'excédait pas 2 %. Pendant plus de trois décennies,

plus est, beaucoup sont venus souligner les risques liés au

les développements technologiques ont hésité sur la voie qui

mercure que fait encourir un recyclage insuffisant des am-

pourrait un jour conduire à un éclairage de qualité beaucoup

poules usagées.

plus économe en énergie. Les préoccupations de lutte contre la dérive climatique sont venues stimuler cette recherche, mais la solution tardait.

Dans ce contexte, l'émergence de l'éclairage par LED tient un peu du miracle. Tout n'est pas encore parfait mais la LED de puissance s'affirme comme un composant extraordinai-

Les lampes à incandescence halogènes, inventées en

rement efficace, avec un rendement lumineux pouvant dé-

1959 chez General Electric, ont connu un immense succès

passer 100 lm/W, une durée de vie très longue (25 000 h),

commercial. A leur arrivée sur le marché, elles symbolisaient

un allumage instantané, une « gradabilité » aisée, un réglage

l'entrée dans le monde de la high tech mais, malgré l'amé-

d'ambiance possible grâce à des températures de couleur

lioration du rendement que permettait l'accroissement de la

s'étalant dans une plage étendue, etc.

température du filament, elles ne modifiaient pas fondamentalement la donne en termes d'efficacité lumineuse.

Le lecteur prendra plaisir à découvrir la saga de l'éclairage que résume très bien l'article sur « la révolution technologique

Puis sont venues les lampes fluorescentes, ou fluocom-

de l'éclairage » de Christophe Cachoncinlle et Georges Zissis.

pactes, adaptation d'allure étrange des tubes industriels ou

Il pourra approfondir la compréhension du phénomène LED

tertiaires aux besoins de l'éclairage domestique. En première

et de son cousin OLED en lisant l'article sur les applications

analyse, cette technologie permet de réaliser des économies

des OLEDs de Marc Ternisien, David Buso, Georges Zissis et

REE N°4/2012 ◗ 29


Introduction

LES GRANDS DOSSIERs

Sounil Bhoslé. Enfin, les problèmes de santé publique sont

est l'illustration patente. La leçon ne doit pas en être oubliée

abordés dans le troisième article de ce dossier, rédigé par

lorsqu'on discute du véhicule électrique et de l'avenir de l'in-

Sébastien Point, sur l'impact sur l'environnement et la santé

dustrie automobile. Les véhicules tout électriques ou hybrides

des technologies nouvelles de l'éclairage.

auront du mal à s'imposer si leur seul attrait est l'économie de pétrole, quelles que soient les aides publiques. Les expé-

Cette percée des technologies nouvelles appellent plusieurs commentaires d'ordre général.

riences du type Autolib, la mise sur le marché de véhicules étranges du type Twizy, qui apportent de la commodité et du

D'une part, elle montre qu'il ne faut jamais désespérer de

« fun », sont autant de tentatives à encourager.

faire progresser un domaine même s'il est resté pendant de nombreuses décennies dépendant d'une technologie qu'on

Enfin et ce n'est pas la moindre des choses, l'aventure de

croyait installée pour l'éternité. Quand l'innovation survient,

l'éclairage vient battre en brèche les thèmes chers à certains

qu'elle est validée sur le plan industriel, qu'elle rencontre la

selon lesquels il serait temps de passer à un autre type de

faveur du public, l'explosion peut être vertigineuse. On l'a vu

croissance, à une croissance sobre assise sur de nouvelles va-

avec les écrans plats. On le voit aujourd'hui avec les techniques de l'éclairage. On le verra peut-être demain avec les batteries, les véhicules électriques, les moyens de calcul hyperpuissants et économes en énergie, les transformateurs électroniques de grande puissance, etc. Au-tant de raisons de croire que le jeu industriel n'est jamais complète-

leurs...… L'utilisation ménagère de nos ressourJean-Pierre HAUET est ancien élève de l’Ecole Polytechnique et Ingénieur du corps des mines. Il a occupé différentes positions dans l’Administration, en particulier celle de rapporteur général

ces est à coup sûr un impératif et l'exemple de l'éclairage montre qu'il est possible de mieux utiliser l'énergie. Mais les technologies nouvelles de l'éclairage ne constituent en aucune façon un frein dans l'expression du besoin. Elles sont simplement un moyen de

de la Commission de l’Energie

le satisfaire de façon plus efficace et avec un

ment perdu et que des occasions peuvent

du Plan. Il a dirigé le centre

service rendu meilleur. Elles viennent même

surgir qu'il faut savoir saisir.

de recherches de Marcoussis

en soutien des comportements en nous

d’Alcatel avant d’être nommé

libérant de toute hésitation pour la fermeture

directeur Produits et Techniques

de l'éclairage en quittant une pièce, sachant

cès des technologiques nouvelles de l'éclai-

de Cégélec puis Chief Technology

que l'on pourra sans délai et quasiment in-

rage est lié bien sûr à leurs performances

Officer d’ALSTOM. Depuis 2003,

définiment le rétablir lorsqu'on en aura de

énergétiques mais aussi au fait qu'elles per-

il est Associate Partner de KB Intel-

nouveau besoin.

Il faut d'autre part considérer que le suc-

mettent de réaliser un éclairage de qualité, d'améliorer le confort, de concevoir des formes totalement nouvelles de luminaires...… L'économie d'énergie est une notion froide qui évoque l'abstinence et la pénurie. Elle a infiniment plus de chances de s'imposer

ligence, spécialisé dans les questions d’énergie, d’automatismes industriels et de développement durable. Il préside l’ISA-France, section française de l’ISA (Instrumentation, Systems & Automation

Energie, croissance et bien-être sont indissociablement liés. L'énergie est nécessaire à la croissance et le bien-être a besoin de croissance et d'énergie. Le défi n'est pas de renoncer à l'un ou l'autre mais de

Society). Il est membre émérite

concilier le tout dans une approche de dé-

si elle s'accompagne d'une amélioration du

de la SEE et membre du comité

veloppement durable. Les nouvelles tech-

service rendu. Le cas d'école des lampes

de publication de la REE.

nologies de l'éclairage sont là pour nous

fluorescentes versus les LEDs et OLEDs en

conforter dans cette voie. ■

les articles

La révolution technologique de l’éclairage Christophe Cachoncinlle, Georges Zissis ...................................................................................................................... p. 31 Evolutions et perspectives de l’éclairage. Applications des OLEDs Marc Ternisien, David Buso, Georges Zissis et Sounil Bhoslé .............................................................................. p. 42 Les technologies nouvelles de l’éclairage : leur impact sur l’environnement et la santé Sebastien Point ......................................................................................................................................................................... p. 48

30 ◗ REE N°4/2012


L'éclairage

La révolution technologique de l’éclairage Christophe Cachoncinlle GREMI, UMR-7344 CNRS/Université d’Orléans Georges Zissis LAPLACE, UMR-5213, UPS-INPT-CNRS, Université de Toulouse

Introduction Plus que dans une simple évolution technologique, le monde de l’éclairage est engagé depuis quelques années dans une véritable révolution. Depuis l’apparition sur le marché au siècle dernier de la technologie à fluorescence, nos « tubes fluorescents » et leurs miniaturisations en diverses lampes dites «  lampes fluorescentes compactes (LFC) », seule l’arrivée des

Figure 1 : Lampes à LEDs de substitution pour l’éclairage domestique. Culot E27. Source : Philipslighting. Wikipedia.

lampes à décharge à forte intensité avait bousculé un peu le marché, au moins celui des lampes profession-

la technologie d’émission de lumière à partir de l’état

nelles. Aujourd’hui, les acteurs du secteur de l’éclaira-

solide de la matière : ce sont les LEDs (Light Emit-

ge sont confrontés à un bouleversement du marché,

ting Diodes en anglais) et les OLEDs (Organic Light

drainé par une demande de plus en plus forte vers un

Emiting Diodes). Puis nous aborderons la très grande

type d’éclairage « très tendance » : l’éclairage à LEDs.

famille des technologies basées sur l’état plasma de

Celui-ci est supposé peu énergivore, d’une flexibilité

la matière, c’est-à-dire les lampes fluorescentes, tubes

inégalée et d’une qualité de lumière qui tiendrait du

fluorescents et lampes fluorescentes compactes, ainsi

magique au regard des commentaires de ses aficio-

que les lampes à décharge beaucoup utilisées en

nados (figure 1).

éclairage public. Enfin nous finirons par la technolo-

Mais, pour la communauté scientifique, qu’en est-il

gie basée sur le rayonnement thermique, technologie

exactement ? Quelles sont aujourd’hui les meilleures

énergivore et donc en phase finale de bannissement

solutions d’éclairage disponibles sur le marché ? Nous

de nos rayons : les lampes à incandescence, ampou-

allons présenter une revue de ces technologies et en

les classiques et ampoules halogènes.

peser les avantages et les inconvénients. Bien sûr,

L’obligation faite au travers de diverses réglementa-

aucune technologie n’est une panacée, mais certaines

tions [1] de satisfaire aux baisses de la consommation

d’entre elles sont plus adaptées à certaines applica-

d’énergie, impose au secteur du bâtiment de tirer le

tions que telles autres. Nous allons d’abord présenter

meilleur parti des sciences et des techniques pour,

abstract We present here a review of the various technologies available on the market lighting where, in recent years, new products have been constantly emerging: LEDs and OLEDs complement the wide range of discharge lamps (fluorescent tubes, compact fluorescent lamps, high pressure sodium lamps, metal halide lamps ...). Can they really replace our old incandescent bulbs? We give the main selection criteria: flux, luminous efficacy, color rendering index, color temperature ..., and we examine objectively the advantages and disadvantages of each technology in this market. Are these new lamps better than the old ones? Do they actually consume less energy? Often the answer is “yes”. Anyway, the latest technologies are often the most economical in terms of energy. But one must know how to choose the right lamp for the right application.

REE N°4/2012 ◗ 31


L'éclairage

d’une part profiter au maximum de l’apport de la lumière du jour, d’autre part choisir les appareillages les plus performants

Qualité souhaitée

en termes d’efficacité énergétique. En aucun cas la qualité de l’éclairage, le niveau d’éclairement et le confort visuel ne doivent être sacrifiés sur l’autel du Grenelle de l’environnement ! Venant du grand public, la sentence est sans appel : il est à présent difficile de s’y retrouver dans le simple choix d’une ampoule pour sa maison. Les technologies sont trop diverses et les critères techniques peu clairs : expliquer que les

Valeur minimale de l’IRC

Excellent rendu des couleurs

IRC > 90

Laboratoire, imprimerie, vente des fruits/légumes/ fleurs...

Rendu des couleurs de bonne qualité

IRC > 80

Bureaux, magasin, atelier...

Rendu des couleurs médiocre

IRC > 60

Industrie mécanique, et électrique.

Aucune exigence

IRC < 60

Fonderie, grosse mécanique, couloirs, parkings, éclairage de sécurité...

ambiances lumineuses les plus chaudes sont produites par les températures les plus froides relève du paradoxe. Les professionnels font leur maximum pour diffuser une information simple sur des produits d’une technicité toujours plus avancée. Mais le nombre de pictogrammes explose littéralement sur les emballages.

Exemples d’applications industrielles

Tableau 1 : Indice de rendu des couleurs : Valeurs minimales recommandées. Source initiale : Association française de l’éclairage.

Pour bien choisir, il faut se concentrer sur cinq principaux critères : le flux lumineux, l’efficacité énergétique, la tempé-

européenne 98/11/CE) ont jugé plus clair de substituer une

rature de couleur, l’indice de rendu des couleurs et le type

lettre témoignant d’une classe d’efficacité énergétique (de

de culot.

A à G) plutôt que la simple valeur d’efficacité en lm/W, cela

Le flux est exprimé en lumen (symbole lm). Il traduit la

par souci d’homogénéité avec les appareils électriques. La

puissance lumineuse de la lampe : de quelques lumens pour

classe A représente les appareils les plus économes de leur

une veilleuse de nuit à 100 000 lm pour une lampe de pro-

catégorie (cependant des classes A+ et A++ commencent à

jecteur de stade  ; typiquement ces flux vont de quelques

apparaître sur le marché).

centaines de lumens, particularité des vielles ampoules à in-

La température de couleur des sources de lumière est

candescence, à quelques milliers de lumens pour nos tubes

certainement le plus ésotérique des critères. Ce chiffre, ex-

fluorescents d’intérieur. La quantité de lumière émise est le

primé en kelvins (symbole K), nous renseigne sur le ton plus

critère de plus important à prendre en compte pour l’achat

ou moins bleuté ou orangé de la lumière blanche produite

d’une lampe , car c’est elle qui nous assurera d’obtenir l’éclai-

par la lampe. En dessous de 3 500 K, la lumière blanche « tire

rement voulu.

vers le jaune-orangé » on parle alors de lumière « chaude »,

1

L’efficacité lumineuse est le rapport entre l’énergie con-

car cela rappelle l’ambiance d’un bon feu de bois. Au dessus

sommée par seconde et la quantité de lumière visible pro-

de 5 000 K, la lumière blanche devient bleutée et on parle

duite. Elle s’exprime en lumens par watt (symbole lm/W).

de lumière « froide », elle rappelle la couleur des étendues

C’est un critère très important pour le choix. Les très vielles

glacées. La machine humaine est programmée pour accepter

ampoules à incandescence avaient des efficacités lumineu-

ces diverses variations de tonalités colorées pendant la jour-

ses qui étaient de l’ordre de 12 lm/W : C’est presque 10 fois

née car la lumière naturelle du jour varie harmonieusement

plus énergivore que les bons tubes fluorescents actuels qui

du matin au soir, d’une lumière froide à une lumière chaude,

peuvent atteindre 120 lm/W ! Les lampes trop énergivores,

et règle le cycle circadien de notre horloge hormonale. Aussi

comme les lampes à incandescence, ne peuvent plus être

l’homme a appris au cours de l’évolution à mettre ses sens

mises sur le marché européen, un calendrier de retrait pro-

en éveil au moindre reflet de la lumière froide et consent à se

gressif est en cours d’exécution. Avec l’arrivée des LEDS, il

laisser sombrer dans les bras de Morphée à la douce lumière

sera possible, dans l’avenir, de n’avoir que des sources lu-

orangée du soir. Ne soyons pas étonnés que les éclairages

mineuses de plus de 100 lm/W. Si le consommateur a bien

fonctionnels des bureaux et salles de classes soient quelque

accès à la valeur du flux lumineux qui est porté obligatoire-

peu froids et uniformes : c’est la lumière ad hoc pour met-

ment sur l’emballage, il est par contre privé du chiffre corres-

tre les gens au travail ! Par contre au domicile, on préfère

pondant à l’efficacité de sa lampe. Nos organismes (Directive

une ambiance plus reposante baignée de lumière chaude et

1

L a génération des nos grands parents achetait des lampes en fonction du nombre des candelas (intensité), notre génération regarde plutôt la puissance en watt ; la nouvelle génération doit apprendre à regarder le flux en lumens.

32 ◗ REE N°4/2012

inhomogène (jeu d’ombres et de lumières). Il n’y a pas de bonnes ou de mauvaises températures de couleur, tout est question d’adéquation du choix de l’ambiance à créer avec la vocation du local à éclairer.


Introduction

LES GRANDS DOSSIERs

Les atomes froids Depuis le milieu des années 1980, la physique atomique connaît des développements spectaculaires. Grâce à une meilleure connaissance et une maîtrise croissante des interactions entre les Michèle Leduc photons et les atomes, il est posDirectrice de l'Institut sible de refroidir de petits nuages Francilien de Recherche sur les Atomes Froids d’atomes à des températures de Présidente de la Société quelques milliardièmes de degrés Française de Sociétés seulement au-dessus du zéro abScientifiques solu (– 273,15 °C) et de les piéger dans le vide. Ces méthodes ont fait l’objet du prix Nobel de physique de 1997 qui a récompensé Claude CohenTannoudji, Steven Chu et Williams Phillips. De ces travaux sur le refroidissement laser ont découlé d’autres découvertes tout aussi spectaculaires, en particulier la mise en évidence expérimentale en 1995 de la condensation de Bose Einstein. Ce nouvel état de la matière aux propriétés exceptionnelles avait été prévu depuis les années 1920 par les lois de la physique statistique. En 2001, Eric A. Cornell, Wolfgang Ketterle et Carl E. Wieman ont obtenu le prix Nobel pour cette découverte. En trente ans, ce domaine de la physique s’est considérablement développé. En France, les recherches sur les atomes froids ont été initiées par l’équipe de Claude Cohen-Tannoudji du Laboratoire Kastler Brossel de l’École normale supérieure. Cette thématique s’est ensuite progressivement développée en France, d’abord en région parisienne, puis dans le reste du pays, souvent par essaimage de jeunes équipes à partir de la branche parisienne. La communauté des atomes implique maintenant plusieurs centaines de chercheurs en France et elle est très nombreuse dans tous les pays développés. L’intérêt de toutes ces recherches n’est pas seulement de battre des records de froid mais de pouvoir contrôler et manipuler la matière pour l’amener dans des conditions expérimentales jusque-là inaccessibles. Les propriétés quantiques de la matière, telles que la dualité onde-corpuscule ou la condensation de Bose-Einstein, ont enfin pu être directement étudiées dans les laboratoires de recher-

che. Leurs applications sont également très prometteuses et ce sont celles-ci surtout que nous voulons vous présenter dans ce dossier. Le premier article expose les fondements du refroidissement atomique. Ce bref panorama explique comment les lasers peuvent ralentir et donc refroidir un nuage d’atomes. Cet article explique aussi les difficultés techniques du refroidissement, notamment sur le système laser dont il faut pouvoir contrôler la longueur d’onde avec une précision relative de quelques milliardièmes.

Pierre Cladé CNRS, Laboratoire Kastler Brossel

Ces techniques sont maintenant de mieux en mieux maîtrisées et permettent d’envisager l’industrialisation d’instruments basés sur des atomes froids. Les auteurs du second article de ce dossier, Arnaud Landragin et Philippe Bouyer ont fondé avec Bruno Desruelle la société µQuanS, qui commercialise des horloges et des gravimètres basés sur des atomes froids. Ils présentent dans leur article l’utilisation des atomes froids pour la réalisation de capteurs inertiels et leurs applications tant pour la navigation dans l’espace que pour la géophysique et des tests de physique fondamentale. Dans le troisième article, nous verrons enfin l’apport des atomes froids aux recherches sur la matière condensée. Ces recherches font usage d’atomes piégés dans des réseaux optiques qui sont utilisés comme modèles représentatifs des matériaux solides. Des problèmes de mécanique quantique parfois complexes auxquels les chercheurs sont confrontés en physique du solide (tels que la supraconductivité haute température), peuvent maintenant être modélisés avec des atomes froids, systèmes sur lesquels les chercheurs ont une maîtrise beaucoup plus grande. Une telle approche va-t-elle aider à résoudre les problèmes que se posent des ingénieurs électriciens ou électroniciens ? Seul l’avenir nous le dira ! Post-scriptum A l’heure où nous bouclons ce dossier « atomes froids », nous apprenons que le prix Nobel 2012 de physique a été

REE N°4/2012 ◗ 55


LES GRANDS DOSSIERs

Introduction

décerné conjointement à David Wineland et Serge Haroment. Au lieu de chercher à manipuler des atomes avec la che. David Wineland fut le premier, en 1978, à mettre lumière, comme pour le refroidissement laser, il manipule en œuvre les techniques de redes photons avec des atomes. Michèle Leduc. Docteur en sciences physiques, froidissement laser en utilisant C’est ainsi qu’il a pu étudier Michèle Leduc a effectué presque toute sa carrière dans des ions, bien avant qu’elles ne un par un des photons piégés le Laboratoire Kastler Brossel (LKB) de l’Ecole normale soient utilisées sur des atomes dans une cavité. Pour cela, il ensupérieure, d’abord en étudiant les propriétés de l’héneutres. Serge Haroche, chervoie dans la cavité des atomes lium, puis en abordant le domaine des fluides quanticheur au Laboratoire Kastler de rubidium préparés avec les ques polarisés à basse température. Depuis 1993, elle se Brossel, est un spécialiste de techniques de refroidissement consacre au domaine des atomes ultrafroids d’hélium l’interaction matière-rayonnelaser. ■ 4 métastable et est actuellement directrice de l’Institut

Francilien de Recherche sur les Atomes Froids (IFRAF). Présidente de la Fédération Française de Sociétés Scientifiques, Michèle Leduc est également constamment engagée en faveur des femmes dans la recherche avec l’association « Femmes et sciences » dont elle est membre fondateur. Pierre Cladé. Ancien élève de l’École normale supérieure de Paris, Pierre Cladé a effectué sa thèse dans l’équipe « Métrologie des systèmes simples et tests fondamentaux » du Laboratoire Kastler Brossel (LKB). Après deux années de post-doctorat dans le groupe de W.D. Phillips aux États-Unis, il a rejoint en 2007, en tant que chargé de recherche au CNRS, l’équipe du LKB où il a effectué sa thèse. Il poursuit depuis ses travaux sur la mesure de haute précision de la vitesse du recul d’un atome et la détermination de la constante de structure fine.

les articles

Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques Par Saïda Guellati-Khelifa, Pierre Cladé ................................................................................................................................. p. 57 Senseurs d’inertie à ondes de matières - Des appareils de précision pour la navigation, la géophysique et les tests spatiaux Par Philippe Bouyer, Arnaud Landragin ................................................................................................................................. p. 67 Atomes froids et physique du solide Par Frédéric Chévy, Xavier Leyronas, Laurent Sanchez-Palencia .................................................................................... p. 71

56 ◗ REE N°4/2012


les atomes froids

Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques Saïda Guellati-Khelifa (1,2) Pierre Cladé (1) (1) Laboratoire Kastler Brossel, Ecole normale supérieure, Université Pierre et Marie Curie (2) Conservatoire national des arts et métiers

faible température, il est possible d’observer la nature ondulatoire de la matière. On peut le comprendre à partir du principe d’Heisenberg qui nous dit qu’il n’est pas possible qu’une particule ait une position et une vitesse bien déterminées simultanément. Lorsque l’on refroidit un gaz d’atome, la vitesse de chaque atome

Refroidir des atomes sans créer un solide

tend vers zéro. L’atome ne peut alors plus être localisé en un point et son extension spatiale (l’onde atomique) augmente. Cette nature ondulatoire va pouvoir

La physique atomique est née au XXe de l’étude

s’observer lorsque la taille de l’onde sera de l’ordre du

du spectre des gaz atomiques. C’est en observant

micromètre (longueur d’onde lumineuse). L’atome se

l’émission ou l’absorption de la lumière par un gaz que

comporte alors comme une onde : on peut par exem-

l’on a compris la structure atomique et ensuite élaboré

ple le diffracter ou faire des interférences. Un autre

les premières théories de la mécanique quantique. Le

phénomène étrange apparaît lorsque l’extension spa-

fait que les atomes soient en phase gazeuse est impor-

tiale des atomes devient beaucoup plus grande que

tant car dans cet état ils sont quasiment isolés les uns

leur séparation : alors que le gaz est très dilué, que

des autres et peuvent donc être compris individuelle-

les forces d’interaction entre atomes sont très faibles,

ment. Cependant, dans un gaz, l’agitation thermique

les interférences entre atomes vont modifier la nature

pose problème. A température ambiante, la vitesse ty-

de la matière. On observe selon la nature des atomes

pique d’un atome peut atteindre 1 km/s. L’observation

un condensat de Bose Einstein ou un gaz de Fermi

d’un même atome est donc limitée dans la durée ce

dégénéré.

qui limite la précision sur les mesures. De plus, il n’est

Pour refroidir ces atomes, tout en les maintenant

pas possible d’utiliser les techniques de cryogénie car à

dans une phase gazeuse, plusieurs techniques exis-

faible température tous les corps sont en phase solide

tent. Nous décrirons dans cet article le refroidisse-

ou liquide. C’est pour répondre à ce problème, ralentir

ment laser et le refroidissement par évaporation. Ces

des atomes tout en les maintenant en phase gazeuse,

deux techniques permettent d’atteindre des tempéra-

que sont nées les techniques de refroidissement laser.

tures de l’ordre du nanokelvin - température pour la-

Le refroidissement atomique a un intérêt au-delà

quelle l’agitation thermique correspond à des vitesses

du simple ralentissement des atomes. En effet à très

de l’ordre du mm/s. Ces températures sont atteintes

abstract This article is devoted to the description of various mechanisms of the laser cooling of neutral atoms. These mechanisms are all based on the interaction between a photon, an entity of light, and an atom, an entity of matter. One of the macroscopic manifestations of this interaction is the pressure of radiation force. The effect of this force is strongly amplified when the source of photon is a laser. We will describe how it is possible to use this force with the Doppler effect in order to slow an atomic beam and also to reduce considerably the thermal agitation of atoms. We will explain how by shaping the light potentials and magnetic fields it is possible to reach extremely low temperatures of some nanokelvin. At these temperatures, very near to the absolute zero, it is possible for certain kind of atoms, called bosons, to achieve a new state of matter, where quantum behaviour of atoms became apparent on a macroscopic scale.

REE N°4/2012 ◗ 57


les atomes froids

Figure 1 : Comparaison entre les différentes échelles de températures. Par ailleurs, le photon, « particule élémentaire de la lumière », est doté d’une impulsion (voir l’encadré 1). Lorsqu’il absorbe un photon, l’atome encaisse son impulsion et recule d’une vitesse qu’on note désormais νr. De même, quand l’atome émet un photon spontanément, il restitue l’impulsion acquise. Il faut noter ici un point crucial pour la suite, la direction du recul induit par l’absorption du photon est bien définie, par la direction du vecteur d’onde. En revanche le recul dû à l’émission spontanée est totalement aléatoire. Encadré 1 : Le laser et son photon. pour un nuage d’au plus un milliard d’atomes dans un volume d’environ 1 mm , protégé par une enceinte à vide. 3

Interaction atome-rayonnement

Les forces de la lumière : force de pression de radiation La force exercée par la lumière sur les atomes est à l’origine de tous les mécanismes de manipulation d’atomes par laser. L’idée que la lumière puisse exercer une action mécanique sur la matière est vieille de plus de trois siècles. L’intui-

Du point de vue de la mécanique quantique, l’énergie in-

tion de Johannes Kepler fut juste, lorsqu’il expliqua pourquoi

terne de l’atome est quantifiée. L’échelle des niveaux d’éner-

la queue des comètes est orientée à l’opposé du soleil, par

gie dépend de la structure de l’atome : c’est une sorte de

la pression de radiation exercée par la lumière solaire sur les

carte génétique propre à chaque atome. Considérons deux

particules de poussière qui constituent la queue. A l’échelle

niveaux d’énergie : le niveau fondamental f et le niveau ex-

atomique, cette force de pression de radiation se manifeste

cité e. La différence d’énergie entre les deux niveaux peut

par un changement de vitesse occasionné par le transfert de

être exprimée en termes de fréquence, appelée fréquence

l’impulsion du photon à l’atome. Comme nous l’avons men-

de résonance de la transition atomique νa. Quand l’atome est

tionné précédemment, lorsqu’un atome absorbe un photon,

éclairé par un faisceau laser de fréquence ν, le photon laser

il change de niveau d’énergie et il recule. La vitesse de recul

a d'autant plus de chance d'être absorbé par l'atome que la

varie selon la nature de l’atome, elle vaut 6 mm/s pour un

fréquence laser est proche de la fréquence atomique νa . On

atome de rubidium. A priori, ce changement de vitesse est

dit que le laser est quasi-résonant lorsque le désaccord en

très faible comparé à la vitesse moyenne des atomes dans

fréquence δ = ν a – ν est très faible comparé aux fréquences

un gaz à température ambiante, qui est d’environ quelques

caractéristiques du système (atome, laser).

centaines de mètres par seconde. Pour que l’action de la

La durée de vie de l’atome dans le niveau excité est limi-

lumière sur l’atome soit appréciable, il faudrait lui transmet-

tée ; il se désexcite vers le niveau fondamental par émission

tre beaucoup de reculs en le faisant interagir « longtemps »

spontanée d’un photon (photon de fluorescence). Comme

avec des photons se propageant dans la même direction. De

pour un oscillateur classique, la largeur de la résonance, est

ce point-clé découle le rôle fondamental du faisceau laser

inversement proportionnelle au temps d’amortissement.

dans la manipulation du mouvement des atomes. Dans un

Pour les transitions atomiques, la largeur de résonance est

faisceau laser les photons possèdent quasiment la même

définie par la largeur naturelle du niveau excité que l’on note

énergie et la même impulsion, c’est pour cette raison que

Γ. La durée de vie de l’atome dans ce niveau est égale à Γ-1.

l’action mécanique du laser sur les atomes est spectaculaire.

58 ◗ REE N°4/2012


retour sur ���������

Le paradoxe EPR Marc Leconte THALES SYSTEMES AEROPORTES

A l’occasion de l’attribution de la médaille Einstein à Alain Aspect Le 12 mars dernier, on apprenait que la médaille Albert Einstein avait été décernée à Alain Aspect. Ce prix, attribué par la société Albert Einstein, basée à

Figure 1 : Max Planck.

Figure 2 : Albert Einstein.

Berne, valorise «  des recherches exceptionnelles en relation avec l’œuvre d'Albert Einstein ». Alain Aspect

reprend l'hypothèse de Planck pour expliquer l'effet

est le deuxième français à se voir récompenser par ce

photoélectrique et ses résultats.

prix, le premier étant Thibault Damour qui l'a reçu en 1996 pour ses travaux sur la cosmogénèse et la rela-

Niels Bohr et la stabilité de l’atome

tivité générale [9]. Cette médaille est ici décernée à

Dans les années 1910, un autre problème préoc-

Alain Aspect « en reconnaissance de ses contributions

cupe les physiciens, il s'agit de la stabilité de l'atome

fondamentales à la physique quantique, en particu-

dont le seul modèle existant, l'atome de Rutherford,

lier pour ses tests expérimentaux des inégalités de

décrit par les équations de la physique classique est

Bell ». Menées au début des années 80, les expérien-

instable. A ce moment-là, l'atome etait considéré

ces d'Alain Aspect ont permis de trancher un débat

comme un système solaire miniature constitué par

datant de près de quatre-vingts ans, portant sur les

un noyau et des électrons en orbite. D'après les équa-

fondements philosophiques de la physique quanti-

tions de la mécanique et les lois de l’électrodynami-

que et opposant deux des plus grands physiciens du

que de Lorentz, l’électron en orbite rayonne et perd de

vingtième siècle : Albert Einstein et Niels Bohr. Pour

l’énergie et doit donc inéluctablement s'écraser sur le

bien comprendre les enjeux encore actuels de ce dé-

noyau. Le modèle est donc inadéquat. Niels Bohr pro-

bat il faut revenir sur le développement de la physique

pose en 1913 un nouveau modèle d'atome à partir du

quantique.

modèle planétaire basé sur l'idée que les électrons ne

Les pères fondateurs de la physique quantique Planck et Einstein

rayonnent pas s’ils ne changent pas d’orbites. L'électron peut changer d'orbite en absorbant ou émettant une énergie multiple de la constante de Planck. Son

En 1900, Max Planck met au point une formule

nouveau modèle d'atome permet d'expliquer pour la

qui s'appuie sur l'expérience pour le rayonnement

première fois les spectres de raies de l'hydrogène, le

du corps noir, en utilisant la méthode de Boltzmann.

plus simple des corps jusqu'alors décrit de manière

Cette formule pour la première fois rend compte cor-

empirique par la formule de Balmer.

rectement des données expérimentales, mais pour la mettre au point il a fait l'hypothèse que l'énergie est

La mécanique ondulatoire

quantifiée en valeurs discrètes et a introduit une nou-

La première tentative de concilier les aspects a

velle constante, h dite quantum d’action. Il ne croit

priori inconciliables entre l’onde classique et les par-

pas trop à cette quantification de l'énergie et la consi-

ticules, est celle formulée par Louis de Broglie dans

dère pour l'heure comme un artifice et les choses en

sa célèbre thèse de 1924. Elle a été lue et appréciée

restent là. Quelques années plus tard, en 1905, un

par Einstein qui indique que «  de Broglie a soulevé

autre physicien pas encore très célèbre, va reprendre

un coin du grand voile  ». Louis de Broglie propose

son hypothèse des quanta. En effet Albert Einstein,

de généraliser à toutes les particules, la dualité onde

dans l'un des cinq célèbres articles de l'année 1905

corpuscule mise en évidence pour la lumière notam-

REE N°4/2012 ◗ 81


���������� retour sur

Figure 3 : Photo du cinquième congrès Solvay de 1927. Tous les jeunes théoriciens de la nouvelle physique quantique sont là. Le conflit entre la vision d'Einstein et l'école de Copenhague va éclater. ment par Einstein. Il associe à chaque particule, une quantité

d'une particule est en jeu, l'onde devient un objet mathéma-

de mouvement et une fréquence. En 1926, Erwin Schrödin-

tique évoluant dans un espace de configuration. La fonction

ger réussit à formuler une équation pour décrire cette onde

d'onde n'est plus considérée comme une description phy-

« corpusculaire ». Son équation devient vite l'une des équa-

sique du système mais comme un outil mathématique qui

tions fondamentales de la physique quantique. Elle permet

fournit des probabilités de résultats possibles. La nouvelle

de comprendre le spectre de l'atome d'hydrogène et donne

théorie est indéterministe, non objective et fixe des limites

d'importants résultats pour les autres atomes.

de principe à la connaissance des objets microscopiques

Vers l’indéterminisme : L’interprétation de Copenhague

et cela entraîne sur le plan conceptuel un changement de paradigme par rapport à la physique classique. Au cours du célèbre congrès de physique Solvay de 1927 à Bruxelles, la

Mais une théorie ondulatoire ne permet pas de tout expli-

nouvelle théorie des quanta est présentée et au cours des

quer, en particulier, lors de collisions entre particules, l'onde

discussions, Niels Bohr développe ce qui devient le principe

de Schrödinger s'étale, alors que les particules prennent

de correspondance qui affirme que les points de vue cor-

des directions bien définies que l’on peut observer. Ces

pusculaires et ondulatoires, a priori incompatibles, sont des

constatations conduisirent les physiciens à abandonner la

visions complémentaires de la réalité. Cette idée devient le

voie purement ondulatoire. Max Born propose en 1926 une

sujet de discussion majeur du congrès. L’aspect purement

nouvelle interprétation de l'onde de l'équation de Schrödin-

conceptuel appelé l'interprétation de Copenhague (égale-

ger appelée dès lors fonction d'onde. Les collisions, et plus

ment nommé orthodoxe), divise les pères fondateurs de la

généralement les processus quantiques, sont non déter-

physique quantique. Il est défendu par Bohr, Heisenberg,

ministes et la seule chose que l’on puisse préciser est un

Pauli et Dirac alors que Schrödinger, Einstein, Planck et De

ensemble de probabilités de résultats de mesure. Si plus

Broglie s'y opposent.

82 ◗ REE N°4/2012


entretien avec Gérard Théry

Ancien Directeur général des télécommunications

REE : La REE a publié dans son nu-

vernements successifs ont oublié que

méro de juillet 2012 un « Retour

l’industrie, dans toutes ses déclinaisons,

sur… » consacré à la grande aventure

grands acteurs, moyennes et petites en-

du téléphone pour tous telle que Marie

treprises, sans oublier l’artisanat, était le

Carpenter l’a relatée dans un ouvrage

moteur fondamental de croissance de

récent. On y voit que vous avez joué

l’économie et d’équilibre de la balance

un rôle primordial dans l’essor de no-

commerciale.

tre infrastructure téléphonique et de

Dans le domaine des télécom et des technologies de l’information, le rôle des autorités européennes a été catastrophique

Une financiarisation excessive a fait le

notre industrie des télécom. Quel sou-

reste. A-t-on voulu oublier que l’entrepri-

venir vous laisse cette époque ?

se n’est pas seulement un budget, une

En définitive, l’absence de vision est

G. T. Le livre de Marie Carpenter relate

représentation aplatie sur deux seules

flagrante. Les impératifs de développe-

très exactement et très objectivement un

dimensions, un commentaire contingent

ment, de même que l’établissement d’un

épisode de la décennie des années 70,

d’analystes, mais un ensemble de talents,

environnement propice, ont fait place à

qui vit l’essor de l’infrastructure télépho-

un corps social, un code rassemblant les

une conception vétilleuse de la concur-

nique française et de l’industrie des télé-

hommes sur des buts communs. L’entre-

rence consistant à affaiblir les opérateurs

com. Le rôle que j’ai pu y jouer doit être

prise est le contraire d’un monstre froid.

avec les conséquences négatives sur les

replacé dans le cadre d’une volonté poli-

Elle est le contraire d’une entité abstraite

équipementiers et le paysage industriel

tique forte de développement, donnant

manipulée par des régulateurs, des fonc-

en général.

une priorité à l’industrie, à l’innovation et

tionnaires ou des parlementaires intem-

aux technologies nouvelles. Le redresse-

pestifs, accommodée à la sauce de lois

REE  : Ce diagnostic de la politique

ment rapide du téléphone fut aussi le fait

ou de décrets qui l’affaiblissent.

européenne n’est-il pas trop sévère ?

REE : Et le rôle de l’Europe ?

et de la situation actuelle, s’il était possi-

G. T. Dans le domaine des télécom et des

ble, permettrait d’être plus circonstancié.

technologies de l’information, le rôle des

Mais trois constats méritent d’être pris plus précisément en compte.

G. T. Un audit de l’action de Bruxelles

d’ingénieurs de talent, et d’un personnel des télécom puissamment motivé. REE : Que s’est-il passé ensuite ? G. T. Le contexte était à l’époque diffé-

autorités européennes a été catastrophi-

rent de ce qu’il est aujourd’hui. Le rôle

que, même si on ne peut imputer au seul

Les principes qui ont servi de fon-

des états y était important, la volonté de

Bruxelles la totale responsabilité de la si-

dement à la politique de concurrence

développement industriel était très forte,

tuation. La réalisation du projet Galileo ne

en Europe sont erronés. S’il est normal

tandis que, du fait des premiers chocs

saurait à elle seule sauver l’honneur en

qu’une concurrence bien comprise serve

pétroliers, s’achevait la période bénie des

contrepartie des matches perdus.

les intérêts des consommateurs – rien

30 glorieuses. Le mot « industrie » était

Le bilan est accablant en effet. L’Eu-

à redire à cela, les excès vont à l’encon-

un signe de ralliement pour de nom-

rope est bonne dernière en équipement

tre de l’investissement, favorable lui, au

en fibre optique et en réseaux mobiles

consommateur de demain, c’est-à-dire à

de 4e génération. L’investissement dans

nos enfants. À certaines exceptions près,

les nouveaux contenus multimédia gé-

l’état de sous-investissement est une des

nérés par des débits élevés et toute l’in-

caractéristiques de la situation de l’Eu-

novation indispensable pour sortir des

rope aujourd’hui, particulièrement dans

concepts traditionnels d’une télévision

les domaines de marchés émergents, où

de papa, est resté misérable. Le paie-

le risque est plus élevé et la rentabilité

ment par mobile est embryonnaire. La

moins immédiate. Le retard en matière

Les gouvernements successifs ont oublié que l’industrie, dans toutes ses déclinaisons, sans oublier l’artisanat, était le moteur fondamental de croissance de l’économie

numérisation des bibliothèques et des

de numérisation des processus de tous

breux intervenants du monde public et

musées a été confiée à des acteurs non

ordres en est l’illustration. Les exemples

privé. Ajoutons que tous ces efforts trou-

européens, alors qu’elle aurait dû consti-

d’Apple, de Google et d’Amazon mon-

vaient leur place dans un respect attentif

tuer une priorité culturelle. Les réseaux

trent que le contexte nord-américain et

de l’équilibre des finances publiques.

de visiophonie végètent à des niveaux

l’attitude des marchés étaient beaucoup

de qualité digne du cinéma des Frères

plus favorables à l’émergence de grou-

Lumière.

pes puissants.

Hélas, en France, une telle « pensée industrielle  » n’a pas survécu. Les gou-

REE N°4/2012 ◗ 89


La politique de la concurrence, la politique d’encadrement commercial et la politique monétaire ont eu des effets néfastes

Le deuxième constat touche à la po-

tombé de plus de 30 % en 1980 à en-

ou d’expertise, ne sera dissociable de

viron 15 % (sous réserve de la précision

son double numérique.

des statistiques), tandis qu’il restait de l’ordre de 35 % en Allemagne.

Pour ce qui est de la France, il convient de déployer massivement, sans

«  Voilà pourquoi votre fille est muet-

faux-semblants, les mesures propres à

te » dirait Molière. La situation est incon-

favoriser la création et la profitabilité de

testablement difficile à redresser en peu

petites entreprises. On est encore loin

de temps. Encore conviendrait-il, devant

du compte. Il s’agit moins de subven-

le péril qui menace, de redresser la barre

tions que de mise en place d’un envi-

immédiatement.

ronnement propice, notamment par une

litique d’encadrement commercial face

priorité plus vigoureuse à l’apprentissage

à la montée de la mondialisation. Les

REE : Alors que faire ?

dans les nombreux métiers où la de-

négociateurs européens à l’OMC, de

G. T. Il me semble d’abord qu’une po-

mande reste soutenue.

même que face à la Chine, n’ont pas été

litique monétaire bien comprise devrait

à la hauteur, sauf exception, des intérêts

être, tout en surveillant le niveau d’infla-

stratégiques de l’industrie européenne.

tion, de faire baisser l’euro par rapport

Les États-Unis, état fédéral et acteurs

au dollar et au yuan, de façon à redon-

industriels, ont été plus vigilants et ont

ner de l’oxygène à une majorité de pays

su, globalement, mieux défendre leurs

membres. L’Allemagne, dont une part

intérêts. Il ne s’agit nullement d’entrer

majoritaire des exportations se situe en

dans une spirale protectionniste bien

Europe, ne devrait pas en pâtir.

Favoriser la création et la profitabilité de petites entreprises… Favoriser également l’émergence de nouveaux projets européens de grande ampleur

entendu, mais de garder avec raison le

Il convient ensuite de redonner une

sens de nos intérêts. La menace actuelle

priorité absolue à l’investissement, en

sur l’industrie européenne des cellules

évitant que la plus grande part de celui-

solaires en est une bonne illustration.

ci soit dédiée aux seuls travaux publics.

Last but not least, il est indispensable

En France par exemple, le coût de l’é-

de favoriser l’émergence de nouveaux

Le troisième constat est celui de l’euro fort. La politique monétaire, face

projets européens de grande ampleur,

au dollar et au yuan notamment a en-

associant les acteurs industriels et sans

gendré une perte de compétitivité pour l’ensemble des pays européens, l’Allemagne exceptée. REE : Qu’en est-il aujourd’hui des situations respectives de l’Allemagne et de la France ?

Redonner une priorité absolue à l’investissement, en évitant que la plus grande part de celui-ci soit dédiée aux seuls travaux publics

G. T. Les situations de ces deux pays ne

perdre de temps en débats byzantins. Je citerais la traduction automatique d’une langue à l’autre, le développement de la visiophonie, les réseaux nouveaux de paiement… Il faut des normes communes à ces nouveaux réseaux comme le fut en son temps la norme GSM. D’aucuns continueront d’affirmer qu’il n’y a pas de

sont pas les mêmes. Les évolutions ont

marché. Ils se trompent. Comme le plus

été différentes. En 1980, le déficit des

quipement en fibre optique eût été in-

souvent en matière de nouvelles tech-

administrations publiques en France était

férieur à celui de la multiplication des

nologies, l’offre génère la demande.

de 1,2 Md €, soit de 0,3 % du PIB. Il n’a

ronds-points à l’anglaise, dont quelques

cessé de se creuser depuis pour attein-

uns, grains successifs de dizainiers muni-

REE : Ne négligez-vous pas le facteur

dre en 2011 le niveau insupportable de

cipaux, se sont révélés superflus.

temps ?

Dans quels domaines  ? Je citerais la

G. T. Raison de plus pour ne pas at-

De son côté, après un affaiblissement

numérisation de toutes les entités de

tendre. Certaines initiatives sont à effet

dû à la réunification de 1990, l’Allema-

la vie courante où il faut investir massi-

immédiat : une mise en valeur plus effi-

gne a accepté une politique de rigueur

vement. Nous entrons dans une ère où

cace des know-how, des brevets ou des

qui a porté ses fruits. Ses comptes sont

le moindre processus est numérisable.

produits de la recherche universitaire ou

en équilibre.

À court terme, aucune entité physique

des grandes écoles, etc.

103 Md €, soir 5,2 % du PIB.

Et pour ajouter à cette situation ca-

ou industrielle, aucun diagnostic médi-

D’autres ne porteront leurs fruits

lamiteuse, le taux de valeur ajoutée de

cal, aucun échange financier ou culturel,

qu’à échéance de 2 à 5 ans, le déploie-

l’industrie française rapporté au PNB est

aucune langue, aucune base de savoir

ment de la fibre, l’investissement dans

90 ◗ REE N°4/2012


CHRONIQUE

Prospective & utopie « Je m’intéresse à l’avenir car c’est là que j’ai décidé de passer le restant de mes jours » Woody Allen

A

la différence des précédentes, cette

Mais cet exercice souhaitable et périlleux

grès technique ! La visiophonie, bel exemple de

chronique ne trouve pas sa source

bute structurellement sur une double sous-esti-

prospective technologique et bel échec industriel,

dans la lecture et la confrontation

mation : celle des contraintes matérielles, physi-

se retrouve alors être une retombée à peine vo-

d'ouvrages récents ; elle a été inspirée

ques ou financières, et celle du hasard ; les libres

lontaire du très bas coût des caméras désormais

par les excellents Libres propos de Lucien Des-

propos de Lucien Deschamps n'y échappent pas

intégrées dans tous les écrans.

champs, dans le dernier numéro de REE  : Pros-

complètement. Ainsi, quand il évoque les cités du

Plus près de nous et malgré la stimulation de

pective et recherche : relever les défis du 21

futur ou bien l'exploitation des océans, n'oublie-

la science-fiction, la prospective n'avait guère en-

siècle.

t-il pas quelque peu la nécessaire économie des

visagé le prodigieux développement du microor-

Lucien Deschamps, après avoir rendu d'émi-

ressources, ou ce qui revient au même le coût

dinateur, désormais produit annuellement à plus

nents services à la SEE, dont il est d'ailleurs mem-

prohibitif de réalisation. Même à l'heure des

de 400 millions d'exemplaires, et de ses usages :

bre émérite, anime depuis 15 ans Prospective

prouesses architecturales et des cités marines, il

la prospective a été éclipsée par la loi de Moore et

21OO ; cette dynamique association de prospec-

serait excessif d'y voir un modèle pour résoudre

elle peine à dire ce qui se passera en matière de

tive a été créée et est actuellement présidée par

la question du logement à l'échelle planétaire : il y

composants électroniques quand ceux-ci attein-

Thierry Gaudin, qui nous donne dans ce numéro

a là une forme d'utopie, même si des réalisations

dront leurs limites physiques.

de roboratives considérations sur Les réseaux au

concrètes existent déjà : Versailles, c'était pour le

secours de l'écosystème.

Roi, pas pour ses sujets !

e

Pour évoquer des problèmes d'actualité, la place relative du gaz de schiste et des hydrocar-

On ne contestera pas à Lucien Deschamps le

De même l'exploitation des ressources spa-

bures va sans doute autant dépendre des progrès

droit de recenser les besoins essentiels de l'hu-

tiales butera encore longtemps, si ce n'est éter-

technologiques que des décisions politiques, fus-

manité et les défis associés. L'urbanisation crois-

nellement, sur les contraintes énergétiques et la

sent-elles éclairées par l'effort de prospective ! Il

sante et les prévisions démographiques imposent

pesanteur terrestre : il n'est pas as-suré que notre

en est de même de l'essor, réclamé par les uns,

aussi de repenser la ville et l'aménagement du

siècle verra de gigantesques centrales photovol-

ou du déclin, exigé par les autres, de l'énergie

territoire. Mais quand il évoque la mer et l'espace

taïques dans l'espace, ni que les suivants permet-

nucléaire.

comme lieux et sources du développement futur,

tront d'aller chercher des minéraux précieux sur

Et puis il y a les imprévisibles évolutions de

il est tentant de parler d'utopie... Certes l'utopie

les astéroïdes... Le voyage sur Mars sera déjà une

la société elle-même, qu'évoque si souvent Edgar

d'aujourd'hui est la prospective de demain et,

extraordinaire aventure.

Morin : ce qui est probable, c’est que l’improbable

peut-être, la réalité d'un futur lointain, mais entre

En plus de telles contraintes matérielles, il fau-

va sans doute se produire et provoquer ainsi des

l'imaginaire, fût-il intellectuellement cohérent, le

drait aussi mieux prendre en compte – mais com-

bifurcations, analogues à celles se produisant lors

possible et le réel il existe bien des différences,

ment ? – les incertitudes, celles liées à la nature

des transitions de phase.

qu'illustre par exemple la confrontation des œu-

et aux formes des progrès scientifique et tech-

Le présent numéro de REE en porte d'ailleurs

vres de Jules Verne avec l'histoire des techniques

nique, et celles associées aux usages qu'en font

témoignage à sa façon des incertitudes tant

depuis un siècle. Pouvons-nous aussi évoquer ici

les sociétés. Ainsi Carnot (1796-1832) et Ampère

techniques que sociétales qui limitent la pros-

la fameuse réduction du paquet d'onde : de tous

(1775-1836) sont-ils contemporains, mais c'est le

pective : personne n'envisageait, il y a cinquante

les possibles, un seul sort de l'expérience !

plus jeune qui symbolise, avec la théorisation de

ans, lors de la découverte des lasers à semi-con-

La prospective s'assigne pour objectif d'ana-

la puissance motrice du feu, l'essor de la ma-

ducteurs leur prodigieux développement, puis

lyser les réponses possibles, souhaitables même,

chine à vapeur qui précédera le moteur électrique

la révolution de l'éclairage grâce à des diodes

aux défis de l'époque et les scientifiques devraient

de quelques décennies… Par contre au début du

électroluminescentes. Par contre aujourd'hui, les

plus réfléchir à ces aspects qu'aux risques, réels

20e siècle la voiture électrique fut à deux doigts

scientifiques croient fermement à la naissance

ou fantasmés, de leur activité : même si l'analyse

de supplanter celle que nous connaissons encore,

de l'ordinateur quantique sans pouvoir fixer la

des inconvénients et des dangers est incluse dans

avec son moteur à explosion.

durée de sa gestation !

la prospective, celle-ci ne peut s'arrêter au « prin-

Il semble bien que la prospective peine dans

cipe de précaution » ! Parmi les futurs possibles, il

le domaine des TIC : le téléphone a dû attendre

double prospective :

On s’autorisera ici en guise de conclusion une

est nécessaire d'analyser les contraintes, voire les

dans notre pays une vigoureuse politique de rat-

• le monde quantique va continuer de nous éton-

contradictions, qui surgissent dans une réalité com-

trapage et, un quart de siècle plus tard, le portable

ner, de nous intriguer et de modifier, par ses re-

plexe où s'entrecroisent des forces et des objectifs

a plus contribué à la modernisation du continent

variés ; la prospective assume là une fonction es-

africain en dix ans que le fixe en un siècle. La diffu-

• comme l'ont finement observé d'éminents pros-

sentielle, celle d'éclairer l'action publique par l'ex-

sion des écrans plats ne pouvait se faire qu'après

pectivistes (Léon Gambetta puis Pierre Dac)  :

pertise et le rappel des enjeux car rien de cohérent

la mise au point de la couleur, longtemps délicate,

les prévisions sont risquées, surtout quand elles

ne peut émerger dans notre village planétaire sans

parce que le public de la télévision ne risquait pas

concernent l'avenir ! ■

un éclairage à la fois global et critique.

revenir au noir et blanc, fût-ce au nom du pro-

tombées applicatives, nos modes de vie ;

B. Ay.

REE N°4/2012 ◗ 99


libres

Thierry Gaudin Président de Prospective 21oo

L

PROPOS

Cette situation impose des initiatives «  d’une autre ampleur que celles menées actuellement  », selon les élus. La France a, sur ce point, « une responsabilité parti-

e 28 mars 2012, le journal «  Le Monde  », re-

culière », du fait de sa place dans les organisations inter-

late le cri d’alarme lancé au cours d’une journée

nationales et de sa présence dans les zones tropicales,

d’audition publique au Sénat, par deux séna-

très menacées. La création de réserves naturelles, si elle

teurs de bords opposés, Pierre Laffitte (UMP,

est indispensable, n’est pas une réponse suffisante, se-

Alpes-Maritimes) et Claude Saunier (PS, Côtes-d’Armor) :

lon les scientifiques : isolées, ces zones sont condam-

« La prise de conscience des autorités et de la société

nées. Pour eux, toutes les activités humaines devraient

a eu lieu sur les risques liés au changement climatique,

prendre en compte la nécessité de protéger le vivant.

mais pas sur les conséquences de l’effondrement de la

D’autre part1, en se basant sur des théories scientifi-

biodiversité », estime M. Saunier. Le choc à prévoir est

ques, des modélisations d’écosystèmes et des preuves

pourtant au moins aussi important.

paléontologiques, une équipe de 18 chercheurs, in-

« La biodiversité des écosystèmes, support du déve-

cluant un professeur de la Simon Fraser University (SFU,

loppement de l’humanité, est en voie de dégradation

Vancouver), prédit que les écosystèmes terriens vont

accentuée  », mettent en garde les deux élus, dans un

faire face à un effondrement imminent et irréversible.

rapport d’étape. « La vie dispose d’une extraordinaire ca-

Dans un article récemment publié dans Nature, les

pacité d’adaptation, pourvu qu’elle en ait le temps », a

auteurs examinent l’accélération de la perte de biodiver-

rappelé M. Saunier.

sité, les fluctuations climatiques de plus en plus extrê-

Or la disparition des espèces a au-

mes, l’interconnexion grandissante des

jourd’hui lieu à un rythme dix à cent fois

écosystèmes et le changement radical

supérieur à la normale, et, d’ici à 2050, il pourrait devenir de cent à mille fois supérieur. « Quand on évoque le sort des papillons, des oiseaux ou des microbes, les citoyens ne s’y retrouvent pas  », dit

Les réseaux au secours de l’écosystème

dans le bilan énergétique global. Ils suggèrent que tous ces éléments constituent des précurseurs à l’apparition d’un état planétaire de seuil ou encore d’un point de basculement. Si cela s’avérait exact, ce que les auteurs prédisent pour

Robert Barbault, directeur du départe-

le siècle en cours, les écosystèmes de

ment d’écologie au Muséum national d’histoire naturelle. Mieux vaut parler de la biodiversité

la planète, en l’état des connaissances actuelles, pour-

comme du tissu vivant de la planète. Ce sont des mil-

raient rapidement et irréversiblement s’effondrer.

liards d’espèces, dont les hommes, qui ont une multi-

Ces alertes nouvelles, qui viennent compléter celles

tude d’interactions entre elles. Quand une maille saute,

du changement climatique, rappellent irrésistiblement

une deuxième lâche puis une troisième, et le tissu se

les livres d’un auteur devenu incontournable en pros-

désorganise.

pective, Jared Diamond. Dans son ouvrage intitulé pré-

«  L’espèce humaine ne vit pas hors sol  », rappelle

cisément « effondrements », il décrit de nombreux cas

Dominique Dron, professeure à l’école des Mines et com-

de civilisations qui se sont effondrées dans le passé  :

missaire interministérielle au développement durable. « Si

l’île de Pâques, les Vikings au Groenland et aussi quel-

les écosystèmes ne sont pas assez robustes pour encais-

ques cas de civilisations qui auraient dû s’effondrer, mais

ser le choc climatique, nous ne le serons pas non plus ».

qui ont échappé à ce destin, notamment le Japon des

Les causes de l’effondrement sont connues : surexploi-

Tokugawa, au prix d’une discipline de fer imposant à la

tation des ressources halieutiques, pollution des eaux

population de protéger et sauvegarder la nature.

douces, déforestation pour l’exploitation commerciale

Ces éléments, même s’ils ne contiennent aucune

du bois ou agricole, méthodes de culture intensives,

certitude quant à la date et aux modalités, nous condui-

urbanisation... Sans oublier la «  pollution biologique  »

sent irrésistiblement vers la philosophie de Jean-Pierre

causée par le transport d’espèces exotiques dans de nouvelles zones et l’impact du changement climatique.

1

Source Médiaterre, Organisation internationale de la francophonie.

REE N°4/2012 ◗ 101


PROPOS

libres

Dupuy, celle du catastrophisme éclairé. Il faut préciser

dans une quinzaine d’années. Cette mise en réseau

ici que, faute de disposer d’un vocabulaire adéquat,

est de nature à transformer complètement la manière

l’idée de Dupuy est souvent mal interprétée. On croit

dont les opinions se forment et dont les comporte-

instinctivement que le mot «  catastrophisme  » signifie

ments de consommation se construisent.

que l’auteur souhaite la catastrophe, alors que c’est tout

C’est pourquoi je qualifie ces réseaux de porteurs

le contraire : il veut convaincre de penser la catastrophe

d’espoir. Je suis de ceux qui croient que l’apparition sur

pour être mieux en mesure de l’éviter.

nos écrans de la photo du globe terrestre vu de l’espace

Or, notre civilisation actuelle focalise son attention

a fait évoluer les mentalités. Sans doute, une enquête

sur les productions et les endettements. Elle croit, ou fait

d’opinion verrait-elle le public, toujours un peu grognon,

semblant de croire, que le développement économique

répondre que, pour lui, rien n’a changé, que la vie quo-

est à la fois le but et le remède. Ce discours, soutenu

tidienne est toujours aussi difficile, voire que cet argent

par un appareil de persuasion d’une puissance jamais

jeté en l’air aurait été mieux employé à résoudre les pro-

atteinte, les médias, est celui des marchands dont le but

blèmes terrestres.

est le même depuis l’antiquité mésopotamienne  : ac-

Et ce même public trouve son chemin avec son GPS,

croître leur chiffre d’affaires et leurs résultats financiers.

sans savoir qu’il s’agit d’une triangulation entre satellites,

Vous voulez vous abonner à la REE ? Suivez le lien Acheter un numéro ? Tel : 01 56 90 37 04 Il n’y a rien de surprenant à ce que la caste des mar-

nécessitant des horloges d’une précision extrême. Il re-

chands tienne ce discours. Le problème est qu’il n’y en a

garde les animations de Météosat et reçoit des nouvel-

quasiment pas d’autre, sauf celui des scientifiques, alors

les par satellite de l’autre coté de la planète répercutant

que les risques globaux, causés par les excès d’exploita-

mondialement aussi bien les accidents que les exploits

tion, s’accroissent. Et nous sommes dans une civilisation

sportifs. L’usage de l’espace et des réseaux mondiali-

où la Science est au service du développement de l’ac-

sés est devenu quotidien sans même qu’il s’en rende

tivité marchande, alors qu’elle devrait au contraire servir,

compte.

par ses mesures et ses prévisions, de contrepoids à ses excès.

Insensiblement, nous sommes entrés dans un nou-

veau monde, où la conscience fonctionne autrement.

Toutefois, le siècle qui a commencé connaît une mu-

Les lecteurs de la REE se trouvent, sans l’avoir cherché,

tation technique porteuse d’un certain espoir : la mise

avoir à construire et gérer l’infrastructure de ce boule-

en réseau du monde, dont les lecteurs de la REE sont,

versement.

pour la plupart, des opérateurs. Cette mise en réseau est double :

Bouleversement  ? Ne s’agit-t-il pas seulement du prolongement des tendances passées, d’une évolution

• L’énergie, avec l’internationalisation et la densification

peut-être un peu erratique mais certainement pas bou-

du réseau électrique, qui devient progressivement par-

leversante, de la société que nous connaissons ? Je ne

tout le principal porteur de l’alimentation énergétique.

le crois pas, et pour situer l’ampleur de ce qui s’annonce,

Du coté des usages, l’électrification ferroviaire fut une

je vais me référer à l’histoire de l’écriture, base de ce que

grande affaire de l’après guerre. On voit maintenant

nous appelons civilisation2.

s’installer l’électrification des véhicules individuels,

L’écriture apparaît vers -3200. À cette époque, le

qu’ils soient ou non hybrides, du chauffage aussi avec

cheval est domestiqué et le chameau le sera bientôt.

les pompes à chaleur. Et l’interconnexion du réseau

Un mouvement d’urbanisation commence en Méso-

avec d’autres pays, réalisée en Europe, se construit au-

potamie. L’interprétation de ces signes est assez claire,

delà de la méditerranée et se négocie avec la Russie.

lorsqu’on sait, comme l’a remarqué Jean Bottéro, que

La construction d’une électrification mondiale maillée

plus des trois quarts des tablettes mésopotamiennes

est donc en cours.

sont des «  papiers d’affaire  »  : des contrats, des actes

• L’information, avec les satellites, le câblage en fibre

de propriété, de la comptabilité… C’est une civilisation

optique, le GSM, le Wi-Fi et le WiMAX s’ajoutant au

qui, partie du village rural autonome, se lance dans le

traditionnel réseau télécom en fils de cuivre. Internet,

commerce  : les villes sont des places de marché, les

le courriel touchent déjà un tiers de la population mondiale et en touchera vraisemblablement les deux tiers

102 ◗ REE N°4/2012

2

en m’inspirant du livre de Clarisse Herrenschmidt, Les trois écritures.


Aperçu du numéro d’octobre de la revue de l'électricité et de l'électronique