Page 1

les cahiers de

la méthode apple

les secrets de l’innovation de rupture  page 6 À l'honneur

les trois innovations les plus marquantes, selon l'académie des technologies  page 14

prospective

ce qui vous attend en 2015  page 16

supplément au numéro 3219-3220 du 16 décembre 2010. ne peut être vendu séparément

l'année technologique 2010

Environnement, énergie, transport, électronique, chimie, aéronautique, consommation...

www.usinenouvelle.com


éditorial

l’année technologique

Police d’assurance n cette période de bourrasques économiques, en ces temps

stéphanie jayet

agités, en cette époque de remous sociaux, il est E politiques un sujet sur lequel chacun ou presque s’accorde en France,

Pierre-Olivier rOuaud, Rédacteur en chef des suppléments

en Europe et bien au-delà : l’importance des technologies pour l’avenir de nos sociétés. Les avis peuvent diverger sur la manière de les encourager (voir les débats du projet de loi de finances), sur leur orientation (les choix du grand emprunt), voire sur leur régulation (OGM et autres…), mais sur le fond, la question ne fait guère débat. La part de la richesse consacrée à la R &D, les publications de chercheurs, le nombre et la qualité des brevets, les capacités d’innovation des entreprises et des territoires… voilà autant de polices d’assurance pour l’avenir d’un pays. Comme le remarque Clara Gaymard, la viceprésidente de General Electric International, « la crise financière en 2008 a clairement montré l’illusion d’une société basée sur les seuls services. Dans un monde de plus en plus dominé par l’Asie, l’industrie et les technologies restent au cœur de notre croissance ».

les progrès permettent d’accroître la productivité

Bref, à côté du rôle clé des (bonnes) politiques économiques, notre prospérité dépend à moyen terme du progrès scientifique et technique. À bien des égards. De fait, dans la machine-outil, les biotechnologies, les composites ou le logiciel… chaque année les progrès, grands ou petits, permettent d’accroître la productivité (source de richesses), d’inventer des produits, de trouver des solutions à de vieux problèmes, d’économiser des ressources. C’est vrai pour relever les défis du temps que sont l’environnement, la santé (notamment le vieillissement), l’accès à l’énergie, l’alimentation, la mobilité… C’est vrai pour éviter que nos vieilles nations ne perdent pied dans la bataille mondiale de la compétitivité. C’est vrai aussi pour des raisons plus légères comme l’attrait À côté du rôle clé des (bonnes) politiques irrépressible de la communication ou du divertissement (désolé Pascal !). économiques, notre prospérité À travers ce supplément, les journalistes de «L’Usine Nouvelle» vous prodépend à moyen terme du progrès posent un tour d’horizon, partiel, partial scientifique et technique. mais passionné de quelques avancées marquantes. Elles vont de la peau électronique aux biocarburants en passant par les mini-drones. Sans oublier un panorama des technologies clés pour 2015 réalisé à l’initiative des pouvoirs publics et une enquête d’Aurélie Barbaux, notre spécialiste du sujet, sur l’innovation de rupture. Cette problématique illustrée brillamment cette année par l’iPad d’Apple nous rappelle qu’au-delà de la science, l’innovation c’est la capacité à marier des technologies parfois connues et de les conjuguer avec une obsession: le client (voir l’interview de Michel Godet, page 17). CQFD. Vous découvrirez aussi pour la première fois un exercice demandé par « L’Usine Nouvelle » à la jeune Académie des technologies : le choix, par elle, de trois technologies arrivées à maturité en 2010. Que cette institution soit remerciée ici pour avoir joué le jeu. ❚❚

l’usine nOuvelle i supplément au n° 3219-3220 i 16 décembre 2010

3


sommaire

l'année technologique

 index

sommaire Démonstrateur de peau électronique mis au point par des chercheurs de l’université californienne de Berkeley.

éDiToRiAl • Police d’assurance ...................................................... P� 03 EnQuêTE • Innovation : pas de hasard dans la rupture.. P� 06 éPHéMéRiDE/à l'HonnEuR • Ça s'est passé en 2010 ............................................ P� 10 • Le choix de l'Académie des technologies ... P� 14 PRosPECTivE • Les 85 technos clés pour 2015 .......................... P� 16 énERGiE • Quand les éoliennes ont le pied marin ......... P� 22 • Les biocarburants 2.0 passent au stade pilote .. P� 24 • Le point sur… la concentration solaire.......... P� 27 TiC • L'iPad ouvre l'ère post-informatique ............. P� 28 • Construire l'internet de demain......................... P� 30 • L'encre électronique prend des couleurs..... P� 36 • Le point sur… la réalité augmentée ................. P� 39 élECTRoniQuE • La lumière jaillit de l'électronique ................... P� 40 • Des transistors à fleur de peau ........................... P� 42 • Le point sur… les capteurs Mems ................... P� 45 CHiMiE/MATéRiAux • Le graphène superstar .............................................. P� 46 • Les composites de l'extrême................................ P� 48 • Les surfaces passent à l'action ........................... P� 52 • Le point sur… les batteries pour voitures électriques ........................................ P� 55 MéCAniQuE • Hydroptère, les secrets du bateau qui vole  P� 56 • La fabrication laser des pièces en métal entre à l’atelier .............................................................. P� 58 • Le point sur… la tomographie industrielle. P� 61 TRAnsPoRT/AéRonAuTiQuE • Rendez-vous dans les étoiles .............................. P� 62 • Le tramway passe au sans fil ............................... P� 64 • Le point sur… les mini-drones ........................... P� 66 l’usinE nouvEllE i supplément au n° 3219-3220 i 16 décembre 2010

A/B acXys technologies �������������� 52 aeroVironment��������������������� 66 agc glass europe ����������������� 40 airbus ������������������������10/24/56 alcatel-lucent Bell labs France �������������������������� 30 alstom ����������������������������39/64 aMD��������������������������������������10 apple������������������������������������ 28 arc international��������������������10 areva������������������������������������� 16 arkema �������������������������������� 46 aRM������������������������������������� 28 audemars Piguet������������������ 56 audi ��������������������������������������10 autodesk������������������������������ 39 automated Dynamics ����������� 48 Bae�������������������������������������� 66 Basaltex ������������������������������� 48 Batscap ���������������������������������10 Bertin technologies �������������� 66 Bio ethanol Japan Kansai������ 24 Boeing���������������������������������� 24 Bombardier �������������������������� 64 Bristish airways ������������������� 24 Broadcom����������������������������� 28 Bull ��������������������������������������� 14 C/D cisco������������������������������������� 39 clariant��������������������������������� 48 cofice ����������������������������������� 66 continental����������������������������10 cosworth������������������������������ 56 craig Venter���������������������������10 Dassault ������������������������������� 56 Dassault aviation������������� 14/56 Dassault Systèmes���������������� 39 DBM energy ��������������������������10 DcnS ������������������������������39/56 Deinove �������������������������������� 24 Display Solution ag �������������� 36 Dynapack international ��������� 28 E/F/G e-ink ������������������������������������ 36 eaDS������������������������������������ 56 eDF ��������������������������������������� 16 elbit Systems������������������������ 66 epsilon composite ���������������� 48 eRDF�������������������������������������10 eSi ���������������������������������������� 61 etihad airways���������������������� 24 eurocopter�����������������������������10 Fnac���������������������������������������10 Fujistu-Siemens�������������������� 28 Fujitsu ���������������������������������� 36 garbolino������������������������������ 56 ge lighting��������������������������� 40

glassiled������������������������������� 40 graphene industries�������������� 46 gruau ����������������������������������� 39 H / i / J /K halliburton ��������������������������� 48 hawang�������������������������������� 36 hBM������������������������������������� 56 honeywell������������������������24/66 hP���������������������������������������� 28 hydroptère ��������������������������� 56 iBM �������������������������������������� 46 infineon�������������������������������� 28 innolux ��������������������������������� 28 innoveox��������������������������������10 intel���������������������������������������10 internet FR ��������������������������� 30 israel aerospace industries���� 66 italcementi ��������������������������� 52 l/M/n labourier������������������������������ 56 lafarge����������������������������������10 lDl technology ���������������������10 legrand et Revigny ��������������� 56 lehman aviation������������������� 66 lg Display ���������������������������� 28 liquavista����������������������������� 36 lockheed Martin������������������� 66 lomox ���������������������������������� 40 lonza ����������������������������������� 48 lorima���������������������������������� 56 Metaio���������������������������������� 39 Microsoft�������������������������������10 Montupet ������������������������������ 61 Multiplast����������������������������� 48 Murata ��������������������������������� 28 nec�������������������������������������� 39 nemoptic������������������������������ 36 niji ��������������������������������������� 39 nikkon Metrology ������������������ 61 nissan ���������������������������������� 52 nokia������������������������������������ 39 o/P/Q/R orange ���������������������������� 10/30 osram ���������������������������������� 40 Pa Semi�������������������������������� 28 Parrot������������������������������ 10/39

Pegas-tech ��������������������������� 52 Pixel qi��������������������������������� 36 Plastic logic ������������������������� 36 Polartec���������������������������������10 Prixtel ���������������������������������� 28 PSa�������������������������������������� 39 PVi��������������������������������������� 36 Pyromeral Systems���������������48 qatar airways����������������������� 24 qatar Petroleum ������������������� 24 qatar Science������������������������ 24 qualcomm���������������������������� 36 qualigraf ������������������������������ 28 quarzwerke ��������������������������48 Renault��������������������������������� 39 Roquette �������������������������������10 Rosatom��������������������������������10 s/T/u Saft ���������������������������������������10 Saint-gobain �������������������39/40 Samsung �������������������������28/46 SaP�������������������������������������� 28 Schlumberger �����������������������48 SncF�������������������������������������10 Soitec ������������������������������������ 16 Sony������������������������������������� 36 Spectris plc��������������������������� 56 Spir communication ������������� 28 Spire Semiconductor��������������10 SSi Schaefer ��������������������������10 Suez �������������������������������������� 16 SVe���������������������������������������10 Sway �������������������������������������10 technicolor ���������������������������� 16 tereos ���������������������������������� 24 texas instruments ���������������� 28 thales ����������������������������������48 thomson������������������������������ 30 total������������������������������������� 24 total immersion�������������������� 39 v/W Valeo �������������������������������������10 Veolia ������������������������������������ 16 Vidia��������������������������������������10 Whirlpool ������������������������������10 WorkFly�������������������������������� 66 Yxlon������������������������������������� 61

Rédaction en chef de ce supplément : Pierre-olivier Rouaud Maquette : christine liber Supplément de « l’usine nouvelle » n° 3219-3220 du 16 décembre 2010 (commission paritaire n° 0712t81903) ne peut être vendu séparément� une publication du groupe gisi, antony Parc ii 10 place du général-de-gaulle - BP 20156 - 92186 antony cedex� Directeur de publication : christophe czajka impression : Roto France impression 77185 lognes Photo de couverture : D�R�

5


JIM WILSON/NYT-REDUX-REA

6


enquête

l’année technologique

innovation

Pas de hasard dans la ruPture Même s’il est plus rassurant de le croire, les innovations de rupture répétées lancées par Apple ne sont pas que le fruit d’une intuition chanceuse de Steve Jobs, son patron. Elles relèvent bien de processus originaux, qui permettent de penser les objets et les services autrement. Par aurélie BarBaux

’innovation de rupture fait autant consensus que débat. Pour la définition générale, tout le monde tombe rapidement d’accord. «L’innovation de rupture, c’est celle qui rend la concurrence obsolète, la déclasse», propose Claude Ricaud, le directeur de l’innovation pour la division puissance de Schneider Electric. En clair, il y a rupture lorsque la concurrence est plantée. Mais elle n’est pas forcément technologique. Prenez l’iPad. Le français Archos avait depuis longtemps une offre de tablettes multimédia tactiles. Et il n’était pas le seul. Mais l’Ipad, en sortant des sentiers battus de l’informatique personnelle (lire page 28) avec une interface revisitée, a créé la rupture. Et si, à son lancement, on s’interrogeait encore sur la catégorie d’innovation dans laquelle il fallait ranger cet objet, les 8millions d’exemplaires vendus en six mois et la course effrénée des concurrents pour sortir à leur tour une tablette, ne laisse plus place au doute. Il y a bien un avant et un après l’iPad. Il y a eu rupture. Et parce qu’elle opère sur un marché grand public, elle a frappé tous les esprits. Au point de chercher à comprendre, à analyser, à décrire et donc forcément à coller des étiquettes, à créer des sous-catégories. On distingue au moins trois types d’innovation de rupture (lire page 8). La première, la plus connue, l’innovation radicale, est souvent confondue avec l’innovation de rupture. Elle est principalement basée, soit sur un saut technologique, comme le CD qui a détrôné la cassette analogique, soit sur un nouveau modèle économique, comme iTunes et l’Appstore d’Apple, qui ont réinventé la consommation des loisirs numériques. La deuxième, l’innovation turbulente est plus subtile. Contrairement à l’innovation classique, qui cherche à améliorer l’existant, «l’innovation turbulente, elle, est à dessein… sous-

l

Aucun doute. il y a bien eu un avant et un après l’iPad (ici steve Jobs, patron d’Apple). il y a eu rupture. l’usine nouvelle I SUppLéMENT AU N° 3219-3220 I 16 DécEMbRE 2010

7


enquête

l’année technologique

performante par rapport à ce qu’elle veut remplacer. Elle se place délibérément en queue de peloton. Et c’est précisément ce qui fait sa force», explique le journaliste Franck Barnu, dans son livre «La vraie nature d’innovation», qui vient de sortir aux éditions Lavoisier. Exemple… la Logan de Renault Dacia, mais aussi le micro-ordinateur, archétype de l’innovation turbulente. Inventé en 1970, ses performances étaient ridicules par rapport aux mini-ordinateurs réservés aux professionnels. On connaît pourtant son succès. L’innovateur turbulent veut plus à s’accaparer un territoire en friche qu’un nouveau territoire, en offrant des produits moins performants, mais moins coûteux, là où les entreprises établies ne veulent normalement pas aller.

le caractère aléatoire fait débat

Le concept de la troisième, l’innovation inversée, a été avancé par Jeff Immelt, le PDG de Général Electric, et son acolyte Vijay Govindarajan, gourou américain du management, professeur à la Tuck School of Business à Dartmouth (New Hampshire). Convaincus que les innovations pour les pays émergents doivent être conçues dans, par, et pour ces pays eux-mêmes, ils pensent aussi que ces dernières ont vocation à diffuser vers les pays développés. Les exemples ne sont pas légion, mais l’échographe portable de GE Healthcare, développé au départ pour la Chine rurale et vendu aujourd’hui 15000dollars aux Etats-Unis (contre 350000 pour les précédentes générations), illustre bien l’idée. Si cette segmentation est relativement nouvelle, elle prête peu à polémique. En revanche, ce qui fait débat, c’est le caractère aléatoire de l’innovation de rupture. Pour beaucoup d’industriels, elle arrive par hasard. «Souvent, on ne les identifie qu’après coup», constate Paul-Joël Dorhian, le vice-pré-

sident R&D de Rhodia. «Le mot de rupture est trompeur. Ces innovations sont souvent issues d’un long processus, voir d’un échec», assure Martha Heitzmann, la directrice R&D d’Air liquide. Il serait même possible de les provoquer. Pour leur donner une chance d’émerger, les industriels… cherchent d’abord la rupture dans leurs organisations. SEB organise tous les ans une foire à l’innovation, pour faire rencontrer nouvelles technologies et besoins du marché. Rhodia, le chimiste, a créé un laboratoire de recherche du futur… sans chimiste! «Les méthodes classiques, qui consistent à faire le plein d’idées et à filtrer les meilleures, ne fonctionnent pas, confirme Claude Ricaud chez Schneider Electric. Il faut accepter de beaucoup itérer, faire preuve de beaucoup de persévérance.» Et inclure l’échec dans le processus. «Les innovateurs à répétition ont une martingale: ils savent apprendre d’une innovation qui n’a pas eu le succès escompté pour mieux rebondir», révèlent Armand Hatchuel, professeur de management à Mines ParisTech et théoricien de l’innovation. Avec ses confrères Philippe Le Masson et Benoît Weil, il a développé une théorie CK de la conception innovante (lire page suivante) et développé une méthode. Pour la faire progresser, une chaire financée par Dassault Systèmes, RATP, Renault, Thales, et Vallourec a été lancée en janvier 2009. Chercheurs, étudiants et industriels y travaillent sur des cas concrets. Turbomeca et la SNCF l’utilise pour développer, qui, une nouvelle technologie moteur, qui, de nouveaux services. De son côté, Vallourec la teste sur l’une de ses équipes de recherche. STMicroelectronics s’apprête même à publier les résultats de ses travaux d’application de la théorie CK à l’analyse des brevets et à leur rédaction astucieuse. La preuve, s’il en était besoin, que l’innovation de rupture, ne doit rien au hasard. ❚❚

trois tyPes d’innovations de ruPture inveRsée

D.R.

TuRBulenTe

D.R.

D.R.

RAdicAle

l’idée : le saut technologique l’exemple : l’Actifry de seB

l’idée : le low cost l’exemple : la logan de Renault dacia

l’idée : les pays émergents l’exemple : l’échographe portable de Ge Healthcare

pour développer l’Actifry, une friteuse qui cuit un kilo de pomme de terre avec une cuillère d’huile, les chercheurs de Tefal ont travaillé quinze ans et sont devenus des experts de la pomme de terre et de l’huile. Véritable blockbuster, l’Actifry s’est vendu plus d’un million d’exemplaires en deux ans. La concurrence n’a toujours pas fait mieux.

Louis Schweitzer, lorqu’il était patron des Renault, a eu l’idée, contraire à tous les canons de l’industrie automobile, de produire la première voiture à 5 000 euros. Il a dû l’imposer et forcer la main à ses équipes d’ingénieurs et de production, qui n’y croyaient pas, mais ont dû innover, pour tenir la promesse publique lancée par leur patron.

En 2002, pour conquérir le marché chinois, la division santé de General Electric a développé le premier scanner portable fonctionnant avec un pc, ne coûtant que 15 000 dollars, soit 15 % du prix d’équipement traditionnel. Le marché américain s’est en emparé. Du coup, GE a développé une version de poche (en photo).

8


enquête

l’année technologique

pascal guittet/« l’usine nouvelle »

armand hatchuel Directeur du Centre de gestion scientifique Mines ParisTech

la richesse d’aujourd’hui, c’est la capacité à créer des objets inconnus et à les apprivoiser Pas d’innovation de rupture sans déstabilisation de l’identité des objets et la capacité des équipes à travailler dans l’inconnu. C’est sur ce concept, qu’Armand Hatchuel a développé, avec Pascal Le Masson et Benoit Weil, enseignants à Mines ParisTech, une théorie de la conception innovante*. Explications. ProPos reCueillis Par aurélie BarBaux

Pourquoi théoriser les processus d’innovation ? L’idée de départ de nos travaux, il y a quinze ans, était de trouver un moyen de sortir de l’innovation « one shot ». On a donc observé les firmes qui arrivaient à innover à répétition, en rupture, comme Tefal dans les années 1970 à 1990, ou Apple, aujourd’hui. Car ce qui surprend chez Steve Jobs, ce n’est pas une réussite unique mais la série. C’est elle qui confirme qu’il y a une pensée et pas qu’une intuition chanceuse. Or, si l’on s’inscrit dans un cycle d’innovation répétée, c’est que les gens ont forcément dû apprendre à piloter et vivre collectivement dans l’inconnu. étrangement, c’est souvent la même équipe de recherche qui fait plusieurs fois la rupture. Notre hypothèse fut donc qu’il y a des invariants de l’innovation de rupture. Mais qu’ils ne sont pas là où l’on croit. vous avez donc trouvé la recette de l’innovation radicale ? Radicale, incrémentale… il s’agit là d’un vieux vocabulaire. Nous préférons parler d’identité des objets. Lorsque l’on innove dans un cadre connu, qu’une chaise reste une chaise, l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

on parle de conception réglée. Mais pour trouver la rupture, il faut rompre avec l’identité de l’objet. Pour cela, il faut séparer deux espaces de travail, celui où l’on explore la définition des objets inconnus, le concept, et celui des connaissances liées à ces concepts. D’où le nom de notre théorie C-K (Concept-Knowledge). Mais c’est une théorie de notre époque. Il y a trente ans, le coût de l’accès à K, la connaissance, aurait eu un prix presque infini. Aujourd’hui, l’accès à des compétences que vous n’avez pas est infiniment moins coûteux. Sinon, Steve Jobs n’aurait pas pu aller aussi vite dans le téléphone en venant de l’univers des ordinateurs, alors que, ce qui l’intéressait au départ, c’était la recherche de nouvelles interfaces. Comment met-on cette théorie en pratique ? Les entreprises doivent évoluer d’une logique de R&D à une logique de RID. La fonction «I», c’est celle où les équipes doivent apprendre à vivre et à travailler dans l’inconnu… Car si vous êtes en situation de rupture de l’identité de l’objet, tout le monde sera dans l’inconnu: le dirigeant, l’ingénieur, le consommateur aussi. Il faut donc aussi penser des processus de socialisation adaptés à cet inconnu. Pascal Le Masson a développé une théorie économique basée sur l’idée que la richesse aujourd’hui, c’est la capacité à créer des objets inconnus et à les apprivoiser. Les entreprises ne parvenant pas à faire cet apprentissage collectif du nouveau sont menacées d’appauvrissement. Car leur capital, leur travail, leur temps ne sont utilisés que pour des objets connus. Peut-on former toute l’entreprise à l’innovation de rupture ? Aucune entreprise, ni aucun chercheur, ne sait répondre à cette question. Mais il est tentant, par exemple, d’imaginer le dirigeant de demain. Il aurait les traits de Steve Jobs mêlés à ceux de Xavier Fontanet, président d’Essilor, donc un hybride entre le gestionnaire et l’entrepreneur avec, en plus, un esprit obstinément créateur. Les innovateurs répétés ont une martingale de l’innovation: ils savent apprendre d’une innovation qui n’a pas eu le succès escompté pour mieux rebondir. Quand doit-on appliquer la théorie CK ? Ce qui est important, c’est de savoir se rendre compte quand il est important de sortir des méthodes de conception réglées. Pour la voiture électrique, par exemple. Mais l’important est finalement de s’interroger sur qui a le plus besoin d’innovations de rupture. Ce sont ceux qui ont des salaires très élevés et ceux qui sont très pauvres. Nous, c’est l’innovation qui nous paie. Pour les pauvres, l’innovation enrichissante c’est celle qu’ils peuvent acheter. Et c’est là que vous avez les ruptures les plus intéressantes. ❚❚ *ouvrages : Théorie unifiée de la conception, 1996, (réédité avec Benoit Weil, 2001 et 2003) ; les processus d’innovation (Hatchuel, le Masson, Weil) 2006 ; strategic Management of innovation and Design (le Masson, Weil, Hatchuel) 2010.

9


éphéméride l’année technologique

ça S’eSt PaSSé en 2010

éneRgieenViRonneMent tRanSPoRtS

consommateurs et de ne pas favoriser les économies d’énergie. aVRil

FéVRieR

>Edifret (filiale informatique de la SNCF) teste une solution RFID développée par Maintag. Les tags sont lus à 2 mètres de distance à 100 km/h par des bornes autonomes (Wavebox Solar) fonctionnant à l’énergie solaire. Elles sont surveillées avec un réseau GMS qui détecte tout dysfonctionnement. Objectif : éviter de « perdre » des wagons de fret.

>La Norvège planifie la construction de la plus grande éolienne offshore flottante au monde, atteignant 162,5 mètres à sa cime, 145 mètres de diamètre et 10 MW. C’est l’industriel norvégien Sway qui va s’atteler à la tâche. Coût prévu du prototype: 17 millions d’euros. MaRS

Mars. Le compteur intelligent Linky d’ERDF.

10

Mai >Dans le cadre d’un programme de recherche de l’US Air Force et de la Nasa, l’avion prototype sans pilote de Boeing, le WaveRider X-51A, effectue le plus long vol supersonique de l’histoire propulsé par un statoréacteur: 200 secondes à mach 5

août

>Le russe Rosatom met à l’eau une centrale nucléaire flottante. Baptisé Akademik Lomonossov, il s’agit d’une coque qui accueillera deux réacteurs de 35 MW. La centrale devrait être mise en route en 2012. Les russes envisagent de construire huit de ces platesformes destinés à l’industrie pétrolière ou au dessalement.

>Pour la production du futur longcourrier d’Airbus, l’A350 XWB, l’usine allemande de Stade débute la production de pièces en composite de 34 m de longueur sur 6 m de hauteur, les plus grandes jamais construites par le groupe.

>Huit laboratoires français, associés aux trois principaux industriels du secteur (Saft, Batscap, SVE), pilotés par le CNRS décident de coordonner leurs recherches sur l’amélioration des batteries lithium ion et sur de nouvelles générations. Objectif du réseau : accélérer les transferts des laboratoires vers l’industrie.

>L’avion-hélicoptère d’Eurocopter, le X3, effectue son premier vol d’essai. Ce démonstrateur est équipé de deux moteurs qui entraînent un rotor principal à cinq pales et deux hélices installées de part et d’autre de l’appareil. L’hélicoptère hybride vise une vitesse de 220 nœuds (environ 400 km/h).

>Innoveox remporte le prix Pierre Potier sur l’innovation «verte» dans la chimie. La société est saluée pour sa technologie d’oxydation supercritique appliquée aux déchets dangereux liquides, comme les effluents industriels du raffinage, de la

mike cassiDy

D.R.

>ERDF débute le déploiement de 300000 compteurs intelligents dans l’Hexagone, à Lyon et en Touraine. à terme, 35 millions de compteurs seront installés pour 4 milliards d’euros. En septembre, une polémique surgit. En effet, certains reprochent à ces compteurs d’offrir des services limités aux

Juillet

pétrochimie, de la chimie ou de la pharmacie. Elle permet de les transformer en eau.

Mai. L’avion prototype sans pilote de Boeing sous un B-52.

SePteMbRe

octobRe >Mise au point par l’allemand DBM Energy, une Audi A2 équipée de 300 kg de batteries lithium métal polymère a établi le record mondial d’autonomie électrique. Reliant Munich à Berlin, elle a parcouru 600 km sans recharge à 86 km/h

D.R.

Bien des pays du monde restent englués dans le ralentissement économique. Mais en matière de technologies, le rythme des avancées ne faiblit pas. Passage en revue non exhaustif.

(6120 km/heure). Il a été largué en vol par un bombardier B-52 à 15 000 m au-dessus du Pacifique.

Juillet. Amélioration des batteries lithium ion.


éphéméride l’année technologique

>42,3% de conversion de l’énergie solaire en électricité, tel est le rendement record obtenu pour une cellule photovoltaïque. Ce prototype de 0,97 cm2, a été développé par la société américaine Spire Semiconductor et est fondé sur les recherches du National Renewable Energy Laboratory (NREL). noVeMbRe

MaRS >Arc International lance deux nouveaux matériaux: le Diamax et le Zenix. Le premier est un verre ultra-clair, plus écologique que le cristal (sans métaux lourds), moins cher de 20% et plus résistant. Le Zenix est un matériau minéral vitrifié offrant des propriétés antirayure, anti-fissure et de solidité supérieures à la porcelaine. aVRil >SSI Schaefer, spécialiste des systèmes de stockage et de préparation de commandes, mis au point le Schaefer Robot-Pick (SRP), premier picking robotisé 100% automatisé. Aujourd’hui, celui-ci est manuel à 90% >L’américain Polartec lance un tissu étanche et qui respire:

D.R.

>Whirlpool propose un sèche-linge de classe A qui n’utilise pas une pompe à chaleur, mais une technologie traditionnelle, avec condensateur et résistance. 15 millions d’euros et deux ans

MécaniqueMatéRiauX-chiMie

septembre. L’avion-hélicoptère d’Eurocopter.

le Power Shield Pro. Cinq fois plus respirant qu’un Gore-Tex, il est composé de trois couches: des fibres extérieures extensibles (en polyester ou polyamide) coupe-vent et résistant à l’abrasion; une membrane hydrophobe microporeuse en polyuréthane, et une couche intérieure dite de confort. Getrag lance une boîte de vitesses à double embrayage qui fonctionne «à sec», contrairement à la boîte >DSG de VW/Borg Warner utilise un double embrayage à «bain d’huile». Alternative aux boîtes automatiques, les boîtes à double embrayage évitent les 15% de surconsommation de ces dernières. Ces «Dual Clutch» reprennent l’architecture d’une boîte manuelle, scindée en deux demi-boîtes, chacune gérée par son propre embrayage. Juin >LDL Technology invente le S3P, système sans fil de surveillance de pression des pneumatiques, qui peut se connecter sur les poids lourds et les bus des flottes existantes. Il fonctionne avec des Mems (systèmes microélectromécaniques) placés sur chaque roue.

octobre. DBM Energy et son Audi A2 électrique.

L’usinE nouvELLE i supplément au n° 3219-3220 i 16 DécembRe 2010

>PSA lance le système e-HDI qui élimine les défauts inhérents au stop&start diesel. Couplant un alterno-démarreur de Valeo et des supercapacités de Continental, cette micro-hybridation coupe son moteur dès que l’on s’arrête plus de 3secondes. Il s’en suit une réduction moyenne de 15% de la consommation urbaine et de 5grammes les émissions de CO2. Il est lancé sur les Citroën diesel C5 et C4 et sur les 308. SePteMbRe >Volvic lance une bouteille composée à 20% de plastique d’origine végétale. Le matériau est constitué de 25% de PET recyclé et de 75% de «bioPET», un polymère dont l’un des monomères, le monoéthylène glycol, est fabriqué à partir de mélasse (résidu de canne à sucre) par Indian Glycols. L’emballage, l’électroménager, l’automobile, le mobilier… sont les marchés visés par le plastique végétal Gaïalene développé par Roquette, par greffage de polymères naturels (amidon). >Lafarge reçoit un soutien financier de l’Union européenne pour développer Aether, un clinker dont la production émet

aRc inteRnational

octobRe

de développement ont été nécessaires pour ce projet. La surface du tambour sert de sonde d’humidité, le chauffage et le circuit d’air ont été retravaillés. Le moteur est un système à induction en triphasé.

RaineR jensen/epa

de moyenne avec phares et chauffage allumés. Un pied de nez aux batteries lithium ion qui plafonnent autour de 200 km. Développé par Orange et Valeo, le concept NFC Access System transforme un téléphone en clé de contact. Fondé sur la technologie NFC (Near Field Communication), il permet à plusieurs conducteurs de s’échanger à distance un véhicule. Pour cela, le propriétaire envoie aux autres utilisateurs un code d’accès par SMS. La voiture reconnaît le signal.

Mars. Arc international lance le Diamax.

11


éphéméride l’année technologique

moins de CO2. Ce clinker, composant de base du ciment, utilise moins de calcaire, et sa cuisson peut se faire à plus basse température, limitant la consommation d’énergie.

technologieS De l’inFoRMation et De la coMMunication JanVieR >Intel commercialise les premiers processeurs i3, i5 et i7 gravés en 32 nanomètres, pour ordinateurs de bureau et pour portables. Intel prend de l’avance sur son concurrent AMD, dont les processeurs restent gravés en 45 nanomètres. aVRil >Les téléviseurs 3D débarquent sur les étals, juste à temps pour suivre certains matchs de RolandGarros et de la Coupe du monde de football. Ils reposent sur le principe de la stéréoscopie, avec une captation des images réalisée par une caméra binoculaire, pour créer deux flux vidéo synchronisés.

août >L’AR. Drone, l’hélicoptère de Parrot radio commandé en Wi-Fi par un iPod Touch, un iPhone ou un iPad est commercialisé par la Fnac. Ce jouet séduisant offre une grande facilité de manœuvre grâce à un concentré de technologies: centrale inertielle, caméra haute vitesse, altimètre à ultrasons. Une première mondiale pour une PME française, le numéro un du kit main-libre. noVeMbRe >Le Kinect de Microsoft, un boîtier complémentaire de la console de jeux Xbox, révolutionne l’interface utilisateur. à l’aide d’une caméra motorisée et d’un pointeur de distance, le Kinect analyse et interprète les mouvements du joueur, à partir de 48 points du corps humain. >Un supercalculateur chinois associant des processeurs Intel et des Tesla de nVidia se hisse à la première place du Top 500 des supercalculateurs. Les processeurs graphiques ou GPU, utilisés pour effectuer des calculs, modifient le paysage des ordinateurs scientifiques. Même s’ils ne se prêtent qu’aux calculs parallélisables, ils multiplient

les performances jusqu’à un facteur100, pour un faible coût.

parvenus, à l’aide des techniques de fabrication de microsystèmes, à reproduire le fonctionnement de l’interface entre une alvéole pulmonaire et un vaisseau capillaire sanguin. Le dispositif a l’avantage d’imiter les mouvements engendrés par la respiration. Un outil pour la recherche pharmaceutique et les études toxicologiques

Santé – biotechnologieS agRoaliMentaiRe MaRS >Dans le cadre du projet MetaHit de caractérisation génétique de la flore intestinale humaine, un consortium international, coordonné par l’Inra, publie un premier séquençage de l’ensemble des gènes des bactéries hébergées par le tube digestif. De nombreuses applications sont attendues en nutrition.

>En injectant à une souris le polymère qu’ils avaient synthétisé, des chercheurs ont montré que leur macromolécule pouvait neutraliser la toxine extraite du venin d’abeille, qu’ils lui avaient injecté. Une avancée importante, menée à l’université de Californie à Irvine (UCI), qui pourrait déboucher sur de nouvelles générations d’anticorps synthétiques, à des fins thérapeutiques ou de diagnostic.

Mai >Le biologiste américain Craig Venter fait un coup d’éclat en publiant dans «Science» ses recherches sur la multiplication d’une bactérie dotée d’un génome entièrement synthétique, la «vie artificielle». Un génome conçu sur ordinateur pourra être synthétisé, puis introduit dans une bactérie sans ADN: elle suivra les règles édictées par son programme génétique implanté. Les applications à court terme sont la fabrication de biofibres, la digestion de certains déchets, ou la synthèse de biocarburants.

SePteMbRe >Un consortium international coordonné par le Cirad décrypte et analyse la séquence du génome du cacaoyer. Ces travaux permettront de développer des variétés résistantes aux maladies. Lancement du programme de recherche européen Frisbee, coordonné par le Cemagref, afin d’améliorer les technologies du froid. Objectif de ce programme de quatre ans: trouver des pistes pour réduire l’impact environnemental de la chaîne du froid, qui consomme 8% de l’énergie dans le monde.

Juin >Un poumon sur une puce! Des chercheurs de Harvard sont

Janvier. intel sort ses processeurs i5.

12

Avril. Les téléviseurs 3D débarquent.

Avril. Apple commercialise l’iPad.

D.R.

D.R.

panasonic

D.R

.

>Avec l’iPad, Apple veut ouvrir l’ère post-informatique. Plus simple d’emploi qu’un ordinateur, l’iPad est d’abord un outil de communication multimédia. Au-delà du visionnage de vidéo et de la navigation sur internet, son usage reste à inventer. Cela n’empêche pas sa réussite

commerciale, qui repose aussi sur la boutique d’applications en ligne, éprouvée avec l’iPhone.

Mai. Le biologiste Craig venter présente son génome synthétique.


à l’honneur l’année technologique

Innovations

Le choIx de L’AcAdémIe des technoLogIes À l’occasion de ce supplément, « L’Usine Nouvelle » a demandé à l’Académie des technologies de choisir, parmi les avancées de 2010, les plus marquantes en France. Elle en a sélectionné trois : les nanomédicaments du professeur Couvreur, le supercalculateur Bull/CEA et l’IRM NeuroSpin. TexTes de l’AcAdémie / PAges coordonnées PAr Pierre-olivier rouAud

réée fin 2000, l’Académie des technologies est la plus récente des grandes académies. Ses 270 membres comprennent des chercheurs, des chefs d’entreprise, des ingénieurs des architectes, des médecins et des économistes. Sa devise : « Pour un progrès raisonné, choisi et partagé». La loi sur la recherche de 2006 lui a donné le statut d’établissement public administratif et son inauguration officielle s’est déroulée en 2007 au Grand

c

Palais à Paris où elle est installée. L’Académie a pour mission d’œuvrer à une meilleure connaissance des technologies dans la société. Ainsi que d’émettre des recommandations sur les sujets de son choix ou à la demande des autorités. Son président élu, qui succèdera au professeur Alain Pompidou le 1er janvier, est Bruno Revellin-Falcoz, ancien viceprésident de Dassault aviation. Il a commenté pour nous les choix de l’Académie. ❚❚

Hubert raguet

1/ des nanoparticules aux nanomédicaments (cnrs/Paris sud)

Patrick couvreur et son équipe de l’université Paris-sud/cnrs ont développé des nanovecteurs multifonctionnels, capables d’associer une fonction thérapeutique et une fonction de diagnostic. 14

L’introduction des nanotechnologies en pharmacologie («nanomédicaments») révolutionne la formulation en permettant l’émergence de traitements à spécificité accrue. Des nanoparticules peuvent, en effet, être adaptées aux fonctions souhaitées grâce aux progrès dans la synthèse des colloïdes et la maîtrise de leurs caractéristiques physico-chimiques. Ces nanosystèmes ou nanovecteurs sont exploités dans des buts thérapeutiques afin de transporter le médicament dans l’organisme de manière contrôlée : du site d’administration au site d’action pharmacologique. Cela implique le passage du nanovecteur et des molécules actives, à travers un grand nombre de barrières biologiques : épithéliums, endothéliums, membrane cellulaire. Il s’agit du principal défi de la vectorisation des médicaments. En d’autres termes, la valeur ajoutée des nanomédicaments réside à la fois dans le contrôle de la libération du principe actif, dans l’augmentation de l’absorption (par la muqueuse ou les cellules) ainsi que dans la protection de la molécule active vis-à-vis des dégradations.


à l’honneur l’année technologique

L’AvIs du pRésIdent de L’AcAdémIe

BRuno ReveLLIn-FALcoz Ancien vice-président de dassault aviation «Transposé en clinique humaine, cette approche ouvre la porte à la médecine personnalisée. Je salue donc le travail de Patrick Couvreur, chercheur de qualité à la tête d’une équipe remarquable et animé d’une volonté de faire déboucher ses travaux sur des applications concrètes. »

2/ Le pétaflop en France (Bull/ceA)

pHilippe stroppa/ cea/dam

Les avantages thérapeutiques apportés par cette approche ont permis la mise sur le marché de premiers nanomédicaments (Doxil, Abraxane et Ambisome). Dans ce contexte, Patrick Couvreur et son équipe (UMR CNRS 8612, Université Paris-Sud) ont développé des nanovecteurs multifonctionnels capables d’associer une fonction thérapeutique grâce à l’encapsulation d’une molécule à activité pharmacologique (par exemple anticancéreuse) et une fonction de diagnostic grâce à l’utilisation de matériaux pouvant donner un signal contrasté en imagerie par résonance magnétique nucléaire (RMN). Pratiquement, ce concept de « nanothéragnostic » a été mis au point grâce à l’encapsulation de particules ultrafines d’oxyde de fer dans des nanoparticules. Cellesci sont obtenues par l’auto-assemblage d’un bioconjugué résultant du couplage de la gemcitabine (un médicament anticancéreux) avec le squalène (un lipide naturel et biocompatible). L’administration expérimentale à des animaux porteurs d’une tumeur de ces particules multifonctionnelles permet de bloquer la croissance tumorale de manière spectaculaire suite au guidage magnétique de ces nano-objets dans le lit vasculaire tumoral à l’aide d’un champ magnétique extracorporel. Dans le même temps, on peut suivre par imagerie RMN l’évolution de la masse tumorale et donc poser un diagnostic sur l’efficacité du traitement. Il a été montré que ce concept pouvait s’appliquer à d’autres conjugués anticancéreux au squalène (cisplatine-squalène, paclitaxel-squalène, doxorubicinesqualène, etc.) ainsi qu’à d’autres matériaux capables d’augmenter le contraste en imagerie (gadoliniumsqualène).

Avec le Tera 100, la France reste dans la course en matière de modélisation. La puissance théorique des supercalculateurs vient de passer la barre du pétaflop ou PFlop (1) en 2010. Elle pourrait être quadruplée d’ici à 2012. Ce marché très concurrentiel est dominé par la Chine (NUDT, premier avec 2,56 PFlops) et les États-Unis (Cray, deuxième avec 1,76 PFlops). La France accède au sixième rang avec Tera 100 (1,25 PFlop), premier supercalculateur en Europe développé par Bull avec le CEA. Ces technologies sont un enjeu majeur pour la recherche et l’industrie. L’effet est notamment remarquable en génomique sur la vitesse et le coût du déchiffrage du génome humain. Le premier séquençage complet

(Human Genome Project) en 2003 a pris treize ans et coûté 3 milliards de dollars. Une durée réduite à 24 heures lorsque la puissance de calcul a atteint 1 PFlop. Le décryptage ne concernait que deux personnes dans le monde en 2007 contre 5000 aujourd’hui. Le déploiement du pétaflop fait donc de 2010 une année charnière pour la démocratisation du séquençage de l’ADN humain à moins de 10000 dollars. Ce coût a été fixé à 1000 dollars d’ici à 2013 pour une durée inférieure à quinze minutes concernant un million d’individus. Un déchiffrage complet à grande échelle permettra de mieux pronostiquer la prédisposition à des maladies génétiques, réaliser des détections précoces et proposer des traitements ciblés.

L’AvIs du pRésIdent de L’AcAdémIe «Pour un pays, c’est un élément clé de disposer de capacités de calcul de premier plan. On se réjouit donc de la position de la France. Nous avons choisi d’illustrer cet enjeu par le thème du génome mais la simulation numérique haute performance devient incontournable en matière de modélisation dans l’aéronautique, la climatologie ou l’énergie nucléaire.» (1) un million de milliards d’opérations par seconde.

3/ L’IRm le plus puissant (neurospin) En imagerie médicale par résonance magnétique nucléaire (IRM), l’exploration du cerveau devient d’autant plus fine que le champ magnétique est plus fort car la résolution temporelle et spatiale des images obtenues est accrue. Le CEA s’est doté en 2006 d’une plateforme de neuro-imagerie en champ intense, NeuroSpin, unique en Europe, implantée à Saclay. Il doit repousser les limites de la connaissance en relevant les défis technologiques propres à l’IRM que sont l’obtention d’un champ magnétique homogène et stable autour du cerveau, et restant confiné dans la salle d’examen. Le nouvel imageur, mis en place en 2010, est le plus performant au monde. Il est dédié à l’exploration du cerveau de petits mammifères, avec une résolution permettant d’observer les vaisseaux capillaires. L’IRM est

L’usIne nouveLLe i supplément au n° 3219-3220 i 16 décembre 2010

une des méthodes de visualisation in vivo et non traumatique des processus tels que les lésions inflammatoires ou infectieuses, les tumeurs ou anomalies des vaisseaux sanguins dans les tissus mous. Un des défis majeurs du siècle est de mieux comprendre le fonctionnement du cerveau, ainsi et ses anomalies. Il est fortement conditionné au développement d’imageurs de plus en plus puissants.

L’AvIs du pRésIdent de L’AcAdémIe « En matière de connaissance sur les neurosciences, les spécialistes nous affirment que nous n’en sommes qu’à la lettre A de l’alphabet. Il y a donc un champ immense de découvertes à venir. Avec cet équipement et la qualité de ses chercheurs, la France dispose d’atout essentiel pour l’avenir. Tant mieux !» ❚❚ 15


prospective l’année technologique

Stratégie

Les technos clés pour 2015 Retardée par le remaniement ministériel, la publication du rapport « Technologies clés 2015 » est imminente. « L’Usine Nouvelle » livre en avant-première plus de 80 items retenus. Par Aurélie Barbaux et Pierre-Olivier Rouaud

ous les cinq ans, depuis 1995, les services du ministère de l’Industrie (DGCIS) se plient à l’exercice : identifier, lister et présenter, dans leur contexte, les technologies diffusantes et stratégiques pour l’industrie française pour les cinq ans à venir. Repensé, le rapport « Technologies clés 2015 » (TC2015) se veut un document de référence pour tous les décideurs publics (État, collectivités locales, Oséo, ANR, Ademe…) ou privés, qui doivent investir dans de nouvelles technologies, que ce soit pour financer des programmes de recherche et développement ou pour orienter leur programme d’innovation. Lancé début 2010, le travail de sélection des 85 technologies clés a été mené par quatre cabinets de conseil : Alcimed, PAC, l’Idate et Erdyn Consultant, qui a également réalisé la synthèse des travaux. Un comité de pilotage, présidé par Denis Ranque, président de Technicolor et de l’ANRT (Association nationale recherche technologie), a validé la méthode et la cohérence du document final. Première cette année, pour chacun des sept secteurs retenus (chimie-matériaux-procédés, TIC, environnement, énergie, transports, bâtiment et sciences de la vie), les technologies clés sont positionnées sur un graphe en fonction de leur poids estimé sur le marché (grosseur du point), de la position de la France et de la maturité de la technologie sur une échelle de 0 à 10 ans. Pour chacune des technologies, le rapport propose en plus d’évaluer leur impact par rapport aux grands enjeux. Pour l’éco-conception, par exemple, il faudrait évaluer les projets aussi en fonction de leur impact sur la prévention des pollutions et la préservation/gestion des ressources naturelles. Ensuite, sont déterminés les applications possibles, les principaux acteurs, une analyse AFOM (atout, faiblesse, opportunité et menaces) et les recommandations des experts. Et, promis, à partir de 2011, Bercy assurera un suivi. L’exercice doit aussi servir de grille de lecture pour les choix du grand emprunt. ❚❚ 16

D.R.

T

La société Soitec produit un matériau de pointe, le turbo silicium. Il entre dans la composition de puces électroniques.

Chimie – Matériaux – Procédés (12) Position de la France

Leader/ Co-leader 1 Dans le peloton

6

11

5 12

7 2

3 10

4

8

En retard 9

Court terme [0 - 3 ans]

Moyen terme [3 - 5 ans]

Maturité de la technologie Long terme [5 - 10 ans]


gie

prospective l’année technologique

Interview

Thierry Boulley

« Non aux mirages technologiques » Michel Godet, titulaire de la chaire de prospective stratégique au Cnam.

les technologies clés 1 Nanotechnologies 2 Simulation moléculaire 3 Biotechnologies blanches 4 Microstructuration 5 Catalyse 6 Traitement de surface 7 Matériaux fonctionnels, intelligents et de performance 8 Capteurs 9 Procédés membranaires 10 Fabrication rapide 11 Élaboration de composites / Assemblage multimatériaux 12 Contrôle non destructif

Dans les domaines très diffusants de la chimie et des matériaux, la France ne brille ni par son avance, ni par son retard. En chimie, la masse critique fait défaut : notre pays souffre de l’absence de leaders mondiaux comme l’Allemagne ou les États-Unis capables d’impulser des travaux de recherches lourds. La situation est plus favorable dans le domaine des matériaux, avec un bon positionnement notamment pour les composites ou les nanomatériaux. La connaissance accumulée en sciences du vivant devrait permettre à la France de jouer sa carte sur les biotechnologies blanches (agroalimentaire, environnement…) et la chimie du végétal. D’une manière générale, la part relative de notre pays dans la production scientifique mondiale sur l’ensemble de ces sujets décroît. De plus, il n’y a pas assez de transfert entre le monde académique et les entreprises. ❚❚

l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

Quel est l’intérêt de la prospective technologique ? Elle n’est pas inutile, mais c’est un travers récurrent de croire que les problèmes de nos sociétés peuvent être résolus par la technologie. On surestime le changement technique et on sous-estime le facteur humain. L’innovation n’est pas que technologique, 80 % est de nature sociale, organisationnelle, marketing ou financière. Pourtant l’Europe se fixe un objectif de 3 % du PIB voué à la R & D ? C’est le résultat d’un sommet à Lisbonne qui avait été un échec. La mesure de la dépense n’est pas gage d’efficacité. L’Europe au lieu de s’interroger sur son suicide démographique se sert de la technologie pour faire rêver. Ce qui d’ailleurs ne marche pas toujours car il y a un recul de scientisme et une montée des peurs (OGM…). Je ne nie pas l’importance des technologies pour le développement d’une société, mais ça n’a pas de sens sans virage social ou organisationnel. Il n’y a pas de réponse technologique à une question d’une autre nature. Oui à la société de la connaissance, non aux mirages technologiques ! Et les entreprises ? Les firmes les plus innovantes et les plus rentables sont celles qui dans leur secteur ne consentent qu’un effort moyen de R & D. Elles sont si efficaces qu’elles produisent plus de valeur avec moins de dépenses. Quand vous publiez, vous donnez des idées aux autres. Dans certains cas, mieux vaut ne pas déposer ou brouiller les pistes avec des brevets bidons. L’important c’est d’innover pour répondre à un besoin solvable. Mieux vaut avoir quelques chercheurs réputés, à l’écoute des avancées, capable de repérer les idées et de les mettre en œuvre avec le marketing. Dans l’iPhone, il n’y a aucune technologie née chez Apple, il est fabriqué à 90 % en Chine mais 60 % de la valeur revient aux États-Unis. On garde l’image du chercheur dans son laboratoire, du grand groupe, bref le modèle gaullien. Il eut son heure de gloire mais cela conduit à des échecs tels le Leclerc ou le Rafale. Notre recherche reste trop publique et centrée sur l’espace, le nucléaire ou le militaire.❚❚ Propos recueillis par P.-O. R. Voir l’interview complète sur www.usinenouvelle.com 17


prospective l’année technologique

Environnement (12)

les technologies clés Position de la France

Leader/ Co-leader

Dans le peloton

7

4

8

5

3 6

12

1

10

9

11

2 En retard

Maturité de la technologie Court terme [0 - 3 ans]

Moyen terme [3 - 5 ans]

Long terme [5 - 10 ans]

1

Captation maîtrisée et traitement des sédiments pollués

2

Exploration, extraction et traitements des ressources minérales

3

Acquisition de données

4

Dessalement à faible charge énergétique

5

Traitement des polluants émergents de l'eau

6

Traitement de l’air

7

Dépollution in situ des sols / sites pollués

8

Gestion des ressources en eau

9

Recyclage des matériaux rares et leur valorisation

10 Tri automatique des déchets

Le Grenelle l’a presque fait oublier mais la protection de l’environnement ce sont, avant tout, les technologies liées à la gestion de l’eau des déchets et de l’air. Des domaines dans lesquelles la France jouit d’une position clé au plan mondial grâce à ses deux champions Veolia et Suez. Attention toutefois à ne pas se reposer sur nos lauriers. L’étude, par exemple, met en exergue une grosse opportunité dans la métrologie environnementale, un domaine dans lequel notre pays dispose d’un réel savoir-faire, mais de peu d’acteurs significatifs. Le recyclage à coût maîtrisé est aussi un gros enjeu à venir. ❚❚

11 Valorisation des déchets organiques 12 Éco-conception

Sciences de la vie (10)

les technologies clés Position de la France 2

Leader/ Co-leader 6

3

7

Dans le peloton

1 8

5

1

Ingénierie cellulaire et tissulaire

2

Ingénierie génomique

3

Ingénierie du système immunitaire

4

Biologie de synthèse

5

Systèmes bio-embarqués

6

Maîtrise des écosystèmes microbiens

7

Capteurs pour le suivi en temps réel

8

Diagnostic rapide

9

Imagerie du vivant

10 En retard

9

Court terme [0 - 3 ans]

Moyen terme [3 - 5 ans]

Long terme [5 - 10 ans]

4

Maturité de la technologie

10 Technologies douces d'assainissement

Grâce à l’excellence de sa recherche publique, sa force motrice dans la normalisation et quelques industriels leaders, la France a une carte à jouer dans les biomarqueurs, la télésanté, la valorisation des ressources naturelles et le développement de nouveaux ingrédients et méthodes de production. Ses décideurs devraient favoriser l’interdisciplinarité entre biologie et science de l’ingénieur, soutenir les recherches en sciences humaines et sociales sur les questions d’éthique et d’acceptabilité. ❚❚ 18


prospective l’année technologique

T I C (16)

Position de la France

Leader/ Co-leader

5

11

14

2 3

7

Dans le peloton

9

13

protégez vos installations photovoltaïques jusqu‘à 1000v DC

8

4

16

1

6

10

parafouDres 100% Conformes

15

En retard

12

Court terme [0 - 3 ans]

Maturité de la technologie

Moyen terme [3 - 5 ans]

ute C 61 740-51

Long terme [5 - 10 ans]

les technologies clés 1

Robotique

2

Réseaux sans fil

3

Réseaux haut débit optiques

4

Objets communicants

5

Technologies 3D

6

Interfaces homme-machine

7

Ingénierie de systèmes complexes et système de systèmes

8

Calcul intensif

9

Progressive/Intelligent Manufacturing

10 Microsystèmes 11 Numérisation de contenus 12 Sécurité holistique 13 Virtualisation & informatique en nuages 14 Logiciel embarqué et processeurs associés 15 Valorisation et intelligence des données 16 Portail, collaboration & communications unifiées

Désespérément distancée dans le domaine de l’électronique grand public, la France préserve péniblement une position de leader européen dans le domaine des composants. Elle partage certes un leadership mondial pour les systèmes embarqués, rayonne mondialement dans la 3D et recèle toujours une école de mathématique d’exception. Mais ces atouts seront peut-être insuffisants pour dominer la tendance des composants vers toujours plus de puissance et de miniaturisation et pour accompagner la généralisation des objets communicants. Toutefois aucune piste pour rattraper le retard dans la maîtrise des nouvelles technologies logicielles de l’informatique en réseau ou cloud computing ! Dans tous les cas, les politiques publiques ne doivent donc pas baisser la garde, et continuer à soutenir les pôles de compétitivité, les clusters Eurêka et toutes initiatives servant à participer à l’établissement des nouveaux standards. Le levier de la régulation et de la réglementation semble encore le plus accessible. Il permettrait aussi d’inciter les PME à faire un pas de plus vers l’informatisation ! ❚❚

l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

ute C 15 712-1 Conformes à la réglementation Adapté pour toutes les installations photovoltaïques, les nouveaux parafoudres DC Weidmüller sont conformes au guide produits UTE C 61 740-51 et au guide applicatif UTE C 15 712-1 des équipements photovoltaiques. Pour tous vos projets du résidentiel à la centrale photovoltaïque, contactez nos experts sur mail@ weidmuller.fr. w w w. w e i d m u l l e r. f r

19


prospective l’année technologique

Transports (12)

les technologies clés

Position de la France

Leader/ Co-leader 8

1

7

11

Dans le peloton

10

4

6

9

12

3

5

En retard

Maturité de la technologie

2 Court terme [0 - 3 ans]

Moyen terme [3 - 5 ans]

1

Moteurs à combustion interne

2

Moteurs électriques

3

Nouvelles technologies de turbomachine

4

Interaction homme-machine, ergonomie

5

Optimisation de la chaîne logistique

6

Stockage et gestion à bord de l’énergie électrique

7

Électronique de puissance

8

Mécatronique

9

Communications et données

10 Démarche d’optimisation de l’ingénierie et de la production

Long terme [5 - 10 ans]

Avec ses constructeurs automobile et ferroviaire qui tirent la recherche appliquée, la France reste dans la course. Dans l’automobile, elle demeure en pointe sur la motorisation thermique. Et dans la plupart des technologies liées au véhicule, y compris l’électronique embarquée issue de l’aéronautique-défense. L’étude est, en revanche, trop optimiste quant à notre rang sur la mécatronique dominée par l’Europe du Nord. Demain, la France aura-t-elle la capacité à développer, à coût acceptable, les technologies des véhicules hybrides et électriques ? En matière de batteries, par exemple, où la domination asiatique est écrasante. ❚❚

11 Matériaux et technologie d’assemblage pour l’allégement 12 Outils et méthode de conception et de validation

Bâtiment (6)

les technologies clés Position de la France

Leader/ Co-leader 4 1

Dans le peloton 5

2

6

1

Systèmes d’enveloppe du bâtiment

2

Systèmes constructifs

3

Matériaux biosourcés, composites et recyclés

4

Maquette numérique

5

Smart metering

6

Technologies d'intégration et de mutualisation des EnR dans le bâtiment

En retard 3

Court terme [0 - 3 ans]

Moyen terme [3 - 5 ans]

Long terme [5 - 10 ans]

Maturité de la technologie

Malgré ses leaders mondiaux, le bâtiment français est en retard sur les préconstruits, les bio-ressources, la formation de ses artisans et souffre de lourdeurs récurrentes dans ses processus de qualification des solutions innovantes. L’urgence est donc moins technologique que politique. Les décideurs doivent organiser et mettre en place les structures de R & D, de normalisation, de formation et d’information des publics, pour favoriser l’adoption des nouvelles technologies. ❚❚ 20


prospective l’année technologique

Énergie (17)

Position de la France

Leader/ Co-leader

5

10 12 13

Dans le peloton

6

8

16

11

17 14

1

15

3

En retard 9 Court terme [0 - 3 ans]

4

2

Moyen terme [3 - 5 ans]

Long terme [5 - 10 ans]

Maturité de la technologie

les technologies clés 1

Carburants de synthèse (biomasse)

2

Solaire thermodynamique

3

Énergies marines

4

Piles à combustible

5

Technologies de l’hydrogène

6

Captage, stockage et valorisation du CO2

7

Énergie nucléaire *

8

Solaire photovoltaïque

9

Énergie éolienne en mer

10 Géothermie 11 Stockage stationnaire d’électricité 12 Réseaux électriques intelligents 13 Technologies d’exploration et de production d'hydrocarbures 14 Technologies de raffinage des hydrocarbures 15 Carburants de synthèse (ressources fossiles) 16 Réseaux de chaleur et de froid 17 Biomasse et déchets : valorisation énergétique * Placement non renseigné.

Les questions énergétiques demeurent de manière générale un domaine d’excellence pour la France. Le mouvement de relance du nucléaire depuis 5 ans, est notamment une opportunité compte tenu du savoir faire accumulé en matière de recherche académique et de technologies avec des acteurs comme le CEA, EdF ou Areva. Un patrimoine à cultiver. En matière pétrolière et surtout parapétrolière, notre pays sans se distinguer réellement, reste dans la course, ce qui est déjà en soi un succès qu’il faudra préserver compte tenu de la complexification croissante des technologies d’exploration (offshore profond...). En tirant aussi partie des déclinaisons possibles dans le captage et stockage du CO2. En matière électrique, notre pays compte parmi les leaders mondiaux des réseaux intelligents. La situation est plus nuancée, bien sûr, dans le domaine des énergies alternatives. Dans l’éolien, le photovoltaïque ou le solaire à concentration, la France est distancée. Du fait de nos ressources agricoles et de nos savoir-faire, nous gardons néanmoins un bon positionnement sur les biocarburants à confirmer avec la génération 2. ❚❚

l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

21


énergie

l’année technologique

Offshore

quand les éoliennes ont le pied marin Les éoliennes terrestres ne sont pas conçues pour la pleine mer. Pour améliorer leur fiabilité, faciliter leur maintenance et augmenter leur puissance, les technologies existantes sont adaptées aux contraintes de l’offshore, tandis que des designs innovants sont en cours de test. Par ludovic duPin

rop cher, l’éolien offshore? Aujourd’hui, l’installation d’un mégawatt «maritime » revient à 3,5 millions d’euros en moyenne. Et certains projets complexes atteindront 5 ou 6 millions d’euros. « Alors qu’habituellement les prix baissent avec le temps, le coût du mégawatt offshore installé croît sans cesse», rapporte Charles Madja, directeur adjoint de Nenuphar, qui développe un concept d’éolienne flottante. La raison est connue : les exploitants s’efforcent de placer en mer des éoliennes conçues pour la terre. Pour rendre l’offshore compétitif, il faut concevoir des machines faites pour cela, assure-t-on chez le danois Vestas. Et vite, car les 3 GW offshore installés aujourd’hui en Europe doivent être multipliés entre 20 et 50 fois d’ici à 2030. Ce coût est d’abord lié à l’installation. «Les fabricants de turbines n’autorisent pas que l’on modifie les procédures de manipulation de leurs produits: les éoliennes sont installées en mer comme sur terre. Alors que dans le monde pétrolier, tout est fait pour diminuer le très coûteux temps passé en mer», estime un ensemblier. Mais le plus cher reste la maintenance. Par gros temps, l’accès peut s’avérer impossible sur de longues périodes. La conception des machines doit être revue, afin d’améliorer la fiabilité et de faciliter les révisions. Les fabricants de turbines s’activent sur un choix technologique: l’entraînement direct. Ils estiment en effet que l’absence de multiplicateurs sur la chaîne d’entraînement améliore la fiabilité. Multibrid, filiale d’Areva, l’avait pressenti dès 2001: la M5000, une puissante nacelle de 5 MW, première 22

D.R.

T

À l’image du projet Nova (ci-dessus), l’université danoise DTU, à la tête d’un consortium, vient de lancer le projet d’éolienne flottante à axe vertical DeepWind.

machine conçue pour l’offshore, était hybride et s’affranchissait de boîte de vitesses. Siemens mise à fond sur cette technologie. «Ces produits sont plus légers, donc plus faciles à installer, et nécessitent moins de maintenance. Nous avons présenté un prototype de 3 MW en avril, avec deux fois moins de composants. Sa production à grande échelle démarrera en 2011. Nous préparons aussi une machine de 6 MW», expose Jens-Peter Saul, le PDG de Siemens Wind Power. Alstom, qui prépare une machine de 6 MW pour 2014, a aussi choisi cette voie. Mais prévoit des effets collatéraux: «Qui dit entraînement direct, dit générateur de grandes dimensions. Il faut s’appuyer sur des technologies nouvelles, moteurs à aimant permanent ou matériaux supraconducteurs, pour diminuer la masse», note Philippe Cochet, président d’Alstom Hydro. Car


énergie

l’année technologique

nova réinvente l’éolienne pour plus de puissance

le défi à relever Des éoliennes plus puissantes permettraient d’installer moins de machines. les éoliennes à axe vertical, adaptées à l’offshore, sont encore de faible puissance. la solution proposée soutenu par le gouvernement britannique, le consortium nova (novel offshore vertical axis) vise à créer une éolienne à axe vertical de 5 mW. les deux « ailes » de 120 m présentent un minimum de contraintes mécaniques et l’accès aux équipements est simplifié. pour 20 millions de livres sterling, nova doit déployer 200 machines en 2020.

tiwind, un modèle vertical conçu par le français Nenuphar associé à Technip et EDF énergies nouvelles, va jusqu’à se dispenser de l’utilisation d’un frein hydraulique, préférant opter pour un système de frein électrique. Le design vertical permet de concentrer les pièces lourdes, en particulier le générateur, à la base de la machine, et donc d’en faciliter l’accès. Les grands industriels, tout en reconnaissant les qualités de l’axe vertical, ne s’engagent pas dans cette voie. Pour Jérôme Gosset, directeur ingénierie et énergies renouvelables chez Areva, «d’un point de vue scientifique, l’éolienne tripale n’est pas forcément la meilleure technologie, mais elle a bénéficié d’investissements très importants sur le plan industriel».

Un énorme potentiel en Méditerranée

plus la masse augmente, plus le risque que l’éolienne entre en résonance avec la fréquence de la houle est important. Des opérations de maintenance resteront indispensables. Reste à minimiser leur fréquence et à les faciliter. En ce sens, de nombreuses start-up travaillent sur des éoliennes à axe vertical. L’intérêt est de diminuer le nombre de pièces mobiles. Ainsi, la direction du vent n’importe pas, alors qu’une éolienne classique doit aligner la nacelle sur la brise. Ver-

les machines flottantes pourront être ancrées à plusieurs centaines de mètres de profondeur. l’UsiNe NOUvelle i supplément au n° 3219-3220 i 16 DécembRe 2010

L’éolien offshore devra bientôt affronter un nouvel obstacle: la raréfaction des sites. Les machines, actuellement, reposent jusqu’à 30, voire 50 mètres de fond. Au-delà, les fondations sont trop onéreuses. « Avec l’éolien flottant, nous aurons accès à un domaine plus vaste», prédit Laurent Le Dévéhat, directeur adjoint de l’incubateur de DCNS. « Il existe un énorme potentiel en Méditerranée pour l’éolien flottant », estime Stéphane His, responsable énergies renouvelables chez Technip. Ces machines pourront être ancrées à plusieurs centaines de mètres de profondeur. Le montage pourrait être simplifié en les construisant près des côtes, pour les tracter ensuite en mer. Hywind, l’éolienne flottante développée par le norvégien Statoil avec Siemens a ainsi été construite dans un fjord puis remorquée à 10 kilomètres des côtes. Avec 100 mètres de tirant d’eau, c’est un exploit. Des années de travail seront nécessaires avant que ces designs arrivent à maturité. En attendant, l’Europe du Nord va continuer à faire appel aux éoliennes horizontales posées. Un débat existe autour de leur puissance optimale. L’allemand Repower, le norvégien Sway ou le britannique Clipper Wind envisagent des turbines de 10 MW. GE ou Siemens développent des machines de 4 MW, voire moins. Chez Alstom, 6 MW semblent être un bon compromis. «La course à la puissance n’est pas forcément souhaitable. Des nacelles de grande dimension entraînent des contraintes de fabrication et de transport», analyse Stéphane His. Ce qui est sûr, vue la croissance attendue des parcs offshore, c’est que de nouvelles techniques de transport et d’installation restent à inventer. ❚❚ 23


énergie

l’année technologique

Biomasse

Les BiocarBurants 2.0 passent au stade piLote Utilisant les parties non énergétiques des plantes, les carburants agricoles de deuxième génération n’entrent plus en concurrence avec l’alimentation. Ils ont fait leurs preuves en laboratoire, mais des défis se posent pour le passage au prototypage industriel qui démarre. Par ludovic duPin

ur le papier, au moins, les nouveaux biocarburants sont prêts. Cette deuxième génération de bioéthanol et de biodiesel est fondée sur la filière ligno-cellulosique, qui consiste à utiliser les parties non comestibles des plantes (tige, feuilles…), afin de ne pas entrer en compétition avec l’alimentation. Mais passer d’un procédé validé sur une paillasse à la production en masse peut demander dix à quinze ans de développement. Des verrous restent à débloquer et cela prend du temps ! Pour cela, il faut passer par des

prototypes industriels. Et ils sont nombreux. L’un des plus avancés est celui de Choren, en Allemagne, détenu en partie par Volkswagen et Daimler. Ce démonstrateur, en cours de construction, devrait être capable de traiter 200 000 tonnes de matière par an, pour fabriquer du biodiesel. Loin de là, le japonais Bio Ethanol Japan Kansai a ouvert une petite unité pilote à Sakai, près d’Osaka, qui peut traiter 1000 tonnes par an de biomasse. Aux états-Unis, l’état fédéral a investi 590 millions de dollars dans plusieurs projets. La France,

s

Deux voies à inDustrialiser Voie Biochimique la cellulose est extraite des débris végétaux, puis transformée en glucose par des enzymes. une fermentation, sous l’action de levures ou de bactéries permet d’obtenir de l’éthanol.

Biomasse

Valoriser les sous-produits. La cellulose (50 % de la biomasse) est aujourd’hui le seul composant utilisé par la voie biochimique. Des unités pilotes cherchent à transformer l’hémicellulose (30 %) en éthanol et à utiliser la lignine (20 %) comme source d’énergie.

Lignine Hemicellulose

des bactéries plus résistantes. Les recherches visent à remplacer les levures assurant la fermentation par des bactéries présentant de fortes capacités de résistance à la chaleur et à la pression.

Enzymes

CH 2 OH

Vapeur

C

CH 2OH O O

H

C

C

C OH C C Débris végétaux Cellulose

Prétraitement

Levures/Bactérie C

O H

OH C

C OH

Glucose Réaction enzymatique

24

Débris végétaux Préconditionnement accroître la densité énergétique de la biomasse. Si la technique la plus employée, la pyrolyse, donne un liquide, les recherches s’orientent vers la torréfaction (représentée ici), qui élimine l’eau et produit une poudre.

H

C

C

H

H

OH

Ethanol Fermentation

CO + H

Voie thermochimique la biomasse est d’abord « concentrée », puis soumise à une gazéification à haute température. le monoxyde de carbone et l’hydrogène obtenus sont ensuite transformés en biodiesel par le procédé Fischer-Tropsch.

H H

C

Gaz

Biodiesel optimiser la gazéification. Cette étape génère à peu près Gazéification autant de monoxyde de carbone que d’hydrogène. Or, pour produire du biodiesel, il faut plus d’hydrogène que de carbone. L’ajout d’hydrogène extérieur est à l’étude pour améliorer le rendement.

Procédé FischerTropsch


énergie

l’année technologique

L’aéronautique s’intéresse de près au biokérosène

Quant à la première génération, elle reste en pleine croissance malgré cet inconvénient. « Pour atteindre 10 % de biocarburants dans l’Union européenne en 2020, il faudra peut-être 6 points de génération 1 et 4 points de génération 2», prédit Pierre Porot. « En attendant une autre solution, la première génération conservera sa place pendant encore un moment », rappelle Philippe Marchand. C’est L’usine nouVeLLe i SuppLément au n° 3219-3220 i 16 DéCembre 2010

Les micro-algues, véritable solution pour 2040 ?

berti hanna / rea

enfin, s’est engagée dans les deux grandes filières de développement (lire ci-contre) : biochimique et thermochimique. La voie biochimique produit du bioéthanol, qui peut être introduit jusqu’à 10 % dans l’essence. Elle est portée dans notre pays par le projet Futurol, qui réunit une dizaine d’acteurs comme l’Inra, l’Office national des forêts, l’Institut français du pétrole (IFP), Tereos et Total, et bénéficie d’un budget de 74 millions d’euros. Un prototype doit entrer en activité en 2015. Au programme : le choix de la biomasse (aujourd’hui de la paille et des débris forestiers) la mieux adaptée et la valorisation de la lignine et de l’hémicellulose, qui représentent environ 50 % de la biomasse. La lignine pourrait être brûlée pour alimenter en énergie les procédés et l’hémicellulose transformée en éthanol. De son côté, la voie thermochimique a donné naissance au projet BioTFuel (112 millions d’euros), destiné à la production de biodiesel et de biokérosène. De nombreux partenaires y participent, comme l’IFP, Total, le CEA... Ce dernier participant a, par ailleurs, officialisé fin 2009 le lancement de son prototype de Bure-Saudron, en Lorraine. Dès 2014, il devrait produire 23 000 tonnes d’hydrocarbures par an à partir de 75000 tonnes de biomasse. « Les différentes briques technologiques du projet de Bure existent. Le but est de démontrer leur efficacité ensemble, à une échelle pertinente », explique Thierry Pussieux, le chef de l’accompagnement économique de Bure-Saudron au CEA. Ce démonstrateur aura pour originalité d’injecter de l’hydrogène dans le procédé industriel après l’étape de gazéification, afin d’optimiser la synthèse de biodiesel. En effet, la voie thermochimique produit trop de carbone et pas assez d’hydrogène pour obtenir un rendement optimal. L’objectif de ces démonstrateurs est de créer une filière compétitive avec les carburants traditionnels, c’est-à-dire dont le coût de revient est inférieur à 2 euros par litre. Il faut donc optimiser le rendement. Les divers projets visent des rendements de 20 à 30 % sur l’intégralité de la filière. Les difficultés se concentrent en amont. « Le principe même de la deuxième génération, qui demande d’utiliser la partie non structurelle de la plante, exige de densifier la ressource en énergie. C’est un véritable défi», affirme Philippe Marchand, le directeur biocarburant réglementation chez Total. «Aujourd’hui, nous allons alimenter les procédés industriels avec des pailles et des déchets agricoles, mais nous pouvons déjà imaginer des cultures dédiées avec des teneurs élevées en cellulose», souligne Pierre Porot, le responsable du programme biomasse vers biocarburant à l’IFP énergies nouvelles. Reste que la multiplication de ces cultures risquerait de faire ressurgir la compétition pour les terres fertiles et donc, indirectement, les tensions avec les filières alimentaires.

en matière de biocarburants, l’avenir serait aux micro-algues. C’est en tout cas le pari d’un grand pétrolier comme exxonmobil, qui a investi 600 millions d’euros dans un programme de recherche avec Synthetic Genomics. Ces micro-

organismes devraient permettre de voir émerger la troisième génération de biocarburants (un nom impropre, puisqu’ils ouvriront une voie de production originale). Le principe ? Soumettre des micro-algues à un stress pour les pousser à stocker des lipides, jusqu’à 70 % de leur masse. Ces lipides sont ensuite transformés en biodiesel. Cette filière présente trois intérêts. tout d’abord, elle n’entre pas en compétition avec l’alimentation. ensuite, elle ne requiert pas de terres, puisque la production se ferait en bioréacteur. enfin, ces micro-algues consomment du CO2 et pourraient donc « manger » les émissions industrielles. « pour conquérir le marché de l’énergie, il faudra travailler sur le coût des procédés et sur la sélection des souches », explique Gilles peltier, le directeur du laboratoire de bioénergétique et biotechnologie des bactéries et micro-algues au Cea.

pourquoi des recherches se poursuivent pour améliorer les procédés existants et créer une « génération 1,5 ». Par exemple, la société Deinove, associée à Tereos, veut remplacer les levures utilisées dans la fermentation par la bactérie extrêmophile Deinococcus radiodurans. Sa forte résistante aux pH extrêmes, aux solvants et aux hautes températures accroîtrait les rendements. Un essai en usine pourrait avoir lieu en 2014. Les biocarburants pourront-ils un jour se substituer complètement aux dérivés du pétrole? «Nous ne pourrons jamais produire autant de biocarburants que ce que l’on consomme aujourd’hui », juge un expert français. Mais des secteurs comme l’aéronautique s’y intéressent de près. Bristish Airways a annoncé en février 2010 la construction d’une usine de biocarburants avec Solena. Elle démarrera en 2014, avec un objectif de 73 millions de litres par an. De même, Qatar Airways, Qatar Science et Technology Park, Qatar Petroleum et Airbus ont développé un centre de recherches, le Qatar advanced biofuel platform. La compagnie émiratie Etihad Airways, Boeing et Honeywell devraient pour leur part créer un institut de recherche sur les biocarburants à Abu Dhabi. Du côté des transports routiers, c’est plutôt les camions qui pourraient en bénéficier. D’autant que, d’ici à ce que les biocarburants se généralisent, la technologie des voitures électriques ou hybrides aura sans doute fait son chemin. ❚❚ 25


énergie

l’année technologique

les gaz non conventionnels arrivent à maturité C’est une rupture technologique qui bouleverse l’économie mondiale du gaz. Interview de Didier Holleaux, le directeur de l’exploration-production chez GDF Suez, qui détaille les défis posés par l’exploitation des gaz non conventionnels.

hervé boutet / « l’usine nouvelle »

ProPoS recueilliS Par luDovic DuPin

DiDier holleaux Directeur de l’explorationproduction chez GDF Suez

26

Que recouvre le terme de « gaz non conventionnels » ? L’appellation désigne trois types d’accumulations de gaz. Tout d’abord, il y a les gaz de réservoir compact («tight gas»). Il s’agit de réservoirs traditionnels, de type grès ou craie, mais très compacts et peu perméables. Ce qui rend le gaz difficile à extraire. Il est alors nécessaire d’utiliser des puits horizontaux pour augmenter la zone de contact par laquelle le gaz peut entrer dans le puits. Il peut même être nécessaire de réaliser des fractures hydrauliques et d’injecter des petites billes très solides qui empêchent la fracture de se refermer. Il existe ensuite le gaz de charbon («coal bed methane»), bien connu sous le nom de grisou. Ce gaz est absorbé par le charbon. Pour l’extraire, le principe consiste à creuser des puits le plus loin possible dans la veine de charbon, perpendiculairement aux fractures, pour que le gaz rejoigne le puits. Enfin, le type de gaz non conventionnel qui fait l’actualité est le gaz de schiste («shale gas»). Au lieu d’être bloqué dans un réservoir, le gaz est piégé dans la roche mère où il s’est formé, c’est-à-dire dans une roche peu perméable. Il faut donc,

là aussi, réaliser des puits horizontaux et fracturer la roche avec de l’eau sous pression. Le «shale gas» est partout dans le monde. Ce qui est nouveau, c’est la possibilité de le produire de manière économique. Aux États-Unis, la recherche a débuté il y a vingt ans. La maturation technique des savoir-faire, combinée à des incitations fiscales, a permis ce développement. Un développement que personne n’a anticipé, excepté de petites sociétés qui en étaient les promoteurs. Elles ont investi dans ce créneau, avec un impact significatif sur la production nationale et mondiale aujourd’hui. Quelles sont les contraintes techniques et environnementales soulevées par ces gaz ? En ce qui concerne le «tight gas» et le «shale gas», les billes doivent se propager avec l’eau lors de la fracturation. On utilise des gélifiants pour les entraîner. Mais ces gélifiants doivent pouvoir se dissoudre pour que l’eau redevienne liquide et s’échappe de la fracture. Cette technologie est maîtrisée par des sociétés de services comme Halliburton ou Schlumberger. Aux États-Unis, des préoccupations environnementales ont surgi concernant l’exploitation du gaz de schiste : certains se demandent si les gélifiants auraient pu polluer des nappes aquifères, à cause de fractures trop importantes. Cela reste à prouver, mais d’une manière générale, les techniques de fracturation nécessitent de grandes quantités d’eau qui doivent être apportées sur place et recyclées. Par ailleurs, il existe un problème spécifique pour le gaz de charbon, car plusieurs milliers de mètres cubes d’eau sont extraits au début de la vie de chaque puits avant de produire les premiers mètres cubes de gaz. Or, cette eau est potentiellement chargée de produits comme le benzène. Il faut donc la traiter. Quelle est l’activité de GDF Suez en matière de gaz non conventionnel ? Notre groupe est présent dans l’exploitation du «tight gas». GDF Suez dispose, dans ses actifs, de réservoirs en Allemagne, en mer du Nord britannique et néerlandaise, et en Algérie. En revanche, nous n’exploitons pas de gaz de charbon : après analyse, nous avons conclu qu’en Europe, cette activité ne représentait pas un potentiel de développement intéressant car les veines sont profondes, et l’accès aux terrains ainsi que les contraintes environnementales sont complexes. En revanche, il existe des capacités en Chine ou en Australie. En matière de « shale gas », nous ne sommes pas présents sur ce secteur actuellement, mais nous sommes attentifs à des opportunités en Europe de l’Ouest. L’explosion des gaz non conventionnels va-t-elle modifier votre métier d’exploration-production ? Pour le « tight gas » et le « shale gas », les techniques de production sont les mêmes: des puits horizontaux multifracturés. GDF Suez a investi dans ces techniques. Cela nous permettra, le moment venu, de répondre aux opportunités du marché. Pour ce qui est de l’exploration, la technologie ne change pas: la sismique et le forage. Mais nous ne recherchons pas les mêmes objets. En réalité, la plupart des bassins de «shale gas» sont déjà connus puisque ces couches géologiques sont très souvent traversées pour atteindre des réservoirs plus profonds. Pour autant, personne n’a confirmé le potentiel économique de tous ces réservoirs à ce stade. ❚❚


énergie

l’année technologique

le point sur...

la concentration solaire Par Ludovic duPin

où en est-on ? Moins visible que le photovoltaïque, le solaire à concentration (ou thermodynamique) a pourtant le vent en poupe sur toute la planète. En 2009, 679 MW sont installés. Mais à l’horizon 2050, le solaire thermodynamique pourrait représenter, selon l’Agence internationale de l’énergie (AIE), 11% de la production mondiale d’électricité. Le principe: des miroirs concentrent les rayons du soleil pour réchauffer un fluide qui se vaporise, entraîne une turbine qui génère de l’électricité. Dans cette technologie, le choix du miroir est primordial. Une forme parabolique est plus efficace mais chère à produire. Les miroirs de Fresnel, quant à eux, sont plans, donc moins coûteux, et doivent suivre la course du soleil. Le rendement dépend aussi wdu fluide de transport de la chaleur. L’eau, souvent utilisée, peut être remplacée par des hydrocarbures (à base de byphényle par exemple), des sels fondus ou même des gaz. ❚❚

l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

vincent beaume / afp

La technologie des centrales solaires thermodynamiques mûrit, et d’immenses projets sont lancés. Le principe de la concentration de la lumière par des miroirs se décline maintenant au photovoltaïque. à la seyne-sur-Mer, dans le var, l’installation de la cnim, inaugurée en juillet, est un pilote qui comprend 720 m2 de miroirs pour une puissance de 0,5 MW.

les développements en cours La technologie étant maîtrisée à petit échelle, la tendance est au gigantisme pour réduire les coûts. Les zones ensoleillées suscitent d’immenses projets. Desertec, porté par Siemens, ABB, Schott, E.on, Saint-Gobain… prévoit d’installer des centrales solaires thermiques en Afrique du Nord (couplées à de l’éolien et du photovoltaïque) pour fournir à l’Europe 15% de son électricité en 2050. à plus court terme, Total, l’espagnol Abengoa Solar et l’émirati Masdar vont construire la plus puissante centrale solaire à concentration au monde à Abu Dhabi. «Chems 1», 100 MW, devrait voir le jour en 2012. Coût prévu: 600 millions de dollars. Autre piste, des centrales couplant turbine à cycle combiné gaz et solaire à concentration. C’est le cas de Kuraymat, en égypte (140 MW dont 20 MW solaire) bientôt en fonction. Un projet mené par Iberdola, Schott, Solar Millenium et Fichtner. En France, un pilote, conçu par la Cnim, a été inauguré à la Seyne-sur-Mer (Var). Le pays a aussi réactivé la première centrale solaire d’EDF, «Thémis», dans les Pyrénées-Orientales). Datant de 1983, sa capacité est de 600 kW. ❚❚

Qui est en pointe ? La plate-forme solaire d’Almeria, dans le sud de l’Espagne, est le plus grand centre de recherche d’Europe sur le solaire à concentration et mène de nombreuses collaborations internationales, notamment avec l’institut allemand d’énergie solaire Fraunhofer ISE. Si de nombreux industriels sont capables de maîtriser le solaire thermique à concentration et ses composants comme Andasol, Schott Solar ou Siemens, une nouvelle technologie émerge. Elle consiste à concentrer les rayons lumineux sur des cellules photovoltaïques pour en améliorer le rendement. Le groupe de micro-électronique français Soitec vise un rendement de 50% et la start-up française lyonnaise Heliotrop veut atteindre 27%. En tout, une vingtaine de sociétés travaillent sur cette technologie dans le monde, dont 2 ou 3 au stade industriel. ❚❚

27


TIC

L’année technoLogique

Objet communicant

L’iPad ouvre L’ère Post-informatique La tablette multimédia d’Apple a trouvé son public. Son pouvoir de séduction s’étend même aux établissements scolaires et aux entreprises qui multiplient les nouveaux usages. Par camille chandès et Patrice desmedt

e 3 avril au matin, quelques minutes après l’ouverture du magasin, les premiers acheteurs américains ressortaient en brandissant fièrement leur trophée : une tablette multimédia tactile signée Apple. Depuis, 7,5 millions d’iPad, se sont vendus en six mois de par le monde. Dix millions d’unités devraient avoir été écoulées avant la fin de l’année. L’objet, séduisant, a trouvé son public. L’interface, point fort génétique d’Apple, est mise en valeur par un écran d’excellente qualité. Est-ce pour autant la révolution annoncée par Steve Jobs, le PDG d’Apple? L’iPad n’est pas, de loin, la première tablette. Cet objet hybride, ni smartphone, ni ordinateur portable, n’avait jusque-là pas trouvé grâce auprès du grand public. En 2002 déjà, Bill Gates avait lancé avec force superlatifs la version de Windows pour tablette PC, signés HP, FujistuSiemens… Steve Jobs a, semble-t-il, trouvé la bonne recette, en faisant pourtant certains choix radicaux, comme de refuser d’ouvrir l’iPad. Une manière de marquer que sa tablette n’est pas le dérivé d’un micro-ordinateur, mais bien un objet différent, post-informatique.

L

Une méthode industrielle rodée sur l’iPod

Si l’iPad embarque tous les composants d’un ordinateur mobile multimédia, il n’en est pas un. Plutôt que de concurrencer les mini PC, l’iPad veut prendre la place de la deuxième télévision dans les foyers, ou devenir la tablette multimédia dans les avions, les trains… En quelques mois, l’iPad est devenu un synonyme de « tablette », en attendant la montée en puissance de ses concurrentes Android. Il offre les meilleurs compromis entre performances, légèreté et autonomie. Si Steve Jobs a tardé à lancer son produit, c’est qu’il estimait les technologies insuffisantes. La généralisation des réseaux Wi-Fi et 3G venant parachever la maturité technique de l’objet lui-même, avec une méthode industrielle rodée sur l’iPod et l’iPhone. Techniquement, l’iPad, est essentiellement un grand iPod Touch (première génération de lecteur multimédia communicant à écran tactile d’Apple). Le système d’exploitation se suffit d’un processeur aux performances modestes mais surtout peu gourmand en énergie. Un processeur estampillé «Apple», car 28

L’écran LCD tactile à technologie In-Plane Switching (IPS), qui assure le meilleur rendu des couleurs et un large angle de vue. Il est fourni par trois fabricants, dont deux principaux, LG Display et Innolux. Avec un prix de 80 dollars, il représente 29 % du coût total des composants. Le boîtier coûte quant à lui 7,50 dollars.

optimisé par sa filiale PA Semi à partir d’un design du britannique ARM, gère au mieux la consommation. La batterie reste légère tout en offrant une bonne autonomie. On retrouve l’accéléromètre, la boussole et le GPS, pour respectivement le basculement automatique de l’écran, le pilotage de jeux ou les applications de géolocalisation. L’écran de 9,7 pouces (24,6 centimètres) avec une résolution de 1 024 sur 768 points utilise la meilleure des technologies LCD disponibles. C’est parfait pour tous les usages... sauf pour la lecture. Le stockage est assuré par de la mémoire flash, plus légère et plus économe en énergie qu’un disque dur classique. Au bout du compte, les choix technologiques d’Apple aboutissent à une machine légère (680 grammes ou 730 grammes avec l’option 3G) et fine (1,34 centimètre). Quant aux impasses techniques – pas de caméra, pas de micro, pas de lecteur de


TIC

L’année technoLogique

La carte mère Le processeur A4 intègre un cœur ARM à technologie Risc (jeu d’instructions réduites), optimisé par PA Semi et fabriqué par Samsung (17 dollars). La mémoire flash de type nAnD, pour le stockage des données, est de Samsung electronics et de Toshiba (59 dollars pour 32 Go). La mémoire vive vient de différents fournisseurs, en premier lieu d’Hynix Semiconductor (11,90 dollars pour 512 Mo).

carte mémoire ni de prise USB, pas de support du format Flash d’Adobe – elles n’ont pas douché l’enthousiasme des acheteurs, qui trouvent de nouvelles applications, bien au-delà du loisir. Les établissements scolaires l’adoptent : 50 tablettes à l’ESC Grenoble, près de 300 dans les collèges des Hauts-de-Seine, 3300 pour les collégiens de 6e et leurs professeurs de Corrèze. Les collectivités locales et les entreprises tentent l’aventure. Spir Communication a équipé les cent commerciaux de LogicImmo; l’éditeur SAP, après un test sur 1000 iPad, a décidé d’en acquérir 17000 à l’horizon d’un an; et le conseil général du Lot-et-Garonne prévoit d’équiper ses élus pour faciliter l’utilisation de l’application de convocation aux conseils et de boîte aux lettres développée par Qualigraf. Pour l’instant, l’iPad forge son succès sans l’aide des opérateurs télécoms, à la différence de ce qui se pratique sur les L’USIne nOUveLLe I supplémenT au n° 3219-3220 I 16 déCembre 2010

La batterie La batterie polymère Ion Lithium de 24,8 Wh (17,50 dollars) pèse 148 grammes. elle offre une autonomie de dix heures et serait produite par le taïwanais Dynapack International. Comme pour l’iPhone, Apple proposera aux clients de l’iPad un forfait à 99 dollars (72 euros) permettant de remplacer la batterie du terminal. sourCe : IsupplI

smartphones. En France, aucun des trois grands opérateurs ne le subventionne et seul Prixtel a franchi le pas, en proposant une offre couplée. Car les deux services les plus lucratifs pour les opérateurs (voix et SMS) sont absents de l’iPad. Ceux-ci jugent le modèle économique défavorable. Ils craignent que l’iPad avec ses nombreuses applications vidéo ne vienne saturer davantage leurs réseaux. Car si les opérateurs profitent de l’explosion du trafic des données en termes de revenus (3,1 milliards d’euros en 2008 en France, en hausse de 27 %), la croissance des besoins de capacité implique qu’ils doivent dépenser toujours plus pour adapter leurs infrastructures. Selon eux, le partage de valeur n’est pas au rendez-vous. Alors qu’Apple conserve 30 % des recettes par application payante téléchargée sur iPhone pour en reverser 70 % aux développeurs, les opérateurs ne touchent pas un centime. ❚❚

reuTers/molly rIley

Les éléments de connexion La connexion 3G est fournie par Infineon (24,50 dollars). Les connexions sans fil (Wi-Fi, Bluetooth, FM) sont fournies par Broadcom, intégrées au sein d’un module réalisé par Murata ou par Texas Instruments. Le GPS serait fabriqué par Infineon (2,60 dollars). L’accéléromètre, la boussole, les codex audio n’ont pas de sources définies (10,20 dollars).

29


TIC l’année technologique

un réseau à quatre dimensions

Les objets

100 milliards de puces et de capteurs interconnectés Domotique, route intelligente, efficacité énergétique… Internet supportera les échanges entre des équipements désormais capables de s’autoréguler.

Les services

100 % des systèmes d’information en nuage (“cloud”) Toute la puissance de calcul disponible dans le monde sera optimisée et utilisée à la demande, en temps réel et en toute sécurité.

illustration stéphane kiehl

Les contenus

80 % des médias en numérique L’échange d’information deviendra omniprésent, multimédia et surtout totalement interactif en temps réel.

Réseau

Construire l’internet de demain Robuste mais peu fiable, ouvert mais non sécurisé, internet n’a pas été pensé pour devenir l’infrastructure de réseau universelle de la société. Partout, les idées fusent pour préparer l’internet de demain. D’ici là, il faut préserver l’existant. Par Aurélie Barbaux

30

Les individus

3 milliards d’humains connectés en mobilité Contrôle des données personnelles, liberté d’expression, éthique, confiance… L’internet de demain replacera l’individu au cœur de la technologie.

e ciel ne va pas nous tomber sur la tête, mais il pourrait être plus haut. » C’est ainsi que le comité de pilotage du programme européen Fire (Future internet research & experimentation) résume la situation d’internet. Pas de risque, donc, qu’il s’effondre. Il est conçu pour résister. En revanche, ses qualités (simplicité des mécanismes d’adressage, absence d’administration et facilité d’interconnexion sans aucune autorisation préalable) sont aussi ses défauts. Qui pourraient s’avérer rédhibitoires lorsque, demain, des dizaines de milliards d’objets communicants seront connectés et quand tous les rouages de la société (économie, santé, école, sécurité, ville, transport, énergie…) s’appuieront sur le réseau : « Le vrai risque, alors, n’est pas qu’internet s’effondre mais qu’il se dégrade », prévient Pascale Vicat-Blanc Primet, la directrice de recherche à l’Inria et responsable de l’équipe-projet Reso qui travaille sur l’optimisation des applications informatiques distribuées. Pourtant, jusqu’ici, internet a bien réussi à s’adapter. « Depuis sa création, le réseau a toujours réussi à dépasser ses limitations », observe Dominique Morvan, le PDG

L


TIC l’année technologique

d’Internet FR, une société d’hébergement de serveurs. De là à penser que l’on peut continuer comme ça… Car le réseau n’a pas été conçu pour servir d’infrastructure universelle, mais pour le transfert de fichiers. Il n’a pas la notion du temps et perd régulièrement des paquets de données. Ouvert par principe à tous les développements, il n’est pas sécurisé. Enfin, « internet repose sur un principe de “best effort” (fonctionnement “au mieux”) », rappelle Christophe Diot, le directeur scientifique de Technicolor. Ce qui signifie qu’il est incapable de garantir une qualité de service. « Si le contrôle aérien passait par internet, nul ne pourrait voler », souligne Nick McKeown, professeur à l’université de Stanford (Californie), qui dirige le programme américain « Clean slate design for the internet ». Un projet qui prône une refondation du réseau à partir d’une feuille blanche.

L’amélioration progressive a atteint ses limites L’approche incrémentale utilisée jusqu’ici pour améliorer les fonctionnalités du réseau semble en effet avoir atteint ses limites. « Mais comment changer les fondations lorsque le bâtiment est occupé ? », s’interroge Pascale Vicat-Blanc Primet. La plupart des équipes de recherche préfèrent donc une autre voie, dite des « overlays ». « L’idée est que le réseau physique soit capable d’héberger plusieurs architectures virtuelles

vertigineuse progression 2010

2020

2014

2 milliards 2,8 milliards 100 milliards d’internautes dans le monde

de mobilenautes (internautes mobiles) dans le monde

d’objets connectés 80 % des médias (TV, radio, presse), seront numériques

Source : « L’usine nOUvelle »

adaptées aux différents types de besoins », explique Serge Fdida, le directeur de l’équipe recherche en réseau du Laboratoire d’informatique mixte de l’université Paris 6 et du CNRS (LIP6). Si bien que l’on parle de plus en plus de décliner le réseau en un internet des contenus, un internet des objets, un internet des services et même un internet des sujets… (voir le schéma page 19). La difficulté sera de les faire cohabiter et de s’assurer que l’ensemble fonctionne à l’échelle mondiale. Capteurs, étiquettes RFID, terminaux divers… Le réseau saura-t-il s’accommoder des milliards d’objets qui vont devenir communicants ? « L’avènement de l’internet des objets ne

PERTES

Sécurité - Productivité - Qualité CONTRIBUER À VOTRE EXCELLENCE AUTONOME Nos formations et notre suivi vous apportent la maitrise et l’autonomie dans l’exploitation des outils d’amélioration, pour la pérennité des résultats obtenus. Ces formations terrain, indépendantes mais complémentaires, sont réalisées sur vos sites, sur des problèmes résolus par vos collaborateurs collaborateurs, et s’intègrent dans votre budget de formation. formation La sécurité comme outil de management, c’est la philosophie de nos formations sur :

 Le management de la sécurité : comment prendre

conscience des enjeux enjeux, causes d’un d un accident et des outils à mettre en place pour ne plus en avoir.

 Le document unique : comment à travers une évaluation des risques professionnels, bâtir ce document et les actions pour éradiquer ces risques.

 La sensibilisation à la sécurité : comment faire prendre conscience aux opérateurs de l’impact de leurs actes dans l’occurrence d’un accident.

 La consignation : comment protéger les opérateurs et le

personnel de maintenance lors des opérations quotidiennes.

« C’est en faisant que l’on apprend », c’est l’essence même de nos formations terrain sur :

 L’analyse des pertes, pour en identifier les principales et bâtir un plan d d’éradication éradication.

 L’Amélioration Ciblée (AC) pour éradiquer les pertes complexes chroniques.

 La Maintenance Autonome (MA) à savoir : l’implication du personnel pour le maintien des conditions de base des équipements.

 La Maintenance Professionnelle (MP) pour passer d’une d une maintenance curative à une maintenance préventive et proactive, supprimant pannes et arrêts.

 Le Contrôle Total de la Qualité de Production (CTQP)

pour répondre au juste besoin du client et réduire les coûts RC : Revue de Conception - VSM : Value Stream Mapping qualité et production. 5P : 5 Pourquoi - SMED : Changement rapide d’outils

SARL IXO Consultants – 25 Rue A.BRIAND 16100 COGNAC – 06‐18‐79‐53‐65 – contact@ixoconsultants.fr – www.ixoconsultants.fr

l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

31


TIC l’année technologique

2 - La fédération

Pour déployer des applications temps réel

Pour assurer la stabilité du réseau

Demain, internet ne sera plus qu’un réseau support d’autres réseaux, virtuels, qui embarqueront une horloge et fixeront des priorités pour s’adapter à différents besoins (temps réel, mobilité…). Une mutation essentielle aux applications critiques comme le contrôle aérien, étant donné que l’internet actuel n’a pas la notion du temps.

L’internet de demain pourrait être administré comme une fédération de réseaux virtualisés ayant leur propre gouvernance, mais avec des règles d’échange communes. Un changement radical par rapport à l’internet d’aujourd’hui (dont l’administration est quasi inexistante), qui conférera au réseau la stabilité nécessaire à des applications comme l’e-santé.

D.R.

L’infrastructure du réseau devra reposer sur six principes : > Assurer la sécurité, la vie privée et la confiance des utilisateurs > Conserver la simplicité, l’ubiquité et la disponibilité d’internet > Associer durabilité économique et énergétique dès la conception > Prévoir une gestion encore plus efficace du trafic et des données > Adapter au contexte et en temps réel le routage et l’adressage > Anticiper la connexion de nouvelles architectures de réseaux

1 - La virtualisation

Ian HANNING / REA

Cinq idées de rupture pour relever les nouveaux défis

devrait pas poser un problème d’adressage. Il n’y a pas encore famine d’adresses IP [qui permettent de retrouver un équipement connecté, ndlr] et, de toute façon, il n’y aura pas besoin d’identifier chaque capteur avec une adresse », répond Daniel Kofman, professeur à l’école nationale supérieure des télécommunications et président du réseau d’excellence européen Euro‑NGI. Un constat rassurant car, déjà, la migration des équipements de routage de la génération actuelle, dite IPv4, vers la version 6, qui démultiplie le nombre d’adresses IP disponibles, n’est pas si simple. « En réalité, on ne va pas remplacer les routeurs IPv4. On ajoute au réseau IPv4 des réseaux IPv6 avec des systèmes de traduction d’adresse équivalents à NAT (Network Adress Translation) entre les deux », explique Christophe Diot de Thomson. Une solution qui ajoute encore de la complexité à internet…

Des réseaux virtuels greffés sur la base actuelle Un autre défi pour l’internet de demain sera d’absorber l’inflation de contenus vidéo circulant sur le réseau (télévision sur mobile, communications vidéo…). « En 2015, 95 % du trafic sera de l’image », annonce Vincent Marcatté, le directeur

des Orange Labs et président du pôle Images et Réseaux. Conséquence : « Si le très haut débit se généralise, il va falloir basculer sur la commutation optique, qui présente l’avantage d’avoir une consommation électrique indépendante du trafic. Ce qui n’est pas le cas des équipements électroniques, qui chauffent. L’inconvénient, c’est sa faiblesse en capacité de mémoire, qui va obliger à allonger la taille des paquets échangés et à revoir le protocole de base d’internet ! », explique Thierry Houdoin, le responsable du pôle stratégie, prospective et planification R & D chez Orange. Des équipements plus performants permettront de faire face à l’augmentation du trafic. Mais ce sont des méthodes de transmission nouvelles qu’il faudra mettre en œuvre pour pallier un grand handicap d’internet : sa faible capacité à faire communiquer des mobiles. En effet, le protocole IP (Internet Protocol) est prévu pour échanger des paquets de données sans coupure entre deux machines ayant une adresse IP fixe. Or, lorsque l’on se déplace, dès que l’on change de point d’accroche, une nouvelle adresse IP est attribuée et la connexion reprend tout depuis le début. Les performances chutent alors. Acceptable pour faire passer de la voix. Problématique lorsqu’il

Trois approches concurrentes  La feuille blanche ou “clean slate design”, pour imaginer de nouveaux réseaux et protocoles résolvant les défauts actuels d’internet.

32

 Les améliorations incrémentales ou “patchs”,qui ont permis jusqu’ici de faire évoluer le réseau, mais qui l’ont considérablement complexifié.

 Des réseaux au-dessus du réseau ou “overlays”,l’internet actuel servant de socle pour interconnecter des réseaux répondant aux différents besoins.


TIC l’année technologique

3 - La radio cognitive

5 -L’information au centre

4 - Le routage sémantique

Le fonctionnement du futur réseau serait centré sur l’information publiée plutôt que sur les serveurs de données. Un niveau de sécurité serait alors attribué à une information, ainsi qu’à son chemin d’accès, et non plus à un serveur. Un renversement complet, tel un remède à la vulnérabilité intrinsèque de l’internet d’aujourd’hui.

s’agira de vidéo temps réel. Et passer au Long Term Evolution, le nouveau protocole de communication numérique sans fil très haut débit, ne sera pas suffisant. « Il faut trouver des solutions pour élargir les bandes disponibles. Une piste consiste à mettre en place l’allocation dynamique des fréquences en fonction des besoins et des disponibilités. On parle de « radio cognitive », car l’allocation serait liée à la mesure de l’activité sur la bande », explique Serge Fdida, du LIP6. Une autre piste, explorée chez Orange, consisterait à essayer de repasser sur le réseau fixe à chaque fois que cela est possible. Dernier handicap d’internet : son absence d’horloge interne. « Le protocole IP a été conçu pour l’échange d’informations au mieux, mais sans notion du temps », explique Pascale Vicat-Blanc Primet, de Reso. Un vrai problème pour les applications qui font communiquer des machines entre elles (Machine to Machine, ou M2M) : il suffit d’imaginer les conséquences sur un système de contrôle aérien… Idem pour des applications à haut débit et très interactives, du type téléprésence. Une solution émerge depuis 2005. Elle consiste à virtualiser les réseaux en les encapsulant dans une couche logicielle, qui ajoute des propriétés comme des notions de priorité et de gestion du temps. « La difficulté est de déployer ce type de solution à l’échelle mondiale », reconnaît Serge Fdida. Multiplier les infrastructures virtuelles est une approche séduisante, pour garder l’architecture de base actuelle. Reste qu’il faut les faire cohabiter. C’est le mode de la fédération qui pourrait être retenu. Chaque réseau virtuel aurait sa propre gouvernance, mais avec des règles communes pour organiser les échanges. Tout reste à faire. « à terme, internet 34

D.R

Pour instaurer plus de sécurité

Le routage sémantique permettra au réseau d’identifier la nature du trafic et de s’y adapter pour choisir le meilleur chemin, isoler des contenus sensibles, libérer de la bande passante… afin de garantir la qualité de service. Impossible aujourd’hui, puisque internet transmet les données sans se préoccuper des contenus.

D.R.

Pour garantir la qualité de service

Associée à la future norme de réseau mobile de quatrième génération (LTE), la radio cognitive permettrait l’allocation dynamique des fréquences radio. Si le protocole actuel d’échange de données par paquets s’accommode mal des réattributions d’adresse imposées par la mobilité, ce virage garantira des débits élevés sur les terminaux mobiles.

Pierre-Emmanuel Rastoin

Pour améliorer les performances en mobilité

L’internet haut débit sur mobile demandera des protocoles radicalement nouveaux. ne serait plus qu’un monde cohabitant avec d’autres », anticipe Serge Fdida. Mais attention à ne pas créer un réseau qui s’éloigne de la règle d’équité entre les utilisateurs prévalant forcément des luttes de pouvoir. La gouvernance du réseau n’est pas le seul enjeu éthique de l’internet de demain. « Plus que jamais, l’individu sera au centre de l’internet du futur. Il faudra alors veiller au respect de la vie privé et à la protection des données », prévient Jean-Luc Beylat, le président d’Alcatel-Lucent Bell Labs France. La cryptographie pourrait protéger les individus, dont la vie privée est menacée par l’invasion d’objets communicants dotés de puces radiofréquences (RFID), grâce à une « clé numérique » qui verrouillera ses informations. Et pour les données multimédias, aujourd’hui publiées sur internet sans possibilité de contrôle ni de retour, l’Inria travaille sur une nouvelle architecture. « Elle permettrait de centraliser toutes ses données dans un même endroit et de n’envoyer que des liens vers les sites ou services sur lesquels on souhaite les publier, afin de garder la possibilité de les modifier ou de les supprimer », raconte Claude Castelluccia, directeur de recherche à l’Inria. Mais attention, prévient la Fondation internet nouvelle génération (Fing). Toutes ces technologies pourraient avoir un coût caché : un internet moins accessible et, surtout, moins ouvert à l’innovation. Un débat que les chercheurs ne pourront pas évacuer plus longtemps. ❚❚


TIC l’année technologique

Affichage

L’ENCRE ÉLECTRONIQUE PREND DES COULEURS L’encre électronique en noir et blanc utilisée dans les e-books sera d’ici à quelques mois supplantée par une nouvelle génération en couleurs. Plusieurs technologies s’affrontent, avec un même défi : consommer le moins d’énergie possible. PAR PATRICE DESMEDT

es premiers écrans couleurs vont enfin pointer le bout de leurs pixels dans les e-books ! à l’heure où l’on ne parle que de tablettes multimédias équipées d’écrans LCD traditionnels, ces liseuses électroniques n’ont pas dit leur dernier mot. Certes, les tablettes offrent des images flatteuses. Mais pour lire des textes ou être utilisées au soleil, elles avouent leurs limites. La technologie d’encre électronique, utilisée dans les liseuses, ne souffre pas, elle,

L

des mêmes défauts. Son confort de lecture est bien meilleur, y compris en pleine lumière. Et elle consomme très peu. Actuellement cantonnée au noir et blanc, elle s’apprête à passer à la couleur. Mais alors qu’une seule technologie a réussi à s’imposer pour le noir et blanc (celle d’E-Ink, dite électrophorétique), plusieurs approches s’affrontent en ce qui concerne la couleur. De la déclinaison de l’actuelle E-Ink jusqu’à des technologiques inédites, en passant par l’utilisation de nouveaux types d’écrans LCD. La société chinoise Hawang devrait être la première à commercialiser une liseuse à écran couleur, fruit d’un partenariat avec E-Ink, grâce à un système de filtres couleurs (schéma 1). Le principe de base reste donc identique à celui du noir et blanc. De son côté, Sony a présenté un prototype de 4,1 pouces ayant la particularité d’être souple. Il affiche 16 millions de couleurs avec une définition de 432 x 240. Et qui bute toujours sur le défaut des écrans souples, le nombre – relativement – limité d’enroulages–déroulages (quelques milliers tout de même). Ces écrans reposent sur le principe d’une encre électronique imprimée sur un film plastique au sein duquel courent des circuits électriques et qui pourra être associé à n’importe quel support. Mais, jusqu’à présent, ces écrans souples n’ont pas réussi à dépasser le stade du prototype. La société Plastic Logic, qui avait fait sensation au dernier CES de Las Vegas au mois de janvier 2010, a dû annoncer au mois d’août qu’elle renonçait à commercialiser la première génération de son écran souple Sfiff, prévue au départ pour le courant de l’année, et travaillait sur la deuxième génération…

Des cristaux liquides sur plusieurs couches Mais l’écran LCD à matrice active classique n’a pas dit son dernier mot. Il sert de base à l’Ebook de l’américain Pixel Qi, qui a fait appel à la société allemande Display Solution

Trois méthodes contre la grisaille 1. DeS MicRocaPSuleS et DeS FiltReS

Filtres Rouge Rouge Filtres

2. tRoiS coucheS De cRiStauX liquiDeS

Vert Vert

BleuBleu Lumière Lumière incidente incidente

Sub Substra en v en verre

BleuBleu Vert Vert

-

-

- + Microcapsules noires Microcapsules noires chargées négativement chargées négativement Électrode Électrode

+

-

-

-

Microcapsules blanches Microcapsules blanches chargées positivement chargées positivement

Le système E-Ink utilise des filtres couleurs qu’il applique sur un écran utilisant la même base technologique que pour le noir et blanc : des microcapsules chargées électriquement que le changement de polarité des électrodes fait monter ou descendre.

36

- Rouge Rouge Couche d'absorption la lumière Couche d'absorption de lade lumière Fujitsu utilise les propriétés de trois couches de LCD cholestérique, chacune d’elles réfléchissant les longueurs d’onde spécifiques du bleu, du vert et du rouge.


TIC l’année technologique

Les microcapsules en suspension d’E-Ink L’écran réflectif des liseuses ne craint pas la lumière.

D.R.

AG pour mettre au point un écran LCD réflectif : comme les écrans E-Ink, il utilise la lumière ambiante et peut s’affranchir du rétroéclairage, très consommateur d’énergie. Il est toutefois doté d’un système de rétroéclairage commutable, capable de s’adapter à toutes les conditions lumineuses et d’offrir un très bon rendu. En fonction de l’application utilisée et de la lumière ambiante, il utilisera deux techniques. Soit le rétroéclairage (mode transmissif), qui permet l’affichage de 262 000 couleurs, soit l’un des deux modes à basse consommation : le mode transflectif, en couleurs, ou le mode réflectif, en noir et blanc (64 niveaux de gris). Selon des tests réalisés par le cabinet d’études PikeResearch, l’écran de Pixel Qi consomme en moyenne moitié moins qu’un écran LCD classique, mais encore beaucoup plus que ceux à base d’encre électronique. Le LCD est également utilisé dans sa variante cholestérique, avec des cristaux de forme hélicoïdale. L’avantage de cette technologie, ce sont ces cristaux liquides dits « bistables », car ils possèdent deux états stables et conservent donc l’affichage en l’absence de tension électrique. Le français Nemoptic et le japonais Fujitsu ont choisi ce type de LCD, mais avec une mise en œuvre différente pour obtenir la couleur. Nemoptic a opté pour la solution simple de filtres de couleur et s’appuie sur sa maîtrise de l’affichage en noir et blanc. Son prototype de 5,1 pouces de diagonale affiche une résolution de 100 points par pouce, proche de celle obtenue en noir et blanc. Fujitsu a, lui, mis au point sa deuxième génération d’encre électronique couleur, qui se distingue par une haute résolution (1 024 x 768 pour le prototype) et un bon rendu des couleurs (schéma 2). Les cristaux liquides sont placés sur plusieurs couches, chacune réagissant selon la longueur d’onde propre à chaque couleur. Une technologie qui offre

Tous les modèles actuels de liseuses utilisent la technologie d’affichage en noir et blanc de la société E-Ink (rachetée en 2009 par le taïwanais PVI). Elle associe trois avantages. Son aspect, proche de celui du papier, offre un grand confort de lecture. L’écran réflectif (donc sans rétroéclairage) ne craint pas les fortes luminosités. Enfin, l’autonomie se compte en jours ou plus exactement en nombre de pages tournées : l’écran ne consomme de l’énergie que lors d’un

changement d’état. L’encre est constituée de millions de microcapsules du diamètre d’un cheveu. Chacune contient des particules blanches, chargées positivement, et de particules noires, chargées négativement, en suspension dans un liquide transparent. Sous l’action d’un champ électrique, dont la polarité peut être inversée, les particules noires et blanches se déplacent pour afficher des noirs, des blancs et différents niveaux de gris.

La lumière se reflète sur la pellicule et sur la membrane réfléchissante, séparées par une couche d’air. Les interférences créées seront constructives pour une longueur d’onde, c’est-à-dire une couleur, qui dépend de l’épaisseur de la couche.

3. un Jeu D’inteRFéRenceS

Sous-pixel rouge Sous-pixel vert Sous-pixel bleu

Substrat en verre

Pellicule Couche d'air SOURCES : E-INK, FUJITSU, QUALCOMM

L’USINE NOUVELLE I SUPPLÉMENT AU N° 3219-3220 I 16 DÉCEMBRE 2010

Membrane réfléchissante 37


TIC l’année technologique

L’affichage par électromouillage est rafraîchi assez rapidement pour visionner de la vidéo.

des couleurs plus vives qu’avec celles reposant sur un système de filtres. Point faible, la piètre vitesse de réactivité, puisque l’écran n’est rafraîchi que toutes les 0,7 secondes. Cela interdit l’usage de la vidéo. Le contraste de 7:1, encore perfectible, est trois fois supérieur à celui de la première génération, proposé en 2007 sur le lecteur Flep, aux résultats plutôt médiocres.

Les Mems et leur très faible consommation D’autres misent sur des options plus innovantes, notamment l’utilisation de Mems, les systèmes microélectromécaniques. C’est le cas de l’américain Qualcomm, qui met en œuvre la technologie Imod (Interferometric Modulator) pour l’écran Mirasol, l’un des prototypes les plus aboutis (schéma 3). Il associe une bonne résolution, un rendu d’image excellent et un temps de réponse insignifiant, de l’ordre de la milliseconde. Il est également très fin, moins de deux millimètres.

38

Une goutte d’huile colorée et multiforme Le dispositif élémentaire de l’Imod est constitué de deux plaques conductrices formant une cavité remplie par une couche d’air, qui réfléchissent la lumière quand elles sont séparées et l’absorbent quand elles sont collées (en présence d’une tension électrique). La couleur réfléchie dépend de la hauteur de la couche. Avantage majeur de la technologie Imod : une très faible consommation, jusqu’à 200 fois moins qu’un écran LCD rétroéclairé. Enfin, le néerlandais Liquavista a opté pour l’électromouillage. Une approche totalement différente, qui présente l’avantage de supporter une grande vitesse de rafraîchissement, jusqu’à soixante fois par seconde. Elle est donc tout à fait appropriée pour le visionnage de vidéos. L’électromouillage consiste à utiliser le changement de forme d’une goutte d’huile colorée, figurant un pixel, lorsqu’elle est traversée par un courant électrique. Selon que la goutte est étalée ou non, le pixel apparaît coloré ou transparent. L’écran peut être équipé d’un système de rétroéclairage, activé pour une utilisation dans des endroits sombres. Les prototypes présentés par Liquavista montrent un excellent rendu. Mais la date de commercialisation avancée, courant 2011, est probablement optimiste. ❚❚


tic

l’année technologique

le point sur...

la réalité augmentée

Par Patrice DesmeDt

où en est-on ? Les technologies de la réalité virtuelle, qui permettent d’interagir en temps réel sur un univers numérique, sont désormais maîtrisées. Elles sont même entrées dans les cycles de conception de l’automobile, de l’urbanisme, de l’architecture… pour tester l’ergonomie d’un futur poste de travail, se trouver au volant d’une voiture en gestation ou visualiser une ligne de tramway. Les applications évoluent désormais vers la réalité augmentée, qui superpose pour un utilisateur, des éléments numériques à sa vision de l’environnement. Née il y a quinze ans, encore balbutiante, la réalité augmentée est longtemps restée cantonnée dans des domaines spécifiques, comme la défense. Avec la chute des prix, elle explose aujourd’hui dans des applications ludiques et marketing. Alstom fait apparaître sur une scène (réelle) un TGV (virtuel), Dassault Systèmes fait courir des Minimoys sur une boîte de céréales et Parrot propose un jeu de combat entre deux de ses hélicoptères radiocommandés AR.Drone. à l’écran de l’iPhone, servant de commande, apparaissent les explosions des missiles dans l’environnement réel. ❚❚

l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

d.r.

La réalité augmentée superpose, pour un utilisateur, des éléments numériques à sa vision de l’environnement. Le grand public la découvre sur ses smartphones. Dans l’industrie, où elle est surtout utilisée dans l’automobile et la défense, elle voit son champ d’utilisation s’élargir.

Chez BmW, le mécanicien, équipé de lunettes high-tech, intervient sur un moteur en suivant les indications superposées à l’objet réel.

les développements Qui est en pointe ? en cours Les pionniers de la réalité virtuelle Pour le grand public, les applications utilisant smartphone ou ordinateur se multiplient, pour apporter des informations touristiques, essayer des lunettes ou aménager son appartement. Et demain les logiciels de reconnaissance de forme donneront un nouvel élan à cette technologie. Dans le domaine naval, DCNS est porteur du projet Sigran. L’objectif est de rassembler et d’indiquer, de manière claire, différentes informations que l’on voit mal de la passerelle, superposées à la vision de la mer, sur un écran ou au travers de jumelles. Le secteur de la maintenance va aussi profiter de la réalité augmentée, qui peut remplacer avantageusement le manuel traditionnel : le technicien pourra visualiser au travers de lunettes l’aide contextuelle qui le guidera, par le biais d’images virtuelles, dans les différentes tâches à effectuer, sans qu’il ait à quitter des yeux le matériel à maintenir. ❚❚

sont les plus avancés en réalité augmentée. Les militaires, très discrets, poursuivent leurs recherches. Dans l’industrie, les idées fusent chez les constructeurs automobiles, aussi bien pour la conception des futurs modèles que pour les présentations marketing. Renault utilise par exemple la réalité virtuelle pour comparer ses projets aux modèles de la concurrence. Côté fournisseurs deux éditeurs spécialisés dominent, le français Total Immersion, numéro un mondial, et l’allemand Metaio. Dassault Systèmes et Autodesk font aussi des efforts sur le développement. On trouve également les sociétés de conseil et d’intégration comme Niji, les centres de recherche de grands industriels du high-tech comme Cisco, Nokia ou NEC ainsi que ceux des universités de Washington (États-Unis) et de Canterbury (Nouvelle-Zélande) ou les instituts allemands Fraunhofer (IGD, FIT…). En France, le centre Clarté à Laval a dix ans d’expérience et travaille en collaboration avec des industriels comme PSA, DCNS, SaintGobain ou Gruau. ❚❚

39


V ADMV

Conception et commercialisation de machines de distribution et d’assemblage

Gagnez de la place avec des machines haute performance ! 1 Pour les industries cosmétiques et pharmaceutiques et aussi les industries plastiques,électriques, électromécaniques… 1 Des solutions standard ou personnalisées, du simple bol vibrant jusqu’aux systèmes robotisés avec vision-tracking. 1 CONTACT Eric VITON Eric ZA les LesTriboullières triboullières Za 38 460crémieu Crémieu 38460 Tél. 04 : 0474749090 Tél. 4343 6666 Fax 04 : 04747490904646 Fax 7777 E-mail::commercial@admv.fr commercial@admv.fr e-mail Web :: www.admv.fr www.admv.fr Web

bAlyo

Située à Crémieu, près de Lyon, ADMV est une entreprise qui conçoit, fabrique et commercialise depuis 1986 des machines de distribution et d’assemblage destinées principalement aux industries cosmétiques et pharmaceutiques : bols vibrants et bols rotatifs, distributeurs standard, dépalettiseurs, modules robots et vision-tracking, modules pharmacie,

Machine d’assemblage.

machines et lignes d’assemblage, etc. “Notre gamme, particulièrement large, est le reflet des divers savoirfaire accumulés depuis des dizaines d’années par ADMV tant en mécanique qu’en robotisation ou en vision” explique Eric Viton, directeur général. ADMV complète cet éventail de savoir-faire, objets de plusieurs brevets, par d’importants programmes de R&D qui lui ont permis de s’assurer “la maîtrise totale du couple produit-process”.

DES MACHINES DE PLUS EN PLUS COMPACTES Grâce à son sens de l’écoute et sa forte réactivité, ADMV est en mesure de répondre aux attentes de ses clients avec des solutions innovantes mais

Bol rotatif pour l’industrie pharmaceutique.

éprouvées, parfaitement adaptées à des secteurs souvent très exigeants. C’est dans cet esprit, et munie de ces atouts, qu’ADMV s’est attachée à satisfaire une demande croissante de la part de sa clientèle : le gain de place. Associant de façon optimale mécanique, robotique et vision artificielle, ADMV développe actuellement des modèles particulièrement compacts permettant d’optimiser la productivité des locaux et ateliers. Résultat : des machines tout aussi performantes (cadences de prise-dépose allant jusqu’à 140-160 pièces/minute) mais occupant des surfaces au sol deux fois moindres que la concurrence. !

PUBLICOMMUNIQUé PUBLICOMMUNIQUÉS

1 Conception, fabrication et commercialisation de machines de distribution et d’assemblage

Chariots automatiques

1 Chariots adaptés au transport de charges sur palettes, utilisables dans des ateliers de dimension réduite 1 Pour toute société ayant des besoins en manutention 1 Technologie brevetée, grande facilité d’emploi dans toutes les conditions.

1 CONTACT Didier bLUM 204 rue de crimée 75019 paris Tél. 01 55 26 43 10 Fax 01 55 26 42 03 e-mail : didier.bum@balyo.com Web : www.balyo.com

À la différence de machines spéciales et complexes complexes fabriquées fabriquées à l’u nité, Balyo B a l yo l'unité, conçoit et etcommercommercialise des chariots chariots automatiquesquin’ont automatiques qui n'ont pas de contraintes contraintes d’infrastructure. astructure. “Ils se positionnent sitiongrâcegrâce à une à technologie hnoexclusive de xclusive géoguidage, géoguisans l’uti-ns lisationad’un fil ou de réflecteurs laser”,

explique Raul Bravo, gérant de Balyo. Le Ledéplacement déplacementdu chariot s’effectue ainsi ainsi par par le le biais biais d’un système de conduite conduitequi quilui luipermet de savoir en permanence où il se trouve, sur la permanence où base plan de l’atelier mémorisé d'un d’un plan de l'atelier via un module module embarembarqué.

une d’emPloi UNEgrande GRANDEFacilité FA et une souPlesse oPtimale UNE SOUPLESSE Le des chariots Le premier premier avantage a automatiques automatiquesBalyo est sans conteste leur leursimplicité simplicitéd’emploi et leur grande souplesse. souplesse.Ils Ilssont sontainsi parfaitement adaptés adaptésaux auxindustriels industr et logisticiens Les chariots Balyo allient souplesse et simplicité d’emploi, même dans de petits espaces.

demandant toujours plus de flexibilité ou bien au sein de PME qui n’envisageaient pas d’utiliser des chariots automatiques en raison de leur mise en œuvre complexe. Autre point fort : la possibilité offerte à tout moment de les faire passer en mode manuel par simple pression d’un bouton. “La technologie brevetéecrééeparBalyonouspermetenfin deproposerdeschariotsfabriquésen série de façon industrielle qui se rapprochent en cela des chariots de manutentionclassiques.Ilspossèdent de ce fait des modules mécaniques standard et par conséquent tout leur SAVetleurmaintenancepeuventêtre confiés à un même prestataire, voire géréseninterneparl’entreprise”,souligne Raul Bravo. l

PUBLICOMMUNIQUé

Des chariots automatiques qui divisent par deux les coûts de manutention

aNNée publiscopie | N° 3219/3220 − décembre 2010

Publi Techno 1210.indd 5

09/12/2010 10:21:38


électronique l’année technologique

éclairage

L’ampoule à incandescence vit ses derniers instants. Des halogènes déjà bien connus à la technologie de pointe des Oled, en passant par les LED, les solutions de remplacement ne manquent pas. Et seront bientôt à la hauteur. Par Ludovic duPin et oLivier James

antés pour leurs performances, les diodes électroluminescentes ou LED ont essuyé en octobre une critique inédite. L’Agence nationale de sécurité sanitaire, de l’alimentation, de l’environnement et du travail (Anses) estime que certaines LED (bleues notamment) seraient dangereuses pour la vue, notamment pour les enfants. Des conclusions démenties par le Syndicat de l’éclairage. Quoi qu’il en soit, le développement des LED ne devrait pas être freiné : le retrait progressif des ampoules à incandescence, qui devront tirer leur révérence en 2012, profitera à tous les éclairages alternatifs. Leur remplacement par des sources à basse consommation permettrait à la France d’économiser 8 térawattheures (TWh) d’électricité par an à l’horizon 2016, selon l’Ademe. En 2009, la France a consommé 486 TWh d’électricité. «C’est une révolution ! s’enthousiasme Luc Soitel, le chef de produit lampes chez le fabricant d’éclairages Osram. à une technologie simple qui a régné un siècle durant, ce sont trois solutions de rechange qui s’offrent maintenant aux utilisateurs.» A savoir: la famille des LED et Oled -tirée par les recherches sur les écrans de télévision-, les ampoules fluocompactes et les halogènes. Ces technologies, qui n’ont pas le même degré de maturité, ont d’abord pour avantage de s’attaquer au principal handicap des lampes à incandes-

V

cence, qui produisent 95 % de chaleur et seulement 5 % de lumière. Dernière venue des technologies d’éclairage : la diode électroluminescente organique, dite Oled. à base de semi-conducteurs organiques, elle a pour avantage de permettre la réalisation de systèmes d’éclairage surfaciques, voire même sur des supports souples. L’entreprise galloise Lomox a annoncé la commercialisation pour 2012 d’un papier peint lumineux, adapté à l’éclairage et à la télévision. GE Lighting a aussi présenté des prototypes d’Oled utilisant des supports souples. Leur mise sur le marché pourrait s’effectuer dès 2011. D’ores et déjà, Osram a lancé la commercialisation d’Orbeos, une sorte de galette lumineuse rigide de 8 cm de diamètre et 2,1 mm d’épaisseur. Son efficacité énergétique est le double de celle d’une ampoule à incandescence, sa durée de vie cinq fois plus grande. Outre le coût élevé, la principale ombre au tableau, commune à l’ensemble de la technologie Oled, est l’intensité lumineuse, encore très faible. «L’un des défis technologiques est de créer des Oled capables de supporter des puissances élevées», confirme Antoine Leveau, le directeur commercial de la branche optosemiconductors d’Osram. Problème : lorsque l’intensité du courant augmente, des défauts apparaissent dans les matériaux, ce qui réduit l’émission de lumière. Pour augmenter la durée de vie des Oled, comprise entre 10 000 et 20 000 heures, les chercheurs planchent notamment sur des systèmes d’encapsulation dans du verre qui limiteraient les phénomènes d’oxydation. Les matériaux organiques sont en effet sensibles à l’humidité.

Matures, les fluocompactes s’améliorent encore

Basées sur des semi-conducteurs inorganiques (silicium), les diodes électroluminescentes (LED) ont atteint une plus grande maturité technologique que leurs consœurs organiques. Mais restent dix fois moins lumineuses que les ampoules à incandescence. Raison pour laquelle ce produit

D.R.

la lumière jaillit de l’électronique

Le verre feuilleté électroluminescent mis au point par le belge AGC Glass Europe (ex-Glaverbel) sert de support d’affichage grâce à l’incorporation de LED.

une intégration à la décoration intérieure Ledinglass. Saint-Gobain fait ainsi la démonstration des possibilités offertes par les LED en décoration intérieure. La multiplicité de ces derniers permet de concevoir des panneaux de verre diffusant une lumière douce. La modulation de l’intensité d’éclairage est l’un de ses points forts. 40

VoLkER StEGER

D.R.

ces objets éclairants qui détrôneront l’ampoule

une lumière à la fois chaude et intense Vio. La LED Vio de General Electric est aujourd’hui l’une des plus lumineuses du marché. Elle peut émettre jusqu’à 285 lumens sous une puissance de 7,2 watts. Elle possède en plus un bon indice de rendu des couleurs, proche de celui des ampoules à incandescence.


D.R.

est encore réservé à la décoration intérieure. Comme pour les Oled, l’augmentation de l’intensité tend à diminuer l’efficacité lumineuse. Des essais en laboratoire ont tout de même montré la faisabilité de LED à l’efficacité de 150, voire 200 lumens par watt ! «Nos travaux ouvrent de nouvelles possibilités, tel que le contrôle de chaque LED, explique Hugues Lefèvre, responsable technique de Glassiled. Ce qui permet par exemple d’écrire des messages sur des plaques de verre. » Un premier produit va d’ailleurs être commercialisé dès janvier 2011.

des surfaces lumineuses orbeos. c’est l’une des principales caractéristiques de l’oled : offrir une surface éclairante homogène. orbeos, développé par osram, est l’une des toutes premières sources de lumière à base d’oled commercialisée dans le monde. a terme, disposées sur des supports souples, les oled pourront recouvrir des murs entiers. L’usinE nouVELLE i SuppLémEnt au n° 3219-3220 i 16 DécEmbRE 2010

Chez Saint-Gobain, on se penche notamment sur la fabrication de substrats pour améliorer la croissance cristalline des LED. « Nous mettons au point des substrats de haute qualité à base de cristaux d’alumine, afin d’obtenir une croissance cristalline avec le moins de défauts possible, précise Armand Ajdari, le directeur R & D du pôle matériaux innovants. Pour les Oled, une partie de nos travaux concerne l’obtention de verres à la fois transparents et conducteurs. » Les technologies plus éprouvées, comme les lampes fluocompactes, plus connues sous le nom « d’ampoules à économies d’énergie », sont toujours l’objet de recherches. Les deux points d’amélioration prioritaires sont la vitesse d’allumage et la chaleur de la lumière. Quant à la lampe halogène, qui sera interdite en 2017, elle présente une meilleure efficacité énergétique que la lampe à incandescence et peut encore être optimisée pour consommer 30 % d’électricité en moins. General Electric vise même ainsi 50 % en moins. Pour cela, une piste consiste à recouvrir l’ampoule d’un revêtement dit infrarouge, dont la fonction est de rediriger le rayonnement thermique vers le filament pour qu’il aide à chauffer ce dernier. Une idée lumineuse. ❚❚ 41


électronique

D.R.

l’année technologique

2microns

Les micropyramides augmentent la sensibilité. Des chercheurs de Stanford ont créé une peau électronique en assemblant un film de transistors intégrant une couche d’élastomère, sensible à de très faibles pressions, avec une feuille de plastique PET revêtue d’aluminium (en haut). La sensibilité et le temps de réponse ont été améliorés en moulant des microstructures en forme de pyramides à la surface de l’élastomère (à gauche).

Bionique

Des transistors à fleur de peau Les universités de Stanford et de Berkeley ont mis au point des films flexibles sensibles à la pression, reproduisant les réactions de l’épiderme humain. Ils pourraient un jour donner le sens du toucher aux robots, ou équiper des prothèses médicales. Par Thierry Lucas

42

ne mouche se pose sur la peau durant une seconde, puis redécolle. Ce type d’événement, bien souvent, passe inaperçu. Pas pour le capteur développé à l’université de Stanford (Californie) : il détecte sans faille l’infime pression de 3 pascals (contre 100 000 pour la pression atmosphérique) exercée par l’insecte. Il se présente comme un film souple contenant des transistors : une « peau électronique ». Elle pourrait, par exemple, donner le sens du toucher à des robots industriels manipulant des objets fragiles ou à des robots de service, en interaction avec des êtres humains. À terme, elle pourrait même conférer le sens du toucher à des prothèses médicales. Concilier sensibilité et flexibilité – ce que la peau humaine fait très bien –, c’est le principal défi posé aux chercheurs. Pour y parvenir, les voies sont multiples, comme le montre un autre prototype réalisé cette fois à Berkeley. Les deux

U


Quand la peau électronique subit une pression, la couche d’élastomère se déforme, ce qui modifie le courant de sortie du transistor. universités californiennes, rivales, ont appliqué le même principe général : sur un support flexible, elles ont fabriqué une matrice de transistors dont le signal électrique de sortie dépend de la pression exercée sur la surface. Comme la souplesse du capteur est un point essentiel, il est logique de se tourner vers des matériaux polymères, plutôt que vers les semi-conducteurs traditionnels. Le laboratoire de Stanford a retenu cette option, mais en remédiant à deux points faibles des dispositifs à base de polymères : la sensibilité et le temps de réponse. Leur capteur de pression est un film mince constitué d’un empilement de couches de matériaux organiques constituant des transistors Ofet (« organic field-effect transistor »). L’élément clé du dispositif est une couche d’élastomère PDMS (polydiméthylsiloxane). Quand la peau électronique subit une pression, la couche de PDMS se déforme, ce qui modifie le courant de sortie du transistor. « Nous avons utilisé une couche d’élastomère extrêmement fine, quelques microns d’épaisseur, qui garantit à la fois une grande sensibilité du capteur et un faible temps de réponse », précise Benjamin Tee, le responsable du projet à Stanford. Une performance. Jusqu’ici, réduire l’épaisseur de la couche sensible à la pression permettait bien d’accroître la sensibilité du capteur, mais avec un inconvénient majeur : en dessous d’une certaine épaisseur, l’élastomère avait tendance... à ne plus être vraiment élastique ! Le capteur risquait alors d’avoir des temps de réponse de plusieurs secondes, trop longs pour les applications visées.

Techniques d’impression Les chercheurs de Stanford ont trouvé la solution. Sur leur mince film de PDMS, ils ont moulé des microstructures de quelques microns de côté. Ces microstructures se déforment de façon parfaitement élastique et sont capables de détecter d’infimes pressions. Une mouche de 20 milligrammes a été détectée grâce à des pyramides de 6 microns de côté. Quant au temps de réponse, il est de l’ordre de quelques millisecondes, contre une dizaine de secondes avec un film de PDMS non structuré. En jouant sur la forme et la taille des microstructures, les chercheurs peuvent régler la gamme de mesure et la sensibilité. « Nous essayons aussi d’augmenter la densité des capteurs sur le film. Cela permettrait d’accroître la résolution de la surface sensible à la pression », indique Benjamin Tee. À Berkeley, de l’autre côté de la baie de San Francisco, la souplesse de la peau électronique était également au cœur des préoccupations des chercheurs. Pourtant, l’équipe concurrente de Stanford a choisi de recourir à des semiconducteurs minéraux, réputés peu flexibles, mais dont l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

43


électronique l’année technologique

1 micron

D.R.

les nanofils concilient performances et flexibilité. Dans ce démonstrateur de peau électronique (un carré de 7 cm de côté), fabriqué par une équipe de Berkeley, la partie active du capteur de pression est une matrice de transistors réalisée avec des semi-conducteurs minéraux, dont les caractéristiques électriques sont meilleures que celles de matériaux organiques. Ces semi-conducteurs, des nanofils de Ge/si ordonnés (illustration du haut), garantissent les performances tout en conservant la flexibilité du dispositif.

les propriétés électriques (la mobilité des charges) sont supérieures à celles des matériaux polymères. Le laboratoire a réussi à concilier performances électriques et flexibilité en utilisant des semi-conducteurs sous la forme de nanofils. La peau électronique de Berkeley est elle aussi un empilement de couches. Pour détecter la pression, la solution est classique : une couche d’élastomère chargée de parti-

tRoiS conDitionS PouR iMiteR la Peau utiliser un matériau flexible... c’est indispensable pour revêtir des pinces de robot, voire des prothèses médicales. ... qui dispose d’une grande sensibilité Dans la gamme des moyennes pressions (10 à 100 kPa), qui correspond à la manipulation d’un objet, mais aussi des faibles pressions (moins de 10 kPa), par exemple pour des applications de sécurité. ... que l’on peut produire sur de grandes surfaces Des méthodes de fabrication de circuits électroniques souples, par des techniques inspirées de l’impression, sont en développement.

44

cules de carbone conductrices. Quand on exerce une pression, on modifie la conductance de l’élastomère. Mais c’est l’autre partie essentielle du dispositif qui a mobilisé les chercheurs : une grille de transistors mesurant ces changements de propriétés électriques. Cette couche est réalisée avec des nanofils de germanium-silicium. Des fils semi-conducteurs de 30 nanomètres de diamètre, déposés sur un support en plastique (polyimide) par une méthode qui s’apparente aux techniques de l’impression. Ils sont parfaitement alignés et parallèles...

un dixième de seconde pour répondre « Notre méthode de production de nanofils est assez simple et peu coûteuse. De plus, elle peut s’appliquer à d’autres semi-conducteurs », affirme Kuniharu Takei, qui a mené le projet. Le résultat est un capteur souple, qui bénéfice d’une bonne sensibilité dans les faibles pressions et d’un temps de réponse d’un dixième de seconde. Difficile de décider qui, de Stanford ou Berkeley, a le plus fait avancer la peau électronique vers ses futures applications. Mais leurs résultats prometteurs sont un encouragement à s’attaquer à l’autre bout du problème : faire communiquer la peau avec le cerveau d’un robot. Ou avec le système nerveux d’un être humain. ❚❚


électronique l’année technologique

le point sur...

Les dispositifs micro-électromécaniques, notamment les accéléromètres, ont fait florès dans l’automobile. Aujourd’hui, les microphones et les gyroscopes miniatures envahissent les équipements électroniques portables. PAr PhiliPPe Deroin

où en est-on ? Un accéléromètre micro-usiné pour déclencher l’airbag d’une voiture ? C’est devenu banal. Profitant des progrès des technologies de micro-usinage, les capteurs Mems (micro-électromécaniques) se sont diversifiés. Les accéléromètres ont ouvert la voie aux gyroscopes, qui détectent des rotations, et sont passés de un à trois axes de mesure sur une seule puce. Les applications se multiplient : détecter l’orientation d’un iPhone, protéger les disques durs en cas de chute, améliorer le contrôleur d’une console de jeu… Par ailleurs, les microphones Mems, eux aussi destinés aux équipements portables, ont désormais des caractéristiques au moins égales à celles de leurs concurrents, les microphones traditionnels à condensateur électret (ECM), et à des prix équivalents. Leur taille et leur légèreté les rendent moins sensibles aux vibrations que les ECM. Ils bénéficient d’une bonne réponse en fréquence et d’une quasi-immunité aux interférences. ❚❚

l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

d.r.

les capteurs MeMs le microphone aKu2002c d’akustica est un micro Mems réalisé en cmos et mesurant 1 mm² seul ou 4 mm² encapsulé. il intègre le transducteur et l’électronique.

les développements Qui est en pointe ? en cours L’offre, fortement tirée par le Développés en particulier à la demande de l’armée américaine, des gyros Mems, qui combinent gyroscope/accéléromètre, ouvrent la porte à une détection complète du mouvement qui requiert six axes de mesures (XYZ, lacet et roulis/tangage). InvenSense propose déjà une solution commerciale utilisant trois puces, et espère bien arriver rapidement à tout intégrer sur une seule. Associés aux capteurs de mouvement, les microphones Mems devraient être utilisés pour la détection de signes vitaux dans des applications médicales. Mais l’évolution la plus significative est la conception de dispositifs comprenant plusieurs capteurs (pression, accéléromètre, gyroscope, magnétomètre...) et des fonctions de traitement et de transmission. C’est le cas du module iNemo de ST Microelectronics. ❚❚

développement accéléré des smartphones et des platesformes de jeux sophistiquées, s’appuie désormais sur une douzaine de fournisseurs, dont les leaders ont franchi un cap cette année. L’américain Knowles Acoustic a vendu un milliard de microphones Mems en 2010. ST Microelectronics a livré plus d’un milliard de capteurs Mems, toutes applications confondues, et revendique 50 % du marché mobiles et grand public. Le secteur connaît aussi un mouvement de consolidation avec, par exemple, l’acquisition de Pulse Engineering par l’allemand Epcos, et d’Akustica par Bosch. En France, le pôle de Grenoble (CEA, INP, Minatec…) mène de nombreux travaux de recherche sur les Mems. ❚❚

45


chimie-matériaux l’année technologique

Nanotechnologies

le graphène superstar Consacrée par le prix Nobel de physique 2010, la feuille de carbone dont l’épaisseur est réduite à une seule couche d’atomes est la coqueluche des laboratoires du monde entier. Ses applications potentielles vont d’une nouvelle génération de composants électroniques à la création de matériaux aux propriétés inédites. Par thierry lucas

n cristal de graphite, la forme la plus commune du carbone, et un ruban adhésif : c’est avec ce dispositif quasi rudimentaire qu’Andre Geim et Konstantin Novoselov ont réussi en 2004 à isoler une couche de carbone de l’épaisseur d’un seul atome : le graphène. Les deux chercheurs, aujourd’hui à l’université de Manchester, ont extrait des feuilles du graphite en les exfoliant à l’aide du ruban adhésif, puis en les déposant sur du silicium. Ils ont reçu le prix Nobel de physique 2010 pour cette première. Une réussite d’autant plus surprenante que la plupart des physiciens pensaient jusque-là que le graphène était une forme de carbone trop instable pour exister ! Mais leur mérite va au-delà de cette prouesse paradoxale. Leur travail a déclenché une vague de recherches mondiale. De nombreuses équipes explorent les propriétés mécaniques, électriques et optiques hors normes de la feuille de carbone.

U

46

D.R.

Vers la création de composites ultrarésistants

Le graphène est ultraléger : une surface d’un mètre carré pèse moins d’un gramme. Pas étonnant, dira-t-on, avec un matériau d’épaisseur monoatomique. Sauf qu’en même temps, la feuille de carbone est beaucoup plus résistante que l’acier. C’est pourquoi les fabricants de matériaux plastiques ont tout de suite cherché à tirer parti des caractéristiques mécaniques du graphène pour créer de nouveaux composites ultrarésistants. Une idée logique, puisque les chercheurs avaient déjà étudié l’effet bénéfique des nanotubes de carbone, autre forme exotique du carbone apparue quelques années plus tôt, dispersés dans une matrice de polymère. Toute la difficulté, pour les nanotubes comme pour le graphène, est de parvenir à transmettre au matériau massif les caractéristiques de ces « nanocharges ». Le point clé est justement leur dispersion dans le polymère, afin d’établir une interaction maximale entre la matrice et les molécules de carbone qui la renforcent.

Image de synthèse de la modélisation d’une feuille de graphène ondulée.

Mais dans ces conditions, le graphène semble encore plus prometteur. En effet, selon une étude menée au Rensselaer Polytechnic Institute, aux États-Unis, les feuilles de carbone sont dix fois plus efficaces que les nanotubes. L’équipe américaine, après avoir introduit des nanotubes et du graphène dans une résine époxy, a constaté qu’on obtenait les mêmes performances mécaniques avec 1 % de nanotubes ou 0,1 % de graphène. Les applications envisagées sont variées : des réservoirs d’essence d’automobiles jusqu’aux emballages alimentaires, dans lesquels l’addition de graphène permet aussi de créer un effet barrière aux gaz. Les propriétés électriques de la molécule de carbone plane ont aussi mobilisé rapidement les équipes de recherche. Sa


chimie-matériaux

l’année technologique

le carbone dans tous ses états

le carbone est un habitué du nobel : en 1996, le prix nobel de chimie récompensait la découverte des fullerènes, des molécules de carbone de forme quasi sphérique. la plus connue comprend 60 atomes disposés aux sommets de 20 hexagones et 12 pentagones, le tout constitue une forme proche de vcelle d’un ballon de football. les nanotubes de carbone, dans leur forme la plus pure – une seule paroi d’atomes de carbone formant un cylindre – sont apparus en 1993. eux-aussi existent sous

de multiples variétés, en fonction de l’arrangement géométrique des atomes. Quant au graphite, c’est la forme la mieux connue du carbone (la mine d’un crayon en contient). sous très haute pression, il se transforme en diamant. le graphite est constitué d’un empilement de feuilles de carbone d’épaisseur monoatomique : un mille-feuille de graphène, en quelque sorte ! le problème n’était donc pas d’en produire, mais de réussir à isoler la molécule de manière stable.

circuits intégrés beaucoup plus rapides que ceux qui existent aujourd’hui, à base de silicium. IBM, par exemple, a présenté en février 2010 un prototype de transistor à base de graphène, qui fonctionne à une fréquence de 100 GHz (les transistors équivalents en silicium plafonnent à 40 GHz). Par ailleurs, en raison de sa transparence, le graphène pourrait avantageusement être utilisé comme électrode dans des cellules solaires ou des écrans plats, en remplacement de l’ITO (indium tin oxide ou oxyde d’indium-étain), matière coûteuse, fragile et dont l’approvisionnement à long terme est incertain.

sur la même voie industrielle que les nanotubes

conductivité électrique est supérieure à celle du cuivre à température ambiante. Mais ses propriétés électroniques permettent surtout d’envisager de fabriquer une nouvelle génération de composants. Des chercheurs s’efforcent par exemple de tirer profit du graphène pour inventer de nouvelles techniques d’affichage, ou encore pour fabriquer des

les applications envisagées sont variées : des réservoirs d’essence d’automobiles jusqu’aux emballages alimentaires l’usINe NouVelle i supplément au n° 3219-3220 i 16 DécembRe 2010

Des applications potentielles naissent chaque jour, parallèlement aux connaissances fondamentales, qui progressent à grande vitesse grâce aux efforts déployés à travers le monde. Sans oublier un point essentiel : la production du matériau, au départ limitée à des quantités minuscules. La production en masse n’est sans doute pas pour tout de suite. Mais le laboratoire de Manchester dont sont issus les physiciens nobélisés a déjà créé, dès 2007, Graphene Industries, une entreprise qui fournit les laboratoires et industriels en graphène. Le carbone bidimensionnel pourrait donc suivre la voie des nanotubes, autre forme du carbone récemment apparue, et qui est produite à raison de plusieurs tonnes par an dans des unités préindustrielles comme chez Arkema. Depuis 2005, plusieurs méthodes de production, physiques ou chimiques, ont été proposées, afin de se rapprocher de techniques susceptibles d’être industrialisées. Et on est déjà loin des microscopiques copeaux que les pionniers nobélisés avaient fièrement tirés du graphite. En juillet dernier, une équipe universitaire coréenne, en coopération avec Samsung, a fabriqué du graphène en 70 cm de large ! Les chercheurs de l’université de Sungkyunkwan ont fait croître du graphène sur une feuille de cuivre par dépôt chimique en phase vapeur (à partir de méthane et d’hydrogène). En utilisant des rouleaux, la feuille de carbone est transférée sur un support polymère adhésif. La même technique permet de presser le graphène sur le support final, par exemple du polyéthylène téréphtalate (PET). Première application visée: les électrodes pour écrans plats. ❚❚ 47


chimie-matériaux L’année technoLogique

Plasturgie

Les comPosItes de L’extrême De plus en plus souvent substitués aux métaux, les composites font valoir leurs qualités dans les environnements difficiles. Hautes températures, feu, séisme, produits corrosifs... Rien ne semble pouvoir arrêter le développement de ces matériaux de plus en plus performants. PAr Olivier JAmes

ls ne bénéficient d’aucun traitement de faveur. Bien au contraire : feu, hautes températures, produits chimiques, fortes pressions, tremblements de terre... Rien n’est épargné à ces matériaux qui tentent d’égaler, voire de surpasser les métaux. L’édition du salon JEC Composites qui s’est tenue en avril l’a démontré : les composites sont de

I

plus en plus utilisés pour les applications extrêmes. Leur bonne tenue dans des conditions exigeantes s’ajoute à leur légèreté pour séduire les industriels. Des performances qui devraient favoriser le développement de ces matériaux, composés le plus souvent de résine et de fibres, qui ont fait irruption dans l’industrie dans les années 1970. Aujourd’hui estimé à 60 milliards d’euros, le marché mondial des composites pourrait atteindre 85 milliards en 2013. Rien ne semble pouvoir arrêter leur progression. Inhospitaliers, les fonds marins sont une terre de prédilection pour les composites. Par exemple, pour renforcer les câbles ombilicaux, qui transmettent l’électricité et les données entre une plate-forme pétrolière et le puits de forage, ou les «risers», les conduites qui font remonter à la surface le pétrole et le gaz. La société Epsilon Composite produit des joncs (tiges pleines) pour les ombilicaux et des renforts latéraux pour les «risers». L’intérêt des composites? «Notre produit, constitué de résine époxy et de fibres de carbone, est trois fois plus résistant que l’acier et cinq fois plus léger », explique Dominique Nogues, un ingénieur bureau d’études de la PME girondine. L’utilisation des composites réduit ainsi les risques de rupture et d’entraînement de la plate-forme vers le fond. « Les autres avantages des composites sont l’absence de corrosion et la résistance aux hautes températures et aux hautes pressions», précise Lawrence Quinn, le directeur du développement au sein d’Automated Dynamics. Cette société

MATÉRIAUX EN POINTE

Répartition mondiale des matériaux composites Les résines

63 %

Thermodurcissables (polyester, époxy, polyuréthane...)

37 %

Thermoplastiques (polyamide, polypropylène, PET, PBT...)

Les fibres

87 %

0,7 %

Carbone

0,5 %

Aramide

0,8 %

Autres

48

11 %

Fibres naturelles (chanvre, lin...)

Source : JEC Composites

Photos Pascal guittet/ « l’u. N. »

Fibres de verre

Abyssal. Les pièces en résine époxy et en fibres de carbone d’epsilon composite se révèlent plus résistantes que l’acier. elles servent à renforcer les câbles reliant les platesformes pétrolières aux puits de forage et les conduites ramenant gaz et pétrole à la surface.


chimie-matériaux

L’année technoLogique

stratosphérique. Actuellement en test, les matériaux du laboratoire allemand Fraunhofer Pyco utilisent des résines hybrides, résistantes jusqu’à 260 °c. Ils devraient générer peu d’émanations toxiques en présence du feu selon ses concepteurs. L’aviation serait intéressée.

américaine emploie de son côté des résines thermoplastiques PEEK (polyetheretherketone) et PEI (polyetherimide) pour renforcer les câbles sous-marins. En y ajoutant des fibres de carbone, de verre ou de céramique. Automated Dynamics s’est ainsi rapproché des grands groupes parapétroliers Halliburton et Schlumberger. Chez Victrex, qui commercialise aussi des résines thermoplastiques PEEK pour les ombilicaux, on met également en avant la bonne résistance à l’hydrolyse et à la fatigue de ce type de composite. Toujours dans les océans, les portes et cloisons anti-feu des sous-marins pourraient faire appel aux composites. Une application encore au stade du prototype pour la PME française Pyromeral Systems. Les parois seraient en composite à matrice

surchauffé. Les composites à matrice vitrocéramique thermodurcissable de Pyromeral systems résistent à des températures allant jusqu’à 1 000 °c. Ils peuvent remplacer le titane ou l’acier et servir à la fabrication de tuyères d’échappement ou d’écrans thermiques.

L’usIne nouveLLe i suPPlémeNt au N° 3219-3220 i 16 décembre 2010

Hostile. Les composites de multiplast, dont le coefficient de dilatation thermique est quasi nul, serviront à fabriquer des cabines de radiotélescopes du programme Alma. Installés au chili, dans le désert d’Atacama, ces appareils subiront des températures oscillant enre - 40 °c et + 50 °c.

Ininflammable. Les fibres de basalte de Basaltex exploitent les propriétés de la roche pour résister aux températures extrêmes, de - 230 °c à + 750 °c. elles peuvent être utilisées en chimie pour des réservoirs d’azote liquide comme pour leurs propriétés anti-feu, dans les transports notamment.

49


chimie-matériaux L’année technoLogique

vitrocéramique thermodurcissable, les fibres pouvant être de différentes natures. «Ce produit bloque le feu de manière très efficace, assure Christophe Buchler, représentant commercial aux Etats-Unis. Et, à volume équivalent, les pièces sont jusqu’à 70% fois plus légères que le métal.» Un atout de taille, malgré un surcoût élevé par rapport à l’acier.

des fibres de basalte pour tenir de - 260 °c À + 750 °c

Les parois coupe-feu en composites sont tout aussi prometteuses à la surface de la terre. La société Basaltex a notamment développé des tissus de basalte pré-imprégnés de résine phénolique, destinés à la production de panneaux pour le transport ferroviaire. Les propriétés ignifuges de ce matériau tiennent aux caractéristiques du basalte: cette roche ne fond qu’à 1 450 °C. Ces fibres peuvent également servir de protection contre le feu pour les câbles électriques. « Les fibres de basalte peuvent résister à des températures de 750 °C, contre 600 °C pour les fibres de verre », chiffre Pauline Koslowski, ingénieur développement chez Basaltex. à l’autre extrême, ces fibres peuvent tenir jusqu’à - 260°C. De quoi fabriquer des réservoirs pour la chimie, notamment pour l’azote liquide. Plus généralement, pour le transport des produits chimiques, les composites ont une carte à jouer face aux métaux, grâce à leurs propriétés anticorrosion et à leur bonne tenue aux hautes pressions. En Allemagne, un laboratoire de l’Institut Fraunhofer, Pyco, développe en collaboration avec le groupe Clariant une résine thermodurcissable hybride. Elle combine des résines organiques (cyanate ester) et inorganiques (silazane, un polymère de silicium et d’azote). Résultat : un composite qui résiste à une température de 260°C. «Et qui génère peu d’émanations toxiques en présence du feu », assure Sebastian Steffen, du Fraunhofer Pyco. Le cyanate ester est aussi utilisé seul pour sa résistance aux hautes températures. La résine fournie par le groupe suisse Lonza a de nombreuses applications : structures internes dans les avions, éléments antifrictions dans les machines-outils et pièces d’isolation thermique dans les mo-

teurs de formule 1. « Dans les moteurs, notre résine sert avant tout à isoler les composants sous haute tension », affirme Marcel Sommer, chargé de développement chez Lonza. Toujours pour des applications à l’automobile «sous capot», Quarzwerke a opté pour l’ajout de poudres minérales dans les résines, en remplacement des fibres. Des minéraux comme la wollastonite, le mica ou bien encore le kaolin améliorent les propriétés thermiques des pièces en polyamide couramment utilisées. Pyromeral Systems, pour sa part, réalise des composites à matrice vitrocéramique thermodurcissable qui résistent à des températures comprises entre 400 et 1 000 °C. Leur vocation est de remplacer le titane, l’acier et les alliages comme l’inconel. Applications envisagées : écrans thermiques, tuyères d’échappement et pièces de protection thermique dans les moteurs. Ces éléments, encore au stade de la recherche, visent l’aviation civile et militaire. « Les grands donneurs d’ordres du secteur sont intéressés mais la phase de test n’est pas encore terminée », commente Christophe Buchler, de Pyromeral Systems.

une déformation moindre aux écarts de température

Plus en hauteur, les composites restent à l’aise, même exposés à un environnement difficile. Exemple avec Multiplast, associé avec Thales, qui doit fabriquer 25 cabines de radiotélescopes dans le cadre du programme astronomique Alma, dans le désert d’Atacama, au Chili. A 5 000 mètres d’altitude, les cabines seront soumises à des températures variant de - 40 °C à + 50 °C. Des écarts importants qui induisent des déformations et peuvent altérer les mesures effectuées par les antennes paraboliques. « Nos composites se déforment 10 à 20 fois moins que l’acier et l’aluminium couramment utilisés », affirme Dominique Dubois, le président de Multiplast. Cette société française met en œuvre une résine époxy avec des fibres de carbone pitch, une famille de fibres qui possèdent un coefficient de dilatation thermique proche de zéro. De quoi passer sans encombre de l’ombre à la lumière. ❚❚

Le papier peint veille sur les murs

Pascal guittet/« l’u. N. »

le projet européen Polytect n’est pas passé inaperçu lors du salon du Jec composites en avril dernier. le revêtement mural antisismique mis au point par 27 partenaires de 12 pays, et coordonné par la société d’appolonia, a été récompensé par un Jec innovation awards. au matériau composite constitué de résine époxy et de Le revêtement mural antisismique, mis au point par 27 partenaires de 12 pays au sein du projet européen Polytect, a été primé au dernier Jec composites.

50

fibres de verre est adjoint un système de monitoring (avec capteurs et fibres optiques). résultat : un renforcement de la structure des bâtiments et la possibilité de connaître en permanence l’état des murs, avant et après un tremblement de terre. démarré en septembre 2006, ce projet s’est achevé en juillet 2010. « les derniers ajustements ont concerné le monitoring, précise claudia maria canal, chargée du développement au sein de la société selcom. et nous avons d’ores et déjà des demandes. »


chimie-matériaux l’année technologique

Traitements

Les sURfAces PAssenT à L’AcTion Informer, filtrer des rayonnements, jouer le rôle de capteur, s’autoréparer voire produire un jour de l’énergie : au-delà de la simple protection, traitements et revêtements peuvent doter les surfaces de véritables fonctions actives. Par Carole lembezat

lus besoin de s’encombrer d’un chargeur en voyage! Le téléphone portable se recharge « tout seul », car il est recouvert d’une peinture qui utilise la lumière du soleil pour produire de l’électricité. Aujourd’hui, c’est encore de la science-fiction... Mais des scientifiques de l’Institut national de l’énergie solaire (Ines) travaillent sur des cellules photovoltaïques élaborées en solution, qui pourraient être déposées en couches minces par voie de solvant. Comme une encre ou une peinture, dont l’application suffira un jour à transformer n’importe quelle surface en producteur d’énergie. En attendant, grâce aux progrès de la chimie et des tech-

P

niques de traitement de surface, des revêtements vont déjà au-delà de leur rôle protecteur : ils renseignent sur la qualité d’un produit, indiquent l’état du matériau qu’ils recouvrent ou encore induisent des économies d’énergie. Certains savent même se réparer tout seuls ! La propriété thermochrome de certains polymères –le changement de couleur en fonction de la température – est exploitée pour indiquer qu’un objet est devenu impropre à l’utilisation. Ces polymères sont parfois directement mélangés dans la masse, lors de la fabrication des pièces en plastique. Mais il est difficile de les intégrer directement à un textile ou à une pièce en céramique, par exemple.

Authentifier les marques

C’est pourquoi les chercheurs ont imaginé des revêtements qui confèrent ce type de fonction aux surfaces sur lesquelles ils sont déposés. Des systèmes moléculaires, qui changent de couleur en réponse à un changement de température ou à d’autres stimuli (rayonnement UV, présence de solvants, contraintes mécaniques spécifiques, modification de pH, etc.), sont encapsulés et intégrés à des encres, des peintures ou des vernis. Ces changements de couleur sont déjà utilisés dans la lutte anticontrefaçon. L’exemple des billets de banque est bien connu. Passée sous une lampe à UV, l’encre recouvrant certaines zones réagit et laisse paraître un signe permettant d’authentifier le billet. Autre illustration : chauffée entre les mains, l’étiquette d’un produit textile de luxe fait apparaître le logo de la marque, garantissant ainsi son authenticité. D’autres revêtements, dont la couleur varie en fonction des contraintes –torsion, écrasement, rupture– ou de la pression (piézochromes), sont utilisés en laboratoire comme témoins pour modéliser, soit les contraintes à la surface de pièces, soit les écoulements de fluides dans des tuyaux plastiques. «à terme, on peut imaginer que cela remplace les capteurs

Des fonctions inscrites dans la matière thermochromie Recouverte d’une peinture aux propriétés thermochromes, cette bouilloire change de couleur en fonction de la température de son contenant. Une fonction à la fois ludique et utile, puisqu’elle permet ainsi de limiter les risques de brûlure.

52


chimie-matériaux

l’année technologique

électroniques », prévoit Laurent Rougeau, docteur et ingénieur de recherche au laboratoire des matériaux organiques aux propriétés spécifiques (LMOPS, université de Savoie). Lorsqu’il est irréversible, le changement de couleur en fonction de la température peut informer que la chaîne du froid d’un produit surgelé a été rompue. Tout le problème est d’obtenir un système thermochrome qui fonctionne dans les bonnes plages de température et à la vitesse voulue. « Chaque réaction chimique a sa propre cinétique, qui ne correspond pas forcément aux directives de la Direction régionale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) », explique Laurent Rougeau. Par exemple, cette instance administrative indique que le système doit changer de couleur à – 15°C (la température de conservation étant de – 18 °C) en quinze minutes. Or, aujourd’hui, pour changer de couleur à cette température, il faut encore trente minutes au système étudié par les chercheurs du LMOPS, qui travaillent donc à améliorer sa cinétique. D’autres fonctions actives en surface s’efforcent de répondre aux exigences croissantes d’économie d’énergie et de lutte contre la pollution.

traiter ou recouvrir

traitement de surface des techniques de plasma sous vide ou à pression atmosphérique permettent de • Modifier la nature physicochimique de la surface • Déposer des couches minces fonctionnelles revêtement de surface des peintures ou des vernis protègent la surface des agressions extérieures ou lui confèrent des fonctions spécifiques

Réduire la facture énergétique

Les recherches sur des systèmes à base d’oxyde de vanadium, opaques ou transparents aux infrarouges selon la température, permettent d’imaginer un revêtement qui réduirait la facture énergétique d’une habitation. Un tel revêtement de quelques microns d’épaisseur seulement, appliqué sur les fenêtres, laisse passer les rayons du soleil dans le domaine du visible quelle que soit la température. En revanche, il ne laisse passer les infrarouges qu’en deçà d’une certaine température intérieure (30 °C environ), chauffant ainsi l’habitation. Au-dessus de cette température, le revêtement «bloque» les infrarouges sans rien modifier au visible. Un brevet a été déposé par un laboratoire japonais (National Institute of

autocicatrisation

protéger Doter la surface de propriétés anti-uV, antirayure, anticorrosion, antigraffiti, antisalissure, de résistance au feu... informer • certifier l’authenticité d’un produit • signaler qu’il est devenu impropre à l’usage • Mesurer les contraintes, la pression... agir • filtrer le rayonnement infrarouge • Dépolluer l’atmosphère • Rétablir l’intégrité d’un revêtement

Advanced Industrial Science and Technology), et un site pilote a été équipé. Dans la lignée des bâtiments écologiques, le groupe Italcementi propose depuis quelques années son ciment dépolluant Tx Aria. Du dioxyde de titane, aux propriétés photocatalytiques, est incorporé à un ciment classique. Excité par les rayons ultraviolets, ce dioxyde de titane permet de dégrader les gaz polluants NOx en molécules inoffensives. Cette propriété dépolluante n’est plus limitée à des structures en extérieur. Grâce à un éclairage spécifique avec des lampes UV, le procédé peut fonctionner en intérieur : il a été mis en œuvre dans le tunnel Umberto Ier, à Rome. Moins spectaculaires, les revêtements dont la fonction est de protéger le matériau –antigraffiti, antisalissure, antirayure,

hydrophose La goutte d’eau ne peut pénétrer dans ce textile, traité par trempage selon le procédé de greffage polymère développé par Pegas-Tech. nul besoin de le « réimperméabiliser », il est intrinsèquement hydrophobe.

D.R.

fini les éraflures sur la carrosserie. nissan a mis au point un revêtement autocicatrisant. cette peinture intégrant une résine élastique est capable de combler une fissure en un temps record, allant d’une journée à une semaine en fonction de la profondeur et de la température.

un panel d’usages

L’Usine noUveLLe i supplément au n° 3219-3220 i 16 décembre 2010

53


chimie-matériaux l’année technologique

Deux voies pour créer des couches minces le plasma atmosphérique

le trempage

Gaz

Courant électrique

Bain aqueux

Pièce à traiter

Torche plasma

Activateur Monomère

Zone de décharge

Liaisons covalentes

Monomère Flamme plasma Pièce à traiter Revêtement polymère

Couche fonctionnelle source : « l’usine nouVelle »

Principe ultraréactif, le gaz ionisé réagit avec un « précurseur » qui polymérise à la surface de la pièce

Principe ce dépôt en milieu aqueux fait appel à des activateurs. des liaisons covalentes sont créées entre la couche mince et la surface

Matériaux cibles plastique, verre, métal, textile, céramique, bois

Matériaux cibles Verre, plastique, métal, céramique, bois, textile...

Avantage pas besoin d’étape de séchage

Avantage pas besoin d’apport électrique

inconvénient risque d’hétérogénéité sur des surfaces complexes

inconvénient etape de séchage nécessaire

Applications revêtement localisé pour l’automobile ou l’aéronautique, textiles techniques, microélectronique

Applications métallisation de polymères, textiles techniques, biomédical, microélectronique

antifouling, etc.– font l’objet d’études soutenues. Mais même dans ce domaine plus traditionnel, des fonctions actives apparaissent. Le constructeur automobile japonais Nissan a, par exemple, mis au point une peinture constituée d’une couche résineuse capable de «cicatriser». Eraflée, la carrosserie d’un véhicule recouvert de cette peinture comble le sillon formé.

Le greffage chimique, par traitement plasma ou trempage

De leur côté, des chercheurs de l’University of Southern Mississippi ont mis au point un revêtement de type film en polyuréthane pouvant également se réparer seul. Lorsque le polymère à la base de ce revêtement est exposé à des UV, une réaction chimique permet de régénérer localement la couche. Avant d’envisager une commercialisation, des tests devront s’assurer que cette fonction tient sur le long terme. En dehors de l’automobile, le monde des petits objets électroniques comme les téléphones portables ou les lecteurs MP3 est également concerné. Pour réaliser des revêtements innovants, protecteurs ou actifs, des techniques plus sophistiquées de greffage 54

chimique, par traitement plasma ou par trempage, semblent bien placées. Chez AcXys Technologies, un fabricant d’équipements industriels de traitement par plasma atmosphérique, l’accent a notamment été mis sur des applications pour le textile, afin de le rendre hydrophobe et oléophobe et de lui conférer ainsi une fonction antitache. De son côté, Pegas-Tech, une start-up issue du CEA et créée en juillet 2009, s’est concentrée sur le marché du biomédical. L’entreprise s’appuie sur un procédé permettant de greffer, en solution, des polymères sur un grand nombre de matériaux (verre, bois, textile, plastique, métal, etc.), en une seule étape. « On apporte en particulier une fonction de lubrification pour des dispositifs coulissants comme les seringues par exemple, illustre Sébastien Roussel, l’un des inventeurs du procédé et PDG de la société. On garantit ainsi l’absence d’injection du silicone aux patients.» Un très grand nombre de fonctions sont théoriquement réalisables par greffage. Mais les faire accéder au stade industriel demandera une plus grande maîtrise de l’homogénéité du traitement sur l’ensemble de la surface, en particulier pour les pièces de géométrie 3D. ❚❚


chimie-matériaux

l’année technologique

le point sur...

La performance des accumulateurs est la clé de l’envol ou non des véhicules électriques. Industriels et laboratoires se focalisent sur la technologie Li-ion. Objectif, d’ici à cinq ans : doubler la densité d’énergie des accumulateurs.

pascal guittet / « l’usine nouvelle »

les batteries pour voitures électriques la coentreprise américano-coréenne Dow Kokam a abandonné les technologies alternatives pour se mettre au li-ion.

Par Manuel Moragues

où en est-on ? Grâce à sa haute densité d’énergie, la technologie lithium-ion s’impose, face au li-mh ou au nickelcadmium, comme la principale technologie d’accumulateurs pouvant assurer l’essor de la voiture électrique. « C’est l’effervescence, s’enthousiasme Florence Lambert, à la tête du département électricité et hydrogène pour les transports du CEA. La plupart des laboratoires abandonnent les technologies alternatives. Les industriels se mettent au Li-ion, tel Dow Kokam, coentreprise entre l’américain Dow Chemical et le coréen TK Advanced Battery. » Ceux qui sont déjà présents sur ce domaine multiplient leurs investissements, comme Saft aux états-Unis. Renault-Nissan investit lui 600 millions d’euros pour produire 100 000 batteries par an en Angleterre (Sunderland), au Portugal (Aveiro) et sur le site de Flins (Yvelines). Autre consensus : l’importance du process industriel, à savoir l’intégration des cellules électrochimiques pour en faire des batteries. ❚❚

l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

les développements en cours Le défi reste l’augmentation de la densité d’énergie des batteries. Elle atteint aujourd’hui 140 à 170 Wh/kg, soit une autonomie d’environ 150 km. Le but est, d’ici cinq ans, d’arriver à plus de 250 Wh/kg. Problème : c’est le cobalt, un matériau instable, qui, intégré à la cathode, assure une haute densité énergétique. Les PC qui se transforment en lanceflammes, c’est lui ! Or, les industriels veulent à tout prix éviter le «syndrome GPL ». L’alliage NiAlCo, du français Saft, est celui qui conserve le plus de cobalt. Il affiche ainsi une des meilleures performances énergétiques. Les japonais comme Toshiba misent sur le manganèse, avec des anodes en MnCo, solution héritée de leurs batteries pour ordinateurs. Troisième voie, plus sécuritaire au détriment de la densité énergétique : le phosphate de fer lithié (LiFePO4). Un « outsider » mis en avant par le CEA et utilisé par A123 Systems, spin-up américaine du MIT. Les systèmes de refroidissement et l’électronique de puissance sont d’autres axes qui permettront in fine d’accroître l’autonomie. ❚❚

qui est en pointe ? La France compte de bons laboratoires de recherche sur le sujet, à commencer par le CEA. Saft est un fabricant expérimenté dans les grosses batteries et Johnson Controls dans celle pour voiture. Il y a aussi le projet de Bolloré Batscap. Mais la puissance industrielle et technologique se trouve sans conteste du côté des japonais (Panasonic, Matsushita, Sanyo…) et des coréens (Samsung, LG…), qui bénéficient d’une bonne expérience des produits dédiés aux ordinateurs. Le gouvernement coréen vient notamment de lancer un programme « battery 2020 » dont la dotation annoncée est de 12,5 milliards de dollars sur dix ans. Enfin, les américains, notamment A123 Systems, se développent aussi tant dans la recherche que la production. ❚❚

55


mécanique l’année technologique

Nautisme

hydroptère, les secrets du bateau qui vole Pour mettre au point son bateau qui décolle, Alain Thébault a su s’entourer d’une équipe d’ingénieurs de haut vol et faire appel aux technologies de l’aéronautique. Dont les jauges de contrainte, indispensables à la fiabilisation de l’engin. Par PaTrICE DESMEDT

aie de Quiberon. En cette mi-mai, l’Hydroptère dé colle tranquillement, sans secousse quand il passe les 12 nœuds. Puis il continue à accélérer sur une mer plutôt calme. La coque est maintenant à plus d’un mètre au-dessus de l’eau. Alain Thébault, le skipper et porteur acharné du projet qu’il avait lancé dès 1975, observe le speedomètre installé dans le cockpit. Les chiffres s’affolent. 25, 28, 30 nœuds. A 32 nœuds, Alain Thébault s’agite, se lève. Ses yeux s’allument. A 48 ans, après tant d’années de galère pour la mise au point de son bateau volant, il n’a rien perdu de sa passion, ni de sa joie de naviguer. Nous ferons tout de même une pointe à 37 nœuds. En toute quiétude. L’Hydroptère est fiabilisé, notamment grâce à 40 systèmes de mesure. Installés sur les points névralgiques de la coque, ils surveillent en temps réel les efforts supportés par ce

B

D.R.

Revivre les sorties en mer

Pour continuer à peaufiner l’hydroptère, deux logiciels de simulation, spécialement conçus, sont mis à contribution. L’Hydroplayer retranscrit la navigation en images virtuelles, après récupération dans l’ordinateur de bord de tous les paramètres 56

de la sortie. Les navigateurs peuvent visualiser leur vol sous différents angles et analyser les mouvements de l’Hydroptère en fonction des conditions de vent et de mer et des réglages effectués. Hydrop6, le simulateur de vol, mis au point par Philippe Perrier, un ex-Dassault, permet, lui, de faire naviguer virtuellement l’Hydroptère avec une force et une direction de vent données et sur une mer plus ou moins agitée. Nourri au fil des années, il s’est affiné. Aujourd’hui, la simulation reconstitue avec exactitude le comportement de l’Hydroptère. Prochaine étape : la fusion des deux logiciels.

bateau volant de 18,28 mètres de long pour 24 mètres de large, le plus rapide du monde sur un mille nautique, avec 50,17 nœuds (93 kilomètres/heure) de moyenne. Fournies par HBM (groupe Spectris plc), ces jauges de contrainte fonctionnent depuis quatre ans sans la moindre panne. Elles indiquent, en temps réel, le nombre de tonnes de pression encaissées par les pièces principales: foils (ailerons immergés), bras, haubans... «Nous avons choisi la solution proposée par HBM, explique Damien Colegrave, ingénieur tests et mesures, car elle permettait d’afficher les contraintes directement, sans traitement par l’ordinateur de bord, ce qui n’était pas le cas avec le système précédent. En cas de choc violent, l’ordinateur ne fonctionnait plus, et nous n’avions plus accès aux informations au moment où nous en avions le plus besoin.» HBM s’est aussi chargé de la «marinisation» des capteurs, conçus au départ pour l’aéronautique. HBM France, dont le siège se trouve à Mennecy (Essonne), a trouvé la bonne solution en les noyant sous cinq couches de protection différentes. Ces jauges sont reliées par un bus CAN à 50Hz, sur lequel sont connectés des Digiclip, qui supportent les fonctions de transmission de données à haut débit Teds (TETRA Enhanced Data Service), ainsi que les amplificateurs de mesure QuantumX. Le signal transformé est ensuite envoyé à une boîte noire Cosworth, elle aussi insensible aux chocs. Dans des conditions de navigation extrême, Damien Colegrave a une seule mission : rester dans la minuscule cabine et observer les dix cadrans qui affichent les mesures les plus importantes. Car l’Hydroptère a beau avoir été fabriqué entièrement en carbone par Dassault Aviation et EADS, avec des renforts et des pièces de liaison en titane, il n’est pas indestructible. Pour augmenter sa résistance, une souplesse sur les bras de liaison a été conservée. Pour rester en toutes circonstances à l’intérieur des normes de sécurité, la précision des jauges de contrainte est capitale. La mise en place d’écrêteurs d’effort est, elle aussi, déterminante pour la fiabilité du bateau. Ces sortes d’« amortisseurs », conçus par André Sournat (qui a participé à la création du Rafale de Dassault) et réalisés par l’entreprise Legrand et Revigny (Argenteuil, Val-d’Oise), sont dérivés du train d’atterrissage d’un avion et fonctionnent avec des bonbonnes d’azote liquide sous une pression de 150 bars,


mécanique

l’année technologique

le mât. Fabriqué par lorima, il mesure 28 mètres et est en carbone monolithique cuit en autoclave.

cinq fois plus que sur un avion. Lorsqu’il enregistre une poussée de 32 tonnes, l’écrêteur entre en action et replie légèrement le foil afin d’atténuer l’effort. Ces améliorations sont nées de l’expérience, avec l’aide de l’informatique. Après les sorties, 80 types de données recueillies par l’ordinateur de bord sont analysés. Des données issues des 40 jauges de contrainte, de 20 capteurs complémentaires (mesure de pression, de rotation...), de la centrale de navigation (force, direction du vent, vitesse et cap du bateau...) et de la centrale inertielle d’aviation. La masse d’informations recueillies ira ensuite alimenter le logiciel de simulation Hydroplayer (lire l’encadré).

les pièces de liaison. Ces éléments (fixations bras-flotteur, haubans-bras...) sont en titane. ils sont fournis par des soustraitants d’Airbus, dont labourier.

une équipe de huit ingénieurs à la retraite

Matériaux high-tech, composants fabriqués dans des usines aéronautiques, utilisation massive de l’électronique et de l’informatique. Sans cette débauche de technologies, pas de bateau volant de cette taille et à ce niveau de performances. Sans les hommes non plus. Le caractère d’Alain Thébault est bien trempé, avec un brin de folie, qu’il tient, dit-il, de sa mère. Un enthousiasme communicatif, puisqu’il saura trouver le soutien d’Eric Tabarly, de chefs d’entreprise, d’hommes politiques, et surtout d’ingénieurs de haut vol. Il a constitué une équipe de huit ingénieurs aéronautiques à la retraite de Dassault et d’EADS, les «papés» qui apportent leur temps et leur compétence bénévolement. Grâce aux sponsors suisses, la banque privée Lombard Odier Darier Hentsch et Cie et l’horloger Audemars Piguet, la société Hydroptère emploie une dizaine de salariés. En France, à La Trinité-sur-Mer, et en Suisse, où trois ingénieurs et un architecte issus de l’école polytechnique fédérale de Lausanne (EPFL) ont mis au point avec les «papés» l’Hydroptere.ch, un prototype à l’échelle un tiers, long de 10mètres. Il servira surtout de laboratoire pour le futur Hydroptère maxi, destiné à la navigation au grand large et à battre des records océaniques. Avec, en ligne de mire, le Trophée Jules Verne, et un objectif de 40 jours pour le tour du monde ! ❚❚

les bras de liaison. en carbone monolithique cuit en autoclave, ils sont drapés au chantier B et B et fabriqués par Airbus. les renforts en titane sont placés de manière à leur laisser une certaine souplesse.

les écrêteurs d’efforts. elaborés par legrand & Revigny, ils sont conçus à partir d’un train d’atterrissage. ils replient légèrement les foils au-dessus de 32 tonnes de pression, calculée par des jauges de mesure d’HBM, présentes sur toutes les pièces importantes.

les foils. Fabriqués par Airbus en carbone monolithique cuit en autoclave. en vol, ce sont les seules surfaces au contact de l’eau sur 2 m2 au total.

les tirants. elaborés par Garbolino par enroulement filamentaire de fibres de carbone. Ces pièces sont indispensables pour soutenir les bras. la coque centrale. C’est la seule pièce d’origine, construite par DCNs en sandwich carbone-Nomex.

l’usiNe Nouvelle i suPPLémeNt Au N° 3219-3220 i 16 DécembRe 2010

les flotteurs. Construits par le suisse Decision sA en sandwich carbone-Nomex. souRce : « L’usiNe NouveLLe »

57


mécanique l’année technologique

Procédé

LA FABRICATION LASER DES PIÈCES EN MÉTAL ENTRE À L’ATELIER

Deux candidats à l’industrialis ati la pRoJection De pouDRe

Laser Laser Poudre métallique et gaz neutre Poudre métallique et gaz neutre Faisceau laser Faisceau laser

Issue du prototypage rapide, la fabrication directe de pièces métalliques par frittage laser peut s’adapter à la production industrielle. Ses avantages sont multiples. Mais les procédés doivent encore être fiabilisés et stabilisés.

Sens d’avancée Sens du laser d’avancée du laser Dépôt de matière Dépôt de matière

PAR OLIVIER JAMES

e faisceau laser ultrarapide dessine des trajectoires sur le lit de poudre métallique et s’attarde sur certains points. La poudre, portée à plusieurs centaines de degrés, fond puis se solidifie en quelques secondes, pour donner, dans les zones traitées par le laser, une couche dense dont l’épaisseur varie de quelques microns à quelques millimètres. Une deuxième couche de poudre est déposée et le ballet du laser recommence. À la fin du processus de frittage, la matière superflue est aspirée et la pièce de géométrie complexe apparaît, construite couche par couche dans l’alliage voulu par ses concepteurs : ce n’est pas un prototype, mais une pièce fonctionnelle. Et la machine se prépare à produire la pièce suivante.

L

Une technologie devenue un peu plus abordable Peu à peu, les procédés dits de fabrication rapide (« rapid manufacturing ») quittent les laboratoires pour investir les ateliers. Leur particularité face aux procédés classiques (usinage, moulage…) réside dans le passage direct entre le fichier numérique d’une pièce et sa réalisation. « Nous sommes à l’aube de la fabrication rapide de pièces métalliques dans l’industrie, s’enthousiasme François Reymondet, le président de Phenix Systems, une PME de Riom (Puy-de-Dôme) spécialisée dans la production de systèmes de fabrication rapide. Après quatre années de R & D, nos machines sont mûres pour construire des pièces de série fiables. » Pour réussir cette transition, ce procédé stratégique doit encore démontrer ses performances technologiques et économiques. Pour le moment, c’est l’aéronautique et surtout le médical qui se montrent le plus en pointe. Des implants dentaires (couronnes, bridges...) sont déjà fabriqués via cette technologie émergente. Phenix Systems réalise d’ailleurs la moitié de son chiffre d’affaires sur ce marché. Plus d’une trentaine de 58

la Fusion suR lit De pouDRe

Stock de poudre métallique Stock de poudre métallique Faisceau laser Faisceau laser Chariot d’alimentation Chariot de poudre d’alimentation de poudre

Lit de poudre Lit de poudre Support chauffé Support chauffé

machines ont été vendues depuis 2005 pour la production d’implants en alliage chrome/cobalt (une fabrication jusqu’ici manuelle). Le procédé repose sur la fusion laser sur un lit de poudre métallique. La technologie, en se diffusant, est devenue un peu plus abordable : 137 000 euros pour une machine, contre 278 000 euros voilà cinq ans. Mais la PME ne veut pas se cantonner au dentaire. Elle a lancé des équipements destinés à séduire l’aéronautique ou l’automobile. À l’heure actuelle, deux procédés de frittage sont bien positionnés pour l’industrie. Leur fonctionnement est basé sur l’utilisation d’un laser : la fusion sur lit de poudre, évoquée plus haut, et la projection de poudre, qui consiste à diffuser,

Pièce Pièce s


mécanique l’année technologique

alis ation Laser Laser Laser Laser

PremièrePremière couche refroidie couche refroidie Première Première couche refroidie Deuxième Deuxième couche refroidie couche couche Deuxième de matière Deuxième de matière couche couche de matière de matière

Pièce finie Pièce finie Pièce finie Pièce finie

La poudre métallique est projetée à l’aide d’une buse. Un gaz neutre, comme l’argon, est utilisé pour focaliser ce flux de matière à l’endroit exact où le laser liquéfie la poudre. Par passages successifs de la buse, la pièce prend forme peu à peu. Les applications cibles sont la fabrication de pièces de grande taille et la réparation de pièces existantes.

Pièce semi-finie Pièce semi-finie Pièce semi-finie PièceFaisceau semi-finie Faisceau laser Faisceau laser laser Faisceau laser

Pièce finie Pièce finie Pièce finie Pièce finie

SupportSupport chauffé chauffé Support chauffé Support chauffé Dans une chambre de confinement est injecté un gaz neutre, comme l’argon, afin d’éviter l’oxydation de la poudre métallique. Celle-ci est déposée sur un plateau support qui peut être préchauffé. Un faisceau laser liquéfie la poudre. Après solidification, une deuxième couche de poudre est déposée. L’application cible est la fabrication de pièces de formes complexes, avec des limites pour les pièces de grande dimension. SOURCE : AFPR

à l’aide d’une buse, de la poudre au niveau d’un faisceau laser. La première méthode est nettement plus mûre. Les deux procédés, concurrencés par le procédé d’Arcam – qui utilise un faisceau d’électrons pour réaliser la fusion de la poudre métallique –, possèdent quelques avantages sur l’usinage classique, notamment une grande liberté dans la géométrie des pièces, ce qui autorise certaines fabrications impossibles à traiter par les moyens classiques. Ainsi, quand l’usinage impose des perçages rectilignes, la fabrication rapide permet la réalisation des formes les plus contournées à l’intérieur même des pièces. Par exemple, des canaux de refroidissement qui épousent parfaitement les L’USINE NOUVELLE I SUPPLÉMENT AU N° 3219-3220 I 16 DÉCEMBRE 2010

formes d’un moule d’injection. Autre avantage : l’allègement, rendu possible par l’emploi de la quantité de matière suffisante pour répondre aux sollicitations mécaniques de chaque zone de la pièce. L’élaboration de pièces en alliages extradurs (à base de cobalt, de titane...) se trouve aussi simplifiée. Enfin, la fabrication directe facilite la réalisation de pièces complexes qui se substituent à l’assemblage de plusieurs composants, évitant l’emploi de fixations ou de systèmes d’étanchéité. Autre argument attendu : la baisse des coûts. Sur ce plan aussi, la fabrication directe par laser est a priori bien placée : elle n’a plus besoin d’outils, elle ne fabrique plus de copeaux et sa consommation d’énergie est réduite. Toutefois, cela suppose une petite révolution dans la conception des pièces. « Nous devons faire changer les méthodes de travail au sein des bureaux d’études, explique Jean-Jacques Bertrand, responsable commercial chez BV Proto, une société belfortaine spécialisée dans la réalisation de pièces par prototypage et fabrication rapide avec le procédé de fusion laser. Pour le moment, ils dessinent toujours les pièces pour l’usinage... » Les procédés, eux aussi, ont besoin d’évoluer. Fournisseurs d’équipements de production et utilisateurs cherchent à améliorer leur fiabilité. En commençant par mieux qualifier les poudres métalliques employées et leurs nuances. « Des questions se posent sur l’interaction laser/matière et la création locale d’un plasma. Nous utilisons quatre types de poudres. Si nous devions recourir à d’autres matériaux, nous serions obligés d’effectuer de nouvelles analyses métallurgiques », souligne Jean-Jacques Bertrand. Le contrôle aussi doit progresser. « Des outils doivent être mis au point, indique Stéphane Abed, chercheur et fondateur de Poly-Shape, une jeune PME, située à Évry (Essonne), qui produit des pièces par fusion laser. Par exemple, des capteurs pouvant suivre le mouvement d’un laser dont la vitesse linéaire atteint 1 000 mm/s. » En effet, un asservissement du laser permettrait de maintenir une température constante dans le matériau et d’éviter ainsi des défauts. Une caméra dynamique pour observer l’état de la poudre fondue au niveau du laser livrerait de précieuses informations. Pour le procédé avec lit de poudre, de nombreux paramètres peuvent être optimisés : la nature des gaz, la température et la pression, ainsi que la qualité du vide initial avant l’introduction du gaz. « Ces données ne sont pas maîtrisées », concède Jean-Jacques Bertrand.

Établir des normes, condition sine qua non Ces réglages devraient déboucher sur une stabilisation du procédé. Et sur la définition de seuils de tolérance aux défauts, à l’image de ce qui a été fait avec les matériaux composites. Irepa Laser, qui a conçu le procédé par projection de poudre CLAD, travaille sur des techniques de contrôle qualité. « Nous nous intéressons aux performances mécaniques, à la résistance à la fatigue, mais aussi à la biocompatibilité pour le secteur de la santé, ou encore à la porosité du matériau », précise Didier Boisselier, le responsable technique. Au-delà des problèmes technologiques, le principal enjeu est sans doute ailleurs. « C’est la mise en place de normes pour les équipements et les matériaux qui ouvrira la voie à la fabrication rapide à grande échelle, considère Georges Taillandier, le président de l’Association française de prototypage 59


mécanique l’année technologique

rapide (AFPR). Faute de quoi, cela restera une technologie de niche. » Il faudrait, selon lui, avant tout normaliser les températures de fusion des différentes poudres et la vitesse de déplacement du laser, deux variables cruciales dans ces procédés instables. Problème : le coût qu’implique applications la mise en place de standards en raison des mulles plus en vue tiples essais nécessaires. Au niveau européen, une ● I mplants dentaires commission soutenue par le 7e PCRD (programme (santé) cadre de recherche et développement) tente de faire ● Conduites d’aération, longeronnets avancer la question. Aux États-Unis, le groupe de voilure, ailettes ASTM F42 a récemment été formé pour définir des de moteur (aéronaunormes. L’instauration de standards reste une tique) condition sine qua non pour les industriels, et plus ●P  ièces de moteur (aéronautique, encore pour les applications sensibles. « Les utiliautomobile) sations dans l’aéronautique et l’automobile doivent ●C  arrures de montre être validées, explique Phil Reeves d’Econolyst, un (horlogerie) cabinet conseil, basé en Grande-Bretagne, spécia● Bijoux (joaillerie) lisé dans la fabrication rapide. Cela peut prendre des années. » Des propos que ne dément pas Franck Henriroux, au centre de développement exploratoire ayant en charge la fabrication directe thermoplastique et métallique chez Dassault Aviation. « Des applications en série sont envisageables pour des pièces de classe 1 comme des aubes de réacteur ou des ferrures principales. Mais il va falloir environ

60

trois ans de tests avant de mettre en œuvre la fabrication rapide dans les procédés de production de nos avions. » Airbus, s’y intéresse et a lancé une phase de tests. Prometteuse, la fabrication rapide souffre malgré tout de quelques limites... de vitesse ! Sa productivité est encore restreinte : la fabrication d’une pièce demande de quelques heures à... quelques jours. Pour le moment, le procédé est donc destiné à la production en petite série. Le panel des métaux utilisés doit être élargi pour mieux répondre aux besoins de l’industrie. La fabrication rapide appliquée aux superalliages (types inconel ou waspaloy, basés sur le nickel), qui intéressent notamment l’aéronautique, doit encore faire face à des problèmes aigus de corrosion. Enfin, la capacité de produire en série des pièces de grande taille reste à démontrer. Cela n’empêche pas le président de l’AFPR de se projeter avec enthousiasme vers l’avenir. « On peut imaginer que chacun aurait demain accès, chez lui, à une machine et qu’il suffira d’appuyer sur un bouton pour fabriquer un objet. » Déjà dans le domaine grand public, des sociétés de service capables de fabriquer des pièces à la demande (mais en polymère) à partir d’un fichier 3D sont apparues. Et HP vient même de lancer une imprimante 3D vendue environ 15 000 euros. Mais pour le frittage laser à domicile, M. Tout-le-Monde devra sans doute attendre. ❚❚


mécanique

l’année technologique

le point sur...

la tomographie industrielle La baisse de prix des machines et l’évolution technologique ouvrent de nouveaux champs dans le contrôle industriel pour cette méthode d’imagerie 3D issue du médical.

d.r.

Par Mirel Scherer

où en est-on ? Les machines de tomographie numérique 3D permettent le contrôle extérieur et intérieur des pièces complexes comme un carter de moteur. Elles s’appuient sur la technologie des rayons X. Auparavant ces opérations nécessitaient de longues semaines de travail et souvent de détruire les produits. Très coûteuse jusqu’ici, la tomographie 3D se démocratise du fait de la baisse du prix des sources et de la performance accrue de l’informatique. «Conçue dans le domaine médical, cette technologie a été utilisée rapidement pour traquer les défauts des pièces usinées dans une stratégie “zéro défaut”», explique Christian Thierry du CEA. «Elle était réservée à des industries fortunées comme l’aéronautique qui pouvait affronter la mise en œuvre de ces installations lourdes et coûteuses à entretenir.» Cette situation change. «Les prix de machines ont été divisés par deux ou trois en dix ans», constate Jean-Jacques Balaguer, directeur de ventes Europe du Sud de Nikkon Metrology. Aujourd’hui, il faut compter environ 90000 euros pour une machine dotée d’une source de rayons X de 100-130 kV et autour de 200000 euros pour une installation de 225 kV, capable de pénétrer des épaisseurs de 20 à 30 mm. ❚❚ l’usine nouvelle i supplément au n° 3219-3220 i 16 décembre 2010

vue détaillée de la porosité anormale d’une jante en aluminium, grâce à un tomographe 3d d’Yxlon.

les développements Qui est en pointe ? en cours Carl Zeiss, Nikkon Metrology, Plusieurs travaux de recherche sont actuellement lancés pour étendre le domaine d’application de la tomographie. Comme de passer outre, par exemple, la difficulté de traiter des matériaux dont la densité est supérieure à 3 g/cm3. Ou assurer la validation et l’amélioration des modèles prédictifs de simulation dans certains domaines industriels comme la fonderie. Pour atteindre ces objectifs, le fondeur d’aluminium Montupet s’est associé avec le Cetim (Centre technique des industries mécaniques), l’ESI, (société spécialisée dans les logiciels de simulation) et l’Université technologique de Compiègne (UTC). Lancé sur quatre ans jusqu’en 2012, leur projet Tompic bénéficie d’un budget de trois millions d’euros financé par la région Picardie. Dont un million pour l’acquisition d’une machine de l’allemand Yxlon. L’appareil, installé chez Montupet à Laigneville dans l’Oise, permet d’ausculter des pièces jusqu’à 1 m de haut, 500 mm de diamètre et d’un poids de 100 kg. Avec une épaisseur inspectée de maximum 50 mm (acier ou équivalent). ❚❚

Intercontrole, Yxlon… Plusieurs fournisseurs de systèmes tomographiques proposent des solutions clés en main, économiques et adaptables à chaque cas d’application. On peut ainsi, en fonction de la densité de la pièce à contrôler et de ses priorités, choisir différentes sources ou détecteurs, faire appel à des logiciels de reconstruction… La densité du matériau à contrôler détermine le choix de l’intensité de la source de rayon X. Une source de 225 kV correspond par exemple, au contrôle des petites pièces plastiques ou moulées en acier standard voire des mécanismes complexes de taille réduite. Certains équipements disposent d’un plateau tournant qui permet de «découper» la pièce en tranches et de la reconstruire en 3D pour rechercher des défauts spatiaux. Le choix d’une source plus puissante, 450 kV par exemple, s’impose néanmoins dans le cas de matériaux plus denses, comme les aciers spéciaux. Les machines équipées d’une telle source sont capables de pénétrer dans les entrailles d’une tronçonneuse ou d’un carter moteur, ou d’analyser les formes complexes comme celles de pales de turbines. ❚❚ 61


transport-aéronautique l’année technologique

Espace

7 tonnes de chaRge utile Le module cargo est composé essentiellement d’un compartiment pressurisé de 42 mètres cubes. Il sert au transport des vivres et des équipements scientifiques. Il est aussi équipé de réservoirs d’ergols, d’eau et de gaz (air, oxygène, azote) destinés au système de propulsion de la station et à l’équipage.

Rendez-vous dans les étoiles Le ravitailleur européen ATV Johannes Kepler va rejoindre la station spatiale internationale. Ses calculateurs de vol lui permettent de réaliser un amarrage automatisé d’une extrême précision. Par hassan meddah

l se déroule à environ 300 km au-dessus de nos têtes, entre deux vaisseaux filant à 28000 km/h. Et sans intervention humaine. L’amarrage de l’ATV (Automated Transfer Vehicle), le ravitailleur spatial européen, avec la station spatiale internationale (ISS), est certainement l’une des opérations les plus sophistiquées qui soit. Ce «rendezvous » spatial, dont l’objectif est d’apporter des vivres, du matériel scientifique et du carburant aux six astronautes embarqués dans leur gigantesque laboratoire spatial, est prévu pour mi-février 2011. Ce sera le second du genre, le précédent ayant eu lieu en 2008, avec le premier ATV, baptisé «Jules Verne». «Avant de lancer la fabrication du second ravitailleur, il a fallu tirer toutes les leçons du premier amarrage», explique Nico Dettmann, le directeur de la mission ATV-2 pour l’Agence spatiale européenne (ESA). Les trente mois qui se sont écoulés ont été mis à profit pour améliorer plusieurs éléments, comme les protections thermiques - qui n’avaient pas toutes résisté à la dépressurisation rapide liée au moment où le lanceur Ariane sort de l’atmosphère. Mais pour l’essentiel, les technologies de l’ATV ont prouvé leur efficacité. L’ATV-2, dit «Johannes Kepler», sera aussi imposant que son aîné: 10 mètres de long pour 4,5 mètres de diamètre, et un poids total de 20,5 tonnes. «Soit un cylindre géant capable d’embarquer dans l’espace un bus impérial londonien ! », sourit Olivier de la Bourdonnaye, le directeur du programme ATV pour EADS Astrium, maître d’œuvre du projet.

Des milliers de paramètres pour la trajectoire d’approche

Le véritable tour de force réside dans la capacité du véhicule à assurer un amarrage entièrement automatisé, grâce à son calculateur de bord. Les autres «ravitailleurs» de la station internationale, les navettes spatiales américaines, la capsule russe Progress ou le module japonais HTV, sont en effet pilo62

D.R.

I

tés soit par les astronautes à leur bord, soit par ceux de l’ISS. «L’ATV embarque un logiciel d’environ un million de lignes de code, l’un des plus complexes jamais conçus au monde. Sa force est surtout de savoir prendre en compte des milliers de paramètres, notamment pour optimiser sa trajectoire d’approche», explique Olivier de la Bourdonnaye. Le logiciel a été développé par les équipes d’EADS Astrium aux Mureaux, dans les Yvelines. En cas d’anomalie, les calculateurs de l’ATV, l’équipage de la station ou le centre de contrôle de Toulouse peuvent toutefois déclencher une manœuvre d’évitement.


un double système pRopulsif Le système primaire, qui comporte 4 moteurs principaux, permet à l’ATv de rejoindre la station spatiale. Avec le second système, composé de 28 propulseurs de contrôle d’orientation (dont 8 installés sur le module cargo), l’ATv peut corriger l’orbite et l’altitude de la station orbitale.

des panneaux solaiRes intelligents Pour son alimentation électrique, l’ATv dispose de quatre générateurs solaires déployables. D’une envergure de 22 m et disposés en croix, ces panneaux sont capables de prendre dynamiquement en compte l’ombre de l’Iss sur leur surface. Ils fournissent 4,8 kW de puissance électrique au moment de l’amarrage.

des calculateuRs de boRd autonomes véritable cerveau de l’ATv, le module avionique commande les opérations d’approche finale jusqu’à la jonction avec la partie russe, à l’arrière de la station. Ces phases sont entièrement automatisées. Les performances du calculateur lui permettent d’atteindre une cible se déplaçant à 28 000 km/h à une altitude de l’ordre de 300 km.

L’autre prouesse du ravitailleur tient à son extrême précision. La marge d’erreur avec le point d’accostage russe Zvezda n’est que de 10 cm, alors que la rencontre spatiale s’effectue à 28 000 km/h ! « Pour relever le défi, l’ATV est équipé de moyens de navigation complémentaires afin de valider au maximum les calculs de positionnement et de distance», précise Olivier de la Bourdonnaye. Durant sa phase d’approche et jusqu’à une distance de 250 mètres de la station, le véhicule exploite un système GPS estimant sa position relative par rapport à l’ISS, ainsi qu’un viseur d’étoiles lointaines pour calculer son orientation dans l’esL’usInE nouvELLE i supplément au n° 3219-3220 i 16 DécembRe 2010

pace. Quand il n’est plus qu’à quelques mètres de sa cible, des capteurs optiques à technologie laser, un vidéomètre et un télégoniomètre, indépendants l’un de l’autre, prennent le relais et visent les réflecteurs de l’ISS. La mesure des temps d’aller-retour et le calcul des angles de réflexion donneront alors la distance de séparation et la direction à suivre. Bardé de tous ces équipements, l’ATV-1 avait atteint son objectif avec un décalage inférieur à 2 cm. Dans l’avenir, l’Agence spatiale européenne n’exclut pas de faire de l’ATV un vaisseau capable de transporter des astronautes. ❚❚ 63


transport-aéronautique l’année technologique

500 kW transmis à distance

4

3 1

bombardier / idé

L’arrivée du tramway sur un segment de voie est détectée par un dispositif au sol e. il commande au convertisseur de puissance r d’alimenter temporairement le segment (en orange). L’énergie magnétique émise est captée par des bobines embarquées t et transmise au moteur. Les supercapacités u peuvent se charger de la même manière ou lors des freinages, pour restituer la puissance au démarrage.

Transport

Le Tramway passe au sans fiL Un prototype de Bombardier roule depuis septembre 2010 sans caténaire ni rail d’alimentation. La transmission de la haute puissance exigée par le ferroviaire a lieu sans contact grâce à l’induction. Une première. Par manuel moragues

agique ! Pas de caténaire en haut, pas de rail d’alimentation au sol. Et pourtant, le tramway roule. Depuis septembre, le canadien Bombardier répète à l’envi ce tour de passe-passe sur une section expérimentale de 800 mètres d’une ligne de tramway d’Augsburg, au sud de l’Allemagne. Le spectacle sera à l’affiche jusqu’en juin

m

64

2 La bobine au sol émettant le champ magnétique est formée d’un entrelacement de boucles.

2011. Au programme: démontrer la fiabilité de l’alimentation électrique d’un tramway sans fil et sans contact. Le truc est connu… depuis deux siècles: c’est l’induction magnétique. Prenez une bobine de cuivre et faites-y circuler un courant alternatif. Vous obtenez un champ magnétique qui rayonne allégrement. Prenez une seconde bobine et rapprochez-la : un courant se met à y circuler, induit par le champ. Le courant électrique a été transféré d’une bobine à une autre, sans les mettre en contact. C’est le principe du système Primove de Bombardier. La première bobine est un circuit qui court sous la surface de la voie, entre les rails. La seconde est placée sous le plancher d’une voiture. Le courant qu’elle récupère alimente le moteur à bord. Et roule le tramway ! «Le principe est d’une simplicité navrante, résume Harry Seiffert, le directeur du projet Primove. C’est sa mise en œuvre qui est difficile. » Bombardier a dû faire face à deux difficultés : une puissance à transmettre élevée (500 kW) et une distance importante (environ 10 cm) entre les bobines. Cet écartement introduit une résistance au champ magnétique, qu’il faut compenser en augmentant le courant. Dans les applications usuelles de l’induction, comme l’alimentation des convoyeurs dans les usines automobiles, ce sont au plus 5 kW qui sont transmis, à une distance d’environ 1 centimètre.


transport-aéronautique l’année technologique

un an de tests 2007 Début du développement de la technologie par Bombardier.

Janvier 2009 Premiers essais sur le site Bombardier de Bautzen (allemagne).

septembre 2010 juin 2011 Test à augsburg (allemagne).

500 kW C’est la puissance maximale du système Primove.

10 cm C’est la distance de transmission de l’énergie.

de son tramway APS (alimentation par le sol), nourri par un troisième rail électrifié. La sensibilité de ce rail aux intempéries a conduit Alstom à installer un système de drainage des eaux de pluie. Le capteur de courant embarqué, qui s’usait en frottant sur le rail d’alimentation, a contraint Alstom à changer de matériau. Aujourd’hui, le système fonctionne. Reste, pour Bombardier, l’inconvénient de l’induction à haute puissance: la nécessité d’un blindage performant. «Un effort particulier a été porté sur le matériau et la géométrie du support du bobinage sous la voie, pour empêcher que le champ ne s’échappe dans le sol, où il risquerait de brouiller les signaux des feux de signalisation», explique Harry Seiffert. Côté voiture, le plancher métallique suffit à bloquer le champ. Et en l’absence de tramway? Il n’y a pas de champ. L’alimentation au sol est découpée en segments d’une dizaine de mètres. Grâce à des équipements de détection au sol, le courant ne circule dans un segment que lorsqu’un tramway l’occupe. Une solution nécessaire pour répondre aux normes sur le rayonnement électromagnétique. La magie ne peut opérer qu’à ce prix. ❚❚

Pour alimenter un tramway, il s’agit de multiplier la puissance par cent et la distance par dix ! Si le principe reste le même, cela change tout pour sa réalisation technologique. Il faut pousser les curseurs à fond, à savoir l’intensité du courant et sa fréquence. Mais augmenter le courant fait bondir les pertes d’énergie par effet Joule, ainsi que la taille et le poids des bobines. Parallèlement, de nouvelles pertes d’énergie apparaissent quand on monte en fréquence. Audelà d’un certain seuil, il devient impossible de conjuguer haute fréquence et puissance élevée.

aucun risque d’électrocution

Le salut est venu de la... géométrie. «La bobine au sol est formée d’un entrelacement de boucles qui nous permet de transférer une forte puissance avec un courant raisonnable. révèle Benoît Gachet, le directeur marketing et produits de Bombardier pour l’Europe du Sud. Le rendement de ce transfert atteint 90%.» Le constructeur a par ailleurs pu se contenter d’une puissance de 500 kW grâce à l’utilisation de supercondensateurs embarqués, offrant un surcroît de puissance au démarrage (lire l’encadré). Le système d’alimentation est insensible à l’usure mécanique et aux intempéries et ne présente aucun risque d’électrocution, insiste Bombardier. Allusion à peine voilée aux déboires d’Alstom lors du démarrage, en 2004, L’usine nouveLLe i supplément au n° 3219-3220 i 16 décembre 2010

Des supercondensateurs énergiques le tramway alimenté sans contact est l’occasion pour bombardier de promouvoir ses supercondensateurs. ces équipements stockent moins d’énergie que des batteries, mais délivrent des puissances plus élevées. ils supportent beaucoup mieux des cycles répétés de chargedécharge. testés entre 2003 et 2007 sur un tramway pilote en allemagne, ils récupèrent l’énergie cinétique libérée au moment des freinages pour la restituer au moteur lors des accélérations. À la clé, des démarrages énergiques et une économie de 30 à 40 %

sur la facture d’électricité. leur principal intérêt résiderait dans la possibilité de sousdimensionner le réseau d’alimentation électrique. nul besoin que le réseau soit capable de fournir les pointes de puissance nécessaires aux démarrages : les supercondensateurs peuvent s’en charger. le système primove de bombardier en est l’illustration : par exemple, sur 900 kW nécessaires à un démarrage rapide, 400 kW peuvent être pris sur l’alimentation au sol. le reste est pris sur les supercapacités. 65


transport-aéronautique l’année technologique

Le point sur...

Les mini-drones Bertin technologies 2010.

Pour les aéronefs sans pilote ou contrôlés à distance, « small is beautiful ». Les mini-drones tentent d’augmenter leur autonomie sans sacrifier leur capacité d’observation et de tenue au vent. Par Hassan MEDDaH

Le dernier drone de Bertin Technologies, utilisé pour des missions de surveillance, peut effectuer des vols de transition jusqu’à 110 km/h.

où en est-on ? De petite taille et d’une masse réduite à quelques kilogrammes, les minidrones sont aisément transportables (voir portables) et suffisamment sophistiqués pour effectuer des missions d’observation sans mettre en danger la vie d’un opérateur. Si les militaires, pionniers dans le domaine, en font un usage régulier dans les conflits, les applications civiles se développent : survol de zones dangereuses (zone contaminée, pollution chimique) ; surveillance des cultures, mission liée à la sécurité civile (incendies, pollutions), inspection d’infrastructures… Bien que les premiers modèles remontent déjà aux années 1980 avec le Pointer de la société américaine AeroVironment, la réglementation dans le domaine civil peine à suivre. Ainsi la DGAC (Direction générale de l’aviation civile) est seulement en train d’établir une première classification. « Plus que l’envergure, la masse et la vitesse de vol sont les points clés à prendre en compte car d’elles dépend la dangerosité de l’appareil en cas de crash par exemple », explique Claude Le Tallec de l’Onera, le centre français de recherche aéronautique et spatiale. ❚❚

66

Les développements Qui est en pointe ? en cours Les industriels américains, Les défis sont nombreux: tenue au vent, miniaturisation de la propulsion, stabilisation de la charge utile… Présent sur ce segment depuis 1999, Bertin Technologies a pu évaluer plusieurs outils avant de sortir son dernier modèle dédié aux missions d’observation et de surveillance. HoverEye-EX est un mini-drone à voilure tournante capable d’effectuer des vols stationnaires et vols de transition jusqu’à 110 km/h. «Nos efforts ont porté sur l’endurance à travers le choix d’une motorisation thermique à turbo-propulsion, plutôt qu’électrique. Nous avons amélioré les systèmes optiques embarqués grâce à une tourelle gyrostabilisée et au traitement d’image», note Sylvain Millemann, responsable de l’activité drone. à partir d’une structure de masse à vide de 12 kg, il accueille des réservoirs conférant une heure d’autonomie et emporte des systèmes optiques (7 kg), pouvant détecter les mouvements d’une cible à 1 km de distance. La sécurité est une contrainte lourde des mini-drones évoluant près d’un public : ils doivent quasi s’autodétruire en cas de choc pour ne pas blesser. Des travaux sont donc à faire sur leur capacité à se rompre. ❚❚

britanniques et israéliens ont une longueur d’avance, que ce soient les grands de la défense tels Lockheed, Honeywell, BAE et Israel Aerospace ou des sociétés plus spécialisées comme Elbit Systems ou AeroVironment. La Darpa (agence de recherche de l’armée américaine) mène plusieurs programmes sur ce sujet ainsi que sur les microdrones. Ils portent notamment sur la propulsion, avec des pistes comme les piles à combustible. En France, l’Onera travaille aussi sur les microsources d’énergie. Il prépare pour 2011 un prototype de micro-turbine à gaz d’une puissance électrique de 50 W. Réservoir inclus, celle-ci devrait rentrer dans une canette, soit une miniaturisation en volume de 45 000 fois comparée à une turbine classique d’hélicoptère. La DGA a aussi organisé deux fois un « challenge mini-drone » vouées aux élèves ingénieurs. Outre Bertin (groupe Cnim), des PME (Lehman Aviation, Cofice, WorkFly…) sont par ailleurs présentes sur le marché non militaire (inspection, photo). ❚❚


Supplément Année Technologique  

Supplément Année Technologique

Read more
Read more
Similar to
Popular now
Just for you