Page 1

l e s   n o u v e l l e s

d’A

rchimède le journal culturel de l’Université Lille 1

JAN FÉV MAR #

5 3

Rendez-vous d’Archimède > La crise > Créativité et territoires

Le chat de Schrödinger, Ministre (du Travail), dehors peste le chiffre noir… Spectacle vivant / Emler - Tchamitchian - Échampard Trio Concert / « Le campus autrement », « Un campus métropolitain : habiter la Ville-Université » Expositions

2010

« Le diable est diable parce qu’il se croit bon » Ramiro de Maeztu, La crise de l’ humanisme


LNA#53 / édito

La pensée à l’Université Un éternel combat Nabil EL-HAGGAR

Vice-président de l’Université Lille 1, chargé de la Culture, de la Communication et du Patrimoine Scientifique

Les Universités européennes ont toujours connu bien des pressions. Contrôle des contenus des cours par l’Église, fermetures administratives plus au moins longues en France, proscription des textes de Descartes à la Sorbonne en 1675… Nous savons combien le combat à mener pour obtenir la liberté de penser a été long et douloureux. Dans les démocraties, l’université est devenue ce lieu libre où la pensée s’épanouissait, un lieu de réflexion, de recherche, d’éducation et de diffusion des savoirs et de culture. Mais aussi un lieu où le regard critique exigeant, posé par les universitaires sur la société et les pouvoirs, garantissait la bonne marche des institutions politiques, économiques, culturelles et sociales. Là où la démocratie est absente, l’université et les universitaires remplissent souvent leur rôle de force intellectuelle de contestation, de critique et de proposition. Encore aujourd’hui, beaucoup d’entre eux payent au prix fort cet engagement. Selon Edgar Morin : « L’intellectuel doit d’abord vouloir survivre et vivre comme intellectuel, précisément parce qu’il subit des forces de dégradation interne énormes et qu’une formidable pression politique, idéologique, technocratique... tend à le laminer et le détruire » 1. L’intellectuel peut donc faiblir sous les pressions diverses et entraîner avec lui l’affaiblissement de la pensée.

1 Edgar Morin, Pour sortir du XXème siècle, éd. du Seuil, coll. Points, Paris, 1984, p. 265. 2  Denis de Rougemont, Penser avec les mains (1935), éd. Gallimard, coll. Idées, Paris, 1972.

J. Habermas, Le discours philosophique de la modernité, trad. C. Bouchindhomme et R. Rochlitz, éd. Gallimard, 1988, p. 134.

3

4

culture@univ-lille1.fr

L’équipe Jacques LESCUYER direction Delphine POIRETTE chargée de communication Edith DELBARGE chargée des éditions et communication Julien LAPASSET concepteur graphique et multimédia Audrey Bosquette assistante aux éditions Mourad SEBBAT chargé des initiatives étudiantes et associatives Martine DELATTRE assistante initiatives étudiantes et associatives Dominique HACHE administrateur Angebi Aluwanga assistant administratif Johanne WAQUET secrétaire de direction Joëlle FOUREZ accueil-secrétariat Antoine MATRION chargé de mission patrimoine scientifique Jacques SIGNABOU régisseur Joëlle MAVET café culture

2

Si l’Université moderne ne risque pas la fermeture sur ordre de l’autorité politique, si ses intellectuels sont à l’abri de pressions morales ou physiques les obligeant à renoncer à leurs idées ou à changer leurs cours, ils sont en revanche les proies de pressions subtiles autrement plus modernes, mais aussi efficaces. L’inévitable refrain de l’enseignant-chercheur : « je n’ai pas le temps ! » signale une grande menace. Débordé, dépassé, stressé par les contraintes administratives quotidiennes, la course à la publication dans des revues bien identifiées, d’où la hantise d’une carrière qui progresse peu, le tout formant ainsi la principale menace à la vie intellectuelle universitaire. Plus d’une fois, des collègues, qui s’étaient engagés à écrire dans « Les Nouvelles d’Archimède », ont fini par renoncer, optant pour des revues dont l’impact sur leur carrière est significatif. Le risque de sous-tendre la réflexion intellectuelle universitaire aux résultats de la recherche est nuisible, en premier lieu, à l’universitaire lui-même dont la réflexion intellectuelle s’appauvrit dans une spécialisation et une technicisation à outrance, s’éloignant du monde qui l’entoure et, en second lieu, à la richesse d’une réflexion intellectuelle globale. Ajoutons à cela la volonté de dévaloriser le savant devant la vulgarisation des savoirs… : l’institution universitaire, comme lieu de pensée libre, est sérieusement menacée ! Ainsi s’achève l’industrialisation de l’activité intellectuelle, ce que Denis de Rougemont appelait, en 1935, la prolétarisation de la pensée 2. Jürgen Habermas écrit d’ailleurs à ce propos : « la science moderne a jeté son masque et a renoncé à l’exigence plénière de la connaissance théorique au profit de l’utilité technique... les sciences ont été absorbées par la raison instrumentale » 3. Les amis d’Archimède L’université est encore l’un des rares lieux dans lequel la pensée parvient à s’épanouir et à se développer, n’est-il pas urgent de la protéger ? Suite à de multiples discussions avec des universitaires, des conférenciers, des étudiants et surtout avec le public d’Archimède, le projet de constituer une association qui pourrait s’appeler « Les amis d’Archimède » prend forme. Elle aurait pour objet la promotion, la valorisation et la défense de la pensée, de la réflexion et de l’échange des idées dans la société. Si ce projet vous intéresse, n’hésitez pas à nous faire part de vos idées 4.


sommaire / LNA#53 À noter page 61 : dehors peste le chiffre noir Créativité et territoires 4-5 6-7 8-9 10-11 12-13

Le multimédia : une chance pour le territoire par Maxence Devoghelaere Pourquoi nous n’avons pas encore inventé de machine à inventer par Michel-Louis Rouquette Grandeur et misère de la culture : le cas de la culture scientifique par Nayla Farouki Création et politique : un lien ambigu, entre désordre et ordre par Christian Lemaignan L’artiste, l’ingénieur et les nouvelles technologies par Jean-Paul Fourmentraux

La crise 14-15 16 17-18 19-20 21-24

À quoi sert la Finance ? par Laurent Cordonnier Que dit-on de la crise en médecine ? par Philippe Gallois La crise de l’État Providence par Robert Castel État social : figure de crise ou d’avenir ? par Christophe Ramaux Une crise en physique ? Entre déterminisme et imprévisibilité par Roger Balian

Rubriques 25-27 28-29 30-31 32-33 34-35 36-37 38-39 40-41 42-43 44-45 46-48

Mémoires de sciences par Jean-Paul Delahaye Paradoxes par Jean-Paul Delahaye Humeurs par Jean-François Rey Repenser la politique par Alain Cambier Jeux littéraires par Robert Rapilly À lire par Bernard Maitte À lire par Rudolf Bkouche À lire par Youcef Boudjemai Vivre les sciences, vivre le droit… par Jean-Marie Breuvart Chroniques d’économie politique par Sandrine Rousseau L’art et la manière par Nathalie Poisson-Cogez

En couverture : Ministre (du Travail) Voir page 57 Photo © Philippe Cibille

Libres propos 50-52 Le parcours scientifique du Professeur Robert Gabillard : de la résonance magnétique nucléaire au métro VAL par Bernard Démoulin et Georges Salmer Au programme 53 54 55 56 57 58 59 60 61 62-63

Rendez-vous d’Archimède : Cycle « La crise » Rendez-vous d’Archimède : Cycle « Créativité et territoires » Question de sens : Cycle « Résistances » Théâtre : Le CHAT de Schrödinger Théâtre : Ministre (du Travail) Théâtre : Tarzan in the garden ou la grand question Musique : Emler/Tchamitchian/Échampard trio Théâtre : dehors peste le chiffre noir Théâtre : La griffe des escargots Expositions « Le Campus autrement » / « Un campus métropolitain : habiter la Ville-Université »

LES NOUVELLES D’ARCHIMÈDE Directeur de la publication : Philippe ROLLET Directeur de la rédaction : Nabil EL-HAGGAR Comité de rédaction : Rudolf BKOUCHE Youcef BOUDJEMAI Jean-Marie BREUVART Alain CAMBIER Nathalie Poisson-Cogez Jean-Paul DELAHAYE Bruno DURIEZ Rémi FRANCKOWIAK Robert GERGONDEY Jacques LEMIÈRE Jacques LESCUYER Bernard MAITTE Robert RAPILLY Jean-François REY Rédaction - Réalisation : Delphine POIRETTE Edith DELBARGE Julien LAPASSET Impression : Imprimerie Delezenne ISSN : 1254 - 9185

3


LNA#53 / cycle créativité et territoires

Le multimédia : une chance pour le territoire Par Maxence DEVOGHELAERE Co-fondateur de 3Dduo

En conférence le 2 février Les prémices du multimédia régional Depuis plusieurs années, le multimédia connaît une véritable mutation. Cette dernière a fortement impacté la région et a notamment donné naissance au premier collectif multimédia régional : l’arc numérique en 2001. La démocratisation d’Internet, l’explosion du multicanal, la convergence des médias ont fortement incité la région à évoluer et à s’adapter. De nombreux acteurs ont vu le jour et de belles success stories ont marqué le paysage.

En effet, cette société, créée en 2001, ne comptait à ses débuts que quelques salariés. Aujourd’hui, elle emploie plus de 350 personnes dans une dizaine de filiales. D’autres noms emblématiques viennent conforter cette force régionale : Big Ben, Hydravision, Goto Software pour le jeu vidéo, Archimède pour le développement informatique, IP4U pour le jeu mobile et l’animation, Meconopsis pour les images de synthèse ou encore Adistar pour les solutions web. Des formations à haute valeur ajoutée Tous ces acteurs ne sont pas là par hasard, ils sont soutenus par des formations de qualité qui ouvrent aux innovations et au multimédia apportant des ressources créatives.

Banja - Team Chman

Des acteurs professionnels reconnus Lorsqu’on parle de success story et de multimédia, Ankama est certainement le premier nom qui nous vient à l’esprit.

Réalisations 2008 - Supinfocom

Le groupe Supinfocom, à Valenciennes, en témoigne avec sa renommée artistique internationale. La formation de bons ingénieurs est également indispensable et assurée par de grandes écoles telles que Télécom Lille, Epitech Lille et Supinfo. Enfin, de nouvelles formations telles que Pôle IIID, à Roubaix, viennent davantage enrichir cette cartographie déjà riche. Un dynamisme entrepreneurial Ces différentes caractéristiques régionales fortes sont soutenues par une vraie dynamique entrepreneuriale incitant la création de jeunes pousses prometteuses : Byook, V-CULT, Pilipiligram…

Dofus - Ankama

4

Des structures d’accompagnement (Lille Métropole Initiative, Réseau Entreprendre Nord, Digiport, CCI) aux ruches d’entreprises (Ciel, RTN ), en passant par les incubateurs innovants (MITI, Créinnov) et les associations (Créativallée, club e-entreprises), toute la cartographie nécessaire est présente afin d’assurer aux jeunes entrepreneurs un développement encadré et serein.


cycle créativité et territoires / LNA#53

Leelh - 3Dduo

La naissance de pôles de compétitivité Toute cette effervescence est soutenue par deux pôles d’excellence : le Pôle Régional Numérique et, plus récemment, le Pôle Image Play. Ces rassemblements d’entreprises du secteur permettent le partage d’expériences, l’élargissement de réseaux et la mise en place de synergies collaboratives. Ils sont un atout majeur pour un territoire souhaitant s’imposer dans une filière en plein essor.

emblématiques viendront rejoindre cette volonté de développement régional du multimédia (Les studios de l’Union à la frontière Roubaix-Tourcoing, le Plateau numérique des rives de l’Escaut, Transformeurs d’ im@ginaire à Wallers). Le multimédia est un enjeu incontournable pour le territoire. Le savoir-faire des acteurs locaux montre clairement la valeur ajoutée de notre région en la matière. De plus, le potentiel de création d’emplois de ces pépites numériques est une opportunité indispensable de redynamisation d’une région encore marquée par la crise du textile et de la sidérurgie.

La multiplication d’associations spécialisées La multiplication des acteurs du multimédia les a incités à se regrouper pour s’organiser en associations structurantes permettant de regrouper les structures d’un même domaine d’activité. Ainsi, Game In a vu le jour, regroupant les acteurs du jeu vidéo. Plus récemment, le Serious Game Lab a également été créé. Basé à Valenciennes, il regroupe tous les acteurs français du serious game. Enfin, une association autour des acteurs de l’animation est également en train de se structurer. Des espaces dédiés Finalement, des environnements complets sont dédiés à ce panorama, favorisant l’accueil mais également le développement. Euratechnologie, à Lomme, est le symbole de la dynamique actuelle mais, dans un avenir prochain, plusieurs lieux

Euratechnologie

5


LNA#53 / cycle créativité et territoires

Pourquoi nous n’avons pas encore inventé de machine à inventer Par Michel-Louis ROUQUETTE Professeur de psychologie sociale et environnementale Université Paris Descartes

En conférence le 10 mars Plusieurs tentatives ont été faites pour résoudre le mystère de l’Automate. L’opinion la plus générale, opinion trop souvent adoptée par les gens de qui l’intelligence promettait mieux, a été, comme nous l’avons déjà dit, que l’action humaine n’y entrait pour rien, que la machine était une pure machine, et rien de plus 1.

L

’idée d’une machine à inventer, à tout le moins d’une automatisation des processus de création, a été un fantasme technologique récurrent des années soixante. L’idée n’était pas complètement folle. Elle reposait sur un optimisme excessif ou un orgueil démesuré, comme on voudra, surévaluant les capacités à venir de l’informatique, de la modélisation logico-mathématique et de ce qu’on n’appelait pas encore les sciences cognitives. Mais, après tout, mieux vaut un Frankenstein bricoleur qu’une horde de mystiques contemplatifs. À trop insister sur le caractère unique et transcendant du moment créateur, on le soustrait au régime normal de la Nature, c’est-à-dire au régime normal de la rationalité. Alors, pourquoi n’avons-nous même pas encore un semblant de machine, les trois ficelles et les deux bouts de bois, je veux dire les quelques assemblages de nanoprocesseurs qui pourraient simuler au moins quelque chose d’aussi simple que l’invention de l’eau tiède ? La réponse est assez évidente et au fond assez classique pour un sociologue, même si je devrai consacrer le reste de ce petit article à l’argumenter : en l’occurrence, à propos de la création, ce n’est pas le processus qui permet de qualifier le produit, c’est le produit qui disqualifie le processus. Cette formule peut sembler quelque peu ésotérique, mais des applications familières en dissipent rapidement le mystère. Prenons d’abord l’exemple de la peinture : produire un chefd’œuvre ne consiste pas à choisir, étaler et combiner des couleurs, puisque le même processus aboutit à n’importe quelle croûte (et jusqu’aux barbouillages réputés « créatifs » des écoles maternelles, cas dans lequel, précisément, on qualifie le produit à partir du seul processus) ; et une fois que vous avez le chef-d’œuvre, autrement dit le produit, vous pouvez le reproduire (éventuellement de plusieurs façons), ce qui relativise très largement la pertinence du processus de production, dès lors inscrit dans la simple répétition. Vous ne fabriquerez pas pour autant un nouveau chef-d’œuvre.

1

6

Edgar A. Poe, Le joueur d’ échecs de Maelzel.

Autrement dit, ce n’est pas parce que vous savez refaire que vous savez d’abord faire ; et ce n’est pas parce que vous savez ou avez su faire qu’il y aura de l’intérêt ensuite à refaire. Autre exemple : en tapant au hasard sur un clavier, et pourvu que Dieu vous prête une assez longue vie, vous pouvez théoriquement récrire l’Anabase de Saint-John Perse. Mais, d’une part, c’est un événement tellement peu probable (comme le soulignait Émile Borel, l’inventeur de la fable des singes dactylographes) qu’il vaut mieux ne pas en faire état ; d’autre part, et surtout, il est bien certain que SaintJohn Perse n’a pas écrit son Anabase de cette façon. Alors, que vous vous donniez ou non des règles de réduction de la combinatoire (en interdisant certaines successions de lettres, comme q et f en français par exemple, ou certaines répétitions de caractères), certaines règles syntaxiques même, ce processus misérable ne qualifie en rien la production littéraire, de même que celle-ci, une fois avérée, produite, disqualifie complètement un tel processus. On voit bien que la question n’est pas là. Le passage à l’être De quoi s’agit-il en fin de compte ? Comme produit, toute innovation reconnue est fondamentalement déclarée, consacrée et diffusée par une institution. Mieux, toute invention doit l’être pour acquérir son plein statut. Le marché, la communauté scientifique, le monde de l’édition et des médias, l’autorité de l’État sont plus que des instances de légitimation et de « reconnaissance ». Ce sont des instances d’ « ontologisation » si l’on peut dire. Ce qui demeure hors de leur juridiction n’existe pas, n’existera pas – ou si peu qu’on le retrouvera à peine dans les annales de la psychiatrie, les souvenirs pieux des familles ou les recueils d’anecdotes. L’expression « une invention non reconnue » est un oxymoron charitable (pour faire une place à « l’incompris », « l’artiste maudit », le « paria », le « malchanceux ») ou provisoire (« le précurseur », la clause d’appel à la « postérité » et ainsi de suite). Il est à peine besoin de mentionner le cas de l’invention scientifique tant il illustre jusqu’à la caricature ce que l’on vient de dire. Tous les laboratoires du monde enseignent à leurs doctorants les normes de rédaction et de publication en revue ; les indicateurs bibliométriques permettent d’attribuer à chaque article un coefficient d’existence, un certain degré d’être que n’eût pas désavoué la scolastique médiévale. J’entends dire couramment autour de moi : « Ne


cycle créativité et territoires / LNA#53

publiez pas votre papier dans telle revue, car elle est classée seulement C et ce serait comme si vous n’aviez rien fait ». Et on ne parle pas davantage des revues classées D que du contenu même de la géhenne : néantisé, on le sait, de toute éternité. Nous n’avons pas de machine à inventer parce que celle-ci supposerait la maîtrise du corps social, de ses logiques et de ses lésions, de ses abus et de ses fractures. Une telle maîtrise qui, seule, permettrait la prévision et même, plus exactement, la préméditation (la programmation de l’invention si l’on préfère), est évidemment paradoxale. C’est toujours après coup que la création « véritable » se trouve repérée et avalisée, selon des cheminements et des procédures qui entrent dans la composition même de l’histoire des sociétés et qui rendent finalement possible la transformation de ces dernières. Voilà pourquoi nous n’aurons jamais de machine à inventer, sauf à imaginer, autre fantasme, des groupes humains qui seraient entièrement mécanisés et qui n’auraient d’autre horizon que la reproduction indéfinie de leur propre état. Essais et erreurs La question ainsi posée, celle du rôle de la temporalité et des transformations sociétales dans la production de la nouveauté, est essentielle pour le problème qui nous occupe. Elle renvoie à l’impossibilité d’identifier le temps de la machine et le temps de l’histoire. Ou, plus modestement, à l’impossibilité de simuler valablement le temps de l’histoire par celui de la machine. Pour bien le comprendre, on peut faire un détour critique par les dernières conceptions de Karl Popper. On sait l’importance que celui-ci accordait à la résolution de problèmes comme support et destin de tout fonctionnement organique : Alles Leben ist Problemlösung. Toute vie est résolution de problème. Cette formule, prise comme titre, résume le contenu de son dernier recueil d’articles et de conférences. Or, selon Popper, le processus permettant d’atteindre ce résultat, à savoir la levée du problème, se ramène toujours à une séquence d’essais et d’erreurs (avec, certes, aux niveaux les plus élevés, effets cumulatifs par mise en mémoire et guidage à partir d’hypothèses). Mais l’évidente difficulté qui demeure est alors celle-ci : comment l’organisme considéré sait-il qu’il a commis une erreur ? Il lui faut pour le moins des capteurs appropriés, disons plus largement un dispositif d’évaluation. Ce peut être aussi bien

une sensation douloureuse, par exemple, que la perception d’une contradiction ou le simple constat, par comparaison avant-après, d’une incapacité à modifier la situation. Sans ce « signal d’erreur », plus ou moins sophistiqué, l’organisme en question s’arrêterait tout de suite de fonctionner ou bien il ne s’arrêterait jamais (en effet, faute de dispositif d’évaluation, il est impossible de trancher entre « Tout essai est bon » et « Aucun essai n’est bon », autrement dit entre l’arrêt immédiat et le mouvement perpétuel). Pareille instance évaluatrice suppose non seulement la capacité de percevoir les conséquences de chaque essai, y compris à long terme, mais aussi la référence à une politique des intentions et des choix comme base des jugements d’adéquation. Au passage, que cette politique soit consciente ou non, volontaire ou pas, n’a ici aucune espèce d’importance. Il lui suffit de s’imposer de fait. On le voit, ce n’est pas le processus d’essais et erreurs qui permet en tant que tel de qualifier le résultat. C’est l’ancrage social de celui-ci qui le fera entrer ou non dans l’horizon culturel et le répertoire des pratiques d’un groupe. Cognition, communication et sociabilité se conjuguent étroitement, jusqu’à l’indissociable. En somme, il n’y a aucun intérêt à ce qu’une machine à inventer, à supposer qu’elle fût un jour à notre portée, soit une machine des processus. Et, par définition, il n’y a pas d’autres machines que celles-là, entre aveuglement sur les buts terminaux et aléa des fonctions, répétition des programmes et reproduction des valeurs.

7


LNA#53 / cycle créativité et territoires

Grandeur et misère de la culture : le cas de la culture scientifique Par Nayla FAROUKI Philosophe, historienne des sciences

En conférence le 10 mars Depuis que certains ont compris que savoir rime avec pouvoir (c’est-à-dire depuis l’Antiquité), la recherche scientifique et technique est courtisée par tous. Elle s’est d’ailleurs partout transformée en un enjeu essentiel du développement économique et une composante de la gloire et de la fierté des Nations.

L

e destin de la culture scientifique fut tout autre. Au XXème siècle – et toujours sur la lancée des rivalités nationalistes du siècle précédent – elle fut utilisée comme une arme politique destinée à « éclairer » les citoyens sur l’importance pour le pays des enjeux militaires, technologiques ou économiques : indépendance énergétique par le nucléaire en France, compétition spatiale aux États-Unis, course (télévisée) au décodage du génome un peu partout… Le siècle passé est jalonné d’épisodes médiatiques qui ont fait rêver ou fait débat, ou les deux à la fois. En dehors de ces moments de gloire, la réception de la culture scientifique est nettement plus mitigé. En effet, dans un pays hautement intellectuel comme la France, la culture scientifique n’a été abordée que du bout des lèvres par nos grands penseurs et décideurs. Malraux l’ignorait totalement, nos philosophes, Sartre en premier, ne s’intéressaient pas à la science. Et nos plus grands médiateurs télévisuels – nul besoin de les nommer – n’approchaient de la science que par accident. Puis vint la société de consommation où la culture se fit spectacle, à finalités touristiques, événementielles, mélange de loisir, de convivialité et d’attractions de masse. La culture scientifique y prit aussi sa part. Outre le rendez-vous annuel de la fête de la science, en France, on construisit – non sans talent ou succès – des lieux extraordinaires allant de la Cité des Sciences et du Futuroscope jusqu’à Vulcania en passant par les aquariums géants. On y cherche des sensations, des émotions et des connaissances, le tout dans une atmosphère bon enfant qui permet de sortir de là en ayant appris ou compris ce petit « rien » qui permet que la visite ait une petite (ou grande) prétention à une qualité culturelle. Parallèlement, depuis les années 70, des CCSTI (Centres de Culture Scientifique Technique et Industrielle) ont fleuri dans de nombreuses villes, avec des bilans divers, tous ou presque jonglant avec les contraintes budgétaires, certains se cantonnant strictement dans l’organisation de conférences ou de débats, d’autres dans des activités pédagogiques à destination des plus jeunes, servant ainsi de lieux de complémentation pour les activités scolaires.

8

Aujourd’hui, la société française est (presque) divisée en deux. D’une part, on trouve ceux qui sont dotés d’une culture scientifique dans le cadre familial qui transmet presque naturellement cet héritage. D’autre part, souvent dans des milieux défavorisés – mais pas toujours – le seul contact avec la science est passé par l’école. Et les acquis de cette dernière ont vite fait d’être oubliés. Ce qui m’intéresse ici n’est pas de faire le bilan d’une culture scientifique dont certains sondages nous disent qu’elle laisse à désirer : des sondages analogues sur la culture artistique, juridique ou philosophique risquent d’aboutir aux mêmes résultats. Ce qui me semble intéressant serait de tenter de voir en quoi ce déficit de culture scientifique constaté peut nous aider à comprendre les problèmes qui se posent à toute forme d’accession à la culture et, par suite, à toute forme de politique culturelle, quel que soit le sujet abordé. La culture, ou le plaisir de l’effort Lors d’une précédente intervention à Lille, j’ai tenté d’attirer l’attention sur la distinction entre la culture en tant qu’élévation de l’esprit d’une part, et la culture en tant qu’ensemble de caractéristiques d’une société donnée de l’autre. La première est individuelle, éclectique, et consciente. La seconde est sociale, normative et relativement subliminale. La première est un processus, la seconde – même en évolution – est un état. La culture de la personne cultivée n’est bien évidemment en rien liée à la consommation indifférenciée de spectacles, de films, d’œuvres musicales ou artistiques ou de livres. Elle n’est pas non plus une accumulation de savoirs, analogue à celle dont font preuve les candidats aux jeux-télé. Discrète et persévérante, la culture est un effort permanent, porteur à la fois de progression et de plaisir. La différence entre la culture et l’éducation est liée au fait que la culture suit des parcours libres alors que l’éducation a le sien propre qui est obligatoire. Dans les deux cas, l’effort est requis, mais le plaisir – dans le cas de la culture – est une valeur ajoutée indispensable. L’enjeu d’une politique culturelle devient alors : comment prodiguer ce plaisir par essence individuel mais que rien


cycle créativité et territoires / LNA#53

n’empêche d’être collégial (curiosité, émerveillement, enthousiasme) dans le cadre d’une politique culturelle ? Pour rester sur le thème de la culture scientifique : comment faire pour que des programmes culturels soient à la fois capables de faire venir les publics par curiosité, puis de les faire rester par plaisir, non seulement celui des yeux et des oreilles mais aussi celui de la réflexion, de l’esprit critique, de l’intelligence ? Il est aisé de remarquer que ces interrogations ne concernent pas que la culture scientifique et qu’elles peuvent s’élargir à toutes les formes culturelles, que l’on s’intéresse aux peintres de la Renaissance ou aux musiques conceptuelles. Il n’existe pas de culture « haute » et de culture « basse ». L’élitisme culturel ne passe pas par les thématiques, mais bien par le degré de sophistication qu’ il est possible d’atteindre dans la découverte et dans l’appréciation d’un genre d’expression donné, que l’on parle des théories métaphysiques du passé ou des musiques rap du présent. Partout, et en tout, on peut trouver de l’excellence et de la médiocrité, mais on ne pourra identifier la médiocrité pour ce qu’elle est que si l’on a – comme pour les grands crus – un jour goûté à l’excellence. La démocratie, entre quantité et qualité Et c’est en cela, me semble-t-il, que nos politiques culturelles parfois se trompent, y compris avec les meilleures intentions. La confusion vient souvent de l’absence de distinction entre démocratisation et massification. Alors que la première vise à transformer chaque individu en un citoyen responsable capable d’une culture et d’une réflexion politique, la massification, en évaluant le succès d’une action par la quantité et non la qualité, donne un faux air de démocratisation…, comme s’il suffisait de « semer à tout vent » pour que la récolte soit bonne. Comme si les semailles ne nécessitaient pas une préparation du terrain, un arrosage, une attention soutenue et surtout continue. Chaque politique culturelle qui voit toujours plus grand, plus sensationnel, plus touristique, est vouée à l’échec. Pas sur le plan touristique ou économique, bien entendu, mais sur le plan culturel. On pourrait même dire que les deux (événement destiné à attirer le plus grand nombre et culture) sont inversement proportionnels : plus la culture relève de l’événement et moins elle est capable d’intégrer une démarche proprement culturelle. Combien utilisent leur esprit critique évaluant tel événement par rapport à tel autre ? Combien obéiront ou non aux diktats de l’impératif

social et non au choix personnel ? On ne le saura jamais puisque la culture de chacun restera son domaine privé, celui de ses propres efforts et des souffrances ou plaisirs amenés par ces efforts. Mais on peut se douter que la culture n’est pas affaire de prouesses, il ne s’agit ni de voyager toujours plus loin, ni de collectionner toujours plus de films, de disques ou d’ouvrages. Science et culture : une équation viable ? En une époque postmoderne qui nivelle tout par souci de démocratie, mon discours paraîtra forcément d’arrièregarde. Mais la postmodernité se trompe : l’exigence de démocratie ne passe pas par le nivellement, même s’ils sont nombreux qui le pensent et avec les meilleures intentions du monde. L’éveil à la culture véritable est tout le contraire de l’action quantifiable, il est dans l’apprentissage du discernement, de l’esprit critique, du choix éclairé (et non du choix de ce que tout le monde a choisi : les livres les plus lus, les films les plus courus, etc.). À cet égard, la culture scientifique porte un enseignement pour tous les projets culturels. Liée par nature à la pratique du discernement et du doute, définie par l’intelligence du monde et par celle de ses grands découvreurs et inventeurs, elle passe mal dans le carcan uniformisateur de la culturemarketing, mais elle peut parfaitement bien accompagner le souci démocratique de la formation des esprits (formation ne signifiant ni remplissage, ni déformation). Aucun élitisme de classe en cela, uniquement celui de l’envie de savoir et de la persévérance dans le perfectionnement. En dehors de la culture individuelle, celle que chacun élabore pour lui-même, il existe deux cultures collectives. La première est sociale, celle du plus grand nombre, celle des solutions de facilité et des produits pour tous. La seconde est politique, c’est la culture du projet (en démocratie, c’est celle de la volonté de vivre ensemble autour d’aspirations communes). Cette culture politique, bien que collective, ne se contente pas d’être : elle vise un but, elle a une finalité. En ce sens, elle permet le progrès et la quête de la qualité, tant recherchés dans la culture individuelle. Or, la culture du projet, justement, la science l’a toujours eue ; elle lui vient naturellement, comme une seconde peau. Saura-t-on réunir culture du projet et politique de la culture ? C’est là tout le défi de la culture en général et de la culture scientifique en particulier. 9


LNA#53 / cycle créativité et territoires

Création 1 et politique : un lien ambigu, entre désordre et ordre 2 Par Christian LEMAIGNAN Professeur associé à l’Université de Poitiers, Conseiller Espace Mendès France, Poitiers

En conférence le 10 mars

12

L

a création construit « un univers dans lequel le fictif et le réel ne sont pas distinguables : le fictif et l’imaginaire ne sont-ils pas plus vrais que la réalité ? » 3. La création propose la vision d’une autre réalité et se présente souvent comme du désordre surtout lorsqu’elle apporte une vision anticipative. La création construit notre environnement, conditionne notre évolution et constitue, par le fait même, une force qui pousse à l’idéologisation. Le politique, à travers son idéologie, est « un système de représentation de la réalité, exerçant une fonction pratico-sociale de justification, douée d’une existence et d’un rôle historique au sein d’une société donnée » 4. Proposant un mode de société, le politique impose un type d’ordre. La création débouche sur le politique et doit être politiquement critiquée (en paraphrasant Philippe Roqueplo). La création construit un univers, la création propose la vision d’une autre réalité et se présente souvent comme du désordre surtout lorsqu’elle apporte une vision anticipative. - La création a une fonction de perturbation (voire d’agitation selon Paul Ardenne), d’interrogation de l’existant, des moments de la vie. Le processus créatif suit un cheminement incertain, la marge d’incertitude transforme l’élaboration d’un objet en un enchaînement d’éléments aléatoires qui, dans la mesure où il est dominé, conduit à un enchaînement de succès. « Rappeler à l’homme ce qu’il est, lui fournir un thème de réflexion, produire un choc qui le fasse sortir de son monde en trompe l’œil et le conduire à sa propre découverte et à la conscience de ses véritables possibilités, voilà ce à quoi tend mon œuvre » 5. - La création a une fonction d’intégration des publics fréquemment en situation instable du fait des mobilités professionnelles, géographiques, structurelles, des rénovations et de destruction-reconstruction des espaces publics, des  La créativité est la Capacité à avoir une production créative pour l’individu, à développer une qualité de la production de création pour une entreprise, un territoire, un groupe. La création est « l’action d’imaginer, de réaliser ou d’organiser quelque chose qui n’existait pas encore », ainsi parle-t-on de la création artistique, de la création d’inspiration divine (voir chapitre 3). 1

Extraits du livre Pensées pour le futur des territoires, éd. L’harmattan, 2009, et synthétisé pour les Rendez-vous d’Archimède 2009-2010, Cycle « Créativité et territoires ».

2

10

3

Michelle Gilly.

4

Louis Althusser.

5

Antoine Tapies.

mutations sociétales ; est-ce une fonction de médiation de la création ? Dans une société de création, la technique fait partie de la culture : si la technique s’intègre dans la culture, alors l’homme se désaliène, il ne se sent plus entouré de redoutables boîtes noires, il perd la peur d’un avenir incontrôlé. - La création a une fonction d’opérationnalité : dans une Société de Création, on ne demande plus un travail pénible et abrutissant dont chacun souhaite s’évader, mais un travail créateur pour lequel il est au contraire normal d’être motivé. « La stratégie de la société de création s’inspire non plus de la défiance mais de la confiance : elle est faite d’écoute attentive de l’inspiration des hommes » 6. - La création a une fonction de rayonnement car, partant d’une situation locale vécue, le projet de création, par essence de nature expérimentale, dépasse les enjeux locaux. La création est une construction, un immense échafaudage, investi d’une intention de « vérité », qui réside dans la conscience que les créateurs (créatrices) ont de la cohérence de leur discours et dans la mémoire qu’ils ont de l’efficacité de leur construction mais ne s’impose nullement comme « manifestation de la réalité ». Des transformations majeures, à l’œuvre dans la société française, sont sans doute le fait des créatifs culturels : 1. Écologie : consommation responsable, prise de conscience de la crise climatique et énergétique, responsabilité sociale et environnementale ; 2. Place du féminisme : parité femmes-hommes dans la vie politique et dans les entreprises, rendre visible les violences conjugales ; 3. Être plutôt que paraître et avoir : refus du modèle fondé sur la compétitivité, l’argent, la célébrité ; 4. Développement personnel et spirituel : hausse des pratiques des arts martiaux, demande de spiritualité ; 5. Implication sociétale : augmentation du nombre d’associations, de bénévoles (8 millions en 1990, 12 millions en 2006), de groupes de militants (les enfants de Don Quichotte, Réseau éducation sans frontières, AMAP…) ; 6. Ouverture multiculturelle : musiques du monde, mariages mixtes, lutte contre les discriminations. Les créatifs culturels se distinguent par une sensibilité concomitante aux six dimensions ci-dessus évoquées : ils représentent 17 % de la population française composée également de 21 % d’alter créatifs (proches des premiers, sans cette quête spirituelle), de 23 % de protectionnistes inquiets, 20 % de  Thierry Gaudin.

6


cycle créativité et territoires / LNA#53

conservateurs modernes, 18 % de détachés sceptiques. Ils sont plutôt jeunes (entre 19 et 49 ans), constitués de 64 % de femmes (50 % en moyenne nationale), vivent en foyer avec enfants (70 % d’entre eux contre 61 % de la population française), connaissent une forte proportion d’universitaires (30 % contre 21 % de la population française), et sont plus nombreux à vivre en région parisienne et dans l’ouest de la France (également jeune). Proposant un mode de société, le politique impose un type d’ordre. Une idéologie a pour fonction de donner des directives d’actions individuelles et collectives, comme allant de soi. Cette fonction pratico-sociale consiste à immerger la boussole de notre responsabilité individuelle dans le champ magnétique des directives qu’elle a pour fonction de donner 7. Ainsi, au Moyen Âge, le mot création (du latin créatio, procréation) était employé au sens religieux pour désigner la création Divine et renvoie au pouvoir politique de l’Église. Au XIVème siècle, le terme création s’est laïcisé pour devenir «  l’action d’établir une chose pour la première fois  » et renvoie au pouvoir politique du Prince (la Renaissance). Aujourd’hui, la création est « l’action d’imaginer, de réaliser ou d’organiser quelque chose qui n’existait pas encore » et renvoie au pouvoir politique du citoyen républicain. C’est alors que la pensée créative s’est appliquée d’abord à la pensée scientifique (le progrès tellement attendu), puis à la pensée artistique (révolutionnant la vision du monde), enfin à l’individu créateur, citoyen, concevant une œuvre (un message, un plat culinaire, le dessin d’un objet…). La création est politiquement critiquée : outre la question de la censure, la critique constructive passe par une démarche d’évaluation qui ne saurait se limiter à une logique de type linéaire (politique/création) mais à une logique de type triangulaire dans laquelle les politiques, la société, les créateurs interagissent : - Les politiques agissent dans le cadre de missions confiées par la démocratie, selon des valeurs, organisation, fonctionnement (le projet politique) ; - La société, dans toutes ses composantes organisationnelles, œuvre à travers différentes cultures et interactions avec (et entre) les citoyens (le projet civilisationnel) ; - L’essor des créateurs va dans le sens d’une participation (délicate souvent) des publics aux créations le concernant (histoire singulière, protocole de co-construction). Aujourd’hui, l’organisation sociétale devient un nœud de contrats coordonnés par une dirigeance qui tente d’obtenir un consensus par toutes les parties prenantes à travers (schéma ci-après) : - Un projet politique : les élus, à travers diverses instances (État, collectivités territoriales…), peuvent imposer une lecture de la réalité à travers une éthique dont ils sont le garant ; - Un projet civilisationnel : les citoyens dans le monde économique, le monde associatif…, imaginent des interactions, des régulations directes à la fois en prenant en compte les interdits sociétaux et les nouveaux modes de vie qui parfois transgressent les premiers ;  Philippe Roqueplo.

7

- Un projet de Création : les créateurs, de plus en plus souvent en co-construction avec les publics, rêvent à un monde utopique et tentent de le partager. Les processus de création peuvent entrer en conflit avec les représentations de la réalité proposées par le politique ou devancer le projet civilisationnel des citoyens, acteurs de monde ordinaire, donnant naissance à une nouvelle façon de « vivre ensemble » : - La naissance de consommacteurs : effacement du « posséder individuellement » au profit du « utiliser individuellement » : co-location, « vélib », éco-usager (habitat autonome en énergie) ; - La culture du partage de connaissances et de ressources, à travers des plates-formes techniques d’intermédiation type « artischoc », Wikipédia… La concentration des savoirs devient obsolète (Paris 5e concentrait 15 % de la recherche française) au bénéfice du « grid » (savant maillage des ressources) 8 ; - Le pouvoir des créatifs : l’innovation collaborative (le growdsourcing), les communautés de pratique, l’émergence des créatifs culturels (voir ci-dessus). - Le travail nomade : les Hyper nomades (Jacques Attali) ont un « 3ème lieu » de travail : aéroport, café, gare… Les auteurs rejoignent ici Edmond Couchot qui explique le passage du temps réel au temps virtuel, de l’immédiateté (l’urgence) à la simultanéité (l’arrivée des uchronies). Mais comme le disait un élu, le politique (« l’ordre ») s’adapte, et la création (« le désordre ») se partage. Projet Civilisationnel Projet Politique

La Société Le Politique

Les Créateurs

Projet de création La Société de Création déclenche un engagement des politiques en matière éducative, culturelle, de communication, d’individuation psychique et collective, de civilisation nouvelle : l’alternative réside dans la capacité de l’humanité à engager une nouvelle renaissance, une véritable métamorphose civilisationnelle 9.

8 L’ invention des territoires directs par les gens ordinaires, selon Bruno Caillet/ Xavier Comtesse. 9

Edgar Morin, 2007.

11


LNA#53 / cycle créativité et territoires

L’artiste, l’ingénieur et les nouvelles technologies Par Jean-Paul FOURMENTRAUX * Sociologue, maître de conférences à l’Université Lille 3, chercheur associé au centre de sociologie du travail et des arts, EHESS S’il y a bien des manières d’envisager des croisements entre art et entreprise, il en est une sur le terrain de la recherche, ou plus précisément de la « recherche et développement », comme vecteur d’une création artistique, pouvant, elle-même, devenir facteur d’innovation. Irréductibles l’une à l’autre, comment chacune de ces pratiques peut-elle bénéficier de cette situation d’échange, de négociation et de coopération réflexive et prospective ? Quels peuvent en être les méthodes, les enjeux et les écueils ?

L

e rapprochement des arts et de la recherche dans le domaine des technologies numériques interactives et de l’audiovisuel multimédia constitue aujourd’hui un enjeu dynamique d’innovation internationale. Depuis une dizaine d’années, de nombreux pays mettent en œuvre des interfaces originales pour favoriser ce rapprochement et en faire le moteur d’une double innovation technologique et culturelle 1. Les cas de double réussite restent bien sûr encore rares, mais il en existe : qualité des productions artistiques et de leur rayonnement dans le milieu des arts, doublée d’une mise en marché efficace et rentable d’applications ou de procédés technologiques directement issus de la recherche artistique ou de la production d’œuvres culturelles. La France s’est, par exemple, dotée de deux dispositifs de soutien institutionnels à la création audiovisuelle multimédia (DICREAM) et à l’ innovation audiovisuelle multimédia (RIAM) qui constituent, depuis leur création en 2001, de nouveaux points d’appui pour un croisement productif des objectifs et attentes artistiques et industrielles. Dans ce contexte, la production de « valeurs croisées » ne présuppose pas une synergie de l’art et de l’entreprise. Au contraire, évitant les écueils de la fusion ou de l’instrumentalisation, il s’agit d’organiser la relation dans le sens d’un apprentissage réciproque et d’une production multicentrique.

buts et d’intérêts en un programme de création homogène visant à garantir l’irréversibilité des résultats ; - Mais la valorisation suppose in fine de fragmenter ces résultats pour les redistribuer entre les collectifs et les mondes hétérogènes dans lesquels ils pourront circuler. Autrement dit, chacun des partenaires – détenteurs de savoirs et de compétences hétérogènes, inscrits dans une culture ou un corps professionnel qui a ses propres valeurs, mais aussi ses instances de désignation et de légitimation spécifiques de ce qu’est le travail, l’œuvre, l’action – y est invité à renouveler le cadre et les modalités de la relation et de l’échange artistique.

L’examen de ces croisements de l’innovation artistique et technologique met désormais en jeu une conception coordonnée, un développement agrégé et une valorisation fragmentaire de la production : - Le travail de conception doit y être coordonné dans la mesure où il met en relation les savoirs et savoir-faire hybrides de collectifs hétérogènes : artistes, ingénieurs, entrepreneurs ; - La phase de développement doit agréger ces traductions de

En résumé, la recherche-création introduit donc deux critères désormais essentiels : - Le travail en équipes interdisciplinaires ; - L’impératif d’un programme de recherche transversal à plusieurs œuvres ou projets artistiques.

Cf. Bianchini S., Fourmentraux JP., Mahé É., « Recherche Développement » et création artistique, In Valeurs Croisées / Crossing value, éd. Les presses du réel, Dijon, 2009, pp. 136-145. Jean-Paul Fourmentraux, Governing Artistic Innovation : an interface among Art, Science and Industry, Leonardo Vol. 40, n° 5, 2007. 1

12

La définition d’une recherche-création partagée La rencontre entre les entreprises et les artistes suppose, en effet, la définition préalable des finalités d’une recherchecréation en commun. Cette rencontre ne doit pas être imposée par l’amont hiérarchique mais co-construite avec les différents acteurs parties prenantes du processus – artistes, ingénieurs, entrepreneurs – dans un dialogue favorisé et constant. Il est nécessaire, pour cela, d’organiser et de multiplier les occasions de rencontres informelles, en initiant éventuellement des partenariats dans la veille et le conseil avec les entreprises.

Les enjeux sont importants : l’innovation entre art et entreprise suppose un dialogue avec les artistes et les industriels dès la mise en œuvre des projets pour mieux (1) définir la recherche-création entre art et entreprise, (2) inventer de nouvelles formes d’organisation du travail et (3) imaginer de nouvelles formes de valorisation et de mise en public des œuvres d’art. Dans ce contexte, l’artiste est tenu de développer un profil polyvalent lui permettant d’être tour à tour créateur, cher-


cycle créativité et territoires / LNA#53

cheur ou entrepreneur, en fonction de l’espace d’opportunité qui s’offre à lui et pour s’accorder aux différentes logiques de valorisation à l’œuvre dans des mondes de l’art fonctionnant désormais selon des logiques de projets. L’exigence de « valeurs croisées » Il s’agit de favoriser une certaine « modularité » de la production en même temps que des formes alternatives de distribution des activités de création et de leurs résultats. Trois types de projets phares peuvent être distingués : - Les « créations artistiques » qui mènent vers la réalisation d’une œuvre, d’un dispositif ou d’une installation artistique ; - Les « découvertes technologiques » qui impliquent le développement de logiciels ou d’outils novateurs ; - Les « contributions théoriques » qui poursuivent une perspective analytique et critique d’accumulation de connaissances. Le morcellement du travail créatif engendre donc des modes pluriels de désignation de ce qui fait « l’œuvre commune 2 ». Dans ce contexte, la création ne repose plus sur un schéma hiérarchique qui ferait intervenir une distribution réglée des apports en conception et en sous-traitance, selon des échelles de valeur et de rétribution enrôlant une longue chaîne de travailleurs au service, à chaque fois, d’un créateur singulier. Le travail de création se voit, au contraire, distribué sur différentes scènes et entre plusieurs acteurs pour lesquels il est possible de préciser des enjeux de recherche distinctifs suivant des expertises et des agendas variés. L’enjeu vise ainsi un dépassement du « conflit culturel » caractéristique des modèles antérieurs de convergences « arts - sciences - technologies » entre des acteurs (informaticiens, managers, artistes, industriels) dont les qualifications, compétences et finalités étaient a priori conçues comme opposées. En inventant de nouvelles logiques de production qui favorisent une pluralité d’enjeux de création (artistique), d’invention (technologique) et d’innovation (économique). Il convient de poursuivre, en ce sens, un double objectif : - Développer une culture d’entrepreneur visant à promouvoir le transfert de certains résultats de la recherche-création sur la scène sociale ; - Détacher en partie les « efforts de création » de la production d’une œuvre d’art ou d’un outil technologique, compris comme des finalités étanches et révolues, en conformité avec un régime de propriété exclusive. Tout en restant au service de la production d’une œuvre, la recherche-création artistique pourra ainsi viser également une utilité sociale et donner lieu à la production d’exter-

Cf. Jean-Paul Fourmentraux, Faire œuvre commune. Dynamiques d’attribution et de valorisation des co-productions en art numérique, Sociologie du Travail, Vol. 49, n° 2, 2007, pp. 162-179 et Œuvrer en commun. Dilemmes de la création interdisciplinaire négociée, Négociations, 2008/2, n° 10, pp. 25-39.

nalités de recherche indépendantes de l’œuvre. Dans ce contexte, l’intervention artistique offre souvent une distanciation analytique supplémentaire face à l’innovation par des opérations de détournement et/ou de mise en perspective critique des empreintes et des déterminismes du progrès technique. Elle participe parfois également du renouvellement des usages de la technique en favorisant son appropriation pratique autant qu’imaginaire. Une autorité (re)distribuée L’histoire des interfaces entre art et science s’est fondée sur un « conflit culturel » entre des acteurs dont les qualifications, savoirs et compétences, étaient conçus a priori comme opposés. Dans ce contexte, les efforts de recherche et de création étaient dirigés vers la production d’une œuvre d’art ou d’un outil technologique, compris comme des finalités opposées, en conformité avec un régime de propriété exclusive. La division du travail subordonnait, le plus souvent, l’expérimentation artistique au projet industriel en privilégiant le développement de nouveaux services ou usages de la technologie. De nouvelles alliances proposent aujourd’hui de renouveler les modalités de partenariat entre science, art et industrie, en se distinguant des vieilles organisations plus hiérarchiques et rigides que réellement interdisciplinaires. Dans ce contexte, l’artiste ne se positionne plus face à une logique entrepreneuriale : il devient au contraire lui-même le porteparole d’une double rationalité, artistique et entrepreneuriale, dont l’articulation constitue désormais un enjeu primordial 3. Par la définition d’une recherche-artistique ajustée au marché des technologies de l’information et de la communication, l’artiste se fait entrepreneur de procédures pour coopérer avec l’industrie. L’activité de création en ressort quelque peu transformée, partagée entre des acteurs multiples qui investissent, individuellement et collectivement, une œuvre-frontière tendue entre des logiques simultanément artistiques (qualité esthétique, enjeu d’exposition) et technologiques (enjeu de recherche et développement, transfert industriel). Le rôle de l’artiste s’en trouve renouvelé, ce dernier pouvant désormais occuper une place plus forte au sein du processus d’innovation : une place forte, pas diluée, mais qui se joue en collectif, non pas centrale mais replacée au centre du processus. * Article faisant suite à la conférence « L’artiste, l’ingénieur et les nouvelles technologies » donnée le 10 novembre 2009. Jean-Paul Fourmentraux est l’auteur de Art et Internet. Les nouvelles figures de la création, CNRS éditions, 2005. Site web : http://cesta.ehess.fr/document.php?id=80

2

Cf. Xavier Greffe, Arts et artistes au miroir de l’ économie, Economica, Paris, 2003 ; Pierre-Michel Menger, Portrait de l’artiste en travailleur. Métamorphoses du capitalisme, éd. du Seuil, Paris, 2003.

3

13


LNA#53 / cycle la crise

À quoi sert la Finance ? Par Laurent CORDONNIER Maître de Conférences à l’Université Lille 1 (Clersé - UMR 8019)

En conférence le 12 janvier La crise que nous traversons a mis en évidence l’extraordinaire pouvoir de nuisance que la finance a accumulé au cours de ce dernier quart de siècle. Mais, curieusement, si nous nous trouvons maintenant édifiés au sujet de cette capacité de nuire de la finance, nous en savons toujours assez peu sur la capacité qu’elle a de se rendre utile. À quoi sert la finance et à quoi servent ceux qui en vivent ? Il suffit de poser la question pour remarquer qu’elle paraît encore plus sulfureuse que la dénonciation des travers de ce vaste champ d’activité, lesquels travers ont fait toutes les « unes » depuis dix-huit mois. La question de l’utilité des choses (ici : des fonctions de la finance) est pourtant de celles qui viennent spontanément à l’esprit... et qui sont censées occuper les économistes. À quoi sert donc la finance ?

L

a réponse ne devrait théoriquement pas poser problème : elle sert ou, tout du moins, elle devrait servir à faire tourner l’économie capitaliste le moins mal possible (ce qui n’est pas une promesse d’atteindre le paradis). On devrait donc normalement pouvoir compter sur elle pour remplir les fonctions indispensables à la reproduction et au développement d’un système gouverné par la recherche du profit et dans lequel les paiements s’effectuent avec de la monnaie de crédit. Ces fonctions indispensables sont : la gestion des moyens de paiement, la fourniture de trésorerie aux entreprises, le financement de l’investissement, l’organisation de la liquidité des placements pour les épargnants. La gestion des moyens de paiement incombe aux banques du fait que notre monnaie est principalement constituée d’avoirs en comptes courants bancaires (c’est nous qui faisons crédit à notre banquier). La plus grosse partie de nos transactions se soldent par des ordres de paiements qui nécessitent une mise à jour permanente de nos comptes. Le premier rôle de la banque de dépôt est donc bien, en pratique, de « tenir les comptes ». La seconde fonction du système financier est de fournir aux entreprises la trésorerie dont elles ont besoin pour faire face au décalage temporel entre leurs dépenses (notamment les salaires) et leurs recettes, soit au moyen d’opérations de marché, soit par des crédits bancaires. La troisième fonction, le financement de l’investissement, est assurément la fonction cardinale de la finance. Dans une économie capitaliste, le moteur de l’activité est l’accumulation de capital productif en vue de réaliser toujours plus de profit. Or, les entreprises qui ont des projets d’investissement – qu’elles espèrent profitables – ne disposent pas forcément des sommes d’argent nécessaires pour effectuer les dépenses correspondantes…, des dépenses dont le retour peut prendre du temps et qui nécessitent donc un financement long. Le rôle de la finance de marché et de la finance bancaire est de fournir les capitaux nécessaires à la croissance des entreprises, soit sous forme de prêts, soit sous forme de souscription d’action en tâchant de rendre ces placements les plus liquides possible pour les épargnants qui

14

les effectuent. Ce rôle de pourvoyeur de financements longs s’articule ainsi logiquement à la quatrième fonction du système financier : assurer une certaine liquidité à l’épargne. C’est-à-dire faire en sorte que les choix de placement des épargnants, considérés individuellement, soient réversibles et affectés d’un risque minimum (pour un rendement espéré donné)…, conditions pour qu’ils daignent effectuer des placements à long terme. Voilà donc à quoi sert la finance…, ou à quoi elle devrait servir. La question qui vaut la peine d’être posée est de savoir dans quelle mesure le développement du secteur financier, depuis un quart de siècle, a apporté quelques progrès significatifs dans la manière dont les institutions financières remplissent ces fonctions. Une façon indirecte de répondre à cette question serait de faire l’inventaire des opérations, des agents, des marchés qui ont étés créés et se sont multipliés depuis le tournant de la libéralisation financière pour montrer qu’ils ont très peu à voir avec cette nécessité de faire prospérer le capitalisme, en alimentant le « cœur du réacteur » : l’investissement. La multiplication par 50 des transactions sur les devises, la multiplication par 50, en quinze ans, du volume des fusions acquisitions (atteignant 4500 milliards de dollars en 2007) 1, l’empilement des quelque 500 000 milliards de dollars de contrats noués autour de produits dérivés (des paris formés au sujet de l’évolution de la valeur d’actifs sous-jacents : devises, actions, obligations, matières premières, énergie, etc.), la croissance elle-même spectaculaire de l’industrie f inancière, comme aux États-Unis où la finance en est venue à représenter presque 8 % du PIB (contre 2,3 % soixante ans plus tôt) et s’est trouvée en position de capter 40 % des profits réalisés par les sociétés nord américaines 2, etc. Tout cela a manifestement peu de rapport

1

Dominique Plihon, Le nouveau capitalisme, Paris, éd. La Découverte, 2009.

Sandra Moatti, Comment la finance est devenue folle, Alternatives Économiques - Pratique n° 38, avril 2009.

2


cycle la crise / LNA#53

avec le financement et l’encouragement de l’investissement. La deuxième manière de répondre, plus directe, consiste à remarquer qu’alors que le secteur financier connaissait, au niveau mondial, un développement inédit de ses activités et de ses produits, l’accumulation du capital n’a cessé de ralentir dans la plupart des pays développés. L’investissement net (c’est-à-dire la croissance du stock de capital productif d’une année sur l’autre) est passé d’un rythme de l’ordre de 3 % à 5 % dans les années 60 – fourchette dans laquelle se situaient les États-Unis, la France, l’Allemagne et, plus largement, l’Europe des quinze – à un rythme de 2 %, commun à l’ensemble de ces économies, au milieu des années 2000 3. Manifestement, l’excroissance de la finance n’a pas été favorable à la croissance du capitalisme. Et il se pourrait même qu’elle lui ait été défavorable. Car le développement du secteur financier a été coextensif du développement d’une norme de performance financière, imposée ou adoptée par les entreprises (les fameux 15 % ou 20 % de retour sur fonds propres), qui va plutôt dans le sens d’une sélection très rigoureuse des projets d’investissement mis en œuvre. Si bien que le divorce n’a jamais été aussi grand, à la veille de la crise, entre la rentabilité des entreprises et le rythme de leurs investissements nets. L’idée vaut donc d’être énoncée pour elle-même : le type de finance qui s’est développé depuis vingt-cinq ans ne sert visiblement à rien, et même dessert. Les quatre grandes fonctions qui constituent les piliers utiles du financement de l’économie n’y ont rien gagné : ils existaient bien avant que les forces de la finance libéralisée se déchaînent et ils semblaient même mieux remplir leur office, comme durant les trente glorieuses, tant que ces forces étaient tenues en respect.

les esprits. En prenant pour indicateur de la financiarisation de l’économie la différence entre la rentabilité des firmes et leur investissement net, Michel Husson montre que la courbe du chômage, dans l’Union européenne, épouse parfaitement sa tendance à la financiarisation (saisie par ce divorce croissant entre rentabilité du capital et accumulation). Étonnant, non ? Si, véritablement, la science économique pouvait servir à quelque chose, son rôle pourrait être d’alimenter la démocratie en bonnes questions. Ainsi, à propos de cette excroissance de la finance de marché et de sa domination sur l’entreprise, s’agit-il vraiment de la réguler, de la superviser, de la rendre plus transparente, d’en maîtriser les risques systémiques, de la moraliser…, ou tout simplement de la supprimer ?

Dire cela, c’est suggérer qu’en dehors même de ses crises, disons dans son fonctionnement « régulier », le capitalisme financier est directement responsable des piteuses performances de l’économie, depuis un quart de siècle, principalement à travers la hausse du critère financier. Même si corrélation n’est pas raison, on est tenté d’en voir la preuve sur ce graphique, établi par Michel Husson 4, qui devrait frapper 3  On peut trouver ces chiffres sur la base de données macroéconomiques Ameco de la commission européenne : http://ec.europa.eu/economy_finance/db_indicators/db_indicators8646_en.htm

« La baisse tendancielle de la part salariale », septembre 2007, http://hussonet.free.fr/

4

15


LNA#53 / cycle la crise

Que dit-on de la crise en médecine ? Par Philippe GALLOIS Neurologue, Faculté Libre de Médecine

En conférence le 26 janvier Le mot crise, attesté en français dès le XIVème siècle, provient du latin médiéval et au-delà du grec. Pour le Robert, c’est le moment d’une maladie caractérisé par un changement subit et généralement décisif en bien ou en mal. La crise dans la médecine grecque Hippocrate, inventeur de cette notion, a intitulé l’un des textes du corpus hippocratique « Des Crises ». Il faut donc prêter attention à la mise en garde de Jackie Pigeaud 1 qui nous rappelle que la notion de crise en médecine naît d’une conception du corps, de la maladie, du temps qui nous est étrangère. Cette médecine de l’Antiquité se base en effet sur une conception humorale du corps ; les humeurs constitutives du corps étant elles-mêmes un mélange des quatre éléments primordiaux, terre, eau, feu et air. Dans cette vision, qui permet d’établir une correspondance étroite entre le microcosme et le macrocosme, le corps humain est le reflet de l’univers. Sept siècles plus tard, Galien tente d’éclairer le terme de crise en affirmant qu’il a passé du barreau à la médecine et signifie proprement jugement. La crise renvoie alors à ce moment particulier où la maladie, liée au déséquilibre dynamique des humeurs, est jugée déterminant un changement subit soit en mieux, soit en pire. Rappelons que ces conceptions hippocratiques ont eu cours jusqu’au XVIIIème avec Bordeu et même jusqu’au XIX ème dans les écrits de Laennec. La crise et le modèle de l’homme machine Avec l’avènement de la médecine anatomoclinique, à la fin du XIXème siècle, les idées sur le corps, la physiologie et, partant, la crise, vont évoluer. La théorie des humeurs et des tempéraments quitte la scène et cède la place à une vision mécaniciste qui va perdurer. Et, à l’heure actuelle, selon la physiologie populaire, la représentation dominante du corps reste celle du corps machine prônée par La Mettrie. Dans cette perspective, le corps est composé de pièces qui s’articulent et s’emboîtent, haubanés par les tendons et les nerfs. Pannes et surtensions peuvent occasionner un désordre dans l’agencement des pièces qui sont alors déplacées. Il faut signaler que ces vues sont confortées par la science anatomique qui, dès l’origine, a assimilé les parties du corps à des outils ou des pièces de machine. Voyez les termes qu’elle utilise dans sa description du corps humain : poulie, marteau, trochlée, enclume…, ils viennent tous de l’usine ou  Jackie Pigeaud, La Crise, éd. Cécile Defaut, 2006.

1

16

de l’atelier ! Dans ces conditions, il ne faut pas s’étonner que la crise ne renvoie plus à ce moment singulier du jugement, presque assimilable à un Kairos, mais simplement à la survenue brutale et aléatoire d’une panne. Pour certains, le terme crise aurait même complètement disparu du vocabulaire médical et l’on ne le retrouverait dans les journaux médicaux, comme le Lancet, que pour désigner des difficultés organisationnelles du système de santé. Ils arguent aussi du fait que la crise la plus fréquente, la fameuse « crise de foie », n’a pas de réalité et ne relève pas en fait d’une atteinte hépatique. Cette position semble cependant radicale car on continue à parler quotidiennement, dans les services d’urgences, de crise d’asthme, de colique néphrétique, de migraine ou d’épilepsie.… Temporalité et systèmes dynamiques Toute trace de la temporalité et de la dynamique propres à la conception humorale hippocratique n’est cependant pas perdue. Ainsi, depuis quelques années, plusieurs travaux tentent de répondre à la question suivante : peut-on « prédire » la survenue d’une crise d’épilepsie ? Une étude clinique basée sur la tenue d’un agenda de crises a en effet révélé que certains patients étaient capables de prédire la survenue d’une crise épileptique pour le jour suivant. Une telle capacité de prédiction était déjà connue chez les patients migraineux qui, dans près de deux cas sur trois, signalaient, dans les jours précédant la crise, l’existence de symptômes prémonitoires, à type de difficultés de concentration, fatigue, irritabilité... Sur la base de ces données cliniques s’est développée une conception dynamique de la maladie épileptique qui assimile le fonctionnement des réseaux de neurones cérébraux à celui des systèmes dynamiques étudiés par la physique. L’étape suivante a donc consisté à appliquer à l’analyse de l’électroencéphalogramme (EEG) les théories du chaos déterministe et les méthodes mathématiques non linéaires. Avec des résultats encourageants, car plusieurs équipes ont pu détecter sur l’EEG des modifications de la dynamique quelques minutes avant la survenue de la crise épileptique. Pour récapituler, ce parcours montre l’intérêt de la prise en compte de la temporalité pour appréhender la notion de crise en médecine.


cycle la crise / LNA#53

La crise de l’État Providence Par Robert CASTEL Sociologue, directeur d’études à l’EHESS, directeur du Centre d’études des mouvements sociaux

En conférence le 31 mars Dans ces propos, je voudrais indiquer, à défaut de pouvoir le prouver, la relation qui existe entre ce que l’on appelle aujourd’hui « la crise », qui s’est déclarée à l’automne 2008, et la crise de l’État Providence qui a commencé à se manifester il y a une trentaine d’années.

J

e ne tenterai pas d’analyser le séisme financier qui s’est déclenché l’année dernière. Il renvoie à des modes de fonctionnement, ou plutôt de dysfonctionnement, du capital financier international, qui doivent être appréhendés selon la logique propre au monde de la finance. Mais, aussi, on peut, et à mon avis, on doit, ne pas autonomiser cette sphère et essayer de comprendre ce cataclysme financier comme le dernier épisode (à ce jour) d’une dynamique qui s’est enclenchée bien en amont. On s’oriente ainsi vers une interprétation systémique de cette « crise ». Ce qui advient au niveau de la finance renvoie à ce qui s’est passé au niveau de « l’économie réelle » et des principes de régulation qui encadraient le développement du capitalisme. L’État Providence ou l’État social est la clef de voûte de ces régulations. On peut donc faire l’hypothèse – qui, à mon sens, est davantage qu’une hypothèse – que la dimension financière de la « crise » actuelle trouve une bonne part de son origine dans l’affaiblissement des dispositifs régulateurs qui avaient été montés dans le cadre de l’État social. L’État social peut être considéré comme le sommet de l’édifice de ce que l’on a appelé « le compromis social » du capitalisme industriel : une forme tendue d’équilibre entre, d’une part, les exigences du marché assurant la productivité et la compétitivité des entreprises et, d’autre part, des protections et des garanties de sécurité du côté du monde du travail. L’État social intervient ainsi essentiellement comme instance de protection (c’est pourquoi je parle d’État social et non « d’État Providence », métaphore religieuse qui induit l’idée fausse que cet État agirait comme un distributeur généreux de subsides). Il assure, au sens fort du mot, contre les principaux risques sociaux et est censé garantir, à tous les membres de la société, les conditions de base d’une certaine indépendance économique et sociale. Il est avant tout garant de droits, droit au secours, droit au travail, droit à la protection sociale qui échappent à la logique marchande et limitent son expansion. C’est le domaine du « social » qui encadre le développement économique en ménageant aux travailleurs et à leurs « ayants droit » des contreparties fortes mesurées en termes de sécurité et de protection.

La « crise » de l’État social commence avec la « crise » ouverte par la sortie du capitalisme industriel qui était finalement parvenu à établir ce type de régulations en démarchandisant partiellement le travail. C’est d’ailleurs au début des années 1970 que l’on a commencé à parler de « la crise ». Dans un premier temps, on en a sous-estimé la portée en l’envisageant comme un mauvais moment à passer en attendant « la reprise ». Mais il s’est avéré, même si on a mis du temps à le comprendre, qu’il s’agissait de quelque chose de plus profond, à savoir un changement de régime du capitalisme : la sortie du capitalisme industriel et l’entrée dans un nouveau régime du capitalisme, plus agressif, qui impose une concurrence exacerbée au niveau mondial sous l’égide du capital financier international. Ce nouveau capitalisme se déploie selon une logique de dé-collectivisation ou de re-marchandisation. Il prend ainsi à contre-pied les dispositifs de solidarité collective antérieurs. Ceux-ci sont jugés non seulement comme trop coûteux, mais surtout comme des contraintes injustifiables qui font obstacle à la compétitivité des entreprises et au libre déploiement du marché. On pourrait commenter longuement les effets de cette volonté de déconstruction au niveau de l’organisation du travail, des structures de la protection sociale et, plus largement, sur les principaux dispositifs institutionnels de régulation collective. Et aussi, évidemment, sur l’État social qui, en tant que collectif des collectifs, est la clef de voûte de ces systèmes de régulations. Et c’est effectivement à partir du début des années 1980 que l’on voit se déployer ce type de critiques récurrentes de l’État social qui lui font le reproche de manquer complètement la nouvelle dynamique économique et l’état de la société qui en résulte. Cette société devient de plus en plus mobile, individualisée, et l’État social continue à procéder par des dispositions générales qui ne peuvent prendre en compte la spécificité des trajectoires personnelles et la singularité des situations des individus. On lui reproche, en même temps, en attribuant de manière automatique et inconditionnelle ses droits-créance, de déresponsabiliser les citoyens et d’entretenir une culture de l’assistance. 17


LNA#53 / cycle la crise

On peut interpréter de deux manières ces critiques de l’État social. Dans la lignée de l’idéologie libérale dominante, elles sont animées par le souci de dessaisir l’État pour libérer l’économie. Mais on peut aussi constater que nous sommes effectivement de plus en plus dans une « société des individus » et que l’État social ne peut plus se contenter de traiter en masse des catégories homogènes de la population. C’est la recherche, difficile, d’un État social actif qui se fait plus flexible qu’il ne l’était sous le capitalisme industriel pour coller au nouvel état d’une société entraînée dans le maelstrom du changement. Le débat se circonscrit aujourd’hui entre les partisans d’un moins d’État et les partisans d’un mieux d’État. En ce qui me concerne, je défends la position que plus une société devient une « société des individus » et plus elle a besoin de régulations collectives, faute de quoi les individus atomisés, livrés à la concurrence de tous contre tous, se retrouvent démunis face au diktat des marchés. Cette nouvelle dynamique du capitalisme aurait donc besoin d’un État social fort, d’un plus d’État qui soit aussi un mieux d’État. Ce n’est pas l’orientation qui a prévalu ces trente dernières années, au contraire. La « crise » de l’État social s’est traduite, en fait, par une vague de dérégulations qui ont affaibli et parfois levé les obstacles à l’hégémonie du marché. Dans cette perspective, on peut interpréter la crise financière actuelle comme l’aboutissement de ce processus, la déconnection du rapport établi à la fin du capitalisme industriel entre développement économique et régulations sociales. On voit, à travers cette crise, que ce n’est plus le développement économique qui commande la dynamique du capital financier. Sous le capitalisme industriel (bien qu’il y eût déjà un capital financier « travaillant » pour lui-même), la recherche du profit s’appuyait largement sur la rentabilité des entreprises et sur la productivité du travail. Sous le nouveau régime du capitalisme, le capital financier s’émancipe complètement de l’ « économie réelle » dans une recherche du profit pour le profit dans une logique purement spéculative. Ainsi, la sphère financière s’est autonomisée et se livre à ses propres jeux. Bien entendu, c’est d’une fausse autonomie qu’il s’agit. D’une part, en aval, les séismes financiers ont un impact sur l’économie réelle et sur les relations de travail et se traduisent, comme on le voit aujourd’hui, par des faillites et des délocalisations d’entreprises, la montée du chômage 18

et la précarisation du travail. Mais, d’autre part aussi, en amont – et c’est la ligne que j’ai esquissée ici – l’émancipation du capital financier est produite par la « crise » de l’État social entendue comme la matrice des régulations sociales qui, pour reprendre la formule de Karl Polanyi, « domestiquent » le marché. C’est la voie que j’ai avancée ici et qu’il faudrait approfondir : comment, progressivement, dans différents domaines – l’organisation du travail, le droit du travail, la protection sociale, les services publics… – les logiques de remarchandisation s’épanouissent finalement en logique de pure financiarisation ? La crise financière représente ainsi le moment de vérité de la crise de l’État social en montrant à quoi ces logiques aboutiraient si elles étaient poussées à bout, jusqu’à l’abolition de cet État social avec les catastrophes qui s’en suivraient.


cycle la crise / LNA#53

État social : figure de crise ou d’avenir ? Par Christophe RAMAUX Économiste, Centre d’économie de la Sorbonne, Université Paris 1 Qu’entend-on par État social ? Souvent, c’est une définition étroite qui est retenue avec une analyse centrée sur la protection sociale, parfois élargie au droit du travail. On suggère, au contraire, de retenir une définition large qui englobe quatre piliers : la protection sociale et les régulations du travail (droit du travail, négociation collective, politiques de l’emploi, etc.), mais aussi les services publics et les politiques économiques (budgétaire, fiscale, monétaire, commerciale, industrielle, des revenus, etc.) de soutien à l’activité et à l’emploi. L’État social : nous ne vivons pas dans des économies de marché La définition large de l’État social présente un double avantage. En premier lieu, elle permet de saisir la portée de la rupture intervenue au XXème siècle en termes de régulation économique et sociale. La notion d’économie de marché, traditionnellement mobilisée, doit en ce sens être contestée. Par construction, elle suggère que l’État social est second et, pour tout dire, subordonné aux relations marchandes. A contrario, on peut soutenir que nous ne vivons pas, à proprement parler, dans des économies de marché mais dans des économies avec du marché, du capital – ces deux termes devant être distingués (le capital préférant a priori le monopole) –, de l’intervention publique et de l’économie sociale (associations, mutuelles, coopératives, etc.). Partant de là, il est possible de pointer une limite des typologies usuelles qui opposent économies libérales de marché et économies (plus) administrées. Selon des formes et des configurations institutionnelles certes variables, les quatre piliers de l’État social existent, en effet, dans la quasi-totalité des pays du monde, y compris les moins développés. Leur voilure et, partant, le degré de socialisation de l’économie varient certes considérablement. Il y a bien, en ce sens, matière à opposer un modèle social-démocrate au modèle libéral. Mais encore faut-il ne pas surcharger de signification ces notions. Le Royaume-Uni est l’un des pays au monde où la santé est la plus socialisée. La gestion de l’eau n’est pas déléguée au privé aux États-Unis et la retraite publique, financée par cotisation, y occupe une place non négligeable. De même, ces deux pays ont, à l’inverse de ceux de la zone euro, fortement mobilisé les politiques économiques ces vingt dernières années et ce contraste se retrouve dans l’ampleur très différente des actuels plans de relance. Caractériser, en bloc, ces pays d’économies libérales de marché tend, par construction, à écraser la portée des débats pourtant extrê-

mement vifs qui s’y déploient quant à la nécessité (ou non) d’une plus ample intervention publique. Les sociétés modernes ont, en partie, à répondre à un défi commun : celui de l’arbitrage à opérer entre marché, capital, intervention publique et économie sociale. La réhabilitation de la notion d’économie mixte serait, de ce point de vue, judicieuse. Elle permet, en effet, d’exhiber que nos sociétés ne sont pas « mono-capitalistes ». Les rapports capitalistes dominent à de nombreux égards. Il est légitime, en ce sens, de dire que nous vivons dans des économies capitalistes. Mais ils ne structurent pas l’ensemble de la société. Pour ne prendre qu’une illustration, un peu plus de 50 % des emplois, en France, sont des salariés au sein d’entreprises capitalistes. Il s’agit bien de la majorité. Mais près d’une autre moitié ne l’est pas, ce qui n’est pas rien (10 % d’indépendants, 20 % de fonctionnaires, 10 % d’emplois publics hors fonction publique – sécurité sociale, entreprises publiques, etc. – et près de 10 % d’emplois dans l’économie sociale). Prendre la question sous cet angle suppose de s’éloigner de la pensée marxiste selon laquelle l’État est, en dernier ressort, un dispositif fonctionnel de régulation du capitalisme. Il l’est sans doute, pour une part, mais il n’est pas réductible à cela. Il a simultanément une dimension non seulement anti-libérale, mais proprement anti-capitaliste. Par lui, des sphères entières d’activité (services publics, protection sociale, etc.) n’échappent-elles pas au capital ? Ce qui vaut pour l’État social ne vaut-il pas pour l’économie sociale ? Le capital qui s’emploie à récupérer les activités de l’un et l’autre ne l’a-t-il pas compris ? Le second avantage de l’acception large de l’État social est qu’elle permet d’insister sur le fait qu’on ne dispose pas d’une théorie de celui-ci. Des linéaments existent, certes, mais pas à proprement parler de théorie, ce qui explique que les assauts libéraux à son encontre aient donné lieu à des réponses essentiellement défensives (« en défense de la sécu », etc.). L’actualité de l’État social Lorsqu’on parle d’État social ou d’État providence, c’est souvent pour évoquer sa crise. C’est quasiment devenu un réflexe. En 1981, l’OCDE et P. Rosanvallon ont publié simultanément un rapport et un ouvrage intitulés La crise de l’État providence. Mais, dès la fin du XIXème siècle, on évoquait déjà cette crise. L’État social serait donc en perma19


LNA#53 / cycle la crise

nence voué à être en crise. Pour une part, cela se comprend. G. Stedman Jones 1 critique la lecture traditionnelle qui voit d’abord, dans l’émergence de l’État social, une réponse à la question sociale. Son principal fondement, souligne-t-il, n’est pas d’abord à chercher dans le registre économique des dégâts portés par la révolution industrielle, mais dans le registre proprement politique. L’État social est l’instrument par lequel est susceptible de se construire une société d’égaux sans laquelle la démocratie n’est pas concevable. Son ambition première, pour les premiers réformateurs (Condorcet et Paine notamment), est de réaliser les conditions de la démocratie. L’État social ayant à voir avec la démocratie, on conçoit, qu’à l’instar de celle-ci (le thème de la « crise de la démocratie » est lui aussi récurrent), il soit, en un sens, en permanence en crise. La démocratie exige, en effet, que les contours et le fonctionnement de l’État social soient en permanence interrogés. Cela étant posé, on peut soutenir que l’État social reste d’actualité pour au moins deux raisons. Il est « toujours là » tout d’abord. Le néolibéralisme l’a déstabilisé et a même parfois significativement rogné certains de ses piliers. Mais il n’est pas parvenu à le « mettre à bas ». Dans les pays de l’OCDE, la part des dépenses sociales publiques dans le PIB a augmenté en moyenne de 5 points, soit une hausse de près d’un tiers (de 16 % à 21 %) entre 1980 et 2005. Ce qui vaut pour la protection sociale, vaut pour les autres piliers. En France, pour ne citer que cet exemple, l’emploi public, entendu au sens large (pas seulement les fonctionnaires mais aussi les salariés de la Sécurité sociale, des entreprises publiques, etc.), regroupe près de sept millions d’emplois, soit plus de 30 % de l’emploi salarié total. Une proportion similaire à celle atteinte en... 1982, la fonction publique territoriale ayant compensé les pertes massives enregistrées, suite aux privatisations, dans les entreprises publiques. La seconde raison qui fonde l’actualité de l’État social est le bilan même des réformes néolibérales. La finance libéralisée était la clef de voûte à la fois intellectuelle (« elle permet d’allouer les capitaux vers les projets les plus performants » était-il répété) et pratique (les entreprises soumises à la « création de valeur pour l’actionnaire ») du néolibéralisme. Sa faillite entraîne donc naturellement avec lui ce dernier, du moins en termes de légitimité. Mais, au-delà de ce que nous révèle la crise en cours, on peut multiplier les

1

20

Dans La fin de la pauvreté ? Un débat historique, éd. Ère, 2004 (tr. Fr., 2007).

faits qui attestent que le néolibéralisme n’a pas l’efficacité qu’il prétend avoir. Difficile de prétendre aujourd’hui que la capitalisation est l’outil le plus efficace pour pérenniser les retraites. La privatisation de la santé ? Les États-Unis ont été le plus loin en ce sens. Or, les dépenses de santé y représentent plus de 16 % du PIB, soit 50 % de plus qu’en France et cela pour des performances médicales (espérance de vie, mortalité infantile, etc.) moindres. La crise systémique du néolibéralisme renforce la légitimité et donc l’actualité de l’État social. Cela n’interdit pas de s’interroger sur la nécessaire refondation de celui-ci, ni sur le développement de formes d’activités, celles de l’économie sociale, qui ne sont ni capitalistes, ni publiques. Reste l’essentiel : l’État social s’est développé dès la fin du XIXème siècle autour d’un constat simple : le marché a du bon, mais il est des choses qu’il ne sait pas faire (assurer le plein emploi, satisfaire une série de besoins sociaux en matière d’éducation, de santé, de retraite, etc., et l’on doit ajouter aujourd’hui de défis écologiques). Ce qui se comprend aisément, au fond, si du moins on accepte de considérer que le tout n’est pas réductible au jeu des parties, l’intérêt général à celui des intérêts particuliers.


cycle la crise / LNA#53

Une crise en physique ? Entre déterminisme et imprévisibilité Par Roger BALIAN * Académie des Sciences, Institut de Physique Théorique, Saclay

Le physicien à qui il est proposé de contribuer à un cycle de conférences sur « La Crise » est d’abord surpris. Même s’il constate que la physique, détrônée depuis un demi-siècle par la biologie, n’est plus la science reine, il est conscient des immenses progrès de sa discipline, toujours très vivante, dont la précision des prévisions ne cesse de croître et dont le champ ne cesse de s’élargir – de l’optique quantique aux particules élémentaires, des nanosciences à la cosmologie, de l’instrumentation à la science des matériaux, de la biophysique à la géophysique. Si crises il y a, c’est aux marges de la physique. Ce foisonnement même, ainsi que la mathématisation croissante de la physique, rendent sa vulgarisation de plus en plus difficile, ce qui contribue à une désaffection du grand public. Nous parlerons ici d’une autre crise, plus spécifique et moins visible, qui touche à la signification philosophique des assertions en physique.

J

usque vers la fin du XIXème siècle s’était forgée une vision déterministe pure et dure de la physique. Selon cette conception, l’état d’un système est entièrement caractérisé à chaque instant par la valeur d’un certain nombre de grandeurs ; ce sont, par exemple, les positions et vitesses des corpuscules constituant le système, ou bien, lorsque celui-ci se comporte comme un continuum, ce sont des variables définies en chaque point, comme la pression locale d’un gaz ou l’intensité d’un champ magnétique. Il était admis que ces grandeurs physiques peuvent prendre des valeurs bien définies, même si celles-ci ne sont pas directement accessibles à l’expérience ; rien ne s’oppose théoriquement à ce qu’elles soient déterminées avec une précision arbitrairement grande. L’évolution de ces variables est régie par des principes ou des lois qui s’expriment par des équations comme celles de la dynamique newtonienne, ou celles de la mécanique des fluides, ou celles de Maxwell pour le champ électromagnétique. À partir de l’état du système à un instant t, les équations du mouvement le déterminent alors parfaitement à un autre instant t’, soit postérieur (prédiction), soit antérieur (rétrodiction). La physique contemporaine nous a forcés à abandonner ce rêve d’une description déterministe parfaite. Certes, l’existence d’incertitudes expérimentales était depuis toujours prise en compte, mais il nous faut désormais vivre avec d’inévitables incertitudes théoriques. Nous évoquerons, ci-dessous, trois domaines de la physique où des limitations à la possibilité de prévision ont rendu nécessaire d’incorporer l’incertitude au cœur même de la théorie. L’activité quotidienne des chercheurs a ainsi profondément influencé leur vision du monde : l’hypothèse prométhéenne, selon laquelle la science constitue un moyen de se rapprocher d’une connaissance totale, a été invalidée par le caractère incontournable des incertitudes.

Physique statistique On peut considérer l’élaboration, dans la seconde moitié du XIXème siècle, de la théorie cinétique des gaz (d’ailleurs sujet de controverses à l’époque) comme la première étape de cette crise épistémologique. La théorie cinétique part d’un constat, la simplicité de la nature d’un gaz à l’échelle microscopique : c’est une assemblée de molécules quasi ponctuelles, pouvant subir de brèves collisions binaires selon une loi mécanique connue, et se déplaçant librement entre collisions successives. On cherche à déduire de cette structure les diverses propriétés du gaz observées à l’échelle macroscopique (comme sa pression, sa température, sa chaleur spécifique ou sa viscosité). Les équations différentielles régissant la dynamique des positions et vitesses des constituants élémentaires s’écrivent formellement sans peine, mais elles sont inexploitables. La difficulté réside dans le nombre gigantesque de variables : 1 mm3 d’air comporte 3.1016 molécules ! Le recensement de leurs positions et vitesses est impossible et serait d’ailleurs inintelligible. Une telle masse de données ne pourra jamais être manipulée, même à l’aide des moyens informatiques les plus puissants, et il est totalement impensable de caractériser dans quel état microscopique se trouve le gaz qui nous intéresse. La description théorique détaillée d’un système individuel étant inaccessible, il reste une échappatoire : étudier non pas un échantillon particulier de gaz, mais un ensemble statistique d’échantillons, tous préparés dans des conditions macroscopiques similaires. Si, par exemple, on ne se donne que le nombre de particules et leur énergie totale, les positions et vitesses des molécules constitutives restent largement indéterminées ; on doit alors se contenter d’une étude statistique. On abandonne ainsi une description déterministe inaccessible au profit d’une description probabiliste qui se révèle maîtrisable. Dans ce cadre, rien a priori n’interdit à une grandeur collective macroscopique comme la 21


LNA#53 / cycle la crise

pression du gaz de faire l’objet de fluctuations statistiques : cette grandeur pourrait être mal définie, varier dans l’espace ou dans le temps. Mais l’immensité du nombre de molécules, qui nous avait interdit de concevoir une description détaillée du gaz, a une contrepartie favorable. En théorie des probabilités, la loi mathématique des grands nombres permet de faire certaines prévisions avec une quasi certitude malgré le caractère aléatoire des processus élémentaires ; par exemple, lors d’un grand nombre N de lancers d’une pièce de monnaie, le rapport entre les nombres de pile et de face sera presque toujours voisin de l’unité, à 1/√N près. De même, malgré notre énorme incertitude sur les positions et vitesses des molécules individuelles, les fluctuations statistiques de la pression sont négligeables grâce au grand nombre de particules, de sorte que cette grandeur apparaît à notre échelle comme bien définie, uniforme et constante dans le temps. Bien que la théorie parte d’une description microscopique fortement aléatoire, elle permet d’établir un comportement macroscopique bien déterminé, en accord avec l’observation. Ce genre d’approche, où des systèmes formés d’un très grand nombre de constituants élémentaires sont traités par des méthodes probabilistes, a connu tout au long du XXème siècle des développements considérables, donnant naissance à l’une des branches les plus vivantes de la physique théorique contemporaine, la physique statistique. À l’échelle atomique, tous les matériaux ont une structure simple et universelle : ils sont constitués de noyaux atomiques et d’électrons en interaction coulombienne. L’état d’un objet, caractérisé à notre échelle par un nombre relativement faible de variables collectives, est décrit à l’échelle microscopique par une loi de probabilité, et c’est de celle-ci que l’on cherche à déduire le comportement macroscopique de l’objet. On a réussi ainsi à comprendre et calculer les propriétés macroscopiques les plus diverses (mécaniques, thermiques, électriques, optiques, magnétiques, dynamiques, etc.) de toutes sortes de matériaux. De plus, on retrouve les « principes » de la thermodynamique comme de simples conséquences des lois microscopiques. Un aspect remarquable de ce passage du microscopique au macroscopique est l’émergence de phénomènes qualitativement nouveaux comme l’irréversibilité ou les transitions de phase. Grâce à la loi des grands nombres, le caractère aléatoire microscopique est masqué au profit d’un déterminisme macroscopique. La théorie rend aussi compte des fluctuations statistiques, observables dans certaines circonstances. 22

Chaos déterministe La dynamique des fluides peut exhiber, à notre échelle, un caractère aléatoire d’un autre type, la turbulence. Dans un écoulement laminaire, comme celui d’un ruisseau tranquille, on peut prévoir avec précision les trajectoires des éléments de fluide ; deux bouchons flottants, initialement proches, restent proches. Au contraire, dans l’écoulement turbulent d’un torrent, le mouvement est chaotique : les deux bouchons s’écartent de manière imprévisible à long terme. Pourtant, les équations du mouvement sont les mêmes dans les deux cas. De façon semblable, les prévisions météorologiques sont plus aléatoires dans la zone tempérée que dans les zones polaires ou tropicales, car la plus forte turbulence réduit la durée de fiabilité des prévisions. Une petite perturbation, difficile à détecter initialement, peut modifier radicalement l’évolution ultérieure : c’est le célèbre « effet papillon ». Ces phénomènes peuvent même concerner des systèmes dynamiques ne mettant en jeu qu’un faible nombre de coordonnées. Considérons, par exemple, deux pendules couplés. Leurs petites oscillations sont régulières, mais leurs mouvements de grande amplitude sont chaotiques. L’un des pendules peut, par exemple, communiquer par intermittence une grande partie de son énergie à l’autre, donnant l’impression d’un comportement aléatoire ; le système bascule de manière inattendue d’un comportement à un autre. Pourtant, il est régi par des lois dynamiques simples et connues. Si l’état initial est donné avec une précision mathématique totale, l’état à tout instant ultérieur est en principe parfaitement déterminé par ces équations du mouvement. Mais une déviation minime de l’état initial est amplifiée exponentiellement au cours du temps, de sorte que le mouvement devient progressivement de moins en moins prévisible. Cette extrême sensibilité aux petites perturbations est une propriété mathématique, découverte par Poincaré, liée à la non linéarité des équations dynamiques. L’évolution est déterministe, mais pratiquement imprévisible à long terme. L’oxymore « chaos déterministe » désigne ce phénomène paradoxal. Un autre exemple est fourni par la mécanique céleste où les trajectoires des planètes sont gouvernées par les équations de Newton. Le mouvement d’une planète unique autour de son étoile obéit aux lois de Kepler et peut être prédit sur


cycle la crise / LNA#53

Laplace et le déterminisme Lorsqu’on discute la conception déterministe de la physique, il est traditionnel de citer les phrases de Laplace : « Nous devons donc envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre. Une intelligence qui pour un instant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ses données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. » Ce texte est souvent interprété comme une profession de foi du plus strict déterminisme. On oublie cependant qu’il est extrait de l’introduction de l’« Essai philosophique sur les probabilités  ». Replacé dans son contexte, il exprime une conception nuancée de la prévisibilité. L’ « intelligence » dont il y est question n’est pas humaine  : Laplace est tout à fait conscient de ce que, sauf cas exceptionnels, le programme déterministe (que l’on associe à son nom) est irréalisable. Ces phrases ne sont que le point de départ d’un raisonnement démontrant la nécessité de la notion de probabilité. Un peu plus loin, on peut lire : « La courbe décrite par une simple molécule d’air ou de vapeur est réglée d’une manière aussi certaine que les orbites planétaires : il n’y a de différence entre elles que celle qu’y met notre ignorance. La probabilité est relative en partie à cette ignorance, en partie à nos connaissances ». L’allusion, dès 1814, à un caractère aléatoire, mal connu, de la trajectoire des molécules d’un gaz préfigure l’avènement, des décennies plus tard, de la théorie cinétique. Il est remarquable que, constatant l’impossibilité pratique de mettre le déterminisme en œuvre, Laplace a été conduit à souligner que « le système entier des connaissances humaines se rattache à la théorie des probabilités ». Il ne serait pas surpris de la place centrale qu’elles occupent dans la physique d’aujourd’hui.

toute échelle de temps. Cependant, dans le système solaire, les interactions entre planètes, quoique faibles, perturbent leurs trajectoires. On peut calculer celles-ci avec précision, comme en témoigne la découverte de Neptune par Le Verrier, en 1846, sur la base d’observations des autres planètes et de calculs. Mais la résolution des équations qui régissent le système solaire ne permet pas de déterminer sa configuration au-delà de 100 millions d’années. La dynamique du système est chaotique ; un faible changement des positions pourrait, par exemple, aboutir sur cette échelle de temps à l’éjection de Mercure en raison de son attraction par Jupiter. Physique quantique Le XXème siècle a vu la naissance et l’épanouissement de la mécanique quantique qui régit les objets à l’échelle microscopique. Base de la physique et de la chimie, cette théorie fait encore intervenir des incertitudes, mais celles-ci ont ici une nature fondamentale : c’est conceptuellement qu’on ne peut s’en affranchir. En physique statistique comme pour le chaos déterministe, il n’était pas interdit d’imaginer l’existence d’une description idéalement précise de l’objet considéré, même si une telle description était inaccessible en pratique. Ici, même pour les objets les plus simples, la description la plus détaillée possible reste toujours imparfaite. Considérons, par exemple, une particule se déplaçant librement sur une droite. Deux grandeurs physiques lui sont attachées, sa position x sur la droite et sa vitesse v. En mécanique classique, l’état de cette particule à un instant donné serait simplement caractérisé par deux nombres déterminant ces grandeurs. En réalité, la particule obéit aux lois de la mécanique quantique qui ont modifié la notion même de grandeur physique afin d’être en adéquation avec la réalité observée : les grandeurs ne sont plus représentées par de simples nombres mais par des objets algébriques ressemblant à des variables aléatoires. On n’a pas le droit d’imaginer qu’elles prennent une valeur bien définie ; la physique quantique ne fournit que leur probabilité avec une certaine incertitude, nécessairement présente. Par exemple, la position x et la vitesse v d’une particule de masse m présentent des fluctuations statistiques ∆x et ∆v bornées inférieurement par l’inégalité de Heisenberg ∆x ∆v ≥ ћ/2m (où ћ = 1,055 · 10 –­­34 Js est la constante de Planck-Dirac). Elles ne sont donc jamais déterminées avec une meilleure précision. 23


LNA#53 / cycle la crise

Bien que les règles de la physique quantique soient mathématiquement rigoureuses et en accord avec l’expérience, elles portent seulement sur des probabilités, de sorte que la nature même des concepts implique un certain flou, peu visible à notre échelle mais crucial à l’échelle atomique. On vient de le voir avec la position et la vitesse d’une particule. De même, dans la description d’un électron, ou dans celle de la lumière, les concepts d’onde et de corpuscule coexistent mais ne sont pas nets ; en électromagnétisme, le champ électrique et le champ magnétique en un point ne peuvent être précisés parfaitement. Cependant, si, à un instant donné, les incertitudes sont inévitables, la dynamique quantique est déterministe (et réversible), comme l’illustre l’équation de Schrödinger qui régit l’évolution d’un objet. Alors que notre connaissance de l’état initial est irréductiblement probabiliste, notre degré d’incertitude sur le système à un instant ultérieur n’est pas modifié par la dynamique. Les défauts de prévision ne tiennent qu’aux incertitudes sur les grandeurs physiques à l’instant initial, et non à une perte d’information au cours de l’évolution. * En définitive, nous avons mis en évidence des jeux subtils entre déterminisme et incertitude. En physique statistique, l’immense nombre de constituants nous condamne à une description microscopique probabiliste, mais permet aussi aux grandeurs macroscopiques de prendre des valeurs quasi certaines malgré notre méconnaissance sur les constituants : le déterminisme émerge de l’aléatoire. Pour un phénomène chaotique, les équations dynamiques sont connues et déterministes, mais le comportement à long terme est imprévisible dès lors que la moindre incertitude existe sur l’état initial. Enfin, la physique quantique est irréductiblement probabiliste ; elle allie un flou inhérent au concept de grandeur physique au déterminisme de l’évolution. Il a donc fallu abandonner le déterminisme strict tel qu’on le concevait au XIXème siècle. Un outil mathématique a contribué à résoudre cette crise, la théorie des probabilités, qui permet, malgré la présence d’incertitudes, de faire des prévisions et d’évaluer leur degré de fiabilité. Tout en ne fournissant pas une connaissance absolue et définitive, la physique progresse ainsi en rendant de mieux en mieux compte du réel. Cependant, la nécessité de l’emploi des probabilités a des implications philosophiques. On décrit non des objets 24

individuels, mais des ensembles statistiques d’objets tous préparés dans des conditions semblables. De plus, l’observateur n’est pas absent de la théorie, puisque les probabilités caractérisent non une propriété intrinsèque d’un objet, mais la connaissance que nous en avons. * Article faisant suite à la conférence « Physique statistique, chaos et mécanique quantique : entre déterminisme et imprévisibilité » donnée le 15 décembre 2009.


mémoires de sciences : rubrique dirigée par Rémi Franckowiak et Bernard Maitte / LNA#53

Erreurs de mathématiciens * Laboratoire d’Informatique Fondamentale de Lille, UMR CNRS 8022, Bât. M3

Récemment, Étienne Ghys, Directeur de recherche au CNRS en mathématiques à l’École Normale Supérieure de Lyon, a publié un texte intéressant 1 où il relate une désagréable mésaventure personnelle. Bertrand, un de ses collègues, venait de lui envoyer un message électronique dans lequel il décrivait une erreur trouvée au milieu d’un article de Ghys publié 20 ans plus tôt dans les fameux Comptes Rendus de l’Académie des Sciences de Paris.

E

n deux secondes, je comprends que Bertrand a bien vérifié ce qu’il dit avant d’envoyer son mail et qu’il a probablement raison. Mais il faudrait au moins que je trouve une copie de cet article. Je fouille mon armoire : impossible de mettre la main sur cette vieillerie qui, je le pensais, n’intéressait plus personne. Malheureusement, les articles de cette revue ne sont pas accessibles sur internet... Je descends très vite à la bibliothèque, mais les volumes sont archivés lorsqu’ils ont plus de quinze ans d’âge... Bon, finalement, j’obtiens une copie de l’article. Verdict immédiat : Bertrand a raison, la preuve du théorème 2 est fausse. Angoisse confirmée... Tout le monde a horreur des erreurs, mais les matheux en ont probablement encore plus peur. » Finalement, après examen détaillé, l’erreur se révèle sans grande importance pour l’objet principal de l’article dont le fond est finalement correct. Ghys termine sa petite histoire en expliquant : « Si cette note avait vraiment été fausse, aurais-je écrit ce billet ? L’aurais-je avoué publiquement ? Pas facile. Pourtant, il arrive que les mathématiciens soient contraints de publier des Errata à leurs articles. Parfois, c’est une erreur grave qui anéantit tout l’article... Je vous parlerai de mes erreurs dans un autre billet, quand j’aurai plus de courage ! » Des histoires comme celle de Ghys, en fait, tous les mathématiciens en connaissent et nombreux sont ceux qui en ont vécu personnellement à propos d’un de leur article. Contrairement à l’image qu’on se fait à l’extérieur de la discipline, le mathématicien est sujet à l’erreur et celles-ci ne sont pas exceptionnelles du tout. Même dans les articles publiés, dont on imagine qu’ils ont été contrôlés par l’auteur avec soin et par d’autres mathématiciens avant publication, il reste parfois des erreurs. Il n’est pas rare qu’on ne les découvre que longtemps après la publication, ce qui laisse d’ailleurs penser que certaines erreurs ne sont jamais décou Voir http://images.math.cnrs.fr/L-angoisse.html

1

Par Jean-Paul DELAHAYE Professeur à l’Université Lille 1 *

vertes. Même les plus grands mathématiciens ont commis et publié des erreurs. Précisons quand même pour rassurer les lecteurs que, bien sûr, les parties centrales des mathématiques, et les résultats considérés comme importants, ne contiennent pas d’erreur : des dizaines, voire des milliers de mathématiciens y sont passés et repassés ; rien de faux ne peut y subsister. Je ne connais aucun cas d’erreur patente qui serait resté longtemps ignorée dans ce qui constitue les parties fondamentales des mathématiques – et qui sont celles qu’on enseigne aux étudiants... ouf ! En revanche, dans un domaine spécialisé, à propos d’un problème qui n’a pas intéressé beaucoup de monde, il est tout à fait envisageable qu’une erreur reste ignorée longtemps et même indéfiniment puisque certains thèmes de recherche passent de mode et que plus personne ne va y étudier ce qu’on y a découvert... ou cru y découvrir. Voici quelques exemples, pris au hasard de l’histoire, qui illustrent ce risque d’erreurs présent en mathématiques comme dans toutes les disciplines. Des nombres premiers qui ne le sont pas L’Antiquité est l’époque pendant laquelle la notion de preuve mathématique s’élabore et fluctue quoique presque toutes les démonstrations qu’on trouve dans les Éléments d’Euclide sont aujourd’hui considérées comme parfaitement rigoureuses. Aussi nous commencerons nos exemples bien au-delà : au XVIIème siècle. Dans le simple domaine du calcul, des erreurs étonnantes ont été perpétrées et se sont transmises parfois durant de longues années. Le père Mersenne affirme, en 1644, que Mp = 2p -1 est un nombre premier pour p = 2, 3, 5, 7, 13, 17, 19, 31, 67, 127, 257 et composé pour les autres exposants jusqu’à 257. Certes, les calculs pour établir ces faits sont longs mais, puisqu’il donne cette liste, on imagine qu’il a mené soigneusement le travail de vérification. Un siècle plus tard, Leonhard Euler prétend corriger Mersenne et écrit que M41 et M47 sont des nombres premiers et qu’ils ont donc été oubliés par Mersenne sur sa liste. En fait, il se trompe : aucun des deux nombres M41 et M47 n’est premier. Cela ne signifie pourtant pas que la liste de Mersenne est bonne : une première erreur y est trouvée en 1886 (plus de 200 ans après son élaboration) par I. Persuvin qui établit 25


LNA#53 / mémoires de sciences : rubrique dirigée par Rémi Franckowiak et Bernard Maitte

que M61 est premier. Quatre autres erreurs seront découvertes par la suite : M67 et M257 ne sont pas premiers alors que M89 et M107 le sont. Aujourd’hui, bien sûr, tout cela s’est définitivement stabilisé et la liste – bien au-delà de ­257 –­a été vérifiée et re-vérifiée. Toujours dans le domaine des nombres premiers, le grand Fermat à qui l’on doit tant de merveilles arithmétiques a, en quelque sorte, battu un record, celui de la conjecture la plus fausse possible. Fermat remarque en effet que les nombres de la forme :

miers), sont très rares. Le plus petit est 341 = 11 x 13. En choisissant au hasard un nombre n inférieur à 25 milliards, on constate que : (a) 2n - 2 n’est pas multiple de n dans 95,64 % des cas (on sait alors avec certitude qu’il est composé) ; (b) 2n - 2 est multiple de n dans 4,36 % des cas et, alors, il s’agit d’un nombre premier dans 99,998 % des cas. Pour un nombre inférieur à 25 milliards, le risque de fournir un diagnostic erroné à partir de la croyance (erronée) que [premier] <=> [2-pseudo-premiers]

notés Fn, et appelés nombres de Fermat, sont tous des nombres premiers quand n = 1, 2, 3 et 4. Il généralise en proposant l’affirmation que tout nombre de la forme Fn est premier. Euler montrera que F5 = 4 294 967 297 = 641 x 6700417, puis, en 1880, Landry montrera que F6 = 274 177 x 67 280 421 310 721. On sait aujourd’hui que, de F5 jusqu’à F32, tous les Fn sont composés et on conjecture donc que tous les nombres Fn sont composés sauf les quatre premiers, autrement dit, on conjecture qu’à partir de F5 Fermat s’est trompé à 100 %. C’est bien tentant, c’est presque juste, mais c’est faux ! Ces erreurs ne sont pas très instructives : une fois repérées, rien ne peut en être tiré de vraiment utile. Ce n’est pas le cas de l’erreur commise à propos de ce qu’on appelle le petit théorème de Fermat. Ce résultat, énoncé par Fermat en 1640 et démontré par Euler en 1736, indique que si p est un nombre premier alors, pour tout nombre entier a >1, le nombre ap - a est un multiple de p. En particulier, donc, si p est premier, 2p - 2 est un multiple de p. Cette affirmation ne doit pas être confondue avec l’affirmation inverse qui est fausse : si 2p - 2 est un multiple de p alors p est premier. Fermat ne commit pas la confusion alors que, pourtant, elle est extrêmement tentante. En effet, les nombres qui font exception, c’est-à-dire qui vérifient que 2p - 2 est un multiple de p alors qu’ils sont composés (on les appelle 2-pseudo-pre26

est donc inférieur à 0,00009 %. La croyance erronée tendait les bras et, effectivement, en 1886, le mathématicien chinois Li Shan-Lan (1811-1882) a publié le faux critère de primalité. Le plus remarquable est qu’aujourd’hui la croyance erronée (un peu améliorée pour l’être moins souvent encore) sert de base aux algorithmes probabilistes de test de primalité qui sont utilisés systématiquement en cryptographie. Personne ne commet vraiment d’erreur à ce sujet aujourd’hui, cependant c’est bien de la fausse caractérisation qu’est née l’idée des algorithmes probabilistes, si importante en pratique. De l’erreur – contrôlée et consciente –, on a tiré une méthode importante et utile. Les fausses décimales de Pi L’homme n’est pas fait pour le calcul, il faut bien l’admettre. Avant l’ère des ordinateurs, quelques problèmes de calculs ont excité les passions et ont été l’occasion d’erreurs à répétition. À titre d’exemple, le calcul à la main des décimales du nombre Pi a donné lieu à une multitude de calculs inexacts dont le plus célèbre laisse des traces, encore aujourd’hui en 2009. William Shanks (1812-1882) publie 707 décimales de Pi en 1874. Au total, il a passé vingt ans de sa vie à mener ce calcul monstrueux et, heureusement..., n’a jamais su qu’il était faux à partir de la 527e décimale. Pendant plus de cinquante ans, d’ailleurs, tout le monde fit confiance au calcul de Shanks qui semblait avoir pris toutes les précautions


mémoires de sciences : rubrique dirigée par Rémi Franckowiak et Bernard Maitte / LNA#53

pour obtenir un résultat juste. C’est seulement en 1945 que D. Ferguson, travaillant comme Shanks uniquement avec du papier et des crayons, recalcule 539 décimales de Pi et constate un désaccord avec le calcul de son prédécesseur. Le désaccord sera confirmé, plus tard, par d’autres calculs utilisant cette fois des machines. Les chiffres faux de Shanks furent utilisés en 1937 pour l’aménagement du Palais de la découverte à Paris. La salle Pi du Palais vit son plafond décoré par les décimales de Shanks. Les fausses décimales de Pi restèrent jusqu’en 1949, date à laquelle les bons chiffres furent mis en place. On pourrait croire que, depuis, les fausses décimales de Shanks ont été oubliées. Ce n’est pas le cas : l’éditeur français Hermann, en 2009, vend toujours le merveilleux livre de François Le Lionnais, Les grands courants de la pensée mathématique, livre qui, page 99, reproduit, sans indiquer qu’elles sont fausses, les 707 décimales de Shanks. Attention, donc, si vous souhaitez les apprendre par cœur ! L’erreur de Shanks est sans importance matérielle puisqu’on sait bien qu’en physique 40 décimales de Pi seront toujours suffisantes. Il n’empêche que, suite aux erreurs répétées dans la course aux décimales de Pi (aujourd’hui on en connaît 2576 milliards), les règles du jeu sont maintenant qu’un calcul doit être réalisé deux fois, par deux méthodes différentes, pour être pris en considération. Ici, l’erreur aura au moins eu le mérite d’inciter à la prudence. Poincaré s’acquitte de son erreur Parfois, un mathématicien doit payer de sa poche une erreur pour un théorème faux. En janvier 1889, les quotidiens parisiens annoncent avec fierté que le jeune mathématicien français Henri Poincaré vient de remporter le Prix international de mathématiques que le roi de Suède Oscar II avait organisé pour son soixantième anniversaire. Le prix consiste en une médaille d’or d’une valeur de mille francs accompagnée d’une somme de 2500 couronnes. Charles Hermite, dans une lettre à Mittag-Leffler qui était chargé de l’organisation du prix, indique que « Dans ce travail comme dans presque toutes ses recherches, Monsieur Poincaré montre la voie et donne des indications mais laisse considérablement à faire pour combler les lacunes ». Quelques mois plus tard, le mathématicien Edward Phramén, qui devait préparer le

manuscrit de Poincaré, découvre des passages gênants, dont Poincaré, lorsqu’il en est averti, réalise qu’ils remettent en question gravement l’ensemble même du mémoire pour lequel il a remporté le prix du roi Oscar. Poincaré avait gagné un prix pour un mémoire fautif ! Mittag-Leffler reprit possession des exemplaires imprimés du mémoire et demanda à Poincaré d’en rembourser les frais d’impression. La somme que Poincaré paya ainsi dépassait de mille couronnes le prix qu’il avait reçu. Poincaré retravailla soigneusement son mémoire, le modifiant, le réorganisant et le complétant. La version finalement publiée en novembre 1890 avait pris sensiblement du volume mais, et c’est là tout le charme de l’histoire, constitue un des textes les plus importants des mathématiques modernes. Poincaré, à propos du problème des trois corps, introduit des idées et des méthodes qui fondent la théorie des systèmes dynamiques chaotiques et conduisent à la mise en évidence que, dans certains cas assez simples et ayant une portée physique évidente, le déterminisme ne garantit pas la prédictibilité. Après quelques péripéties, sans doute douloureuses et, même si cela l’avait plutôt appauvri, Poincaré avait finalement bien mérité son prix : l’erreur de Poincaré fut donc fructueuse. Cette édifiante histoire n’est pas le seul cas d’erreur mathématique cruciale et utile mais, comme en faisait la remarque Étienne Ghys, les mathématiciens préfèrent oublier ce type de péripéties plutôt que les étudier soigneusement et d’en tirer les leçons. À ma connaissance, aucun livre d’histoire des mathématiques n’a pris l’erreur pour thème principal.

Bibliographie Jean-Paul Delahaye, Le fascinant nombre Pi, éd. Belin, 1997. Jean-Paul Delahaye, Merveilleux nombres premiers, éd. Belin, 2000. Jean-Paul Delahaye, Les inattendus mathématiques, éd. Belin, 2004 (voir le chapitre 14 : Ce qui est faux peut être utile). Bernard Pourprix, La fécondité des erreurs : Histoire des idées dynamiques en physique au XIXème siècle, Presses Universitaires du Septentrion, 2003.

27


LNA#53 / paradoxes

Paradoxes

Rubrique de divertissements mathématiques pour ceux qui aiment se prendre la tête

* Laboratoire d’Informatique Fondamentale de Lille, UMR CNRS 8022, Bât. M3

Par Jean-Paul DELAHAYE Professeur à l’Université Lille 1 *

Les paradoxes stimulent l’esprit et sont à l’origine de nombreux progrès mathématiques. Notre but est de vous provoquer et de vous faire réfléchir. Si vous pensez avoir une solution au paradoxe proposé, envoyez-la moi (faire parvenir le courrier à l’Espace Culture ou à l’adresse électronique delahaye@lifl.fr). LE PARADOXE PRÉCÉDENT : LES CHAPEAUX ALIGNÉS

Bernard Dupont, Julien Destombes, Fabrice Descamps, Jef Van Staeyen, Florent Delhaye, Frédéric Bernable.

Rappel de l’énoncé

La solution se fonde sur la transmission d’étudiant en étudiant de l’information sur la parité (pair ou impair) du nombre de chapeaux rouges placés à partir de lui (en comptant son chapeau). Plus précisément :

Des étudiants en logique au nombre de N sont soumis à un test. On leur explique qu’on va les aligner les uns derrière les autres, tous tournés vers la droite. On posera sur leur tête un chapeau rouge ou bleu tiré au hasard. L’étudiant le plus à gauche pourra voir tous les chapeaux sauf le sien ; celui placé devant lui pourra voir tous les chapeaux sauf le sien et celui de l’étudiant placé derrière lui. Plus généralement, l’étudiant placé en position k, à partir de la gauche, pourra voir tous les chapeaux des étudiants k+1, k+2, etc. jusqu’au dernier le plus à droite, mais aucun autre. On interrogera chaque étudiant sur la couleur du chapeau qu’il a sur la tête et on leur distribuera ensuite autant d’ordinateurs portables qu’ils auront donné de bonnes réponses. On précise encore qu’avant de se mettre en rang les étudiants sont autorisés à discuter entre eux pour convenir d’une stratégie de réponses, mais qu’une fois alignés les chapeaux seront placés au hasard et qu’ils ne pourront plus avoir d’échanges. Dernière précision : on interrogera les étudiants à voie haute et ils répondront, à voie haute, sur ce que chacun croit être la couleur de son chapeau, en commençant par l’étudiant le plus à gauche et en terminant par celui le plus à droite. L’étudiant Alonso dit : « nous pouvons être certains de gagner un ordinateur chacun, sauf peut-être l’un de nous ». Il semble impossible que les N étudiants puissent gagner de manière certaine N-1 ordinateurs et peut-être N ! Pourtant, Alonso est un très bon étudiant qui ne se trompe jamais. Quelle est l’idée d’Alonso ? Solution Merci aux personnes qui m’ont envoyé la bonne solution. Dans l’ordre de réception des réponses, il s’agit de : Patrice Cacciani, Ludovic Thuinet, Virginie Delsart, Nicolas Vaneecloo, Bernard Barbez, Daniel Liabeuf, André Pillons, 28

- L’étudiant 1 (le plus à gauche) indique rouge pour son chapeau si le nombre de chapeaux rouges qu’il voit est pair et il indique bleu sinon. Il a une chance sur deux de gagner. - L’étudiant 2, s’il voit devant lui un nombre de chapeaux rouges qui à la même parité que le nombre de chapeaux rouges qu’a vu l’étudiant 1 (ce qu’il sait puisqu’il a entendu la réponse de l’étudiant 1), est certain d’avoir sur la tête un chapeau bleu, et sinon, d’avoir sur la tête un chapeau rouge. Il répond conformément à sa déduction et ne peut pas se tromper. - L’étudiant 3, qui connaît la parité du nombre de chapeaux rouges parmi les chapeaux 2, 3, ..., k), et qui sait si l’étudiant 2 à un chapeau rouge ou pas (car il a entendu sa réponse), connaît donc la parité du nombre de chapeaux rouges des étudiants des rangs 3 à N. Comme il voit aussi tous les chapeaux des rangs 4 à N, il en déduit la couleur de son chapeau. - De proche en proche, tous les étudiants du deuxième jusqu’au dernier donnent la bonne couleur pour leur chapeau. Au total, tous, sauf peut-être le premier, devinent correctement la couleur de leur chapeau. Le premier a seulement une chance sur deux d’avoir bon. En résumé : - Une fois sur deux, les étudiants emporteront N ordinateurs, - Et une fois sur deux, ils en emporteront N-1.


paradoxes / LNA#53

La Parabole des aveugles - Pieter Brueghel l’Ancien, Pieter Brueghel le Jeune (Brueghel d’Enfer) - vers 1630

NOUVEAU PARADOXE : LE CONGRÈS DES MYOPES Il s’agit à nouveau d’un problème de chapeaux. Le congrès annuel des myopes se réunit. Un jeu est organisé avec 11 des congressistes. Après quelques minutes de discussion, pendant lesquelles les 11 myopes ont pu convenir de la stratégie qu’ils allaient utiliser, l’arbitre du jeu pose un chapeau noir ou rouge sur la tête de chacun et dispose les joueurs en cercle de telle façon que : - Le myope 1 voit le chapeau du myope 11 et lui seulement ; - Le myope 2 voit le chapeau du myope 1 et lui seulement ; - Le myope 3 voit le chapeau du myope 2 et lui seulement ; - ... - Le myope 11 voit le chapeau du myope 10 et lui seulement. Simultanément, chacun des 11 myopes indique la couleur du chapeau qu’il pense porter. Il a été convenu que l’ensemble des 11 joueurs gagnait le droit de revenir gratuitement au congrès l’année suivante si l’un d’eux au moins donnait la bonne réponse. En répondant au hasard, ils ont peu de chance de perdre, mais l’arbitre a pu les espionner pendant qu’ils parlaient avant l’épreuve et il est possible qu’il exploite ce qu’il a entendu pour les faire perdre. Pourtant, même dans un tel cas, les 11 joueurs sont certains de gagner. Quelle stratégie ontils convenu qui assure à 100 % que l’un d’eux (au moins) proposera la bonne couleur pour le chapeau qu’il porte ? L’existence d’une telle stratégie peut vous sembler paradoxale (puisque l’arbitre fait ce qu’il veut et qu’il a entendu la discussion des 11 myopes), pourtant elle ne l’est pas et en recherchant un peu vous la découvrirez.

Plus étonnant, et maintenant on est encore plus proche d’un paradoxe, j’attends des lecteurs qu’ils résolvent un second problème : - Prouvez que si l’un des myopes est en réalité un aveugle, alors cette fois aucune stratégie convenue à l’avance ne peut fonctionner dans 100 % des cas. Notez bien que, comme précédemment, on ne demande aux joueurs que de s’arranger pour qu’au moins l’un d’eux devine correctement la couleur du chapeau qu’il porte. Cette seconde partie du problème consiste à démontrer ce qu’on nomme un « résultat négatif ». L’histoire des mathématiques en compte de nombreux : la démonstration découverte par les savants grecs que √2 n’est pas un nombre rationnel (c’est-à-dire qu’il n’existe pas deux entiers p et q, tels que √2 = p/q) est sans doute le premier résultat de ce type. Ici, il faut démontrer qu’aucune stratégie de jeu n’est possible si la ronde des 11 personnages est composée de 10 myopes et 1 aveugle.

29


LNA#53 / humeurs

Platon, la philosophie politique et « nous » * * Cet article sera publié en deux parties, retrouvez la suite dans le n° 54 des Nouvelles d’Archimède.

Par Jean-François REY Professeur de philosophie à l’IUFM de Lille/Université d’Artois

P

ars pro toto, la partie pour le tout : à bien des égards aujourd’hui, la philosophie politique se donne pour le tout de la philosophie. Cette prétention exorbitante a une double origine : la philosophie politique qui émerge aux détours des années 80, philosophie libérale pour l’essentiel, se dégage sans peine du champ de ruines laissé par le structuralisme et le marxisme après le retrait des investissements « révolutionnaires ». Succès d’autant plus assuré qu’elle se donne pour la vérité adulte succédant aux emportements de la jeunesse : en témoigne le procès fait à l’utopie réduite au rôle de matrice des totalitarismes. On pourrait soutenir successivement : 1) que ce procès est mal fondé ;

2) qu’il existe une autre philosophie qu’on appelle critique ; 3) que la philosophie politique critique n’est pas, elle non plus, le tout de la philosophie. Dans la mesure où philosophie et politique proviennent, jusque dans leurs racines, de la source grecque, c’est à celleci qu’il faut remonter. « L’institution grecque du politique, c’est d’abord la naissance d’un mode de vie foncièrement actif accompagné de parole ». Ainsi s’exprimait Jacques Taminiaux lors d’un Rendez-vous d’Archimède consacré au Politique 1. Vie active et parole vivante, la démocratie en était venue à se présenter elle-même comme partage des actes et des paroles sur un plan d’égalité devant la loi. Ce ne fut ni rapide, ni facile, ni miraculeux. Mais c’est, aujourd’hui encore, au cœur de nos interrogations contemporaines sur la vision politique du monde et notre rapport à l’héritage démocratique. Il s’agit, ni plus ni moins, de penser la multiplicité (hoi polloi en grec) et d’articuler la parole de chacun au monde commun. L’attention au singulier n’est pas étrangère aux Grecs du temps de Platon 2. Il faut le souligner pour éviter de faire de Platon le premier des ennemis des « sociétés ouvertes », selon la formule de Karl Popper. Donc : pas de mauvais procès. Mais, compte tenu de la mauvaise opinion que Platon transmet sur la démocratie à partir de l’événement de la mort de Socrate et sur la

1 Repris dans Politique et responsabilité, enjeux partagés, sous la direction de Nabil El-Haggar et Jean-François Rey, éd. L’Harmattan, Paris, 2003, p. 29 à 49.

Voir Benny Levy, Le meurtre du Pasteur, Critique de la vision politique du monde, éd. Grasset/Verdier, Paris, 2002.

2

30


humeurs / LNA#53

tyrannie de l’opinion (doxa), il faut partir de Platon (même s’il n’est pas le « premier » philosophe) pour comprendre dans quel embarras « nous » nous trouvons aujourd’hui. Ce « nous » désigne le public des différents lieux où l’on essaie de sauvegarder une pensée critique. Ces lieux sont peu nombreux. L’Espace Culture (Lille 1) et les Nouvelles d’Archimède en sont un. Dans de tels lieux, on débat. Or, ces débats, parfois agités, portent sur l’état de la démocratie et sur les rapports entre philosophie et politique. Lorsqu’émergea une nouvelle philosophie politique critique dans les travaux de Miguel Abensour ou de Jacques Rancière, à la suite de l’œuvre « pionnière » de Claude Lefort, on vit reparaître la tension entre la philosophie surplombant les champs de l’action et du vivre ensemble, que nous désignons par le mot de « politique », et une philosophie politique affranchie de cette position de surplomb, pour envisager l’agir humain indépendamment de la théorie. On aura reconnu les positions respectives de Platon et d’Hannah Arendt. Cette dernière commence à être lue et connue en France à partir des années 80. Pour beaucoup, elle permet de penser à nouveaux frais la liberté et la politique. Il convient de rappeler qu’elle ne se présentait pas elle-même comme philosophe mais comme « penseur politique ». On peut la nommer aussi « écrivain politique » selon l’heureuse formule de Miguel Abensour. Autrement dit, des noms comme ceux de Maurice Merleau-Ponty, Claude Lefort, Hannah Arendt alimentent une pensée critique qui cherche à définir la démocratie moderne à l’écart de la conception libérale triviale réduite à l’exercice du suffrage des citoyens, et surtout face à l’épreuve du totalitarisme du XXème siècle, régime inconnu d’Aristote et des Modernes du XIXème siècle. Pour ces penseurs ou écrivains contemporains, successeurs de Tocqueville et du jeune Marx, il s’agit de sauver la liberté de l’agir et de penser l’être ensemble de la multiplicité, la pluralité chère à Hannah Arendt. Or, c’est alors qu’on publie et qu’on lit de plus en plus ces auteurs, que Platon fait en quelque sorte retour dans la vie intellectuelle française, au lendemain des débats postérieurs à la fin du communisme, à une période autrement décrite comme post-moderne. Comment se manifeste ce « retour » et que nous enseigne-t-il ?

Jacques Taminiaux 3 rappelait l’ « oblitération tendancielle du politique par les philosophes depuis Platon ». Il s’agit donc d’une longue histoire. Grossièrement, on pourrait dire que la position platonicienne est celle du nomothète qui, fort de la théorie, dicterait le cadre législatif, bâtirait les institutions à la manière d’un artisan spécialisé, d’un « fabricant » de lois. Ce qui apparente, aux yeux d’Hannah Arendt par exemple, Platon et, à sa suite, tous les philosophes aux partisans d’une poïesis (fabrication) plus que d’une praxis (action). Pour Hannah Arendt, c’est la république romaine qui donne sa noblesse à la politique : au nomothète qui édifie les murs, elle oppose le caractère relationnel de la loi romaine. D’un côté, un cadre, de l’autre, l’être ensemble. Si ces distinctions sont pertinentes, le retour de Platon dans la vie intellectuelle française de ces dernières années devrait soulever une légitime attention, pour ne pas dire suspicion. Car l’affaire se complique lorsque Platon est sollicité parfois dans des stratégies antagonistes par deux auteurs au moins, connus pour une franche inimitié qui n’a cessé de s’exacerber au fil du temps : le regretté Benny Levy, d’une part, et Alain Badiou d’autre part. Nous n’entrerons pas ici dans les procès d’intention pénibles où de violentes polémiques n’hésitent pas quelquefois à s’aventurer autour de lieux nauséabonds où l’antisémitisme a toujours trouvé à s’alimenter. Nous nous en tiendrons aux textes.

3

Op. cit. p. 43.

31


LNA#53 / repenser la politique

Le choc des générations aura-t-il lieu ? Par Alain CAMBIER Docteur en philosophie, professeur en classes préparatoires, Faidherbe - Lille Les violences qui se sont produites en Grèce, l’an dernier, sont peut-être un signe avant-coureur de ce qui nous attend : une jeunesse tenaillée par le sentiment d’être sacrifiée et tentée d’exprimer de cette façon son désespoir. Les conséquences sociales de la crise financière et économique touchent en priorité les jeunes qui se trouvent de plus en plus en situation précaire 1. En outre, la dette publique s’est emballée avec la récession et représente plus de 77 % du PIB, en 2009, et bientôt 84 %, en 2010, sans parler du déficit public qui s’élève désormais à plus de 8 % du PIB : ces déficits abyssaux hypothèquent gravement l’avenir des prochaines générations et pèseront lourdement sur les épaules des plus jeunes au point de créer une situation explosive.

L

a notion de génération est ambiguë et renvoie au moins à trois acceptions. Elle présente d’abord un caractère généalogique et désigne le laps de temps moyen nécessaire pour assurer le renouvellement de la population, soit environ trente ans. Mais elle possède également un caractère sociologique, voire historique. Une génération correspond alors à une classe d’âge qui dispose des mêmes repères symboliques ou s’identifie aux personnes ayant vécu une même expérience historique marquante. Or, si tout est fait, dans les sociétés traditionalistes, pour euphémiser les ruptures entre générations, les sociétés « modernes » ont en revanche exacerbé les tensions entre héritage et innovation. L’accentuation des ruptures transgénérationnelles Les clivages généalogiques sont aujourd’hui directement influencés par les modes de vie socio-culturels. D’une part, le prolongement du fait de l’adolescence – dû à une scolarisation plus étendue se conjuguant aux difficultés économiques qui empêchent de vivre de manière autonome – et, d’autre part, l’allongement de l’espérance de vie – qui a accentué fortement le poids démographique des anciens – apparaissent comme autant de facteurs objectifs de déséquilibre. En outre, il faut bien admettre un avant et un après les « trente glorieuses » : les enfants du « baby-boom », qui sont devenus les retraités du « papy-boom », ont vécu avec un système de valeurs, de croyances, de schémas mentaux que ne partagent plus les générations qui les ont suivies et qui sont nées

1 Cf. Les jeunes Européens, premières victimes de la crise, éd. La Documentation française, Problèmes économiques (n° 2972), 2009.

32

dans le contexte d’un capitalisme financiarisé se réclamant du néo-libéralisme. Ainsi, si la conscience de classe a disparu en raison de l’émiettement individualiste de la société contemporaine, elle a fait place, chez les jeunes, à un sentiment de déclassement généralisé qui ne peut qu’attiser les tensions. Celles-ci se nourriraient de la frustration ressentie par la comparaison entre le pouvoir d’achat, parfois ostentatoire, des seniors et celui, de plus en plus réduit, de jeunes condamnés au précariat ou au chômage de masse. La ligne de fracture ne passe plus aujourd’hui entre bourgeois et prolétaires, mais plutôt entre salariés-insiders et ces salariés-outsiders devenus les nouveaux parias de la société, corvéables à merci et éjectables à tout moment. Les ruptures transgénérationnelles se multiplient et sont repérables à travers la plus ou moins grande maîtrise des nouvelles technologies, la revendication de valeurs nouvelles, un rapport différent à la politique, etc. Une succession de malentendus peut alors favoriser l’incommunicabilité totale entre les générations. Si le choc en retour, provoqué par la remise en question des certitudes des anciens par les plus jeunes classes d’âge, a longtemps été un facteur de dynamique sociale, il peut désormais révéler le délitement du tissu social et donner lieu à des explosions de violence – au-delà même des banlieues – pour engendrer un véritable clash des générations. La part de mystification de la conscience générationnelle Certes, il faut se méfier de la prétendue « conscience générationnelle » qui se prend elle-même comme objet. La notion de génération peut être utilisée à des fins idéologiques pour tenter d’homogénéiser artificiellement des segments de population traversés par des intérêts divergents. Elle peut apparaître comme un bon moyen de faire diversion sur les clivages sociaux entre les jeunes de quartiers huppés, vivant dans des « ghettos » choisis, et ceux qui subissent des situations de plus en plus anxiogènes. Toute génération historique et sociologique est souvent le fruit d’une reconstruction fictionnelle du passé opérée par une collectivité humaine, visant à effacer les différences sociales ou les rivalités politiques. Forger l’unité de groupes sociaux autour de grands mythes collectifs permet de détourner les souffrances endurées, d’affirmer le pouvoir d’un clan pour écarter ceux qui ne s’en montreraient pas dignes, de se bercer d’illusions sur ce que l’on aurait pu être et que l’on n’a jamais été. Ainsi, la génération de la Résistance fut d’autant


repenser la politique / LNA#53

plus célébrée que sa glorification permettait d’occulter les lourdes responsabilités de l’État français dans sa politique de collaboration étroite avec les nazis. Il est vrai que l’on a les mythes que l’on peut : aujourd’hui, des retraités qui se retrouvent pour communier autour d’idoles décaties de la chansonnette ou des trentenaires qui reprennent en chœur les succès des dessins animés de leur prime enfance témoignent d’une sorte d’involution peu propice au développement de l’esprit critique et à l’ouverture aux autres. Le culte générationnel peut traduire une volonté de se retrouver « entre soi », comme une évidence artificiellement créée à partir d’un plus petit dénominateur commun. La génération comme connecteur de médiations Mais l’appartenance à une génération ne condamne pas nécessairement à une forme d’autisme social et à l’ignorance des autres : elle présente un tout autre versant puisqu’elle peut jouer également le rôle de connecteur historique. Loin d’être nécessairement synonyme de conflits, elle rend également possible les médiations entre les membres d’une collectivité. La référence à la génération opère d’abord une médiation éthique entre le milieu familial, fondé sur les relations affectives, et l’ensemble de nos contemporains qui, eux, apparaissent comme une masse anonyme. Une génération se fait reconnaître grâce à des marques symboliques à partir desquelles nous pouvons inférer une co-appartenance qui permet d’établir des cercles de reconnaissance sociale et culturelle intermédiaires : entre le « eux », qui désigne les contemporains, et le « toi » et « moi » de l’intimité familiale, s’intercale un « nous » générationnel ouvrant des horizons d’affinités. Bien plus, la notion de génération pointe l’articulation nécessaire entre le temps de nos prédécesseurs et celui de nos successeurs. Comme l’a dit Paul Ricœur 2, elle permet d’établir un étayage biologique du temps historique et lui garantit alors une certaine continuité qui, en elle-même, ne va pas de soi. La suite des générations implique nécessairement, dans le cadre du renouvellement de la population, des compensations rétroactives et suppose des actions réciproques inter-générationnelles. À la chronologie abstraite du temps historique, qui fonctionne en années et siècles, le discours en termes de générations substitue une vision nécessairement plus existentielle qui nous oblige à compter avec le temps, plutôt que de simplement le décompter.

L’horizon des générations futures invite à repenser notre conception de la responsabilité En connotant les notions de naissance, de vie et de mort, le concept de génération devient surtout opératoire pour nous initier au principe d’imputation de responsabilité collective. Car réfléchir en « générations » signifie, à la fois, prendre en compte la durée historique tout en intégrant la vulnérabilité de notre être-au-monde. Ainsi émerge aujourd’hui la prise de conscience du destin précaire des générations futures – c’est-à-dire nos enfants et petits-enfants –, mis en péril, à la fois, par les menaces sur l’écosystème et par les responsables politiques qui laissent filer les déficits. Parler le langage des générations nous oblige à sortir de notre égoïsme ordinaire que traduit la formule cynique : « Après moi le déluge ! » : il nous incite à mieux entendre cet impératif que Hans Jonas avait déjà formulé : « Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre » 3. Or, ce sens de la responsabilité par rapport aux générations futures nous fait sortir de l’éthique habituellement en vigueur de la simultanéité ou du donnant-donnant, puisqu’il s’agit de s’engager pour les générations de demain qui, bien sûr, ne pourront pas nous rendre la pareille. Car, si nous ne le faisons pas, celles-ci seront légitimement en mesure de nous juger, comme l’avait déjà compris Emmanuel Kant : « Comment nos descendants éloignés s’y prendront-ils pour porter le fardeau de l’histoire que nous allons leur laisser ? (…) Ils se demanderont ce que les peuples et les gouvernements ont accompli de bien ou de mal au point de vue cosmopolitique » 4. Nous devons effectivement prendre garde de léguer le « glorieux souvenir » de notre sens des responsabilités, vis-à-vis de notre postérité, plutôt que celui de notre désinvolture.

3

Paul Ricœur, Temps et récit, III, éd. du Seuil, 1985.

2

Hans Jonas, Le principe responsabilité, éd. du Cerf, 1995, p. 30.

Kant, Idée d’une histoire universelle au point de vue cosmopolitique, 9ème proposition.

4

33


LNA#53 / jeux littéraires

« Castor ou la Duplication »

S

i jamais, à l’instar du frangin Pollux, un roman s’intitulait Castor ou la Duplication, augurons qu’il naquît imitant La Disparition. On y lirait transcriptions d’opus connus : pourquoi pas Nos chats, chant apparu dans l’original ? Pari ardu si, traduisant, il fallait qu’on s’y soumît aux lois d’un Boilau (sic), car tout mot rimant n’a ici droit qu’aux sons masculins ! Nous proposons plus bas trois brouillons, jouant tour à tour sur un accord final vocalisant (a, i, o, u…) ou consonant (b, d, f, g, k, l…) : Chats lus d’abord ; puis L’Ibis avant L’Azur bis. Les chats Charles Baudelaire Les amoureux fervents et les savants austères Aiment également, dans leur mûre saison, Les chats puissants et doux, orgueil de la maison, Qui comme eux sont frileux et comme eux sédentaires. Amis de la science et de la volupté, Ils cherchent le silence et l’horreur des ténèbres ; L’Erèbe les eût pris pour ses coursiers funèbres, S’ils pouvaient au servage incliner leur fierté. Ils prennent en songeant les nobles attitudes Des grands sphinx allongés au fond des solitudes, Qui semblent s’endormir dans un rêve sans fin ; Leurs reins féconds sont pleins d’étincelles magiques, Et des parcelles d’or, ainsi qu’un sable fin, Étoilent vaguement leurs prunelles mystiques.

Le Cygne Stéphane Mallarmé Le vierge, le vivace et le bel aujourd’hui Va-t-il nous déchirer avec un coup d’aile ivre Ce lac dur oublié que hante sous le givre Le transparent glacier des vols qui n’ont pas fui ! Un cygne d’autrefois se souvient que c’est lui Magnifique mais qui sans espoir se délivre Pour n’avoir pas chanté la région où vivre Quand du stérile hiver a resplendi l’ennui. Tout son col secouera cette blanche agonie Par l’espace infligée à l’oiseau qui le nie, Mais non l’horreur du sol où le plumage est pris. Fantôme qu’à ce lieu son pur éclat assigne, Il s’immobilise au songe froid de mépris Que vêt parmi l’exil inutile le Cygne. 34

L’Ibis, stéréogramme - RR

par Robert Rapilly http://robert.rapilly.free.fr/ Chats lus Lipogramme en E, rimes strictement vocaliques Captifs bouillants d’amour, savants point rigolos, Autant adorons-nous quand mûrit la saison Nos doux chats si puissants honorant la maison À fuir un climat frais, jouir d’un salon clos. Amis d’attraits lascifs prisant un savoir gai, Ils vont par où sans bruit l’angoissant noir fait loi ; Mais n’y tractant au Styx aucun obscur convoi : Nul jamais au harnois n’a soumis un margay. Paladins fantasmant, ils ont d’instinct l’aplomb Du grand Sphinx accroupi sous son abri profond Qui parut s’assoupir dans un coma sans fin ; Dos imaginatifs aux fulgurants rayons… Mil gravats d’or luiront ainsi qu’un limon fin Du for d’iris divins qu’à la nuit nous voyons.

L’Ibis Lipogramme en E, rimes vocaliques (quatrains) & consonantiques (tercets) Virginal, continu, sculptural l’aujourd’hui Va-t-il grand nous ouvrir d’un coup d’alluchon gris Un lac durci d’oublis qu’y hanta l’inlandsis Du cristallin frimas aux vols qui n’ont pas fui ! Lors un ibis d’antan invoqua quand par lui, Coruscant sauf qu’il va s’affranchir sans sursis Pour avoir tu toujours un opportun pays, Brilla l’impuissant froid du chagrin alangui. Tout son col ondula l’instant blanc convulsif Du cosmos s’imposant à l’animal captif, Non la prison du sol aux confins du martyr. Zombi du rayon pur qui glaça l’oasis, Il s’immobilisa d’illusions transir Aussi loin fors raison qu’il apparût Ibis.


jeux littéraires / LNA#53 Chapitre 10 de La Disparition, on lit une traduction lipogramme de poèmes de Rimbaud, Hugo, Baudelaire et Mallarmé. Or, sans la lettre E, impossible d’alterner rimes féminines et masculines ! Les versions inédites ci-dessous, composées dans l’ombre tutélaire de Perec, y substituent la qualité vocalique ou consonantique des rimes.

L’Azur Stéphane Mallarmé De l’éternel azur la sereine ironie Accable, belle indolemment comme les fleurs, Le poëte impuissant qui maudit son génie À travers un désert stérile de Douleurs. Fuyant, les yeux fermés, je le sens qui regarde Avec l’intensité d’un remords atterrant, Mon âme vide. Où fuir ? Et quelle nuit hagarde Jeter, lambeaux, jeter sur ce mépris navrant ? Brouillards, montez ! Versez vos cendres monotones Avec de longs haillons de brume dans les cieux Qui noiera le marais livide des automnes Et bâtissez un grand plafond silencieux ! Et toi, sors des étangs léthéens et ramasse En t’en venant la vase et les pâles roseaux, Cher Ennui, pour boucher d’une main jamais lasse Les grands trous bleus que font méchamment les oiseaux. Encor ! que sans répit les tristes cheminées Fument, et que de suie une errante prison Éteigne dans l’horreur de ses noires traînées Le soleil se mourant jaunâtre à l’horizon ! - Le Ciel est mort. - Vers toi, j’accours ! donne, ô matière, L’oubli de l’Idéal cruel et du Péché À ce martyr qui vient partager la litière Où le bétail heureux des hommes est couché, Car j’y veux, puisque enfin ma cervelle, vidée Comme le pot de fard gisant au pied d’un mur, N’a plus l’art d’attifer la sanglotante idée, Lugubrement bâiller vers un trépas obscur…

Lipogramme - Un texte dans lequel l’auteur s’ impose de ne jamais employer une lettre, parfois plusieurs. Se trouvent ainsi proscrits les mots qui contiennent cette lettre ou ces lettres. Exemple - Le roman de Georges Perec La Disparition est entièrement écrit sans la lettre E. (www.oulipo.net)

L’Azur bis Lipogramme en E, rimes consonantiques & vocaliques alternées Par l’azur infini, clair, un narquois transport Accabla, nonchalant à la façon d’un brin, L’impuissant troubadour maudit d’un don trop fort Parmi son hamada d’improductif Chagrin. Fuyant, l’iris forclos, j’y flairai son miroir Qui dardait un rayon contrit tant qu’affolant, Sur moi du blanc. Où fuir ? Vint-il pantois un soir Honnir, haillons, honnir un abandon navrant ? Brouillards ! Il faut là-haut vomir vos charbons lourds Sous un stratus d’accrocs : un crachin flou suivit Qui noya son marais blafard aux jours plus courts. Allons bâtir un grand plafond qui soit sans bruit ! Toi, sors du marigot omis non sans saisir, T’avançant, un limon aux typhas opalins, D’un poing qui jamais las m’obstruât, ô Soupir ! Tant d’indigos s’ouvrant aux albatros malins. Plus ! Il faudrait sans fin qu’un puits navrant dans l’air Fumât, afin qu’un smog rabattît sa prison Soufflant un noir crachat, horrifiant impair Sur l’insolation mourant à l’horizon ! - Paradis mort. - À toi, j’accours ! fouis, ô soc, L’oubli d’un Absolu brutal ou d’un Tabou Pour ton martyr qui vint s’accroupir au paddock D’animaux satisfaits : humains pris au licou, Car j’y voulus, vu mon vacuum cortical Apparu pot au fard au bas d’un mur gisant, Sans plus l’art du sanglot parant l’Instant fatal, Ouvrir du thanatos l’obscur coin grimaçant…

En vain ! l’Azur triomphe, et je l’entends qui chante Dans les cloches. Mon âme, il se fait voix pour plus Nous faire peur avec sa victoire méchante, Et du métal vivant sort en bleus angelus !

Mais l’Azur triompha, dont j’ouïs l’ambitus Au carillon. Ma foi, clama-t-il nos frissons : Craintifs acquis au joug puisqu’il nous a vaincus ; Sort du cobalt vivant d’un saphir d’oraisons !

Il roule par la brume, ancien et traverse Ta native agonie ainsi qu’un glaive sûr ; Où fuir dans la révolte inutile et perverse ? Je suis hanté. L’Azur ! l’Azur ! l’Azur ! l’Azur !

Il roula d’un stratus, jadis y visitant Ta Disparition ainsi qu’un surin sûr ; Où fuir hors l’insoumis poison vain tout autant ? J’y suis contraint. L’Azur ! L’Azur ! L’Azur ! L’Azur !

Enfin, un poème qui s’ intitule L’Aria du Limaçon, précédemment publié par la revue scientif ique Quadrature. On y repère un faisceau de règles prosodiques habituelles (sonnet symboliste, décompte régulier des syllabes…), et la caractéristique plus rare de lipogramme en E. Devinette : quelle autre contrainte en a guidé l’exécution ? Quitte à revenir sur vos pas, lisez attentivement. Réponse dans notre prochain numéro. Amorti monacal un nocif fusa nô À l’Assurbanipal un for paru guano Sud Nil à Niagara sublima l’aviron Oc ami lu d’air a l’Aria du Limaçon Ô rival ! À mil bus ara gaina l’Indus On augura prof nu Lapin à brus sala On a suffi connu Lacan omit Roma 35


LNA#53 / à lire

La science à bout de souffle ? Par Bernard MAITTE Professeur d’histoire et d’épistémologie des sciences à l’Université Lille 1 CHSE/UMR Savoirs, Textes, Langage « Où va la science ? » se demandait Max Planck il y a 75 ans… Laurent Ségalat choisit de poser cette question dès l’avant-propos de son petit livre qu’il est urgent de lire 1. Il continue « Y a-t-il un pilote dans l’avion science ? Non. L’avion science risque-t-il de s’écraser ? Le risque est réel » 2. Et de s’interroger sur la science en tant que système global et mondialisé de production et de diffusion des connaissances. Est-elle si atteinte ? L’essai remarque que le but des chercheurs est de produire des connaissances, que cette activité est l’émanation de la soif de l’homme de comprendre le monde où il vit, que ceci est largement indépendant des autres types de productions et du schéma offre-demande. Or, ce sont sur les ressorts soutenant les activités économiques que l’organisation mondiale de la science contemporaine s’appuie : « qui n’a pas une âme de compétiteur n’est pas dans son élément. Le Dieu des chercheurs n’est ni Marx, ni le capital, c’est Darwin… la plupart des pays ont institutionnalisé un système de répartition des moyens [qui donne à certains] les meilleurs morceaux, [à d’autres] les miettes, les plus malheureux [repartent] bredouilles ». Quel est donc ce système qui se vante de financer les recherches d’un cinquième des chercheurs, pourtant rémunérés pour chercher, comment fonctionne-t-il ? Léo Szilàrd (1898-1964), concepteur de la réaction en chaîne, auteur de la lettre cosignée avec Einstein pour convaincre le président Roosevelt de fabriquer la bombe A, consacra la fin de sa vie à la défense d’un monde dénucléarisé et à l’écriture de nouvelles. Dans l’une d’elles 3, un milliardaire demande au personnage principal, un chercheur, comment on pourrait ralentir l’avancée de la science, trop rapide selon lui. Le chercheur répond : « On pourrait mettre en place une formation dotée annuellement de trente millions de dollars. Les chercheurs ayant besoin d’argent pourraient y faire des demandes, en se montrant convaincants. Comptons pour examiner les dossiers dix comités, chacun composé d’une douzaine de chercheurs. Prenons les chercheurs les plus actifs et nommons-les membres de ces comités… Premièrement, les meilleurs chercheurs seraient soustraits à leurs laboratoires et occupés à l’ évaluation des dossiers. Deuxièmement, les cher-

1 Laurent Ségalat, La science à bout de souffle ?, Paris, éd. du Seuil, Science-Ouverte, oct. 2009. 2  Toutes les citations sont tirées du livre de Laurent Ségalat. 3 Léo Szilàrd, The Voice of the Dolphins, Simon et Schuster, 1961.

36

cheurs cherchant de l’argent se concentreraient sur des questions jugées prometteuses, et sur lesquelles ils seraient à peu près sûrs de pouvoir publier rapidement. Les premières années, il y aurait certainement une augmentation notable de la production scientifique ; mais à force de rechercher les choses évidentes, bientôt la science se tarirait… Il y aurait des modes, et ceux qui les suivraient auraient les crédits. Ceux qui ne les suivraient pas n’en auraient pas, et apprendraient rapidement à suivre les modes à leur tour. » Propos prémonitoires… Actuellement, en effet, « Dans chaque pays, un énorme système bureaucratique, censé faire le tri entre les bons et les mauvais projets, les bons et les mauvais chercheurs, a été mis en place ». Les directeurs de labo passent leur temps à remplir des dossiers, des imprimés ; en France, l’ANR a reçu, en 2007, 6 000 projets examinés par 10 000 experts scientifiques ; elle emploie une centaine de personnes à titre permanent, entretient 1 500 membres des comités d’évaluation ; le CNRS examine l’activité de 6 000 chercheurs par an, mobilise pour cela 1 000 chercheurs membres des sections ; et l’on vient d’y ajouter l’AERES, l’évaluation par les sections du CNU est acquise… « Tout ceci au nom de l’efficacité d’un système ». « L’ évaluation… absorbe aujourd’ hui plus de la moitié du temps des chercheurs ». Écriture de projets, à exprimer en langage abscond de manière à séduire des technocrates, de rapports sur sa recherche, sur la recherche des autres, tout cela pour « une évaluation de piètre qualité… Quel chercheur n’a jamais reçu un rapport d’ évaluation montrant que le rapporteur n’avait pas lu son projet ? » C’est que « la bureaucratisation pervertit l’esprit de la recherche scientifique » et que la distribution des crédits obéit à des lois où la recherche scientifique n’a que peu à voir. On demande aux chercheurs quels sont les résultats attendus pour la recherche, comme s’ils pouvaient prévoir des résultats avant de chercher ! On demande quelles sont les applications attendues, comme s’il n’y avait pas un décalage temporel important entre les résultats fondamentaux et leurs applications éventuelles. « Monsieur Einstein, pouvez-vous me livrer la théorie de la Relativité dans les trois ans ? Monsieur Flemming, découvrez les antibiotiques avant la fin de la subvention, sinon il faudra rembourser ». « Ce n’est pas en cherchant à améliorer la bougie que l’on a inventé l’ampoule électrique », écrit E. Brezin, Président de l’Académie des Sciences. La recherche exige que l’on puisse accepter de la financer « à perte »… Tout au long des chapitres du livre, qui ne dépassent pas quatre ou cinq pages, se lisent donc très facilement et sont autant de coups de bâtons portés au système actuel, l’auteur


à lire / LNA#53

analyse avec brio les comportements induits chez les chercheurs par ce système de compétition mondial mis en place. Beaucoup cherchent à s’adapter au système pour conserver leurs financements, pour se hisser, ou rester en haut de la hiérarchie. « Le système a transformé les chercheurs en chevaux de course. Il faut courir, courir, courir toujours plus vite que les autres… La vie de chercheur est devenue une course à la publication ». Celle-ci n’est plus l’aboutissement du travail de recherche : elle en devient le but. Mais alors quel est le sens de la recherche scientifique ? Comment la situer dans une histoire, dans un contexte ? Combien de chercheurs essaient de réfléchir au but de la science ? « Les savoirs sont de plus en plus parcellaires, le divorce entre science et culture patent. Les liens sont ténus entre science et philosophie. Des chercheurs auréolés de prix prodigieux sont notablement dépourvus de culture générale. » Il y a perte totale des repères historiques. Les chercheurs travaillant sur « le nématode C. elegans…, [très] étudié en génétique fondamentale, n’ont guère d’idées sur ces animaux ». Tristes constatations… Mais, alors, que font les juges de la science et d’abord qui sont-ils ? Ce sont les éditeurs de grandes revues qui cherchent à « maximiser leur audience, synonyme de ventes, de recettes publicitaires » et font, pour cela, des choix éditoriaux privilégiant leur entreprise commerciale, susceptibles « de faire grimper le sacro-saint impact-factor ». Ce sont les experts qui ne disposent plus du temps nécessaire pour vérifier les écrits qu’ils évaluent « sauf à consacrer ce temps au détriment de leur travail ». La compétition fait douter de l’impartialité des rapporteurs, dont personne ne peut dire qu’ils n’ont pas d’intérêt commun ou antagoniste avec l’auteur. Ceci favorise les renvois d’ascenseur, les pratiques consistant à inviter les ténors, les infiltrations dans tous les centres de décisions pour pouvoir peser. Un autre défaut de l’ impact-factor, c’est que la quasi-totalité des chercheurs, pour pouvoir être cités, se consacre à des recherches à la mode. Leurs « articles… de par leur nature, recueilleront moult citations… accessibles électroniquement… » (mais non lues bien souvent). Or, une recherche à la mode est une recherche dépassée. Publiez dans un domaine neuf, non exploré, fondamental. Vous ne serez jamais cité. Obtenez des résultats négatifs, vous ne trouverez pas preneur… Cette compétition peut favoriser fraudes, – l’auteur y consacre un peu trop de place –, approximations... Mais, surtout, l’ impact factor nécessite la mise en place d’une nouvelle industrie, « l’ évaluation bibliométrique », dont toutes les études effectuées montrent qu’elle est basée sur de mauvais indicateurs. Qu’importe ! Dans un système où l’on ne demande plus le titre des articles, mais l’impact factor du journal, les bureaucrates « se moquent de savoir si les outils qu’ ils utilisent sont appropriés ; ce qui [leur] importe est que ces outils [leur] conviennent ». Allons, « 95 % des chercheurs sont de bons, très bons chercheurs. Ils sont entrés

dans le système après avoir surmonté moult obstacles et franchi des écrémages successifs. Pour peu qu’on les laisse réfléchir et leur donne un peu de temps, la plupart de leurs projets sont excellents. C’est en cela que vouloir sélectionner les 20 % de projets les meilleurs est tout simplement… une loterie malsaine dans un système où les acteurs sont juges et parties ». Les conséquences, à long terme, des dérives de la science mondiale sont « la baisse sensible de la qualité… la publication de données fausses… », le fractionnement des résultats, de manière à pouvoir multiplier les publications. « Le système sélectionne les [chercheurs les] plus adaptés au système »…, ce qui produit une « modification des caractères des espèces survivantes » selon un bon principe darwinien. La biodiversité de la recherche diminue. Là où l’histoire nous montre la richesse qu’ont eus les chemins de traverse, les pistes buissonnières, la science contemporaine tend vers une dangereuse uniformisation dans ses pratiques et dans ses objets, produisant des savoirs partiels, obtenus par des méthodes standardisées. La recherche ne peut vivre qu’avec « du temps et de la stabilité. L’octroi de subventions pour… trois ans est une aberration ». Mais, rassurons-nous, grâce à l’adaptation du système français aux paramètres d’évaluation mondiaux, grâce au conditionnement des chercheurs, à leur entrée dans un moule stupide, le Ministère de la Recherche pourra bientôt dire « Regardez, notre politique porte ses fruits et la qualité de la recherche française s’améliore ». L’essai de Laurent Ségalat pose les questions essentielles : « La compétition pour disséminer les résultats de la recherche a-t-elle lieu d’ être ?… L’ évaluation par les pairs [n’est-elle pas]… devenue un paravent ? »… Faut-il garder un système à ce point individualiste ? Ne faut-il pas réhabiliter les notions de missions et d’objectifs ? Ne devons-nous pas l’essentiel des résultats fondamentaux qu’a obtenu la science à la liberté dont jouissaient les savants ? Vastes questions qui nécessitent une réflexion collective. « Chercheurs de tous les pays, unissez-vous… Arrêtez de courir un moment, abandonnez un instant l’ individualisme… et demandez-vous où mène cette course. Réduisons nos mouvements et donnons leur plus de sens… ». Chiche !

37


LNA#53 / à lire

Aux pays des paradoxes de Jean-Paul Delahaye * Par Rudolf BKOUCHE Professeur émérite, Université Lille 1

V

oici une belle présentation de quelques paradoxes mathématiques ou logiques, certains classiques, d’autres moins connus. Parmi ces paradoxes, nous citerons d’abord ceux qui sont liés à des questions de langage et apparaissent ainsi irréductibles, comme le célèbre paradoxe du menteur dont l’auteur nous propose des variantes, ainsi le paradoxe des Dupont (chapitre 35). Si ces derniers paradoxes sont longtemps apparus comme des exemples extrêmes, le développement de la théorie des ensembles a montré que de tels paradoxes pouvaient intervenir au cœur des mathématiques, comme le montre le paradoxe de Russell, non cité par l’auteur, ou le paradoxe des nombres définissables (chapitre 43). On peut relier à ces paradoxes les jeux logiques, comme celui de la personne la plus riche du monde (chapitre 3) ou celui des corbeaux (chapitre 20), lequel montre les difficultés du raisonnement inductif. À côté de ces paradoxes langagiers ou logiques, qui semblent irréductibles, d’autres paradoxes sont liés à des erreurs de calcul ou de jugement ; il suffit alors, ce qui n’est pas toujours aisé comme le montre l’auteur, de détecter l’erreur. Ainsi, le premier paradoxe (chapitre 1) montre combien une notion d’apparence aussi simple que la notion de moyenne n’est pas aussi simple qu’on le pense et que, dans certains cas, comme celui qui est présenté ici, seul le calcul permet de comprendre ce qui se passe. Quant au second paradoxe (chapitre 2), il pose la question des dessins mal faits. D’autres paradoxes présentés ici relèvent d’une simple erreur plus ou moins cachée. Ainsi, le paradoxe de Simpson (chapitre 30) qui renvoie encore à la notion de moyenne, le paradoxe du trapèze (chapitre 26) lié à un calcul illicite (division par 0) ou les paradoxes sur les équations algébriques (chapitre 17 et 47). L’arithmétique conduit à des paradoxes plus difficiles comme le montre le chapitre intitulé « arithmétique étrange » (chapitre 25). Ainsi, deux énoncés proches qui ne font appel qu’à des notions élémentaires d’arithmétique peuvent présenter des difficultés distinctes quant à leur démonstration ; l’un est simple à démontrer et l’autre ne l’est pas, voire reste encore aujourd’hui sans réponse. Il existe une infinité de nombres premiers, on le sait depuis Euclide. Par contre, on ne sait toujours pas s’il existe une infinité de couples de nombres premiers jumeaux, c’est-à-dire de couples de nombres premiers différents de deux unités. C’est l’un des

38


à lire / LNA#53

plus beaux mystères de l’arithmétique que, parmi des problèmes d’énoncés simples, certains soient résolus par des moyens élémentaires, d’autres ne sont toujours pas résolus, comme le problème de Goldbach, d’autres encore le sont en utilisant des outils sophistiqués comme l’a été récemment le grand théorème de Fermat. Autre domaine de paradoxes, l’infini. Galilée avait remarqué qu’il existe autant de nombres pairs que de nombres entiers remettant ainsi en cause cette propriété « évidente » que le tout est plus grand que la partie. Ainsi, une partie d’un ensemble infini peut être aussi grande que cet ensemble. C’est cela qui permet de loger de nouveaux voyageurs dans l’hôtel de Hilbert quand bien même il est plein (chapitre 5). Autre question liée à l’infini, les séries infinies, ce qui permet de montrer que la somme d’une série est toujours égale à π (chapitre 15). On résout le paradoxe en remarquant qu’on ne peut appliquer aux sommes infinies les règles de calcul sur les sommes finies. Parmi les premiers paradoxes de l’infini, les paradoxes de Zénon (Vème siècle avant JC) dont l’un explique pourquoi Achille, courant après la tortue, ne pourra la rattraper. On élimine le paradoxe en usant d’une série convergente : une somme infinie peut avoir une valeur finie, ce qui est impensable à l’époque de Zénon. Mais les paradoxes de Zénon ne sont-ils pas aussi liés à des questions de langage qui seront résolues lorsque l’on aura su préciser le langage concernant les questions autour de l’infini. On peut relier aux paradoxes de l’infini les paradoxes liés à la notion de limite. Ainsi, deux façons différentes de placer une infinité d’objets conduit à deux résultats différents (chapitre 23). Pour en terminer avec les paradoxes de l’infini, nous noterons la trompette de Torricelli (chapitre 45), un corps solide infini de volume fini et bordé par une surface lisse d’aire infinie. Pourtant, la définition de ce corps d’apparence paradoxale relève d’un exercice de calcul intégral élémentaire.

à des questions d’équilibre (chapitre 44). Et enfin, les nombreux paradoxes liés aux probabilités, mais ces derniers ne sont-ils pas liés à la difficulté même d’apprivoiser le hasard ? La présentation de ces paradoxes dans le désordre renforce le caractère énigmatique de l’ouvrage. En conclusion, un bel ouvrage qui montre, à travers quelques aspects de la logique et des mathématiques, les contradictions qu’il peut y avoir entre la première appréhension intuitive d’un problème et une approche rigoureuse, approche nécessaire pour répondre aux difficultés rencontrées dans l’étude des problèmes. * Éd.

Belin/Pour la Science, Paris, 2008.

Nous nous sommes restreints ici à quelques paradoxes cités dans l’ouvrage. Il faudrait citer aussi les paradoxes mécaniques liés au mouvement perpétuel (chapitres 8 et 39) ou 39


LNA#53 / à lire

Malaise dans l’égalité Par Youcef BOUDJEMAÏ Directeur du Service Droit des Jeunes/DRIJE (ADNSEA) Directeur de la Maison Départementale des Adolescents, Lille L’aggravation des inégalités entraînant la dégradation du régime de protection et la réactivation des discriminations ont instauré une multiplicité de risques qui ont affecté le modèle français d’un état social plus que jamais fragilisé dans sa vocation universaliste. La conception de l’égalité républicaine semble ainsi battue en brèche. Comment remédier aux inégalités et accepter que le principe d’égalité en reste à l’incantation ? Plusieurs ouvrages récents tentent d’y répondre en centrant leurs réflexions sur la refondation d’une justice sociale effective. Alain Renaut 1 et Patrick Sivadan 2 offrent une analyse diamétralement opposée, illustrant deux courants dominants du débat français actuel.

A

lain Renaut ouvre sa réf lexion sur les articulations entre égalité et discriminations. Son analyse le conduit à opérer un retour sur deux périodes de la modernité liées à ces concepts. Dans la première, l’égalité, corollaire du refus de la discrimination, impliquait un sujet égal à tous en dehors de toute distinction. Pour devenir égaux, il fallait faire abstraction de toutes les différences et se fondre dans une identité commune. Cette phase était indispensable à l’établissement d’un universalisme républicain pour lequel la discrimination positive paraissait contraire au principe d’égalité. La seconde période fut marquée par l’affirmation des différences. Dans les années soixante et soixante-dix, les individus et les groupes se sont mis à revendiquer d’être reconnus comme égaux dans leurs différences. Tel fut le sens de la lutte des femmes ou des homosexuels visant à déconstruire l’idéal républicain reposant sur la fiction d’un individu libéré de toutes ses caractéristiques personnelles. C’est dans ce contexte qu’il faut replacer les politiques de discrimination positive visant à intégrer dans l’égalité républicaine ceux qui en furent exclus. Pour Renaut, ces politiques d’action positive ne viennent pas remettre en cause l’égalité républicaine reposant sur un idéal de justice qui attribue à chacun ce qui lui revient en fonction de ses mérites, pas plus qu’elles ne se confondent avec une politique des droits communautaires. L’égalité dans la différence, résultant de la reconnaissance de nouveaux droits, exige de pondérer la justice distributive par Alain Renaut, Égalité et discriminations, Paris, éd. du Seuil, 2007, 209 p., 19 €.

1

Patrick Sivadan, Repenser l’ égalité des chances, Paris, éd. Grasset, 2007, 325 p., 19,5 €.

2

40

une forme de justice réparatrice, faute de quoi des injustices se maintiendraient par le refus de prendre en considération les différences de situation. Néanmoins, le droit à être traité avec le même intérêt que les autres ne doit pas signifier un égal résultat. Parvenir à une réelle égalité des chances, qui réponde aux promesses de la justice compensatrice, oblige à repenser les conditions d’une société juste. Est-ce celle qui donne la même chose à tous ou celle qui met en place des dispositifs correctifs prenant en compte les différences ? L’auteur s’appuie notamment sur John Rawls pour contextualiser le débat sur l’égalité et ouvrir des perspectives nouvelles sur la justice sociale. Pour Rawls, la justice sociale s’incarne dans une visée de réalisation d’une égalité inégale. Elle ne coïncide pas forcément avec la disparition de toutes les inégalités, mais requiert seulement l’élimination des inégalités qui ne répondent pas à certains critères, dont celui de l’égalité des chances. Entre l’égalité formelle et l’égalité de résultats, Renaut préconise un aménagement raisonnable des chances de réussite qui soit compatible avec l’égalité républicaine. Car il ne suffit pas de poser le principe d’égalité de tous devant la loi pour supprimer toute possibilité de discrimination. À moins de les ignorer, il importe de les objectiver juridiquement afin de faire entrer l’égalité dans l’effectivité. C’est dans l’université que Renaut propose d’appliquer cette forme de justice compensatrice. Il s’agit d’établir des conditions justes d’accès aux positions sociales, en neutralisant les différences d’origine sociale, et d’agir sur les processus inégalitaires. Dans cette perspective, il propose des dispositifs d’enseignement à partir de groupes de travaux dirigés adaptés aux difficultés rencontrées par les étudiants d’origine modeste chez qui la culture générale et la maîtrise de la langue constituent des marqueurs sociaux discriminants. Cette réponse ne se confond pas avec l’affirmative action américaine. L’objectif demeure la réalisation d’une élite républicaine accessible à tous par la correction des inégalités socialement héritées, mais néanmoins débarrassées de l’illusion d’un résultat identique pour tous. Cette proposition trouve une application dans les mesures gouvernementales : « plan réussite en licence » ambitionnant de réduire, en cinq ans, de 50 % l’échec en première année, meilleure prise en charge des étudiants dès le départ avec possibilité de tutorat pour les étudiants en difficulté, spécialisation progressive des formations, renforcement du temps pédagogique privilégiant les petits groupes…


à lire / LNA#53

Dans ce débat, l’enjeu porte moins sur la pertinence de ces actions que sur leur portée que Renaut passe sous silence. Le poids de l’héritage social se joue avant l’entrée à l’université. Il opère dans d’autres espaces sociaux et conditionne l’inscription de l’individu dans l’institution scolaire. La ségrégation scolaire intervient dès le primaire. 84 % des élèves des sections pour jeunes en difficulté, au collège, sont issus des catégories sociales défavorisées. 36 % des lycéens ne parviennent pas au baccalauréat. Chaque année, 150 000 élèves quittent le système scolaire sans diplôme. Sur les 64 % des bacheliers, tous n’accèdent pas à l’université. Seulement 11 % des enfants d’ouvriers y entrent. Par ailleurs, la véritable sélection ne s’opère pas au sein de l’université. Elle s’est déplacée et s’organise par le moyen des grandes écoles. Par leur intermédiaire se sont institués des dispositifs très sélectifs œuvrant à la reproduction des élites de la bourgeoisie française. La massification, due à sa mutation démographique, fait de l’université française un problème social auquel il est appliqué, pour y remédier, les techniques de gestion managériale importées du secteur marchand. Sans compter sur les inégalités territoriales qui se creusent en universités. Ces facteurs concourent à la remise en cause progressive de l’université qui, jusqu’alors, répondait à une idée de service public avec ses équilibres entre la méritocratie, l’émulation et l’idéal d’égalité. Reste la critique de la notion d’égalité des chances. Patrick Sivadan analyse les raisons qui ont contribué à la montée en puissance de cette notion. Il souligne, avec force, que celle-ci a participé à l’affaiblissement du poids des héritages en mettant l’accent sur le mérite. L’égalité des chances ne servirait qu’à justifier l’ordre de la hiérarchie sociale fondée sur la méritocratie où les gagnants estiment devoir leur situation à leur seul mérite plutôt que d’inscrire celle-ci dans un « capital collectif » qui expliquerait les performances des uns et des autres. L’égalité des chances reposerait sur l’idée que nous sommes des individus isolés disposant d’un capital individuel dont le mérite et le talent nous sont propres. Elle puise son fondement dans une conception de la justice sociale capacitaire selon laquelle le bien être est réparti en fonction des capacités des individus et des usages qu’ils en font. Sivadan invite, à son tour, à une relecture de Rawls afin de définir l’égalité des chances en tenant compte de l’insertion des individus dans un contexte social qui leur permet d’exploiter leurs capacités.

Si l’égalité des chances valorise les qualités personnelles, elle ne répond pas pour autant à la dynamique égalitaire car elle fait porter sur la responsabilité individuelle le maintien des inégalités sociales : l’échec serait lié à l’incapacité de saisir les chances données par la société. Il importe donc de repenser ce concept en redéfinissant les rapports que l’individu entretient avec les autres membres et le mode de production des richesses. Il importe de soutenir une conception juste et soutenable de l’égalité des chances. Le mérite et le talent ne se limitent pas à la donne individuelle, ils s’inscrivent dans un capital social hérité à la fois de la famille et de la société. Il semble juste qu’une partie de ces gains retourne à la société afin de favoriser le sort des plus défavorisés non pas sous forme d’assistance mais d’une politique de solidarité et de sécurisation de la condition individuelle, de manière à constituer « une démocratie de propriétaire ». Nous avons une dette à l’égard de la société qui fonde notre obligation à l’égard des autres. Indépendants et solidaires, les hommes sont porteurs de cette dette. Toutefois, celle-ci ne peut être identique entre riches et pauvres en raison d’une différence d’avantages et de positions sociales. De ce fait, il n y a pas de propriété uniquement individuelle. Toute activité et toute propriété ont en partie une origine sociale, de telle sorte que les prélèvements sur les revenus et le patrimoine sont de justes rétributions des services offerts par la société. C’est la définition sociale donnée aux capacités, aux compétences, aux mérites et aux talents individuels, qui rend légitime une soutenable et solidariste égalité des chances. À condition, toutefois, d’agir sur les logiques structurelles des inégalités en mobilisant, dans une dynamique démocratique, ceux à qui elle est destinée.

41


LNA#53 / vivre les sciences, vivre le droit...

Tu seras post-Humain, mon fils Par Jean-Marie BREUVART Professeur émérite de philosophie

L

e développement même du programme américain des NBIC 1 pose la question radicale d’une nouvelle « essence » humaine, une nouvelle conception de ce qu’est une personne, confrontée aux relations sociales engendrées par les nouvelles technologies. On en est donc venu tout « naturellement » à parler d’une réalité post-humaine, terme à la fois fascinant et très ambigu : comment des êtres qui se disent « humains » peuvent-ils, d’un seul coup, passer à l’étape de leur propre disparition par la vertu du concept d’émergence qui leur permettrait, en quelque sorte, de sauter au-dessus de leur ombre ? Comment ce saut qualitatif est-il possible ? Deux ouvrages, l’un de 2003, l’autre de 2009, ont au moins le mérite de poser très clairement cette question 2. Examinons le contenu et la portée de leurs réponses. Tout d’abord, le corps physique humain ne serait plus qu’un support encore (provisoirement) nécessaire pour satisfaire aux impératifs de la faim et de la sexualité, en attendant qu’il soit relayé par des productions technologiques plus performantes. Autre fondement menacé : celui des réseaux sociaux stables et bien structurés. De nouveaux groupes se forment, tous plus fluides les uns que les autres, par la vertu même de l’Internet ou du téléphone mobile. Ces nouveaux « objets », auxquels chacun s’attache et que l’on peut considérer comme les points d’ancrage du désir personnel, ont la vertu de dissoudre la réalité sociale unique en une poussière de communications pulsionnelles où tout devient possible : retrouvailles, rencontres occasionnelles, liaisons provisoires, projets d’un jour, etc. Qui plus est : cette dissolution des réseaux s’étend à l’échelle du monde. L’humain, cette réalité stable consacrée par la Déclaration Universelle de l’Homme de 1948, se mue en un ensemble de processus toujours nouveaux, dans lesquels entrent aussi bien les famines d’une partie de l’ « humanité » que les guerres ou les tortures et tourments d’êtres considérés comme quantités négligeables. Bref, nous sommes bien en présence de tout un ensemble de forces conduisant l’humanité à se dissoudre dans un certain nombre de processus que nous pouvons maintenant tenter d’interpréter à partir des deux ouvrages mentionnés.

En réalité, je perçois trois réactions possibles par rapport à cette question du post-humain : - Faire confiance à l’évolution technique pour nous conduire à ce dépassement de l’humain ; - Rompre avec elle pour revenir au modèle antérieur, consacré au respect de ce que l’on appelait la Nature (cf. le courant écologiste) ; - Tenter une harmonisation entre les deux attitudes précédentes. C’est précisément cette dernière position qu’ont adoptée les deux livres mentionnés. Le danger qui guette en effet, dans les deux premiers cas, est celui d’un réductionnisme simpliste, ne laissant le choix qu’entre une Liberté humaine intégrale et une Nature fondamentale. Cette situation nous viendrait de la position dualiste opposant, depuis Descartes, l’âme pensante et le corps étendu 3. La solution réside donc dans la nécessaire harmonisation entre les deux. Pour ce faire, Besnier fait, entre autres, référence à B. Latour 4 et à I. Stengers 5, et Lecourt évoque l’enracinement de l’activité technique dans le débat du vivant avec son milieu 6 avec référence à Bachelard 7. Dans les deux cas, il faut s’affranchir de l’humanisme classique qui avait vu le jour à la Renaissance et retrouver la véritable imbrication entre l’Homme pensant et la Nature étendue. Mais là s’arrêtent les convergences. Pour pallier l’erreur dualiste de Descartes, il conviendrait de retrouver, pour Besnier, le sens profond du principe d’ immaîtrise 8 et, pour Lecourt, plus modestement, l’intime imbrication de l’émotion individuelle et du monde dont le philosophe Diderot a donné une belle illustration par toute son œuvre 9. Le désir de Besnier est de s’inscrire dans le courant posthumain pour y voir non pas le fruit d’une simple performance technique, mais l’ouverture à de nouveaux possibles consacrant finalement la capacité de l’humanité de passer à une réalité insoupçonnée et finalement « immaîtrisable ». La liberté humaine consiste alors à accepter le destin que  Besnier, pp. 195-196, Lecourt, pp. 119 & svtes.

3

Pp. 117-118.

4

Pp. 191 & svtes.

5

P. 85.

6 1

Nanosciences, Biotechnologies, Informatique, (Sciences) Cognitives.

Pp. 122-123.

7

Jean-Michel Besnier, Demain les Posthumains, éd. Hachette, coll. Littératures, 2009. Dominique Lecourt, Humain Post Humain, éd. PUF, coll. Science, histoire et société, 2003. À noter que le livre de J.M. Besnier ne cite jamais, à ma connaissance, celui de Lecourt, pourtant antérieur de 6 ans. 2

42

Pp. 194 & svtes.

8

Pp. 111-119.

9


vivre les sciences, vivre le droit... / LNA#53

nous offre la technique et à le faire dans une perspective qui bouscule de fond en comble la prétention cartésienne de contrôler la nature en en devenant maîtres et comme possesseurs. Il ne s’agit même plus de prétendre garder la maîtrise de cette maîtrise 10, mais de s’abandonner consciemment à une évolution de plus en plus créatrice selon des possibles parfaitement imprévisibles, dictés uniquement par l’évolution technologique elle-même. En revanche, le propos de Lecourt m’apparaît plus modeste : il s’agit de garder au moins la maîtrise d’une épistémologie analysant les enjeux et valeurs de la révolution post-humaine. C’est précisément une telle épistémologie, s’inspirant de la Philosophie du non de G. Bachelard 11, qui peut critiquer les idéologies unilatérales des partisans et adversaires d’un post-humain. La mise en œuvre d’un tel esprit critique est parfaitement illustrée, pour Lecourt, par toute la philosophie de Diderot : ce philosophe, situé à mi-chemin entre le matérialisme d’un Helvetius et le spiritualisme d’un Charles Bonnet 12, tente de retrouver le sens spécifique de l’humain : les phénomènes moraux ont donc leur loi propre. Voilà l’essentiel 13. Ce sens se dégage d’une analyse objective de ce qui se passe dans la société humaine, elle-même fondée sur la vie des émotions comme réalité fondamentale. Est-il possible de trancher entre ces deux approches ? Je voudrais, en terminant, confronter la question du posthumain à quelques interrogations philosophiques plus « traditionnelles » sans être, pour autant, nécessairement passées de mode. Besnier cite, par exemple, la réflexion suivante de Kurzweil, un techno-prophète s’adressant fictivement à Bill, l’écologiste : Je crois que nous sommes d’accord sur le fait que nous devons reconnaître ce qui est important dans notre humanité. Mais il n’y a aucune raison de célébrer nos limitations 14 . Autrement dit, il y aurait bien des valeurs manifestant ce qui est important dans notre humanité mais, en même temps, un dépassement des limites à l’intérieur desquelles ces valeurs étaient jusqu’à présent confinées. Or, c’est précisément sur cette possibilité de dépassement qu’apparaissent quelques interrogations. La première interrogation porterait sur le statut de la mémoire dans la construction d’une continuité humaine. Peut-on dire simplement que nous sommes maintenant ouverts à une mort de l’humain, pour accéder au post-humain ? Besnier  P. 195.

10

évoque P. Ricœur et la façon dont chacun construit son « Soi » par référence à une histoire personnelle : Le philosophe Paul Ricœur a également soutenu cette idée que le « Soi », dont nous nous prévalons en tant que sujet de nos actions, admet une part de contingence. Il est le produit de l’ histoire que nous nous racontons à nous-mêmes et puise à la mémoire de ce que nous avons été 15. Mais, alors, comment peut-on accepter à la fois la rupture post-humaine avec le passé et la continuité d’une telle histoire personnelle ? Une deuxième interrogation porterait précisément sur le sens de l’histoire. Élargie à l’ensemble de l’humanité, la réflexion de Ricœur oblige à garder mémoire de l’histoire humaine et des penseurs qui ont donné sens à cette histoire, de Platon à Kant en passant par Montaigne ou Descartes. La genèse progressive de l’Esprit humain telle que la décrit Hegel ou Teilhard de Chardin, tous deux cités par Besnier 16 n’indique-t-elle pas que le passage au post-humain conduirait à une véritable impasse philosophique par une rupture avec toute cette histoire qui nous a faits ? Troisième interrogation, plus fondamentale : faut-il abolir les valeurs d’universalité dégagées par le passé, telles que le respect de chaque personne humaine et du contexte culturel en lequel elle vit ? Être post-humain implique-t-il que l’on s’abandonne librement aux aléas de l’aventure humaine ? On touche finalement à la question la plus radicale : une telle aventure humaine ne serait guère possible sans la vie d’un cerveau et de ses traces. Or, vivre (pardon pour la banalité), c’est d’abord vivre dans un corps singulier. Besnier évoque la défaite des identités, lesquelles relèveraient d’une illusion substantialiste 17. Refuser la limitation, comme nous y invitait Kurzweil, c’est refuser également l’idée d’un moi qui serait autonome dans et par sa limitation même. Besnier, tout en étant parfaitement conscient des difficultés soulevées, irait-il lui-même jusque-là ? En revanche, la position de Lecourt m’apparaît plus claire : tout en admettant le concept de post-humanité, il reste critique à l’égard des idéologies qui le sous-tendent. La référence à Diderot lui permet ainsi de répondre aux quatre interrogations que soulève l’analyse de Besnier. Il maintient la valeur fragile des corps humains singuliers dans la fabrication de l’histoire et des réseaux sociaux. Car la situation inédite créée par la perspective d’une post-humanité est simplement que, face à des questions radicalement nouvelles, les réponses ne sauraient l’être intégralement, sauf à perdre le sens même de ces questions.

P. 123.

11

12

Pp. 116-117.

P. 116.

13

Kurzweil, Humanité 2.0, La bible du changement, M21 Éditions, 2007, pp. 334-335 (cité par Besnier p. 90).

P. 161.

15

Respectivement pp. 180 & svtes et pp. 65, 85.

16

14

P. 172.

17

43


LNA#53 / chroniques d’économie politique coordonnées par Richard Sobel

Une crise financière et... environnementale Par Sandrine ROUSSEAU Maître de conférences en sciences économiques, Université Lille 1

L

es raisons évoquées à la survenue de la crise actuelle sont nombreuses : trop d’endettement, des marchés financiers trop peu régulés, recul de l’État... Dans la liste des facteurs d’explication, l’environnement fait toutefois figure de grand absent. L’augmentation du prix des matières premières qui précède immédiatement la chute des marchés financiers est soit oubliée, soit rangée dans le pot commun de l’augmentation des marchés financiers dans leur ensemble. Nulle spécificité ne lui est reconnue alors même que c’est précisément cette flambée-là des prix (beaucoup plus que toutes les autres) qui a tenu le haut du pavé médiatique dans la période d’avant-crise. Précisément, ce que pointaient les médias, et qui est étonnamment passé sous silence par les économistes, est l’ensemble des tensions inflationnistes qu’a connu le système économique juste avant l’effondrement des marchés. L’augmentation des prix des matières premières, agricoles et de l’énergie a touché, en premier lieu, les ménages les plus défavorisés puisque ce sont eux qui dépensent la plus grosse partie de leurs revenus dans ces biens. À ce titre, son rôle a été grand dans la survenue de la crise dite des « subprimes », ces crédits accordés aux classes populaires américaines. Surtout l’augmentation des prix des biens de première nécessité explique la raison pour laquelle les ménages défavorisés américains ont, de manière assez soudaine et ensemble, connu des difficultés de remboursement. Si l’on ajoute à cela la hausse des taux d’intérêt directeurs, pratiquée par la FED pour limiter l’inflation (les crédits subprimes sont des crédits à taux variables), on a là le cocktail explosif à l’origine de la survenue de la crise.

notre monnaie, l’euro, qui est resté fort durant toute cette période mais aussi l’ensemble des mécanismes visant à lisser les fluctuations de cours des matières premières. La TIPP qui a effectué, en partie, son rôle de tampon sur le prix de l’essence à la pompe et le mode de calcul du prix du gaz, par exemple, qui a limité aussi l’augmentation de la facture énergétique pour les ménages. Ainsi, alors que le prix du baril de pétrole était multiplié par 7 entre 1996 et 2008, le prix de l’essence à la pompe, en France, n’a lui été multiplié qu’environ par 2. De tels mécanismes n’ont pas joué aux États-Unis, mettant les budgets des ménages sous tension. De manière plus générale, toutes les matières premières et agricoles ont augmenté sensiblement au cours de l’année 2008. Le tableau, ci-dessous, retrace les variations de prix de quelques grandes matières premières et agricoles au cours de cette année 2008. Certaines ont connu des taux d’augmentation, au cours d’une seule année, de l’ordre de 76 % (c’est le cas du riz) ou de 63 % (c’est le cas du maïs). Le RJCRB, un indice synthétique de cours de matières premières, accuse quant à lui une nette hausse de près de 20 % sur l’année. Variation du cours de quelques matières premières durant l’année 2008 (01/01/2008 au 01/01/09) Matière

Taux de variation

Or (NY)

+ 17%

Aluminium (Londres)

+ 39%

Cuivre (Londres)

+ 35%

Pétrole (Londres)

+ 52%

État des lieux de l’augmentation des matières premières, des biens agricoles et de l’énergie

Gaz naturel (NY)

+ 74%

Café (Londres)

+ 45%

Blé (Paris)

+ 14%

Le pétrole a connu une flambée au cours de l’année 2008. L’évolution de son cours est représentée dans le schéma suivant :

Blé (Chicago)

+ 40%

Huile de Palme

+ 39%

Maïs (Chicago)

+ 63%

Riz (Chicago)

+ 76%

Colza (Paris)

+ 18%

Soja (Chicago)

+ 35%

Pomme de terre

+ 5%

RJ CRB (NY)

+ 19%

entre valeur au 1/1/08 et valeur la plus haute de l’année 2008

Source : Les Échos

Ces augmentations ont un impact varié sur les budgets des ménages en fonction de la part qu’occupent les dépenses d’énergie et d’alimentation dans les dépenses totales. La hausse du prix du pétrole pour les ménages a été atténuée, en France, en raison de deux phénomènes complémentaires : 44


chroniques d’économie politique coordonnées par Richard Sobel / LNA#53 Tensions inflationnistes et impact sur les ménages les plus défavorisés L’ensemble de la hausse des prix des énergies et des matières premières a créé des tensions inflationnistes aux États-Unis. L’inflation est ainsi passée de 1,5 %, début 2007, à 5,5 % au début du dernier trimestre 2008 1. Mais cette tension à la hausse des prix n’a pas été perçue par tous les ménages avec la même acuité. L’enquête budget des ménages révèle qu’en France les ménages du premier décile (donc ceux dont le revenu est dans les 10 % les plus faibles) dépensaient, en 2006, 17,2 % de leur revenu en alimentation et 25 % de leur revenu dans le logement, l’eau, le gaz, l’électricité et autres combustibles. Un tiers du budget de ces ménages est consacré à ces deux postes budgétaires. Pour les ménages du dernier décile, en revanche, le poids des denrées alimentaires est de 12,1 %, tandis que celui du logement et des consommations afférentes (eau, gaz, électricité, etc.) est de 11 %. Ainsi, dix points séparent les deux déciles extrêmes et, aux États-Unis, l’écart est encore plus sensible. Sur les simples dépenses de consommations, les ménages du quintile le plus faible (les 20 % les plus pauvres) dépensent proportionnellement deux fois plus que ceux du dernier quintile 2. Ainsi, de manière mathématique, l’augmentation des produits alimentaires a été deux fois plus lourde à supporter pour les 20 % des ménages aux revenus les plus faibles que pour les 20 % aux revenus les plus hauts. Mais, là n’est pas le seul élément ayant joué à la hausse de la pression qu’ont subie les ménages américains et qui explique les tensions sur le remboursement des crédits subprimes. Pour limiter les risques d’inflation, la banque centrale américaine (la FED) a fait jouer l’instrument du taux d’intérêt pour renchérir le crédit et rendre plus attractive l’épargne. Le graphique, ci-dessous, illustre les variations du taux d’escompte pratiqué par la FED. Graphique retraçant l’évolution du taux directeur de la FED entre 1994 et 2009

Source : FED

On constate une forte baisse de ce taux entre 2001 et 2005, période durant laquelle le crédit aux États-Unis a été largement encouragé et une hausse tout aussi rapide entre 2005 et 2008. Or, les crédits subprimes sont des crédits à taux variables. Ainsi, les ménages ayant contracté ces crédits ont subi une hausse de leurs dépenses alimentaires et d’énergie proportionnellement plus importante que celle subie par les

ménages les plus aisés, mais également une hausse de leurs échéances et cela dans un contexte de stagnation des salaires. Les salaires réels des Américains sans diplôme universitaire n’ont en effet pas augmenté depuis les années 1990, ceux de la classe moyenne n’ont que très faiblement augmenté 3. La croissance américaine s’explique donc par un surcroît d’endettement essentiellement supporté par les classes faibles et moyennes. Fluctuation des cours : éléments d’explication Deux phénomènes se sont conjugués pour créer cette tendance à la hausse des matières premières. Le premier est lié à des comportements spéculatifs. Mais cette première explication prend appui sur une seconde : pourquoi les anticipations ont-elles été tournées à la hausse ? Elles l’ont été en raison d’une rareté relative de l’offre par rapport à la demande. Plusieurs éléments ont contribué à diminuer, de manière relative, l’offre tandis que, parallèlement, la demande ne cessait de croître. La demande a en effet augmenté en raison de la croissance mondiale mais aussi de changements de comportements de certains consommateurs. La consommation de viande, à elle seule, illustre les tensions entre offre et demande et la contrainte environnementale qui en résulte. Cette consommation est fonction de la richesse des pays. Selon la FAO, le prix de la viande a augmenté de 10 % entre janvier 2007 et janvier 2008. Depuis 1980, la consommation de viande a doublé dans le monde. Et, particulièrement dans des pays comme la Chine et le Brésil, la consommation des pays en développement est en effet passée de 50 à 180 millions de tonnes entre 1980 et 2000 alors que les pays les plus pauvres n’ont quasiment pas changé leur consommation. Rien qu’en Chine, la consommation de viande a été multipliée par 4 en dix ans. Or, produire 1 kg de viande nécessite à peu près 10 kg de céréales et entre 2000 et 3000 l d’eau. Dans un pays comme la Chine, dont la demande ne cesse de croître et qui perd à peu près 2500 km2 de terre arable chaque année, les tensions persistent. Au printemps 2008, les journaux s’alarmaient d’une pénurie possible de riz et les États réfléchissaient à la création d’une OPEP du riz. Ajoutons à cela l’utilisation des cultures pour l’éthanol, dans un contexte où le pétrole ne cessait de croître, et nous avions les ingrédients de tensions entre offre et demande. Ces tensions sont aujourd’hui atténuées par la crise qui modifie aussi les modes de consommation. Mais, déjà, le pétrole commence une lente remontée. La crise actuelle est certes une crise de l’endettement, du défaut de régulation publique, mais elle est aussi la première crise véritablement écologique que connaît notre système économique. Nous connaissons actuellement, en effet, la première manifestation de grande ampleur d’une pénurie relative de matières premières et de biens agricoles. Les analystes sauront-ils prendre la mesure de ces phénomènes conjugués ou restera-t-on dans des analyses macroéconomiques trop classiques qui masqueront le rôle de l’environnement et, donc, tromperont sur les réelles possibilités de sortie de crise ? Tel est le défi qui est lancé aux hommes politiques en charge de prendre des mesures : diminuer la pression environnementale n’est pas un luxe superflu, c’est une condition indispensable (mais non suffisante) à la sortie de crise.

Source : http://www.leitzinsen.info/charts/iusa.htm

1

Duquesne, Matendo, Lebailly (2006), Profiling food consumption : comparaison between, USA and UE.

2

3 Artus (2008), États-Unis : salaire, endettement, richesse, une vue plus fine des évolutions, Flash Economie, N° 503, nov.

45


LNA#53 / l'art et la manière

Jean-Emmanuel Exbrayat. Chantier en cours… Par Nathalie POISSON-COGEZ Docteur en histoire de l’art contemporain, chargée de cours à l’Université Lille 3, membre associé du Centre d’Étude des Arts Contemporains (CEAC) - Lille 3 Visiter l’atelier d’un artiste est un privilège qui donne accès à un monde en construction. En effet, loin des murs immaculés de l’espace d’exposition, les œuvres y sont en suspens. Dispersées au gré de leur maturation, elles se trouvent accrochées aux murs, ou posées sur le chevalet, soumises ainsi au regard permanent et inquiet de leur auteur. D’autres productions sont enfouies dans des cartons à dessin, retournées contre le mur voire, pour certaines, mises en quarantaine. Cette soustraction temporaire à la vision critique leur permettra de mûrir posément ou d’être définitivement reniées. Une visite de l’atelier de l’artiste Jean-Emmanuel Exbrayat nous permet d’ouvrir l’œil sur des travaux en gestation. Nage en eau trouble ou Retraite dorée ? Quel lien existe-t-il entre des caméras de vidéo-surveillance, une chaise percée aux accoudoirs dorés, un crocodile en plastique et une suite ininterrompue de chiffres 9 ? A priori aucun… Nage en eau trouble ou Retraite dorée ? Le titre – encore provisoire – de cette œuvre inachevée éclaire quelque peu le rébus plastique et visuel que Jean-Emmanuel Exbrayat cherche à finaliser. Aborder des sujets aussi graves et sérieux que celui des limites de la liberté individuelle dans l’espace collectif, de l’indécence des parachutes dorés, de la décrépitude du monde sur un ton décalé, n’est pas le seul privilège des humoristes… Il est aussi celui des artistes. Dans le langage plastique, l’accumulation des images et des signes conduit l’œuvre à une dimension polysémique, qui laisse souvent le spectateur perplexe. Dès lors, un décodage visuel peut être envisagé par le jeu de l’association d’idées et l’appel aux références culturelles individuelles ou collectives. Nous proposons ici quelques pistes d’interprétations. Dans le dernier numéro de la revue Parade, intitulé Parade is watching you, la philosophe Aline Caillet précise que « le nouvel espace structuré par la vidéosurveillance est un espace où je suis vu, mais sans moi-même voir… Ni être regardé. Ce déséquilibre dans la réciprocité de la vision entraîne dans son sillage la dissolution de l’altérité, de la reconnaissance par l’autre, constitutives de l’intersubjectivité qui établit un monde commun  » 1. Dans le cas présent – comme dans un autre tableau en cours – Jean-Emmanuel Exbrayat représente des caméras de vidéosurveillance. Dotées de tuyauteries entrelacées, telles des lianes dans la jungle urbaine, les caméras deviennent les garantes d’un espace sur-sécurisé. Leurs yeux anonymes scrutent chacun de nos gestes et constituent, à notre insu, une collection d’images numériques potentiellement délatrices. La représentation

picturale de ces caméras provoque une mise en abîme. En effet, le peintre met en évidence, par son pinceau minutieux, l’objet qui se fond habituellement dans le décor. Il focalise notre regard sur ces instruments optiques ; or, par le biais du trompe-l’œil, il annule leur faculté de captation du réel et les rend donc totalement inopérants. Jean-Emmanuel Exbrayat s’applique et s’amuse à reproduire le visible et revendique des références qui s’étendent de David

9 (inachevé), technique mixte sur voile de verre © Jean-Emmanuel Exbrayat

* Propos de Jean-Emmanuel Exbrayat recueillis en septembre et octobre 2009. Aline Caillet, « Gardien, protège-moi », Parade N° 7, Tourcoing, éd. École Régionale Supérieure d’Expression Plastique, mai 2007, p. 33.

1

46

Vue de l’atelier


l'art et la manière / LNA#53

904 Litronic (2009), peinture à l’huile sur voile de verre © Jean-Emmanuel Exbrayat

Salle à l’artiste du Pop Art américain, James Rosenquist, en passant par l’allemand Sigmar Polke. À l’heure de la sur-médiatisation, de la circulation anarchique des images numériques qui deviennent de simples « succédanés » * du réel, peindre de façon figurative et quasi hyperréaliste devient une gageure. Il s’agit d’insinuer le doute dans l’esprit du spectateur en soulignant son incapacité à analyser le flux continu d’informations qui l’assaille quotidiennement. « Sous l’apparence de certitude, l’image nous rend plus inquiet encore sur notre relation à notre propre existence vécue comme en parallèle » *. Le tableau qui retient notre attention est construit en diptyque. D’un côté, des caméras de surveillance singularisent un espace public devenu virtuellement clos. De l’autre, l’espace privé, celui de l’intimité absolue est figuré par une chaise percée camouflée dans un décor de papier peint désuet. Ce «  trône  » –  entendu ici d a n s son acception du 9 (détail) © Jean-Emmanuel Exbrayat langage familier comme « siège des cabinets » 2 – est orné de dorures. Simple détail qui devient, au vu de la trivialité de l’objet, un signe ostentatoire de richesse. S’agit-il de la Fontaine de Marcel Duchamp revisitée à l’heure où la pyramide des âges enfle significativement à son sommet ? Ou est-ce finalement le lieu d’atterrissage forcé d’un bénéficiaire de parachute doré devenu grabataire ? Dans l’intimité d’une chambre, hors d’atteinte médiatique, le destin humain se joue finalement à huis clos. Le thème traditionnel de la vanité est abordé ici de manière singulière. Le chiffre 9 obnubile Jean-Emmanuel Exbrayat. Il apparaît dans les titres de certaines œuvres (9, 900, 904 Litronic…) et sur certains tableaux. Dans le diptyque, il recouvre par transparence les caméras de télésurveillance et s’aligne en suite ininterrompue dans le bas de la composition. Manne de l’ésotérisme, ce chiffre symbolique (les 9 muses de la

mythologie grecque, les 9999 pièces de la Cité Interdite en Chine, les 9 mois de gestation humaine…) a la particularité, lorsqu’il est multiplié par n’importe quel nombre – excepté le 0 –, de se reproduire lui-même. En effet, 3 x 9 = 27 et, si l’on additionne les chiffres de ce résultat, 2 + 7 = 9. Cette caractéristique est celle appliquée dans la « preuve par 9 ». Dans le système décimal, le 9 précède le 10 et marque la fin. Le …9999,9999… est donc un nombre raté, celui d’un équilibre impossible. À la surface du tableau, un reptile sournois a laissé une traînée, seul indice visible de son déplacement. Il semble avoir glissé sur les motifs baroques du papier peint et paraît défier les caméras qui le surveillent. Son calme n’est qu’apparent. Il pourrait bondir à tout moment. D’autres animaux figurent dans les travaux de Jean-Emmanuel Exbrayat : scarabée, éléphant, papillon, chien, corbeau… « L’homme est-il un animal comme les autres ? ». Cette question, digne d’un sujet de dissertation philosophique, alimente fréquemment les choix iconographiques de l’artiste. Dans Les Fables de La Fontaine, les faiblesses humaines (la sottise, la cupidité, l’orgueil, l’avarice…) sont dénoncées par la voix des bêtes ; chez Jean-Emmanuel Exbrayat, les animaux muets accusent notre « faillite héritée d’une absurde dichotomie entre corps et âme » *. Le bestiaire est une allusion à l’animalité humaine. Éclipser cette réalité conduit irrémédiablement l’homme à sa perte. Jeux d’enfants L’allusion au jouet ou son usage direct (tel le crocodile en plastique) est fréquente dans le travail de cet artiste. Il lui permet de dédramatiser son rapport à la réalité. « Le réel est mon sujet et ma matière en même temps » * affirme-t-il. Dans 904 Litronic, un robot au visage humain semble tombé au sol. Héros déchu, il est hors d’échelle. S’agit-il d’un simple jouet abandonné ou d’une effigie monumentale produite par l’esthétique du réalisme socialiste ? L’ambiguïté demeure. Il semble commémorer les statues de Sadam Hussein renversées par les Irakiens eux-mêmes, ou cette statue d’un monument aux morts soviétiques, en Estonie, qui fit l’objet d’une polémique lors de son enlèvement évoqué par

Le Petit Larousse illustré, Paris, éd. Larousse, 2004, p. 1036.

2

47


LNA#53 / l'art et la manière

Bodybuild (2003), xylographie et encrage monotypique 70 x 90.5 © Jean-Emmanuel Exbrayat

Kristina Norman dans sa vidéo Monolith (2007) 3. L’incertitude quant à la taille réelle du personnage de 904 Litronic est renforcée par la présence du bras articulé d’une grue de chantier sur les parties latérales du triptyque. Cet engin pourrait finalement être lui-même un simple gadget. Chantier en cours… Les engins de chantier sont présents dans nombre d’œuvres de l’artiste. Les gros plans sur les bulldozers et autres tractopelles évoquent un monde en mutation, en « perpétuelle décrépitude » *. En avant-plan flottent des éléments informes tels des feuilles mortes, des copeaux. Vus comme des débris calcinés, ils donnent aux tableaux une dimen-

Durée 15 mn, projetée lors de la 33ème édition de la Saison Vidéo en 2009. Voir le livret p. 60.

3

48

900 (2009), peinture à l’huile sur voile de verre © Jean-Emmanuel Exbrayat

sion apocalyptique. Ces fragments évoquent les grandes tragédies contemporaines : les cendres de la Shoah, celles d’Hiroshima ou, encore, celles des Twin Towers du World Trade Center. L’événement du 11 septembre fut qualifié par le compositeur Karlheinz Stockhausen « de plus grande œuvre d’art qu’il y ait jamais eu dans le cosmos ». Ces attentats firent l’objet d’une captation d’images diffusées en boucle, images qui métamorphosent, dès lors, la réalité en fiction. Faire œuvre consiste essentiellement à donner du sens. Pour Jean-Emmanuel Exbrayat, les idées, qu’elles soient à l’état cérébral ou déjà formalisées par des croquis ou des notes manuscrites, prennent corps sous de multiples formes : peinture, dessin, gravure ou dispositifs… Au travers de ce vaste chantier en cours, l’artiste matérialise ses propres questionnements plastiques et sémiotiques, traduisant ainsi sa perception de la constante instabilité du monde.

Pelle (2009), peinture à l’huile sur voile de verre © Jean-Emmanuel Exbrayat


libres propos / LNA#53

Le parcours scientifique du Professeur Robert Gabillard : de la résonance magnétique nucléaire au métro VAL Par Bernard DÉMOULIN et Georges SALMER Professeurs émérites à l’Université Lille 1

Les deux auteurs ont connu et apprécié le Professeur Robert Gabillard, au cours de leur carrière, à la Faculté des Sciences puis à l’Université Lille 1 et cet article constitue, pour eux, un hommage à ce Professeur exceptionnel *. De la Sorbonne au CERN Rappelons, tout d’abord, quelques faits marquants de la carrière scientifique du Professeur Robert Gabillard, en particulier avant son arrivée à Lille en 1959. Après de brillantes études supérieures à la Sorbonne, il entre au laboratoire de Physique de l’École Normale Supérieure pour y préparer une thèse sous la direction du Professeur Pierre Grivet qui a été le père de la recherche française en électronique dans les années 50-60. Au contact de ce maître exceptionnel, Robert Gabillard a développé des qualités de créativité et d’esprit d’initiative, sans oublier la rigueur, qui ont caractérisé sa carrière. Dans ce groupe de recherche, il est un des pionniers de la Résonance Magnétique Nucléaire, « RMN », en particulier sur le phénomène de « mémoire de phase » qui constitue son sujet de thèse de Doctorat d’État qu’il soutient en 1952. Dans ce cadre, il confirme expérimentalement les observations d’un collègue étranger et mettra en évidence un effet qui porte maintenant son nom. Ses travaux allaient servir de point de départ à une floraison de travaux de recherche et aux applications médicales de la RMN. Un auteur américain, Ian Pykett, dans son ouvrage sur les applications médicales de la RMN, insiste sur la contribution essentielle des travaux de Robert Gabillard pour la réalisation de cet outil exceptionnel que constitue le scanner RMN. En 1954, il rejoint le CERN à Genève où il participe à la construction de ce qui était, à l’époque, le plus grand accélérateur du monde (30 GeV et 200m de diamètre). Il s’est plus particulièrement intéressé au contrôle de la position du faisceau de cette machine qui constitue un outil essentiel de la recherche nucléaire des cinquante dernières années. Professeur à la Faculté des Sciences de Lille En 1959, il est nommé professeur à la Faculté des Sciences de Lille et directeur de l’Institut Radiotechnique situé rue Gauthier de Châtillon. Il donne, alors, avec son collègue André Lebrun, une impulsion nouvelle et décisive au développement des activités d’enseignement et de recherche de la Faculté des Sciences dans le domaine de l’électronique.

Le Professeur Gabillard, inventeur du métro VAL. Tous droits réservés.

Dès son arrivée, il renouvelle complètement les enseignements d’électronique y introduisant, notamment, la théorie des semi-conducteurs et transistors, ce qui était très nouveau à l’époque. Il contribue à créer, en 1960, des enseignements d’hyperfréquences et, en 1961, le centre de 3ème cycle où ont été formées des pépinières de chercheurs. Ceux-ci constitueront non seulement la base de l’électronique lilloise, par exemple de l’IEMN 1, mais aussi de nombreuses universités ou écoles d’ingénieurs françaises où ils exerceront des responsabilités importantes (Brest, Rennes, Nantes, Besançon, Clermont-Ferrand, par exemple). Les enseignements qu’il dispensait étaient un véritable régal pour ceux qui, comme nous, ont eu le privilège de les suivre. Nous avons tous apprécié son grand sens physique

1

Institut d’Électronique, de Microélectronique et de Nanotechnologie.

49


LNA#53 / libres propos

illustrant, avec le minimum d’équations, l’essentiel des phénomènes afin d’en faire saisir les ordres de grandeur et les interactions réciproques. Son sens inné de la comparaison et de l’analogie était parfois poussé à l’extrême, mais ils ont permis à des générations d’étudiants de comprendre la statistique de Fermi Dirac ; tous se souviennent des poissons dans un lac perturbé par le vent de l’agitation thermique… Surtout, son ouverture permanente sur les grands problèmes de la physique moderne obligeait l’étudiant à sortir du cadre de travail officiel imposé par des programmes trop figés. Ces enseignements ont été concrétisés par la rédaction d’ouvrages qui ont connu un vif succès.

La propagation des ondes électromagnétiques : des cavités du sol aux câbles spéciaux C’est toutefois dans le domaine de la propagation des ondes électromagnétiques, dans les milieux complexes et stratifiés, tel le sol, que Robert Gabillard donnera la mesure de ses qualités scientifiques et de sa capacité à discerner très vite les applications potentielles de ses recherches. Il a fait, dans ce

Dans le cadre de son enseignement, comme par la suite dans sa recherche, il a su établir des ponts avec le monde extérieur et sortir l’Université de son isolement, important à cette époque. Et c’est tout naturellement avec les Écoles d’ingénieurs lilloises, l’ISEN 2 et l’IDN 3 notamment, que des relations de plus en plus étroites se sont nouées, amenant de nombreux étudiants à suivre ses enseignements et à devenir des chercheurs de l’électronique lilloise. À ce titre, il a été un précurseur des Instituts Fédératifs et des Écoles Doctorales actuelles. À son arrivée à l’Institut Radiotechnique, il encourage le développement des travaux sur la spectrométrie micro-ondes des liquides entrepris sous la direction de son prédécesseur et sur lesquels travaillent notamment André Lebrun, Robert Liebaert, Eugène Constant et Michel Moriamez. Outre le lancement de sujets de recherche peu conventionnels, telle la cohération dans les poudres métalliques, qui verra des applications pratiques plus de trente ans plus tard, il sait faire profiter de son expérience en résonance magnétique nucléaire pour explorer des voies nouvelles telle la RMN en champ terrestre. Ceci valut d’annexer temporairement le château de Phalempin au domaine de la Faculté des Sciences afin de soustraire les expériences des effets nuisibles des bruits radioélectriques et d’obtenir des résultats scientifiques tout à fait intéressants.

50

2

Institut Supérieur de l’Électronique et du Numérique.

3

Institut Industriel du Nord, devenu depuis l’École Centrale.

Le Professeur Gabillard présentant la maquette du futur métro VAL au Ministre des Transports, Monsieur Charles Fiterman. Tous droits réservés.

domaine, un travail de pionnier et ouvert la voie à toute une génération de brillants chercheurs… Les travaux sur l’électromagnétisme furent stimulés par l’Institut Français du Pétrole (IFP) alors confronté à la localisation de réservoirs de gaz naturel situés à des profondeurs proches de 3000 mètres. Le procédé, développé par l’équipe de recherche constituée autour du Professeur Gabillard, consistait à émettre, depuis la surface du sol, des ondes à des fréquences voisines d’une dizaine de Hertz. Le relevé du champ électrique, capturé en fonction de la position d’une sonde descendue dans un forage, produisait un profil duquel


libres propos / LNA#53

on parvenait à extraire des données pertinentes sur la géométrie de ces fortes hétérogénéités du terrain. L’accomplissement de cette recherche demanda un gros travail sur la théorie de la propagation des ondes dans les milieux hétérogènes. Parallèlement à la théorie, les expériences menées sur sites nécessitaient la réalisation de sondes sensibles aux champs électriques de très faible amplitude. Les nombreuses campagnes de mesures démontrèrent les performances et la fiabilité de ce procédé de détection qui fut d’ailleurs commercialisé par l’IFP sous le nom de « Telelog ». L’étude de la propagation des ondes dans le sol se poursuivait ensuite pour les besoins de télécommunications militaires et pour le génie civil afin de découvrir des cavités situées dans le sol, mais à faible profondeur. À la demande de Monsieur Pierre Dumont, Préfet du Nord, Robert Gabillard fut sollicité pour proposer une méthode efficace capable de localiser d’anciennes carrières souterraines jadis exploitées à l’est de la ville de Lille. L’équipe de recherche répondra par la mise au point d’une méthode de détection précise et d’une grande facilité de mise en œuvre. Le procédé consistait à déplacer, parallèlement à la surface du sol et dans la zone de terrain investie, deux antennes respectivement émettrice et réceptrice d’ondes électromagnétiques émettant à 1 MHz. Les recherches sur l’électromagnétisme connurent, par la suite, d’autres opportunités lorsque les Charbonnages de France demandèrent à Robert Gabillard d’étudier la propagation des ondes dans les galeries de mines. C’est sur la base des travaux préliminaires qu’il avait entrepris que se constitua l’équipe qui développa des câbles rayonnants dédiés à ce contexte si particulier des télécommunications hertziennes. Cette activité a connu un développement spectaculaire et une génération de chercheurs a obtenu, dans ce domaine, des résultats de niveau international. De l’électromagnétisme à l’aventure du Métro VAL C’est en 1970, et sous l’incitation de Jean-Claude Ralite, alors directeur de l’Agence d’urbanisme de la ville nouvelle de Villeneuve d’Ascq, que Robert Gabillard porte les premières réflexions sur la réalisation du projet qui deviendra le métro VAL. Cette aventure technologique, couvrant plus d’une décennie, révèlera une nouvelle fois ses étonnantes qualités d’ingéniosité et de communication. Le défi était de taille car il fallait concevoir un moyen de transport urbain, attractif, cadencé, capable de s’étendre sur un vaste réseau, cela sans conducteur !

L’absence de conducteur constituait une innovation majeure nécessitant la conception d’un métro automatique intégral doté d’une fiabilité et d’une sécurité sans faille. Robert Gabillard nous confiait, un jour, que l’idée directrice de l’automatisme qu’il avait inventé venait de l’analogie avec le pilotage de l’accélérateur de particules du CERN sur lequel il avait passionnément travaillé dans les années cinquante. Un premier démonstrateur, réalisé dès 1971 et constitué d’une maquette ferroviaire installée dans la salle d’un laboratoire de l’université, prouvait la faisabilité de l’automatisme. Restait ensuite à recueillir l’approbation politique de ce choix. La tâche était difficile, mais les solides arguments scientifiques joints aux talents de pédagogue de Robert Gabillard en permirent le succès. Placé sous la maîtrise d’œuvre de la société MATRA Transport, le projet VAL démarra, en 1975, par la réalisation de véhicules prototypes évoluant sur un circuit d’essai localisé sur la commune de Lezennes. Robert Gabillard mettait alors en place une équipe composée de jeunes ingénieurs qui contribuèrent efficacement à résoudre les difficultés technologiques posées par l’échelle industrielle de ce nouveau démonstrateur. Tel était le cas, par exemple, de la commande automatique des portes de quais lors de l’arrivée ou du départ des véhicules en station. Le VAL entrait en service en 1983 sur le parcours de la ligne 1. Sa fréquentation intensive, jointe à sa sûreté de fonctionnement, joua certainement un rôle majeur dans la décision politique qui conduisit à son extension actuelle, non seulement dans la métropole lilloise mais aussi à Rennes, Toulouse, Orly, Roissy et à l’étranger. L’expérience acquise et reconnue de Robert Gabillard dans les techniques modernes de transports, et plus spécialement dans leur sécurité, l’amena à exercer des responsabilités importantes. À plusieurs reprises, il fut désigné membre des commissions de sécurité de réseaux de transport. Tel fut le cas, en 1985, lors du projet de tunnel sous la Manche où il s’intéressa plus particulièrement à la stabilité mécanique des navettes ferroviaires. En effet, le gabarit exceptionnel de ces véhicules pouvait être la cause d’oscillations pendulaires nuisibles au confort des passagers ainsi qu’à la sécurité. C’est probablement le Groupement Régional Nord-Pas de Calais de Recherches sur les Transports (GRRT), créé en 1983, qui symbolise le mieux l’œuvre de pionnier accomplie par le Professeur Gabillard. Cet organisme, où travaillent des cadres universitaires et industriels de toutes disciplines, 51


LNA#53 / libres propos

Le Professeur Gabillard défendant son point de vue lors d’une conférence scientifique internationale (Colloque AMPÈR E, Bordeaux, 1963). Tous droits réservés.

Et la voile, pourquoi pas ? Passionné de sciences, Robert Gabillard l’était jusque dans ses loisirs, pratiquant intensément les sports nautiques. Il mettait en place, en 1978, une collaboration scientifique avec la Fédération Française de Voile. L’objectif principal de l’étude concernait l’analyse des interactions hommemachine appliquée aux manœuvres d’un voilier. Dans ce but, il constitua une petite équipe de recherche afin d’équiper un voilier olympique de type 470 d’appareils électroniques très sophistiqués. Un réseau de capteurs associé à une base de traitement de données traduisait, en termes de paramètres physiques, l’habileté du barreur, l’idée sous-jacente était, bien entendu, de contribuer à l’amélioration de ses performances ! Cette expérience posait un défi technologique car l’instrumentation du voilier devait être réalisée sans accroissement de sa masse afin de rester dans la jauge olympique et sous une consommation minimale d’énergie électrique. Un peu plus tard, vers 1982, Robert Gabillard réalisa des travaux similaires pour le sport du canoë kayak et pour l’équipement du voilier France III qui concourut, en 1983, aux régates de la coupe de l’América disputées à Newport.

prouvé qu’il n’y avait pas de différence significative entre les capacités à mener des recherches les plus fondamentales et les développements applicatifs les plus avancés. Au contraire, il a montré que ceux-ci pouvaient être, pour le chercheur, source de dynamisme et de remise en question permanente. Enfin, le Professeur Robert Gabillard a largement contribué à une ouverture décisive, et ô combien féconde, de l’Université Lille 1 sur son environnement socioéconomique. Il a très largement contribué à son rayonnement tant sur les plans régional que national et international. * Remerciements à Pierre Degauque pour la relecture du document.

Tous droits réservés.

perpétue, comme il l’a toujours ardemment défendu, les liens entre la recherche scientifique et l’innovation dans les transports d’aujourd’hui et du futur. Son existence a contribué à l’implantation, dans la Région Nord-Pas de Calais, de deux départements de l’Institut National de Recherches sur les Transports et leur Sécurité (INRETS) et au lancement du Pôle de Compétitivité « ITrans » sur les Transports automatiques guidés, pôle à vocation mondiale.

En guise de conclusion Ce dernier épisode de la longue et enrichissante carrière accomplie par le Professeur Gabillard prouve, une nouvelle fois, qu’il a été le promoteur de collaborations scientifiques les plus inattendues avec ses contemporains. Qu’il s’agisse de la résonance magnétique nucléaire, de la physique des particules, de la propagation des ondes radioélectriques, de l’automatisation de véhicules, de la sécurité dans les transports et de sa contribution avec le monde sportif, Robert Gabillard a toujours démontré par l’exemple que le raisonnement scientifique pouvait être porté au bénéfice des préoccupations les plus diverses des sociétés modernes. Il a 52

Cérémonie en l’honneur de robert gabillard, le père du VAL, physicien, chercheur et inventeur Mercredi 20 janvier 2010 à 16h à l’Espace Culture - Université Lille 1 Exposition du 20 janvier au 3 février


L’urgent et le durable

23-03-10 à 18h30

Frédéric Worms

Bernard Maitte

Crise écologique et ...

04-05-10 à 18h30

Jean Gadrey

Sandrine Rousseau

Qu’est-ce qu’une crise ?

20-10-09 à 18h30

Marcel Gauchet

Nabil El-Haggar

La crise chez le vivant

17-11-09 à 18h30

André Langaney

Taniel Danelian

Les crises stratégiques

01-12-09 à 18h30

Daniel Parrochia

Robert Gergondey

Physique statistique...

15-12-09 à 18h30 Octobre 2009 –Roger maiBalian 2010

La crise du capitalisme...

12-01-10 à 18h30

au programme / réflexion-débat / LNA#53

Laurent Cordonnier Nicolas Postel

CyclePhilippe La crise Gallois

Comment naissent...

26-01-10 à 18h30

Crise, enfance et psyché

02-03-10 à 18h30

Rudolf Bkouche

Pierre Delion

RENDEZ-VOUS D’ARCHIMÈDE

u  L’urgent et le durable : le temps

u  La crise du capitalisme financier

veloppement

Par Laurent Cordonnier, Maître de

Par Frédéric Worms, Professeur

Université Lille 1.

Centre international d’étude de la philosophie française contemporaine à l’ENS (Paris).

Jean-Marie Breuvart Jean-François Rey

u  Crise da ns le capita lisme ou

Y a-t-il des crises politiques ? 16-03-10 àde18h30 Rancière Nabil Crise duEl-Haggar capitalisme ? la crise entreJacques catastrophe et déL’urgent et le12durable Mardi janvier à 18h30

11h15-12h45

23-03-10 àMardi 18h30 Worms 23 mars àFrédéric 18h30

Bernard Maitte Par Dominique Plihon, Professeur

Crise écologique et ... 04-05-10 àà l’Université 18h30 Lille Jean3,Gadrey directeur du conférences en économie, Clersé *,

Sandrine président duRousseau Conseil scientif ique

Animée par Nicolas Postel, Maître de conférences en économie, Clersé, Université Lille 1. Cf article p. 14-15.

Animée par Bernard Maitte, Professeur d’histoire des sciences et d’épistémologie, Université Lille 1.

u  Comment naissent les crises dans

À suivre

le corps humain ? Mardi 26 janvier à 18h30 Par Philippe Gallois, Neurologue, Faculté Libre de Médecine, Lille.

Animée par Jean-Marie Breuvart, Philosophe. Cf article p. 16.

u  Crise écologique et crise éco-

nomique ? Mardi 4 mai à 18h30 Par Jean Gadrey, Économiste, professeur émérite à l’Université Lille 1. Animée par Sandrine Rousseau, Maître de conférences en économie, Clersé, Université Lille 1.

u  Crise, enfance et psyché

Mardi 2 mars à 18h30 Par le Professeur Pierre Delion, Faculté de médecine Lille 2, pédopsychiatre, Centre Hospitalier Universitaire de Lille. Animée par Jean-François Rey, Professeur de philosophie à l’IUFM de Lille. u  Y a-t-il des crises politiques ?

Mardi 16 mars à 18h30 Par Jacques Rancière, Philosophe, professeur émérite à l’Université Paris 8. Animée par Nabil El-Haggar, Viceprésident de l’Université Lille 1, chargé de la Culture, de la Communication et du Patrimoine Scientifique.

JOURNÉE D’ÉTUDES Pendant la crise, les crises continuent…  Mercredi 31 mars 2010 9h : accueil Conférences u  La crise des identités 9h30-11h Par Claude Dubar, Professeur émérite de sociologie, Université Versailles Saint-Quentin-en-Yvelines.

Animée par Bernard Eme (sous réserve), Professeur de sociologie, Clersé, Université Lille 1.

d’économie, Université Paris Nord, d’Attac France.

Animée par Nicolas Postel (sous réserve), Maître de conférences en économie, Université Lille 1. 14h15 : Table ronde u  La crise de l’État providence Avec Robert Castel, Sociologue, directeur d’études à l’EHESS, directeur du Centre d’études des mouvements sociaux, Bernard Eme, Professeur de sociologie, Clersé, Université Lille 1, Jacques Lemière, Professeur agregé de sciences sociales, Clersé, Université Lille 1 et Christophe Ramaux, Économiste, maître de conférences, Université Paris I Panthéon-Sorbonne.

Animée par Richard Sobel, Maître de conférences en économie, Université Lille 1. Cf articles p. 17-18 et 19-20.

Remerciements à Rudolf Bkouche, Jean-Marie Breuvart, Laurent Cordonnier, Bruno Duriez, Rémi Franckowiak, Robert Gergondey, Jacques Lemière, Robert Locqueneux, Bernard Maitte, Bernard Pourprix, Jean-François Rey et Richard Sobel pour leur participation à l’ élaboration de ce cycle. Plus d’informations : http:// culture.univ-lille1.fr Programme détaillé disponible à l’Espace Culture

* Centre Lillois d’Études et de Recherches Sociologiques et Économiques.

53


LNA#53 / au programme / réflexion-débat

Octobre 2009 – mars 2010

Cycle Créativité et territoires RENDEZ-VOUS D’ARCHIMÈDE u  Nouveaux territoires de l’art et

développement urbain Mardi 19 janvier à 18h30 Par Boris Grésillon, Maître de conférences en géographie, Université de Provence. Animée par Christine Liefooghe, Maître de conférences en géographie, Université Lille 1. Ce qu’on appelle les friches réhabilitées par la culture ou les « nouveaux territoires de l’art », ce que les Anglosaxons appellent aussi « Art factories », sont souvent également qualifiés de « fabriques urbaines ». Pourquoi ? Parce qu’ils réinventent non seulement un nouveau rapport à l’art et à la création mais aussi un nouveau rapport à la ville. Cette relation se veut ouverte et interactive, mais la réalité contredit parfois le souhait des acteurs eux-mêmes. Toujours est-il que les nouveaux territoires de l’art, anciennes friches implantées dans des quartiers populaires, participent de plus en plus au processus de renouvellement urbain, au risque, parfois, de la gentrification. u  Multimédia, une chance pour le

territoire ? Mardi 2 février à 18h30 Par Christophe Chaillou, Professeur d’informatique, Université Lille 1 et Maxence Devoghelaere, Co-fondateur de 3Dduo. Animée par Pascale Lepers, Institut d’Administration des Entreprises, Université Lille 1. En moins de 20 ans, notre vie quotidienne a été bouleversée par l’usage des ordinateurs, maintenant souvent dissimulés dans nos outils électroniques : 54

téléphone portable, assistant GPS ou console de jeux. Nous disposons d’un nombre considérable de données multimédias, masse d’informations qui ne cesse de croître. En recherche, nous travaillons pour rendre ces données accessibles via des outils d’indexation, de présentation et d’interaction plus naturels. Chercheurs, puissance publique et entreprises, nous devons, maintenant et collectivement, proposer une palette de services qui permette à chacun, où qu’il soit, d’utiliser ces données, de les partager, de les faire circuler, en un mot, de les faire « vivre ». Christophe Chaillou Depuis quelques années, le multimédia devient une vraie force régionale. La réussite de studios de création comme Ankama, Hydravision ou PéoLéo donnent une vraie crédibilité et offrent un environnement favorable à l’avènement de jeunes pousses comme 3Dduo. La région a rapidement compris que ce secteur devenait une valeur a défendre et commence à se mobiliser pour le soutenir : - création d’écoles spécialisées : SupinfoCom, SupinfoGame, ESAAT (DMA), Pôle IIID - création d’événementiels : e-créateurs, e-magiciens, e-virtuoses - création d’un pôle d’excellence rassemblant tous les métiers de l’image. De plus, les acteurs se rapprochent et savent qu’il est important de trouver des synergies pour renforcer leur société, ainsi des structures associatives voient le jour : - le serious game lab, rassemblant les acteurs du serious game, basé à Valenciennes - l’association Game In rassemblant les acteurs du jeu vidéo - l’association des acteurs de l’animation. Maxence Devoghelaere

JOURNÉE D’ÉTUDES Créativité et politique : un lien ambigu Mercredi 10 mars 2010 9h : accueil Conférences u  La créativité, un idéal démocratique ?

9h30-11h Par Michel-Louis Rouquette, Professeur de psychologie sociale, Université Paris-Descartes. Animée par Christine Liefooghe. Cf article p. 6-7.

u  Culture et Politique 11h15-12h45 Par Nayla Farouki, Philosophe, historienne des sciences. Animée par Nabil El-Haggar, Viceprésident de l’Université Lille 1, chargé de la Culture, de la Communication et du Patrimoine Scientifique.

Cf article p. 8-9. 14h15 : Table ronde u  Créativité et politique : un lien ambigu À partir de 14h30 Avec Thierry Baert, Directeur des études à l’Agence d’Urbanisme de Lille, Fazette Bordage, Chargée de la mutation des friches au Ministère de la Culture, Nabil El-Haggar et Christian Lemaignan, Professeur associé à l’Université de Poitiers, conseiller à l’Espace Mendès France, Poitiers. Animée par Christine Liefooghe.

Cf. article p. 10-11. Responsables du cycle : Nabil El-Haggar et Christine Liefooghe. Plus d’informations : http:// culture.univ-lille1.fr Programme détaillé disponible à l’Espace Culture


au programme / réflexion-débat / LNA#53

Question de sens 2009/2010 :

Résistances et alternatives Cycle proposé par Jean-Pierre Macrez et l’équipe « Question de sens » (Université Lille 1) Résister

Projection / Conférence

contre tout ce qui est survalorisé, aux moyens qui se prennent pour des buts contre tout ce qui oublie l’humain contre les formatages contre l’inacceptable contre la violence légalisée contre les effets de mode… Donner priorité à l’humain et aux chemins d’humanisation afin de promouvoir la solidarité internationale et la fraternité.

u  Walter, retour en résistance de

Michel Deheunynck Conférences u  Droit de l’homme et développe-

ment : même combat ? Jeudi 4 février à 18h30 - Maison des Étudiants Par Guy Aurenche, Président du CCFD-Terre Solidaire. Animée par Robert Holvoet, Président du CRDTM. En partenariat avec le CRDTM. u  De la résistance armée à la rési-

lience culturelle Jeudi 25 février à 18h30 - Espace Culture Par Nabil El-Haggar, Vice-président de l’Université Lille 1, chargé de la Culture, de la Communication et du Patrimoine scientifique.

Gilles Perret Résistance hier et aujourd’hui Jeudi 4 mars à 18h30 - Espace Culture

Dans ce film, Gilles Perret présente le parcours de Walter Bassan, ancien résistant resté engagé dans le mouvement social. Il avait 17 ans quand il s’est engagé dans la Résistance. Walter continue à avoir des engagements politiques affirmés. Il interpelle le gouvernement sur les contradictions entre les grands discours et les actes en ce qui concerne des acquis du Conseil National de la Résistance : sécurité sociale, retraite par répartition, nationalisation des secteurs vitaux de l’économie, liberté de la presse garantie par une indépendance des pouvoirs financiers. Il montre ensuite que ces idéaux de solidarité et de justice restent d’actualité et il pose la question : sont-ils respectés aujourd’hui ? Si la capacité d’indignation a été à l’origine de la résistance, faut-il aujourd’hui réveiller les capacités d’indignation des citoyens ? Résister se conjugue au présent avec aujourd’hui la défense des droits humains et sociaux. Ce film est un bel hommage aux hommes intègres. En partenariat avec les Amis du Monde Diplomatique (Nord).

s

ta

s si

e nc

Question de sens

Conférence u  Sexualité, femmes et religions

Jeudi 1er avril à 18h30 - Maison des Étudiants Avec Joëlle Allouche-Benayoun, Docteur en psychologie sociale, maître de conférences, Université Paris XII, chercheure au CNRS (Groupe Sociétés, Religions, Laïcités), Paris et Nadia Flicourt, Sexologue formée en anthropologie (formation expertise CIRMCRIPS). En partenariat avec le CUPS.

« Le verbe résister doit toujours se conjuguer au présent. » Lucie Aubrac

55


LNA#53 / au programme / spectacle vivant

Le CHAT de Schrödinger

Une comédie résolument burlesque autour de la physique Jeudi 28 janvier à 19h Entrée gratuite sur réservation Durée : 1h15

D

De et par Norbert Aboudarham Avec Christophe Pinon Si « Dieu ne joue pas aux dés » comme le dit Albert Einstein, Schrödinger son contemporain joue, lui, avec… des chats ! Prenez un chat, du cyanure, une particule radioactive, mettez le tout dans une boîte et attendez une heure ! Lettre d’Erwin Schrödinger à Albert Einstein

epuis 1935, le « Chat de Schrödinger » attend que l’on fasse cette expérience théorique. Et bien, c’est chose faite avec ce spectacle. Mais attention, le résultat est loin des prévisions physiques ! Peu à peu, les savants se mettent à miauler, les chats deviennent savants, la flèche du temps s’inverse, une assiette cassée se reconstitue chaque soir pendant que l’eau se transforme en lait… Magique ?... Non, quantique !
 Attention danger immédiat ! Norbert Aboudarham est compositeur, auteur dramatique et pédagogue. Il commence sa carrière professionnelle au théâtre comme compositeur, se forme au clown et à la dramaturgie. Ses spectacles ont été joués plus de 300 fois en France mais aussi au Maroc, en Suisse et au Canada.
 Il est actuellement chargé de cours à l’Université de Versailles. Il anime des formations sur le thème du burlesque à Madrid (Espagne), en Hollande (Université d’été d’Amsterdam), au Portugal à Lisbonne et aussi en Slovaquie à Bratislava. L’ idée d’un théâtre scientifique isole la science et le théâtre du même nom. S’ il n’y a pas de théâtre de science, il y a par contre une science du théâtre, c’est la dramaturgie que l’on pourrait nommer science de la narration. Raconter des histoires est notre objectif essentiel.

© Zoran

56


au programme / spectacle vivant / LNA#53

Ministre (du Travail)

Sottie tragicomique de Damien Bouvet et Ivan Grinberg Jeudi 4 février à 19h Entrée gratuite sur réservation Durée : 1h15 Un spectacle de la Compagnie Voix Off Création et jeu : Damien Bouvet Auteur et mise en scène : Ivan Grinberg Univers sonore : Guillaume Druel

U

n homme seul nous fait face. Il porte costume de ville et casque de chantier. Comme nous, il attend que commence la cérémonie des vœux du ministre du travail. Car, le ministre, depuis peu, c’est lui. Alors, il s’est attelé à la tâche, prépare ses discours, lance des études, délègue, commande, prend des mesures. Faire face. Avec une question lancinante, pour le chanteur de charme qu’il est : pourquoi lui ? Et une autre, inquiétante par les abîmes qu’elle découvre : le travail, qu’est-ce que c’est ? L’abomination et l’esclavage aliéné, ou l’activité qui fait homme ? Qu’en est-il alors des animaux qui, parfois, parlent à travers lui ? Généralement, les spectacles de Damien Bouvet se passent de paroles. On y entend bien parfois borborygmes, mots et bribes de mots ou de chansons ; mais ce n’est pas sans raison que sa compagnie se nomme Voix Off. Son théâtre, son imaginaire s’inscrivent dans un monde qui semble précéder la parole : le son est présent, mais les mots sont rares. Ministre marque, en un sens, une rupture dans le travail de Damien Bouvet : la parole, le discours y sont présents en force, le monde extérieur – le monde des grands, le grand monde – y fait intrusion et prolifère. Un spectacle dont la forme s’apparente à celle du récital : un dispositif dépouillé qui, progressivement, va se vider de ses mots. Damien, seul, comme il se doit, habité par les créatures et sa mission, une sorte de super héros enfermé là, et cherchant une issue ; héros portant le monde, héros du travail, héros au travail, nous enveloppant de son discours, de ses chants, des sons qui semblent le traverser et traverser les murs.

© Philippe Cibille

57


LNA#53 / au programme / spectacle vivant

© Véronique Lespérat-Héquet

Tarzan in the garden ou la grande question Jeudi 11 février à 19h Entrée gratuite sur réservation Durée : 1h Étude circulaire du Sylvestre d’après les travaux clairvoyants du Professeur Chamblay Par la compagnie Ches Panses Vertes Texte : Jean Cagnard Mise en scène : Sylvie Baillon Création du Sylvestre et scénographie : Jean-Marc Chamblay Musique : Karine Dumont Interprète : Eric Goulouzelle

C

ette conférence marionnettique – insolite et loufoque – est née de la rencontre entre le plasticien Jean-Marc Chamblay, créateur du personnage le Sylvestre, et la metteure en scène Sylvie Baillon, qui a confié à Jean Cagnard l’écriture du texte pour acteur et marionnettes. « Le Sylvestre, issu de toutes les grandes forêts communales qui se respectent, qu’elles s’érigent continentalement ou tropicalement, est une créature attachante. Entre végétal et animal, à la fois aussi simple qu’une herbe et peut-être beaucoup plus savant que nous le supposons, le Sylvestre semble posséder le pouvoir naturel d’ interférer dans la vie humaine, bien qu’ il possède son propre mode de vie autonome. Petit crâne bien rempli, gros yeux bien concentriques, oreilles hélicoptères, sexe qui pense, squelette qui branche, agitation de singe, réflexion du caïman, petit concentré à lui seul de héros ordinaire et presque malgré lui.

58

Grâce à une spontanéité partiellement anthropomorphique (SPA), le Sylvestre est en effet invité - aspiré en quelque sorte à se mêler aux mœurs prépondérantes de l’ humanité : études, sexualité, guerres, etc. (…) Le Sylvestre possède une maîtrise parfaite du camouflage. Par un curieux effet de réfléchissement, il parvient en effet à apparaître plus facilement dans l’ imagination que devant nos yeux. Bravo. Ce n’est plus de l’art, c’est du mirage. Et ne vivons-nous pas justement pour cela ? La suggestion ? Ainsi si le Sylvestre quitte sa forêt c’est peut-être pour s’ installer sous nos cheveux, à cet endroit ombragé et total secret où s’élaborent chaque jour les créatures foutrement attachantes que nous sommes nous-mêmes, les femmes, les enfants, les hommes, les chiens. Le Sylvestre nous dit donc que la réalité est une construction intime de l’ invisibilité. Merci à lui. Mais encore ? Le Sylvestre est sans doute l’animal apprivoisé de notre conscience. Ah, voilà qui est plus clair. La conscience est de fait une jungle peu pénétrable et l’ idée d’une créature adaptée à sa biosphère n’est pas pour déplaire. Une sorte de jardinier instinctif et réactif. Tarzan in the garden (…) ». Jean Cagnard


au programme / concert / LNA#53

© Fred Thomas

Emler / Tchamitchian / Échampard // Trio Mercredi 3 mars à 19h Entrée gratuite sur réservation Par la Compagnie aime l’air Andy Emler : piano Claude Tchamitchian : contrebasse Éric Échampard : batterie

C

ette musique est matière. À la fois outil et construction. Les dynamiques, les ressorts organiques des compositions, les textures, les trames, les rebonds, les renvois, les improvisations disent ce singulier et unique trio que l’on retrouve dans la droite ligne esthétique de son disque précédent. Un son plus compact et plus charnu peut-être mais toujours les mêmes subtilités dans les traits et les alliages de timbres.

d’une pensée musicale de groupe en quête de sens et de liberté, fond et forme mêlés pour des compositions qui semblent au final exposer une sorte de fiction mentale intime.

Nous sommes immergés dans une musique d’aujourd’hui, certes, mais nous aurons difficulté à la ranger dans un genre précis. Alors, disons que s’il s’agissait de peinture nous évoquerions « l’abstraction lyrique »… ce qui, par défaut, pourrait nous ramener à une possible idée du jazz contemporain ?

S’écoute ici sous une musicalité épanouie, la voix dense et rare de musiciens à l’œuvre. Ensemble. Thierry Virolle

À plats, contrastes, complémentarités, ruptures, résonances, les flux de l’expression collective nous content une quête permanente de la connivence instrumentale dans le désir commun du jeu.

Les trois interprètes organisent une musique qui n’appartient qu’à eux. Ils approfondissent une démarche audacieuse et sculptent un univers immédiatement identifiable : celui 59


LNA#53 / au programme / spectacle vivant © Danièle Pierre

dehors peste le chiffre noir Mercredi 17 mars à 19h Entrée gratuite sur réservation

Par l’Interlude Théâtre/Oratorio Version pupitre pour comédienne et musicien Texte : Kathrin Röggla Traduction : Hélène Mauler et René Zahnd Musique : Bruno Soulier Conception : Eva Vallejo et Bruno Soulier Comédienne : Eva Vallejo Musicien : Bruno Soulier (piano/claviers) Des mots qui remontent au parloir Des textes qui prennent le micro La version pupitre tient du théâtre et du tour de chant De la performance et du sermon De la parole et du geste La version pupitre se veut prolongement d’un théâtre-oratorio où mots, gestes, notes et sons se croisent et se répondent. La version pupitre est la forme brute d’un spectacle.

T

ragi-comédie sur le surendettement nourrie de témoignages, dehors peste le chiffre noir est un réquisitoire contre un système économique et ses effets pervers. Cette parodie de la vie moderne et de sa consommation compulsive puise son énergie aux sources du rock. Le spectacle est porté par l’engagement très physique de ses interprètes dans

60

la parole. Pas de misérabilisme mais une tentative pour saisir un réel fuyant et inquiétant avec l’humour comme arme pour retrouver du sens derrière les chiffres. Kathrin Röggla s’inspire d’une série d’enquêtes qu’elle a menées pour saisir et représenter la réalité économique et sociale moderne du surendettement. À travers une multitude de points de vue, elle propose un ensemble de scénettes empreintes d’humour et d’empathie qui dévoilent l’infinie variété des comportements humains face à l’argent. Par petites touches, elle donne corps et voix aux laisséspour-compte de la société de consommation, dans une langue originale, d’une prodigieuse virtuosité. Créé à La Comédie de Béthune / CDN Nord-Pas de Calais en novembre, le spectacle, dans sa version intégrale, est repris au Théâtre du Nord du 6 au 16 janvier 2010 (tous deux coproducteurs).


au programme / spectacle vivant / LNA#53 © Jean Bankofski

La griffe des escargots Mercredi 24 mars à 19h Entrée gratuite sur réservation Durée : 45 mn

Par le Théâtre La Licorne Écriture : Claire Dancoisne et Arthur Lefebvre Avec : Stéphanie Petit Masques : Francis Debeyre Costumes : Catherine Lefebvre assistée d’Annette Six Peinture : Maniasuki Objets : Amaury Roussel et Olivier Sion

A

u Bar des Amis, il y a la patronne, bavarde, un peu rauque, collectionneuse invétérée. Une vieille sentimentale au cuir féroce décidée à ne rien oublier de ces petites gens rencontrés ou inventés qu’elle a fini par se graver à même la peau. Une peau d’encre, d’images et de traces. Une histoire à tiroirs. Une histoire pleine d’histoires. Des histoires où les mots sont confrontés aux objets. Où les objets viennent, avec les mots, former le corps du spectacle, le corps de l’histoire. À l’heure de l’apéro, du théâtre masqué, du théâtre d’objets pour peaux sensibles, chair mouvementée et débordante mené par une comédienne habitée.

L’ écriture est une matière, comme les autres composantes du spectacle. Le texte se transforme et s’enrichit au cours des répétitions. C’est le va et vient constant entre le plateau et la table d’ écriture qui donnera la version définitive du texte. (…) Arthur Lefebvre La Licorne propose un théâtre où l’objet animé est au cœur des spectacles et où comédiens, plasticiens et musiciens travaillent ensemble pour porter au plus loin l’imaginaire.

(…) L’ écriture d’un tel spectacle ne peut être qu’ intimement liée à l’ élaboration des images et à leur mise en espace. C’est la confrontation du texte écrit avec cette mise en scène, avec l’objet et avec l’acteur qui permet l’ écriture définitive du spectacle. Le texte est en constant devenir. 61


LNA#53 / au programme / exposition

Le Campus autrement

Du 22 février au 19 mars 2010 Vernissage : lundi 22 février à 18h30 Entrée libre

Exposition conçue et réalisée par le Clersé 1 (Centre lillois d’études et de recherches sociologiques et économiques) et le SEMM 2 (Service Multimédia de l’Université Lille 1).

C

es montages photographiques donnent à voir certaines « inventions » issues de l’imaginaire de personnes qui étudient et travaillent sur le campus de l’Université Lille 1. Début 2009, ces usagers du Campus ont accepté de répondre aux questions suivantes : vous arrive-t-il d’imaginer autrement le campus ? Comment le modifiez-vous ou que créez-vous pour l’accorder à vos aspirations ? Pourquoi passer par l’imaginaire ? L’intérêt porté à la construction d’une réalité virtuelle se justifie si cette dernière est un moyen de rendre manifestes des attentes et des besoins qui caractérisent des groupes en situation.

Catherine Baichère et Hubert Cukrowicz avec le soutien de Marie-Pierre Coquard.

1

2 Graphistes : Yannick Bonnaz, Damien Deltombe, Michaël Mensier, Cécile Oudin / Chargés de projet : Cécile Oudin, Guy Vantomme.

62

Deux idées sous-tendent cet énoncé : - Les contenus virtuels créés à partir de l’environnement physique et social révèlent des rapports au monde qui ne passent pas encore par des expressions explicites ; - En même temps que des caractéristiques individuelles, l’imaginaire véhicule des images, des symboles et des idées socialement partagés. Il peut être, pour une part, compris comme un mode trans-individuel d’extériorisation d’attentes, d’affects émergeants liés à une situation sociale traversée par un collectif ou un groupe. Étudier l’imaginaire d’un groupe par rapport au territoire qu’il pratique est ainsi une façon d’illustrer les hypothèses précédentes.


au programme / exposition / LNA#53

Un campus métropolitain : habiter la Ville-Université Du 22 février au 19 mars 2010 Vernissage : lundi 22 février à 18h30 Entrée libre

Exposition de travaux d’étudiants de l’École Nationale Supérieure d’Architecture et de Paysage de Lille.

V

illeneuve d’Ascq est concerné par de grands projets urbains qui engagent de nombreux partenaires et qui interagissent les uns sur les autres. Cette exposition montre l’importance de la prise en compte d’un territoire large, d’une réflexion qui dépasse les limites des bâtiments et même des propriétés. L’Université Lille 1, convaincue que le Plan Campus ne donnera tous ses effets que s’il parvient à inscrire la future Université de Lille dans le territoire de la Ville, a engagé des réflexions en matière d’urbanisme, de programmation architecturale, d’espaces publics et de qualité environnementale. Elle a confié à l’ENSAPL une réflexion au sein, d’une part, d’un atelier de niveau Master en architecture, d’autre part, par la mise en place d’un atelier public de paysage impliquant une promotion d’étudiants paysagistes en Master 2. Cet atelier, ouvert à des représentants de l’ensemble des collectivités et établissements impliqués dans les projets villeneuvois, a permis de définir une culture commune du paysage, fondée sur des éléments de connaissance du territoire et sur des pistes de projet très ouvertes, afin que les différents programmes puissent se référer à des visions partagées du territoire par son paysage. Pour l’ENSAPL, le territoire de Villeneuve d’Ascq, avec ses quartiers universitaires et centraux, est un terrain d’expérimentation et de pédagogie idéal.

CONFÉRENCE La ville à grande échelle et linéaire Jeudi 11 mars à 18h30 Espace Culture – Université Lille 1 Entrée libre Par Antoine Grumbach, Architecte et professeur à l’École nationale supérieure d’architecture de ParisBelleville (ENSAPB). En partenariat avec l’ENSAP Lille. Grand prix national d’urbanisme 1992, Antoine Grumbach est l’un de ceux qui, en France, a le plus milité pour le retour à la ville. De 2008 à 2009, Antoine Grumbach est à la tête d’une équipe pluridisciplinaire avec laquelle il participe à la consultation sur le Grand-Paris lancée par le Président de la République, Nicolas Sarkozy, intitulée « Le Grand Pari(s) de l’agglomération parisienne ». Son projet appelé « Seine Métropole », où il préconise d’étendre le Grand Paris jusqu’au Havre, autour de la Seine, a été retenu par le Président de la République. Cette exposition permet de montrer les analyses du contexte ainsi qu’un certain nombre de propositions – fruits de l’imagination des étudiants – qui semblent cependant répondre à des besoins identifiés et réels pour donner au campus, et à son environnement urbain, de nouvelles qualités de vie. 63


Janvier, février, mars

*Pour ce spectacle, le nombre de places étant limité, il est nécessaire de retirer préalablement vos entrées libres à l’Espace Culture (disponibles un mois avant les manifestations).

Ag e nd a

Retrouvez le détail des manifestations sur notre site : http://culture.univ-lille1.fr ou dans « l’in_edit » en pages centrales. L’ ensemble des manifestations se déroulera à l’Espace Culture de l’Université Lille 1.

Les 5, 12, 19 et 26 janvier 14h30 Conférences de l’UTL Mardi 12 janvier 18h30 Rendez-vous d’Archimède : Cycle « La crise » « La crise du capitalisme financier » par Laurent Cordonnier Mardi 19 janvier 18h30 Rendez-vous d’Archimède : Cycle « Créativité et territoires » « Nouveaux territoires de l’art et développement urbain par Boris Grésillon Mercredi 20 janvier 16h

Cérémonie en l’honneur du Professeur Robert Gabillard, le père du VAL, physicien, chercheur et inventeur

Mardi 26 janvier 18h30 Rendez-vous d’Archimède : Cycle « La crise » « Comment naissent les crises dans le corps humain ? » par Philippe Gallois Jeudi 28 janvier

19h

Théâtre : « Le CHAT de Schrödinger » de Norbet Aboudarham *

Les 2 et 23 février

14h30 Conférences de l’UTL

Mardi 2 février 18h30 Rendez-vous d’Archimède : Cycle « Créativité et territoires » « Multimédia, une chance pour le territoire ? » par Christophe Chaillou et Maxence Devoghelaere Jeudi 4 février 18h30 Question de sens : Cycle « Résistances » « Droit de l’homme et développement : même combat ? » par Guy Aurenche (Maison des Étudiants) Jeudi 4 février

19h

Théâtre : « Ministre (du Travail) » par la Compagnie Voix Off *

Jeudi 11 février 19h

Théâtre : « Tarzan in the garden ou la grand question » par la cie Ches Panses Vertes *

Du 22 février au 19 mars

Expositions « Le Campus autrement » par le Clersé et le SEMM / « Un campus métropolitain : habiter la Ville-Université » par l’ENSAP de Lille - Vernissage le 22 février à 18h30

Jeudi 25 février 18h30

Question de sens : Cycle « Résistances » « De la résistance armée à la résilience culturelle » par Nabil El-Haggar

Les 2, 9, 16, 23 et 30 mars 14h30 Conférences de l’UTL Mardi 2 mars 18h30

Rendez-vous d’Archimède : Cycle « La crise » « Crise, enfance et psyché » par Pierre Delion

Mercredi 3 mars

Musique : Emler/Tchamitchian/Échampard trio par la Compagnie aime l’air *

19h

Jeudi 4 mars 18h30 Question de sens : Cycle « Résistances » Projection/conférence « Walter, retour en résistance » - « Résistance hier et aujourd’hui » avec les Amis du Monde Diplomatique (Nord) Mercredi 10 mars 9h

Cycle « Créativité et territoires » Journée d’études « Créativité et politique : un lien ambigu »

Jeudi 11 mars 18h30 Conférence « La ville à grande échelle et linéaire » par Antoine Grumbach avec l’ENSAP de Lille Mardi 16 mars 18h30 Rendez-vous d’Archimède : Cycle « La crise » « Y a-t-il des crises politiques ? » par Jacques Rancière Mercredi 17 mars

19h

Théâtre : « dehors peste le chiffre noir » par l’Interlude Théâtre/Oratorio *

Mardi 23 mars 18h30 Rendez-vous d’Archimède : Cycle « La crise » « L’urgent et le durable : le temps de la crise entre catastrophe et développement » par Frédéric Worms Mercredi 24 mars

19h

Théâtre : « La griffe des escargots » par le Théâtre La Licorne *

Mercredi 31 mars

9h

Cycle « La crise » Journée d’études « Pendant la crise, les crises continuent… »

Jeudi 1er avril 18h30 Question de sens : Cycle « Résistances » « Sexualité, femmes et religions » avec Joëlle Allouche-Benayoun et Nadia Flicourt (Maison des Étudiants) Espace Culture - Cité Scientifique 59655 Villeneuve d’Ascq Du lundi au jeudi de 11h à 18h et le vendredi de 10h à 13h45

Tél : 03 20 43 69 09 - Fax : 03 20 43 69 59 http://culture.univ-lille1.fr - Mail : culture@univ-lille1.fr

Les Nouvelles d'Archimède 53  

Les Nouvelles d'Archimède Revue culturelle de l'Université Lille 1

Read more
Read more
Similar to
Popular now
Just for you