Issuu on Google+

Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Comprendre - Nouvelles sciences, nouveaux citoyens Par Jean-Paul Baquiast janvier-septembre 2005

Ce texte est une refonte de notre précédent ouvrage, publié dans la collection Automates Intelligents, sous le titre « Sciences de la complexité et vie politique. Tome 1, Comprendre ». (voir http://www.admiroutes.asso.fr/automates/collection/baq1.htm). Il est édité ici en Libre-Accès et placé sous le régime de la Creative Commons Attribution License, qui en permet des usages sans limitations pourvu que l'oeuvre originale soit clairement citée. This is an open-access document distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited. Table Introduction Première partie. De nouveaux outils intellectuels Chapitre 1. Le constructivisme 1.1. Les différentes conceptions du réel 1.2. Le rapprochement du macroscopique et du microscopique Chapitre 2. Le regard systémique 2.1. Le macroscope 2.2. Les réseaux 2.3. Les agents 2.4. Les systèmes 2.5. Systèmes dynamiques complexes et hyper-complexes 2.6. Systèmes dissipatifs en équilibre loin de l’équilibre 2.7. L’auto-organisation Chapitre 3. La méta-évolution 3.1. La compétition darwinienne 3.2. L’auto-évolution 3.3. La symbiose 3.4. Le paradigme de l’auto-association stabilisatrice 3.5. La sociobiologie 3.6. Un autre aspect de l’évolution, la construction de niches 3.7. L’émergence 3.8. Le hasard et le désordre dans l’évolution du monde 3.9. L’individuation

1


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 4. La conscience réincorporée 4.1.Déterminisme et liberté. La science face à ses paradoxes 4.2. La décision liée 4.4. Le libre arbitre 4.5. Le cerveau des sensations 4.6. La conscience 4.7. Conscience réincorporée, parole conférée

Deuxième partie Les nouveaux acteurs Chapitre 5. Le monde des mèmes 5.1. La machine mémétique 5.2. La mémétique 5.3. Les mèmes 5.4. Le langage afficheur Chapitre 6. Les super-organismes 6.1. Les super-organismes sont-ils réels ? 6.2. Le super -organisme politique 6.3. Une vision technologique du cerveau global 6.4. L’ écosystème vu comme un super-organisme 6.5. Conscience primaire et conscience supérieure dans les super-organismes Chapitre 7. Entités artificielles et virtuelles 7.1. L’avènement des super-intelligences 7.2. Robotique et choix politiques 7.3. L’émergence de la parole chez les robots 7.4. L’apparition de complexités intrinsèques Chapitre 8. Les Posthumains 8.1. Le posthumanisme 8.2. La peur du posthumanisme 8.3. Des instances de négociation 8.4. Les Civilisations posthumaines : entre apocalypse et apothéose Conclusion Bibliographie Index des thèmes Index des noms Fiche auteur

2


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Remerciements : ce livre doit beaucoup à Christophe Jacquemin. D’une part les idées qui y sont présentées sont en partie le produit du travail de réflexion en commun nécessaire à la production de notre revue Automates-Intelligents. D’autre part, il n’a pas ménagé son temps pour corriger le fond et la forme du texte. Je l’en remercie chaleureusement.

3


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Introduction.

Cet essai est destiné à ceux qui ne veulent pas abandonner la politique aux professionnels mais qui font trois erreurs susceptibles d’affaiblir leur action militante : - la politique n’a pas besoin de la science dans son effort pour comprendre et modifier le monde ; - les sciences traditionnelles, les seules encore à être enseignées dans les écoles, suffisent à éclairer l’action politique ; - les sciences nouvelles, qui renouvellent les sciences traditionnelles, ne sont pas à la portée du citoyen parce que trop complexes. Elles doivent rester l’affaire des “ experts scientifiques ”. Mais de ce fait il faut s’en méfier car les experts ne sont pas conscients des risques que ces sciences nouvelles, et les technologies qui les expriment (on parle de technoscience) font courir au monde. Or nous sommes convaincus que la politique a besoin de la science. Si elle ne faisait pas appel à elle pour comprendre et modifier le monde, à qui s’adresserait-elle ? Soit aux représentants des entreprises dont le métier est de vendre des produits de consommation matériels ou culturels. Ce sera alors la république des publicitaires et groupes de pression économiques, peu enclins à inciter les citoyens à la réflexion critique. Soit aux autorités religieuses, notamment à celles s’inscrivant dans des mouvances “ fondamentalistes ”. S’appuyant sur des textes ou écritures dites “ révélées ” car réputées provenant directement de la divinité, elles prétendent organiser la société selon ces préceptes et n’encouragent pas les processus démocratiques. La très grande majorité des humains est soumise à l’influence des entreprises et des religions. Cela n’est pas sans conséquences à un moment où l’humanité, plus que jamais dans son histoire, devrait faire appel à des raisonnements aussi rationnels, aussi scientifiques que possible. Qui d’autre que la science pourrait le lui rappeler ? Mais les sciences traditionnelles, telles du moins qu’elles sont encore présentées, ne permettent plus de comprendre le monde moderne et sa complexité. Ne parlons pas de l’époque heureusement révolue, où une large partie des intellectuels s’appuyaient sur le matérialisme dialectique pour se donner des objectifs politiques. Cependant aujourd’hui beaucoup des connaissances enseignées dans les écoles et popularisées par les médias sont souvent aussi obsolètes que le marxisme. Leur grande faiblesse est de postuler l’existence d’un univers indépendant des hommes, dont les lois s’imposent aux sciences. Le prix à payer est lourd. Le message qui s’en dégage est que l’homme ne construit pas l’univers. Celui-ci est déjà construit et il faut s’y conformer. Or tout montre le contraire. Pour le meilleur et pour le pire, c’est essentiellement l’action humaine, volontaire et involontaire, qui construit l’univers, tout au moins à l’échelle terrestre. Cependant de nouvelles sciences proposent une autre vision du monde, mais peu de gens en ont encore pris conscience. Pour ces sciences, le réel est en évolution permanente ou, plus exactement, en construction permanente. L’action des humains, conjointement à celle des autres acteurs biologiques, y constitue une force de création continue. La tâche qui s’impose en priorité est alors d’essayer de comprendre comment cette force s’exerce. Qui sommes-nous, nous qui prétendons savoir ? Qui parle en nous, quand nous discourons ? Une telle conception est évidemment très stimulante pour l’action politique, puisque celle-ci retrouve toute sa légitimité dans son ambition de modifier le monde, sans se faire imposer de limites dogmatiques.

4


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Quelles sont les sciences qui légitiment ce point de vue ? Ce sont celles dites de la complexité. Mais existe-t-il des sciences de la complexité qui se distingueraient des sciences qu’il faut bien se résoudre à qualifier de classiques ou traditionnelles ? On aurait tendance à répondre que nulle science n’a le monopole de la complexité. Dans chaque domaine scientifique, il y a des esprits qui s’enferment dans leur discipline, refusent l’interactivité, bref pratiquent ce que l’on appelle parfois le raisonnement linéaire. Mais, dans chacun de ces mêmes domaines, se trouvent des esprits ouverts sur l’extérieur, refusant les certitudes, prenant le risque de poser des questions sans réponses immédiates au lieu de perfectionner les réponses déjà acquises aux questions déjà posées. Cependant ,au-delà de cela, il existe certaines sciences dites émergentes qui par nature obligent à la pensée complexe, c’est-à-dire à se débarrasser des certitudes du simplisme scientifique et des abus de pouvoir que celui-ci autorise. La première est la physique quantique, à laquelle tout le monde pense quand on critique le simplisme. Celle-ci est désormais reconnue comme la plus grande conquête scientifique de tous les temps. Les promesses qu’ouvrent ses développements actuels sont presque sans limites. Mais il serait réductionniste de penser que la physique, fut-elle quantique, pourrait à elle seule générer les outils permettant de créer de la complexité. Aujourd’hui, d’autres sciences, qui toutes se prolongent dans des technologies extrêmement puissantes, doivent être mentionnées. On citera d’abord les sciences du calcul informatique, qui s’appuyant sur les performances constamment accrues des composants électroniques et des réseaux, soustendent l’apparition de mondes inconnus il y a encore un demi-siècle : la vie artificielle, la réalité virtuelle, la robotique autonome, la conscience artificielle. Les sciences plus anciennes sont également bouleversées par la prise en compte de la complexité. C’est principalement le cas en biologie, où l’ingénierie génétique permet dorénavant d’analyser de plus en plus d’organismes et de systèmes vivants, en attendant de les transformer plus ou moins profondément ou d’en créer de nouveaux, jamais vus sur terre. On citera aussi les sciences du cerveau et celles de la cognition. Ces dernières montrent l’importance des réseaux mondialisés de connaissances, transversaux, interactifs, qui se développent, quasiment comme des organismes vivants. Les réseaux de connaissances constituent des systèmes très puissants car ils commandent au fonctionnement des innombrables instruments et machines qui modifient directement le monde. En quoi toutes les sciences énumérées dans cette introduction confortent-elles ce que l’on pourrait appeler une philosophie constructiviste ? C’est parce qu’elles semblent montrer que leur développement continu et entrelacé, convergent, fait apparaître un monde qui n’existait pas auparavant. Ce monde nouveau entre en compétition avec le monde ancien, d’une façon qu’aucun esprit humain n’a la possibilité de vraiment comprendre et moins encore de maîtriser. Nous sommes en présence de ce que l’on appelle désormais une émergence, c’est-à-dire la naissance de systèmes complexes nés de la confrontation ou de la symbiose entre systèmes plus simples. Mais comment ceci modifie-t-il les buts et les moyens de l’action politique ? La première réaction des citoyens sera de penser qu’il s’agit de questions difficiles, encore moins accessibles que celles faisant l’objet des sciences traditionnelles. Plus que jamais, on sera tenté de laisser les enjeux des sciences et des technologies de la complexité aux experts scientifiques et aux pouvoirs économiques et politiques ayant les moyens de manipuler les nouveaux concepts et les nouveaux produits. Bien pire, on aura tendance à se méfier de tout ce que ces sciences font apparaître ou permettent de faire. Il se développe aujourd’hui, tout au moins en occident, un très fort mouvement hostile aux sciences et technosciences de la complexité. C’est très grave car refuser de les pratiquer voudra dire s’exclure d’emblée d’un monde qui se fera de toutes façons, à l’initiative de sociétés moins pusillanimes et moins ignorantes. La philosophie politique à tirer des sciences de la complexité devrait être

5


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

différente. Elle consisterait à affirmer que toute action compte, la plus insignifiante d’entre elles pouvant provoquer des réactions de grande ampleur imprévisibles et révolutionnaires. Il faudrait donc que chacun des humains qui veut faire usage de sa raison se mobilise, en ne laissant pas la parole aux seuls experts et moins encore évidemment aux prophètes de l’irrationalisme ou du désengagement. La première urgence sera d’essayer de comprendre le monde complexe, en allant directement aux sources, sans se laisser décourager par cette complexité. En même temps, il faudra ne pas hésiter à dire et faire ce que l’on pensera avoir à dire et à faire, sans se laisser arrêter par le bruit que des millions et des milliards de voix s’exprimant en parallèle pourront produire. Ceux qui pratiquent assidûment Internet comprendront ce que nous entendons par-là. Dans ce livre, nous examinerons, non pas les sciences nouvelles, mais quelques uns des enseignements que l’on pourrait en tirer pour renouveler l’approche politique et la démarche citoyenne. Dans une première partie, nous présenterons un certain nombre de cadres généraux pour l’organisation des connaissances qui nous paraissent aujourd’hui indispensables à tout effort de compréhension du monde. Dans une seconde partie, nous présenterons quelques-uns des nouveaux acteurs à prendre en considération dans l’action politique. Ces acteurs sont transverses, c’est-à-dire qu’ils débordent très largement les distinctions classiques entre humains et non-humains et, parmi les humains, entre individus et groupes. Peut-on à partir de cela présenter des perspectives d’avenir un tant soit peu crédibles. Sans doute pas. Nous nous bornerons à constater à la fin du livre que deux conclusions radicalement différentes sollicitent ceux qui essaient d’imaginer les cinquante prochaines années : soit la disparition radicale des civilisations humaines et peut-être même celle des formes de vie évoluées, soit au contraire l’apparition de sociétés posthumaines aux pouvoirs considérablement augmentés.

6


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Première partie. De nouveaux outils intellectuels On pourrait aussi bien parler de postulats généraux (postulat : principe premier, indémontrable ou indémontré, selon le même Larousse) ou même d’hypothèses très globales. Ces hypothèses peuvent être acceptées à un moment donné, parce qu’elles permettent d’ordonner de façon efficace les connaissances et les pratiques de découverte. Mais il est admis que les hypothèses sur le monde se succèdent, celles qui se révèlent non seulement les plus récentes mais les plus fécondes remplaçant les autres. Nous estimons que les sciences et technologies d’aujourd’hui et de demain, dites aussi émergentes et convergentes, reposent sur trois grandes approches qu’il convient de présenter et discuter. Il s’agit des approches constructiviste, systémique et évolutionniste. Par approche, nous entendons une façon de considérer le monde en s’appuyant sur un certain nombre d’hypothèses qui servent à guider le raisonnement. Celles que nous évoquons ici, nous le verrons, ne sont pas exclusives les unes des autres, mais complémentaires. C’est le même œil qui regarde, mais avec des angles différents. Nous examinerons dans cette partie une question qui n’y est pas étrangère. Il s’agit du libre-arbitre et de la conscience. Désormais, pour beaucoup de scientifiques, ceux du moins qui se réfèrent au matérialisme, il faut relativiser la portée que l’on donne à ces concepts de libre arbitre et de conscience, pourtant généralement considérés comme différenciant l’humanité du reste des espèces vivantes. La question est délicate et méritera quelques explications. Mais on ne pourra pas ne pas l’évoquer. La vie politique fait constamment appel au volontarisme. Ceci sous-entend qu’il existe des sujets conscients libres de faire des choix. Qu’en serait-il si ces sujets étaient en fait déterminés par d’innombrables facteurs échappant à leur volonté ? Nous verrons que les sciences cognitives actuelles, sans faire de la conscience une illusion, n’acceptent plus d’y voir une propriété désincarnée, comme flottant dans l’air audessus du corps. Au contraire elles la “ réincorporent ”. Elles en font une propriété émergente des organismes complexes. Nous parlerons ici de la conscience réincorporée. Toutes ces idées ne sont pas nouvelles. Pratiquement tous les manuels de philosophie ou de science y font allusion. Mais les sciences modernes les enrichissent continuellement et de ce fait les transforment. Si bien qu’elles ne sont pas toujours bien comprises. Elles sont surtout largement ignorées par les acteurs de la vie politique. Ceux-ci, particulièrement en Europe et plus particulièrement encore en France, sont imprégnés de philosophies héritées des siècles précédents. Leur culture scientifique, y compris sous la forme de la philosophie des sciences, n’est malheureusement pas encore très développée. L’Histoire, le Droit, l’Economie et la Finance descriptives sont pour eux des sciences plus fiables que celles inspirées par les systèmes physiques et biologiques. Or tant que les acteurs de la vie politique, supposés éclairer les choix des citoyens, n’auront pas bien perçu l'importance des révolutions intellectuelles en cours, ils feront beaucoup d’erreurs de jugement, lesquelles pourraient bien un jour se révéler fatales pour l’humanité tout entière.

7


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 1. Le constructivisme

Nous avons indiqué en introduction qu’une des premières urgences concernant le développement de la démocratie et du dialogue coopératif dans la vie publique consistait à détruire les certitudes des décideurs et experts de toutes sortes qui prétendent agir au nom d’une Vérité absolue, dont ils seraient les détenteurs. Nous pensons en particulier à ceux, même de bonne foi, qui croient pouvoir s’appuyer sur un prétendu Réel décrit par la science pour définir des politiques publiques. Or il s’agit d’un simple postulat qui a de moins en moins cours dans les sciences actuelles. Selon ce postulat, que nous récusons, il existerait une réalité indépendante de l’homme. Cependant celui-ci pourrait, en respectant les protocoles de la recherche expérimentale, la décrire de plus en plus objectivement. Cette conception de la réalité demeure évidemment demeure valable dans la vie courante où nous avons affaire à des objets et des êtres de grande taille (dite macroscopique). Mais elle ne l’est plus dans la physique quantique, où les entités observées sont microscopiques. Pour cette dernière, on ne peut pas affirmer qu’il existe une réalité en soi mais seulement des entités statistiques fonctions des modes d’observation et des types d’observateurs. Or le point intéressant est qu’aujourd’hui cette façon de voir le monde propre à la physique quantique peut et doit être étendu à l’ensemble des sciences et plus généralement à la façon dont les langages désignent l’ensemble des objets du monde. Il faut relativiser ce que l’on observe, en fonction de l’observateur et des conditions de l’observation. Pour simplifier, on dira que l’on construit le monde et non qu’on l’observe. Cette affirmation, qui paraîtra abrupte à certains lecteurs, offrirait une grande opportunité à l’ensemble des sciences, y compris aux sciences humaines et sociales. Celles-ci pourraient se doter d’une méthode commune permettant de représenter la réalité, inspirée de la méthode utilisée par la physique quantique, considérée aujourd’hui comme “ mère ” de toutes les sciences. Il ne s’agit pas ici d’obliger le lecteur à se plonger dans les arcanes de la physique quantique, réputée incompréhensible. Il s’agit seulement d’examiner comment le point de vue épistémologique (épistémologique : relatif à la philosophie des connaissances) sur le monde qu’elle nous propose serait réutilisable et fécond ailleurs De ce fait, la conception tout entière de la démarche scientifique se trouvera modifiée. Il ne s’agira plus de découvrir le réel, comme prétend le faire la science traditionnelle, dite aussi positiviste, mais de le construire, ou plutôt de construire le réel humanisé dans lequel nous essayons de vivre. D’où l’expression de constructivisme, de plus en plus utilisée aujourd’hui. On conçoit que le constructivisme soit bien reçu par ceux qui espèrent que leur action scientifique et politique puisse “ changer le monde ”. C’est une philosophie à laquelle pour notre part nous nous rallions.

8


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

1.1. Les différentes conceptions du réel Les postulats du réalisme Jean-Louis Le Moigne, philosophe des sciences, a défini [Le Moigne, op.cit.] ce qu’est l’ancienne façon de se représenter le monde, que les nouvelles sciences ont été conduites à récuser. Il la désigne par le terme de positivisme, auquel nous préférons substituer celui de réalisme, car le positivisme désigne plutôt la philosophie de la connaissance héritée d’Auguste Comte. Le terme de réalisme doit cependant être précisé d’emblée. Dire que l’on récuse le réalisme vous range immédiatement parmi les illusionnistes. Chacun d’entre nous se heurte tous les jours à une réalité extérieure à lui et ne peut prétendre refuser d’en tenir compte. Par réalisme, dans cet essai, nous désignerons une catégorie philosophique bien particulière, que l’on peut appeler aussi réalisme des « ontologies », et que nous allons définir ci-dessous. Le positivisme, ou sa version plus souvent évoquée (notamment en physique) qu'est le réalisme des essences, a été très malmené à la fois par le non-réalisme de la mécanique quantique (qui sera examiné ci-après) et par le déconstructionnisme (dit post-modernisme aux Etats-Unis) pour qui il n'est de connaissance que subjective, c'est-à-dire relative à son auteur. Mais on aurait bien tort de croire le positivisme mort. Jean-Louis Le Moigne cite un Rapport assez surprenant de l'Académie française des sciences (1996, L'appareil d'information sur la science et la technique) qui précise ce qu'est le savoir scientifique, celui qu'il convient d'enseigner aux jeunes élèves dans les écoles. Ce rapport mentionne quatre hypothèses qui fondent le positivisme, c'est-à-dire, selon les académiciens, qui fondent la connaissance scientifique elle-même : - L'hypothèse ontologique : il existe une réalité objective, extérieure à l'homme, mais que celui-ci peut s'attacher à découvrir par la science (c'est-à-dire par un processus critique permettant notamment d'éliminer la subjectivité des perceptions individuelles). - L'hypothèse déterministe ou de causalité : il existe des lois stables et régulières qui commandent à la nature et qu'il faut découvrir, pour les mettre ultérieurement en œuvre. - L'hypothèse réductionniste ou de modélisation analytique, fondée par Descartes, selon laquelle on peut comprendre le complexe en le réduisant à ses parties. - L'hypothèse rationaliste ou de raison suffisante, remontant aux trois axiomes d'Aristote d'où découle la méthode hypothético-déductive expérimentale : j’observe tel phénomène du monde, j’en déduis une hypothèse, je vérifie celle-ci par l’expérience et, en cas de réponse positive, je propose une loi régissant le phénomène considéré. Le lecteur découvrant la philosophie des sciences (l'épistémologie) s'écriera : "eh oui, mais en quoi ceci est-il scandaleux ? N'est-ce pas ainsi que la science fonctionne ?" Nous répondrons : "Elle fonctionne comme cela dans certains domaines seulement, et par convention, parce qu'il est plus efficace de s'appuyer sur ces principes plutôt que sur des conceptions de la connaissance plus complexes. Elle fonctionne aussi comme cela parce que cela favorise le jeu des pouvoirs dominants s’appuyant sur l’expertise réputée scientifique pour maintenir leur domination. Leur argument est qu’en appliquant les quatre hypothèses, transformées en principes, résumées ci-dessus, ils savent mieux que les autres comment sont les choses en soi. Ils peuvent donc en déduire des prescriptions difficiles à discuter quand on n’a pas la possibilité d’entrer dans le fond des dossiers, souvent très techniques, sur lesquels ils se prononcent. Malheureusement pour eux, les sciences d’aujourd’hui (ou beaucoup d’entre elles) ne croient plus vraiment à l’existence de choses en soi, d’un réel indépendant des hommes, qu’il convient de découvrir pour se conformer à ses lois.

9


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Comment les sciences contemporaines définissent-elles alors le réel ? Mais d'abord existe-t-il un réel plutôt que rien ? Autrement dit, ce que nous appelons le réel est-il une illusion de nos sens, y compris d'ailleurs la perception que nous avons de nous-mêmes ? C’est ce qu’a longtemps défendu le solipsisme, dont l’évêque Berkeley (1685-1753) se fit une spécialité. Bien des mystiques avant lui avaient proposé semblable intuition, relative au caractère illusoire du monde de nos perceptions. Aujourd'hui, plus personne ne soutient sérieusement l'hypothèse solipsiste en tant que telle. Cependant, on accepte de plus en plus l’idée que nous sommes enfermés dans une boîte noire. Tout ce que nous percevons se traduit par des informations qui s’inscrivent dans nos neurones par l’intermédiaire des signaux saisis par nos organes des sens. On admet cependant, contrairement au solipsisme, l’existence de tels signaux, provenant de l’extérieur de notre boîte noire. De quelle nature sont ces signaux ? Portent-ils en eux-mêmes, sans interprétation de notre part, des significations s’imposant à nous ? Personne aujourd’hui ne s’avance clairement pour répondre à ces questions. Beaucoup de scientifiques se bornent à dire que l’univers qui nous est extérieur constitue une source ou matière première indifférenciée et que c’est notre interaction avec elle qui lui donne formes et sens. Le mythe de la caverne La philosophie a proposé depuis des millénaires une réponse qui n’est pas très différente de celle suggérée par cette image de la boîte noire, sauf que l’univers extérieur ne serait pas indifférencié mais au contraire fortement structuré, autour de principes essentiels auxquels les hommes n’auraient pas directement accès. Ce serait le monde des Idées décrit par Kant. En dehors de chaque observateur, il existerait, une réalité en soi qui ne serait pas accessible directement aux connaissances humaines mais qui se manifesterait par des “ phénomènes ” que nous pouvons étudier. C'est ce que l'on appelle le réalisme transcendantal, dit aussi réalisme des essences ou des ontologies. On retrouve là sous une forme moderne le mythe platonicien de la caverne. Des ombres passent sur le mur de la caverne. Enfermés dans celle-ci, les hommes peuvent les observer, construire des systèmes de représentations en les utilisant. Cependant ils ne pourront jamais accéder aux êtres en soi ou essences qui sont à la source de ce jeu d'ombres. Mais quel intérêt peut avoir pour les hommes l'existence de ce monde des essences, s'il leur est impossible de se servir de ce qu'ils perçoivent pour construire la réalité quotidienne dans laquelle ils agissent tous les jours ? Le réel instrumental Aussi bien, la plupart des scientifiques travaillant dans le domaine macroscopique (c'est-à-dire ne se situant pas dans le monde quantique) adoptent une définition du réel dite généralement instrumentale. Selon celle-ci, il existe bien un réel qui nous demeurera toujours étranger, parce qu'inaccessible à nos sens et à nos instruments compte tenu de leurs imperfections. Mais, en faisant appel aux prescriptions de la méthode scientifique expérimentale, nous pouvons donner de ce réel des descriptions de plus en plus précises. Pour cela il nous faudra procéder à des observations aussi poussées et objectives que possible, c'est-à-dire excluant les facteurs personnels qui déforment l'apparence des phénomènes. On admet dans ce cas que les observateurs que nous sommes peuvent et doivent se placer en dehors du monde observé pour essayer de le décrire quasi-objectivement, de même que nous pouvons décrire une table ou un animal. Certes en ce cas, la description n'épuise pas toutes les caractéristiques de l'objet observé mais elle fournit un nombre suffisant d’indices pour permettre à une collectivité d’agents utilisant les mêmes outils et méthodes de situer leur action par rapport à lui. L'observateur, pour rester objectif, devra faire tout ce qu'il pourra, d'une part pour ne pas s'impliquer dans l'observation et d'autre part pour partager avec d'autres la démarche et ses conclusions afin d'abouti à un consensus. C'est pour ces raisons que le

10


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

réalisme instrumental pourra aussi être qualifié de réalisme à objectivité forte (Bernard d'Espagnat, op.cit.). Cette conception, on le voit, s'éloigne du réalisme des ontologies, dans la mesure où elle ne fait pas appel au concept d'un réel en soi, situé au-dessus ou au-delà des observations. Mais elle ne le rejette pas entièrement. Le réel instrumental que décrivent les observations ne peut pas être n'importe quoi. Les instruments ne fournissent pas de réponses aléatoires. Ces réponses sont contraintes par l'expérience, c'est-à-dire par la présence de quelque chose qui confirme ou infirme les hypothèses. De nombreux travaux cherchent actuellement à préciser les formes ou les processus qui paraissent sous-jacents aux évolutions que nous percevons. Ceci peut conduire à suspecter fortement l'existence de logiques intrinsèques à un univers primordial situé en deçà de ce que nous pouvons observer. Selon leur tempérament, les scientifiques considéreront que le réel instrumental tel que le précise progressivement la démarche scientifique pourra se rapprocher de cet univers primordial ou au contraire qu'il lui restera toujours étranger, la frontière des connaissances reculant au fur et à mesure que progressent ces dernières. Une distinction difficile Il est difficile en pratique de faire la différence entre le réel instrumental, le seul concevable en termes scientifiques, et un réel des ontologies ou transcendantal qui est du domaine de la conviction philosophique. Le langage courant pousse en permanence à la confusion, et beaucoup de scientifiques y cèdent aussi. Si je dis : cette table est blanche, je laisse entendre qu’il y a bien une table, existant en dehors de mon regard, et qu’il existe corrélativement une qualité, être blanc, laquelle ne dépend pas de moi mais qui est universelle. Pour être plus scrupuleux, il faudrait dire: “ je vois un objet qui présente la plupart des caractères communément attribués au concept de table et dont l’essentiel des photons qui en émanent se situent dans la gamme de fréquence lumineuse étiquetée blanc par les coloristes ”. Dans la vie courante, de telles précautions seraient ridicules. Mais on voit qu’elles s’imposent lorsqu’il s’agit d’objets ou de qualités moins bien définis. Par exemple, je ne devrais pas pouvoir dire – encore que beaucoup de gens ne s’en privent pas : “ il est dans la nature féminine qu’une femme soit mauvaise conductrice ”. Les trois concepts : nature féminine, mauvais conducteur et même femme ne renvoient pas à des réalités que l’on pourrait observer objectivement de l’extérieur pour en énoncer les caractéristiques indiscutables. C’est pour éviter la tentation permanente de réifier les objets dont on parle, c’est-à-dire pour éviter de leur conférer une réalité en soi, qu’il importe de disposer d’une épistémologie relativiste, autrement dit une méthodologie de traitement des connaissances qui oblige à tenir compte dès le début du fait que l’objet décrit n’est pas séparable du sujet qui l’a nommé et qui le qualifie. Parler de relativisme est toujours dangereux. Sous prétexte de relativisme des connaissances, de nombreux imposteurs se saisissent d’un pseudo-langage scientifique pour affirmer n’importe quoi, non vérifiable par l’expérience. Ici, par relativisme, nous voulons dire tout le contraire. Les hypothèses que propose la science sont relatives à des observateurs scientifiques et vérifiées par les démonstrations qu’ils nous proposent. Elles sont relatives au corpus des connaissances au moment donné. Elles ne sont donc pas imaginaires. Mais elles ne prétendent pas se référer à un réel des ontologies qui leur donnerait un caractère quasi sacré. Comme c’est précisément là une caractéristique essentielle du traitement des connaissances en mécanique quantique, on conçoit l’intérêt de l’exporter à l’ensemble des sciences. Nous verrons d’ailleurs que dans la nature, très probablement, c’est de la même façon que les êtres vivants, toutes choses égales d’ailleurs, construisent le monde de leurs connaissances.

11


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Le non-réalisme de la physique quantique Si le réel instrumental évoqué par les scientifiques du domaine macroscopique (non quantique) est généralement considéré comme pouvant faire l'objet de mesures objectives et de plus en plus fines rapprochant le modèle qu'en donne la science de la réalité sous-jacente supposée, la physique quantique a conduit progressivement, dans sa sphère, les scientifiques à renoncer à postuler l'existence d'un réel se situant au-delà des observations. Plus exactement, les physiciens quantiques ne se posent pas la question de l'existence d'un tel réel en soi, qui pour eux relève des options métaphysiques de chacun. Ils se sont convaincus depuis les origines de la mécanique ondulatoire, ancêtre de la mécanique quantique, qu'ils ne pouvaient le "mesurer" de façon précise. Ils se bornent à rapporter le résultat de leurs mesures, telles qu'ils les obtiennent, c'est-à-dire dans une situation qui lie à chaque fois l'observé, l'observateur et ses instruments. Les descriptions du monde ainsi obtenues, généralement qualifiées de probabilistes, sont certainement pertinentes puisqu'elles permettent les avancées continuelles de la physique quantique appliquée à notre monde macroscopique. Mais en l'état actuel de la physique, elles ne permettent pas de se représenter de façon objective ce en quoi consisterait le monde quantique, au plan microscopique comme au plan cosmique. Bernard d'Espagnat [Espagnat, op.cit.] appelle réalisme à objectivité faible cette façon de se représenter le réel. Le terme sous-entend le fait que l'observateur quantique ne prétend plus se placer en dehors du monde pour l'observer, puisqu'il est inclu dans les mesures qu'il s'en donne. Mais il travaille néanmoins au sein d'une collectivité professionnelle pratiquant les mêmes procédures (et disposant d'ailleurs d'instruments de plus en plus puissants). On sait que, pour ne pas laisser entièrement vacante la place d'un supposé réel sous-jacent aux observations de la physique quantique, Bernard d'Espagnat a inventé le terme de réel voilé qui répond semble-t-il à l'intuition de nombreux physiciens quantiques. Même si les observations ne permettent pas de donner des descriptions objectives de la réalité supposée, il existe quand même quelque part une telle réalité puisque, là encore, les expérimentations ne répondent pas au hasard, mais à une certaine logique sous-jacente. Il retrouve ainsi, d'une façon il est vrai très discrète et peu contraignante, le réalisme des essences. Tout ceci, concernant la physique quantique, est connu depuis longtemps et a fait l’objet d’innombrables commentaires philosophiques. Mais aujourd’hui, il devient de plus en plus indispensable de rapprocher la façon dont la physique quantique et les sciences du domaine macroscopique se représentent le monde, ou plutôt se représentent la relation observateur-observé, sujet et objet. La question des mathématiques Toutes les sciences ont recours aux mathématiques, y compris la physique quantique. Elles le font d’abord par commodité. Une équation ou une figure géométrique permet de se représenter un phénomène, sous forme de modèle, plus facilement qu’en utilisant les périphrases du langage courant. De plus, aujourd’hui, les ordinateurs peuvent faire tourner des équations complexes sans effort, faisant apparaître des résultats insoupçonnables par l’imagination. En ce sens, les mathématiques sont la représentation la plus fidèle qui soit du réel instrumental produit par l’homme, tel que défini ci-dessus : par exemple un pont, une fusée spatiale, une fonction biologique. Mais les mathématiques sont-elles pour autant l’expression la plus fidèle qui soit d’un hypothétique réel en soi, à supposer que nous conservions ce terme ? Autrement dit, le réel est-il mathématique ? Beaucoup de mathématiciens ont tendance à le penser1. Mais il est difficile de s’en convaincre, car il n’est 1

Un mathématicien français renommé, Alain Connes, parle de “ mathématiques archaïques ” qui constitueraient un univers profond indépendant des hommes et que le mathématicien aurait pour mission de découvrir, comme l’explorateur spatial découvre de nouvelles planètes. On lira de lui, notamment, Matière à penser (avec JeanPierre Changeux), Odile Jacob, 1989-2000 (rééditions)

12


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

pas de mathématiques sans supports matériels ou biologiques (neurones par exemple.). Un tissu cosmologique composé de mathématique paraît aussi improbable que s’il était, comme le prétendent certains, fait d’informations. Des mathématiciens devenus informaticiens, comme Stephen Wolfram (Wolfram, op.cit.) prétendent d’ailleurs aborder l’ensemble des problèmes scientifiques du moment sans faire appel aux mathématiques, auxquelles ils substituent des automates cellulaires2. Pour Wolfram, les mathématiques ne traitent que les questions qu’elles sont outillées pour résoudre. Elles ne cherchent donc pas à résoudre des questions qui pourtant seraient essentielles à la compréhension de beaucoup de phénomènes complexes. D’une certaine façon, elles interdisent même d’imaginer de tels phénomènes. On pourrait perfectionner les outils, comme le firent les grands mathématiciens du passé en inventant le calcul différentiel et le calcul infinitésimal. Mais encore faudrait-il que les mathématiciens d’aujourd’hui s’intéressent aux questions scientifiques qu’ils ne peuvent résoudre. L’hypothèse que les mathématiques sont des constructions ou outils plus ou moins imparfaits dont l’évolution a doté les organismes vivants, en même temps qu’elle les dotait d’autres types de langages symboliques, pourrait être confortée par le fait que l’aptitude à dénombrer les éléments significatifs de l’environnement, comme d’ailleurs l’aptitude à construire des cartes géométriques de celui-ci, semblent très répandues, y compris chez des espèces qui ne sont pas considérées comme supérieures3. Nous retrouvons alors l’hypothèse constructiviste. On construit les mathématiques dont on a besoin pour agir – ce qui justifie la revendication de scientifiques travaillant dans les secteurs émergents : donnez-nous les outils mathématiques qui nous manquent encore, au lieu de vous complaire dans la contemplation d’hypothétiques essences mathématiques.

1.2. Le rapprochement du microscopique et du macroscopique Pendant plus de 50 ans, la révolution apportée dans la représentation du monde et dans la façon d’obtenir les connaissances par les physiciens quantiques n’a pas vraiment ému les physiciens et autres chercheurs du monde macroscopique, même si elle a fait beaucoup discourir les média. Scientifiques du monde macroscopique et physiciens quantiques étaient censés opérer dans des sphères différentes. De plus, nombre de gens sérieux considéraient – et considèrent encore – que malgré ses succès, la physique quantique et ses aberrations seraient remplacées par une science plus traditionnelle, faisant apparaître des “ variables cachées ” selon l’expression traditionnelle, permettant de revenir au réalisme. Mais, comme le remarque Michel Bitbol4 “ il est totalement inapproprié de considérer comme transitoire la leçon d'une théorie aussi durable, aussi efficace, aussi féconde que l'est la physique quantique sous prétexte que, peut-être, un jour, celle-ci changera. Elle changera certes, comme toute théorie, mais la probabilité la plus grande est que l'étrangeté de la future théorie qui englobera et dépassera la physique quantique sera non seulement aussi grande mais bien supérieure. Au lieu de tenter sans cesse de reculer, il vaudrait mieux aller jusqu'au bout, arrêter de regarder en arrière, prendre la physique quantique à la lettre et regarder ce qu'elle nous enseigne sur la nature de la connaissance scientifique ”. Une autre raison d’un ordre différent oblige à le faire. C’est que la science macroscopique arrivant aux limites du très petit ou du très grand, rejoint la physique quantique et oblige à poser dans de nouveaux termes la question du réel. Des instruments de 2

Voir chapitre 7. De plus en plus d’observations montrent que beaucoup d’animaux pourraient identifier et distinguer des groupes comportant de un à trois, voire cinq individus. 4 Entretien avec l’auteur. Voir http://www.automatesintelligents.com/interviews/2004/juil/bitbol.html. 3

13


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

la science quotidienne comme le laser ou le microscope à effet tunnel, des processus comme la cryptologie et le calcul quantiques, les matériaux et composants relevant du domaine des nanotechnologies, obligent à naviguer en permanence à la frontière du quantique et de la physique traditionnelle. L’imbrication entre observateur et observé dans le domaine macroscopique Mais il ne s’agit pas du seul argument. Comme nous l'avons rappelé, la physique quantique interdit de séparer l'observateur et ses instruments de l'observé et des circonstances de l'observation, ce qui rend inopérant le concept de réel des ontologies ou réel en soi. Or cette exigence commence à s'imposer avec une force croissante en ce qui concerne l’ensemble des sciences du domaine macroscopique, physique classique, biologie, sciences de l’information, sciences sociales et autres… Si on persistait à postuler - ce que plus rien ne permet aujourd'hui de démontrer - qu'il existe d’une part la physique quantique et d’autre part les autres sciences et technologies, on pourrait conserver l'hypothèse de l'existence d'un monde ou réel macroscopique situé au-delà des observations scientifiques, dont celles-ci pourraient cependant donner des descriptions de plus en plus objectives. Mais si, pour des raisons pratiques autant que théoriques, on veut unifier l’ensemble des sciences, il faut bien admettre que le monde macroscopique tel qu'il nous apparaît n'est pour nous qu'une approximation probabiliste de l'indétermination sous-jacente du monde quantique. Il n'est pas question cependant de décrire ce monde macroscopique avec le formalisme quantique. Un objet vivant n'est pas une particule élémentaire. Mais il n'est pas question non plus de revenir à l'illusion que l'observateur peut observer objectivement ce monde macroscopique, en se plaçant en dehors de lui afin d'en donner des modèles éliminant de plus en plus la subjectivité afin d’être de plus en plus proche de la "réalité" supposée. En conséquence, il faut perdre l'espoir d'obtenir une description du monde objective, valable pour tous et susceptible de devenir un jour complète et définitive. On peut obtenir des modèles mathématicoinformatiques opérant avec précision dans certaines limites, mais rien ne permet plus d’affirmer qu’ils opéreraient de même au-delà de ces limites. Dans la vie quotidienne, on doit cependant se représenter le monde avec un minimum de consensus et de permanence. Pour cela, on ne peut nous l’avons dit recourir au formalisme quantique ou à son équivalent transposé dans le monde macroscopique, par exemple à la transposition de la fonction d'onde ou vecteur d’état pour décrire de façon probabiliste une table ou une chaise. On pourrait évidemment le faire, mais comme la probabilité pour moi de trouver cette table ou cette chaise à l’endroit où je les cherche est très grande, proche de 1, ce serait perdre du temps et même me ridiculiser que désigner ces meubles de la même façon que je désignerais une particule quantique. J’ai donc tendance à en parler – par commodité – comme s’il s’agissait d’objets intrinsèquement existants, transcendants - au sens de ce qui dépasse l'expérience. Mais alors je risque de me laisser piéger par mon propre discours. Je risque surtout de laisser les autres s’y piéger. Nous finissons par oublier que ces prétendus objets ne sont que le produit d'une interaction avec notre appareil sensoriel et cognitif. Dans certains domaines ou pour certains types d’expérimentations, ceci peut être grave. La biologie moléculaire découvre aujourd’hui qu’elle s’est longtemps égarée sur des voies sans issues en considérant que les gènes étaient des réalités en soi [Kupiec et Sonigo, op.cit.]. Pour éviter cette tentation toujours présente du réalisme ontologique, il faut rappeler sans cesse que ce que nous appelons par commodité le réel n’est qu’un réel instrumental ou opératoire, n’ayant de sens que pour moi ou pour ceux qui, comme moi, sont dotés des mêmes appareils sensoriels et cognitifs, prolongés le cas échéant des mêmes instruments technologiques. Dans la suite de ce chapitre, nous essaierons d'examiner de façon plus critique ce réel instrumental et les relations qu'il entretient avec les agents biologiques, humains et non humains, qui contribuent à son élaboration. Nous avons déjà rappelé

14


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

[Baquiast-Cardon 2003] que faire des hypothèses et les vérifier par l'expérience est le propre de la façon dont les entités biologiques s'insèrent dans le monde, qu'il s'agisse des bactéries, des termites ou de l'homme. Toute mutation, tout essai, toute hypothèse sont sanctionnés par l'expérience, c'est-à-dire, en simplifiant, par une réponse sur le mode du oui ou non qui s'impose à l'innovateur. Ces informations par oui ou non ne nous permettent pas d'approcher un réel en soi, mais seulement de construire le réel instrumental dans lequel nous agissons et dont nous sommes par ailleurs les acteurs, en nous transformant nous-mêmes au cours de cette action. Elles concernent uniquement le fait de savoir si telle modification que je décide ou que j'envisage par rapport à mon devenir peut être poursuivie ou doit s'arrêter. On se rend compte alors que le réel instrumental, de même que les entités innombrables qui sous la forme de phénomènes (objets ou processus), nous paraissent se conjuguer pour le construire, ne permettent pas de décrire (sauf d'une façon extrêmement "voilée" qui ne semble pas avoir de conséquences pratiques) un réel existant “ en soi ”, c'està-dire situé en dehors des observateurs-acteurs que nous sommes tous, depuis la bactérie jusqu'au scientifique. D'une façon imagée, ou pourra dire que ce réel instrumental est en nous - ou mieux encore, qu'il est nous. Nous sommes enchevêtrés avec lui en permanence, moins complètement que ne le sont l'observateur et l'observé dans le monde quantique, mais d'une façon telle cependant qu'il est impossible d'observer ce réel objectivement ou de l'extérieur, parce que nous sommes une composante de ce réel. Nous n'en sommes pas séparables. Le constructivisme Plutôt que parler d'observation, il vaudra mieux alors parler de construction, d’où le terme de constructivisme. Notre prétendue observation est en fait une action participant à la construction de la totalité enchevêtrée que nous formons avec le reste du réel instrumental. Mais pourquoi alors ne pas parler d'un réel subjectif, au lieu d'un réel instrumental ? Parce que, dès qu'un certain nombre d'organismes se trouvent en cohérence dans la façon de se représenter ledit réel - ou plutôt de le construire d'une façon coopérative et partagée - leurs possibilités d'action individuelle subit des contraintes. Chacun est obligé de tenir compte de ce qu'ont fait et de ce que font les autres - même si parfois tel individu peut s'échapper de la collectivité par le biais de mutations réussies. C’est le prix à payer pour construire des langages ou des connaissances communes. Nous pourrions dans cette perspective proposer le terme (sans doute trop compliqué pour être admis) de “ réel à subjectivités partagées ”. Mais on peut garder le terme de réel instrumental, à condition d'admettre qu'il y a autant de réels instrumentaux qu'il y a d'espèces vivantes et même qu'il y a de groupes opérant de façon distincte au sein de ces espèces vivantes. Le réel instrumental du termite, celui de l'Indien d'Amazonie ou celui du citadin occidental ne sont pas les mêmes, sauf à se recouper parfois. Appelons donc ici réel instrumental l'environnement que construit chaque espèce vivante en se développant dans un milieu jusque là indifférencié, qu’elle transforme en se transformant elle-même. Le réel instrumental de l'espèce termite est la termitière, en relation avec le milieu physique et les autres espèces biologiques avec lesquels interagit la termitière en se développant. Pour le termite, le monde se limite à cela. Il ne peut rien dire de ce qu'il y a au-delà. Pour l'Indien d'Amazonie, le monde matériel se limite (ou se limitait) à la forêt et à son environnement proche. Pour le citadin occidental, et notamment pour le scientifique armé de tout l'appareil technologique dont il dispose, le réel instrumental s'organise en multiples niveaux et domaines, correspondant à l'étendue des connaissances collectives. L'ensemble de tous ces réels "privatifs" à ceux qui les fabriquent se développe sans cesse du fait de la compétition/symbiose permanente qui caractérise l'évolution des individus et des groupes ainsi que, de plus en plus, celle des instruments et systèmes technologiques qu'ils fabriquent.

15


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Mais ni le termite ni le scientifique ne peuvent se prononcer sur ce qu'il y a au-delà des systèmes de réalité instrumentale qu'ils découpent dans un milieu pour le reste indifférencié. De plus, rien ne permet d'affirmer que les réels les plus complexes peuvent comprendre ou, plus exactement, inclure ceux fabriqués par des espèces apparemment moins complexes. Ces systèmes de réalité sont la plupart du temps étanches les uns par rapport aux autres. Nous pouvons imaginer, par la science, ce qu'est le monde du termite, mais il est vraisemblable qu'à un niveau de granularité plus fin, celui-ci nous échappe. Par ailleurs, rien ne permet d'affirmer que faire la somme de tous ces réels instrumentaux partiels, à supposer que celle-ci soit possible, nous permettrait d'accéder à une connaissance complète de l'univers, fut-il limité au domaine de l'instrumental. D'autres représentations sont en permanence susceptibles d'apparaître par émergence. Nous évoquerons cette question à propos de la robotique autonome. Ajoutons que le plus grand nombre des divers réels instrumentaux ne sont pas autoréflexifs, c'est-à-dire conscients d'eux-mêmes. Nous examinerons en détail au chapitre 4 ce thème très sensible de la conscience. Nous verrons également qu’il est aujourd’hui possible de concevoir des consciences artificielles, ce qui selon les roboticiens conforterait les hypothèses selon lesquelles la conscience serait une évolution des systèmes biologiques, en montrant comment l’évolution aurait pu procéder. Bornons-nous ici à dire que les réels instrumentaux n'ont pas besoin d'être conscients pour survivre au sein de l'évolution darwinienne. Au contraire... Certains d’entre eux, aujourd'hui, sont cependant devenus conscients, au moins partiellement, dans la mesure où les entités biologiques qui les construisent ont développé des aptitudes à formaliser leur expérience du monde par le langage et à la mémoriser dans des bases communes de connaissances. Ceci, semble-t-il, augmente leurs aptitudes à l'adaptation, en leur permettant d’utiliser ces bases pour reconfigurer en permanence une partie de leurs actions. La conscience, dite supérieure, qui offre ces facilités, permet de construire un réel instrumental lui-même de plus en plus étendu, complexe et néanmoins cohérent, en s'affranchissant des lenteurs d'une action non réfléchie. Pour les hommes, l'aptitude à la conscience, qui résulte elle-même en très grande partie du développement des échanges langagiers, permet d'échapper aux limites biologiques de l'espèce, pour partager au moins symboliquement l'expérience d'autres espèces explorant des domaines qui sans elles nous resteraient inconnus. Ainsi nous essaierons de plus en plus de comprendre l'univers des végétaux, des insectes sociaux ou, dans un proche avenir, des futurs robots autonomes. Mais cela ne nous permet pas d'espérer pour autant nous affranchir de l'intersubjectivité pour atteindre à une quelconque objectivité, fut-elle temporaire et incomplète. La nécessaire prise de distance à l’égard de son propre discours Le caractère nécessairement contingent et propriétaire des descriptions du monde inconscientes ou conscientes dont se dotent les espèces au cours de leur évolution devrait toujours être rappelé à l'occasion de tout discours scientifique ou philosophique se référant au réalisme instrumental. Toute description du monde est relative à celui qui la produit et à ceux qui l'adoptent. Nul "locuteur" ne peut échapper à cette règle, y compris l'auteur de ces lignes quand il les écrit. Tout ce que j'ai écrit dans les articles précédents ou dans cet essai renvoie à la façon dont je m'insère dans l'évolution et m'efforce de l'influencer à mon profit et au profit de ceux qui jugent bon de m'imiter, c'est-à-dire d'agir et de penser comme moi. Ceci, dira-t-on, est plus ou moins admis par les scientifiques et plus généralement par les rationalistes. Même si pour des raisons pratiques, ils ne le rappellent pas à tout moment, les locuteurs se prétendant rationalistes sont en général conscients du fait qu'ils doivent prendre un certain recul par rapport à leur discours. Ce recul consiste à rappeler les limites du réalisme instrumental, afin de ne pas le confondre avec des descriptions prétendument objectives d'un supposé réel en soi. Une telle contrainte, nous le verrons ultérieurement, ne

16


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

découle pas d’une exigence philosophique particulière. Elle est entrée dans la culture de certains groupes qui ont su prendre des distances par rapport aux affirmations de leurs membres, plutôt qu’en prenant ces affirmations au pied de la lettre. Il s’agit d’un produit de l’évolution, peut-être inscrit dans certaines structures cérébrales, qui a permis aux groupes qui en bénéficient de mieux s’adapter que les autres. Plus généralement, nous sommes les descendants de groupes qui ont compris qu’aussi complexes, compréhensives, détaillées que soient les descriptions du monde que nous prétendons pouvoir affirmer suite à notre activité scientifique, elles ne sont jamais que la façon dont ceux qui se réfèrent à la connaissance scientifique et qui utilisent les technologies en découlant s'inscrivent dans un monde qui les dépasse de toutes parts et qu'ils ne pourront jamais connaître de façon exhaustive. En fait, l’expérience quotidienne montre que, face à ses propres affirmations, cette prudence du langage est très peu répandue. Les acteurs de la vie politique l’oublient souvent, sans doute pour impressionner leur entourage par l’étendue de leurs certitudes et la force de leur détermination. Mais quand les événements leur donnent tort, ce qui arrivent le plus souvent, ils perdent – au moins momentanément - de leur crédibilité. Résumé concernant ce que nous avons appelé ici le réel humanisé En résumant, nous pourrons donc dire que le réel humanisé se définirait ainsi : - il est construit par l'homme, son corps, ses machines, ses langages, ainsi que par toutes les formes d'intelligence répondant à des logiques de fonctionnement du même genre que celles de l’homme et partageables par lui (notamment celles de certains animaux et celles de certaines machines pensantes en cours de développement) ; - il est légalisé, ou d'objectivité partagée par tous ceux qui adoptent les règles communes de la connaissance scientifique. Mais il peut comporter des sous-ensembles de légalité plus restreinte ; - sa construction obéit à des lois empiriques émergentes se développant par des essais et erreurs et en compétition darwinienne, à l'initiative des observateurs-acteurs ; - il fusionne les sciences jusqu'ici séparés du macroscopique et du microscopique ou quantique, en conjuguant et développant exponentiellement les possibilités de chacune d'entre elles ; - il se transforme et s'enrichit sans cesse, dans la limite du maintien de la cohérence entre les hypothèses et les résultats d'expérience tels qu'enregistrés par la communauté des observateurs-acteurs ; - il est potentiellement entièrement compréhensible, simulable et calculable par des intelligences conscientes de type humain ; - il élabore une histoire bien spécifique et originale, aux développements imprévisibles. Il n'y a pas de limites prévisibles à son développement, dans la mesure des moyens et du temps offerts par les ressources cosmologiques.

17


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 2. Le regard systémique La systémique ou science des systèmes constitue le second corps de méthodes actuellement indispensable à tout regard un peu averti sur le monde. La systémique a vu le jour, au moins sous ce nom, aux Etats-Unis après la 2e guerre mondiale. Elle s’est depuis tellement banalisée que l’on peut se demander s’il est même nécessaire de l’évoquer ici. En effet, tout travail scientifique et même tout langage organisateur est obligé de classer les objets que l’on perçoit ou dont on parle en grandes catégories conceptuelles, entretenant ou non des liens entre elles. On n’a pas attendu d’inventer le terme de systémique pour en faire. La classification des êtres vivants par les naturalistes, dans le cadre de la taxinomie, en est un bon exemple. Il faut alors rappeler que les systèmes ne sont pas des “ réalités ” d’un hypothétique réel en soi, ce sont des découpages faits par l’esprit, et plus généralement par chaque être vivant, dans le continuum d’une réalité non exhaustivement descriptible. Mais ce qui nous intéressera dans ce chapitre n’est pas la systémique en tant que telle, ce sont quelques-uns des types de systèmes dont se servent les sciences de la complexité et du constructible pour tenter de comprendre les sociétés humaines. Ne pouvant tout recenser, il faudra que nous nous limitions à un échantillonnage. Nous examinerons d’abord les concepts de base : la construction des systèmes à partir de règles simples, les réseaux, les agents, les systèmes dynamiques et chaotiques. Puis nous présenterons rapidement quelques théories plus générales émanant de physiciens ou de biologistes, mais trouvant des applications particulièrement fructueuses dans les sciences sociales : les systèmes dissipatifs ou en équilibre loin de l’équilibre, l’auto-organisation, la morphogenèse. Nous terminerons par une incursion dans l’histoire des langages qui est particulièrement révélatrice de ce que l’on pourrait appeler l’archéologie de la systémique…et de la société politique.

2.1. Le macroscope Le Larousse définit la systémique comme “ analyse qui envisage les éléments d’une conformation complexe, non pas isolément mais globalement, en tant que parties intégrantes d’un ensemble dont les différents composants sont dans une relation de dépendance réciproque ”. On retrouve là le regard que Joël de Rosnay avait préconisé il y a quelques années (Rosnay, op.cit.), le “ regard macroscopique ”, celui qui fait appel à cet instrument fantasmagorique qu’est le macroscope, grâce auquel on approfondit ce que l’on voit pour regarder derrière les apparences et finalement reconstruire des complexités là où une idéologie simplifiante ne discerne rien de notable. Beaucoup de malentendus et d’erreurs, notamment dans la vie politique, résultent d’une approche partielle ou erronée du monde dans lequel elle se déroule. Il est nécessaire de prendre conscience des liens existant entre ses différentes composantes. Vouloir agir sur une partie en omettant les autres entraîne évidemment des échecs. C’est l’objet de la systémique qu’apprendre à raisonner ainsi. Origine du comportement systémique On peut légitimement se demander si le comportement systémique est ou non d’apparition récente. Nous répondrons à cela que, selon une hypothèse constructiviste ou évolutionnaire de plus en plus répandue, il est aussi vieux que la vie elle-même. Dès qu’un organisme même élémentaire, comme une cellule, voit le jour, il interagit avec son milieu en y découpant les sous-ensembles physico-chimiques moléculaires nécessaires à sa survie. En employant un terme des sciences cognitives, on pourrait dire qu’il procède à des catégorisations ou quasi-catégorisations. Celles-ci sont construites par essais et erreurs, ne

18


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

survivant que si elles favorisent l’adaptation de l’organisme. A un stade plus élevé de l’évolution, les organismes dotés de systèmes nerveux se dotent de représentations du monde, obtenues en retour de leurs activités motrices et sensorielles. Il s’agit alors de vraies catégorisations. Dans le flux permanent des informations que l’organisme reçoit du milieu, il définit, toujours par essais et erreurs, les représentations les plus utiles en termes de survie. Pour cela, le système nerveux n’a pas besoin d’être très compliqué. Un système artificiel de neurones dits formels en donne une image suffisante. Ces exemples montrent qu’il n’y a pas de système existant en soi, dans un monde prétendu réel dont nous avons indiqué précédemment qu’il n’avait pas de sens utilisable. Les systèmes sont chaque fois construits par des entités dont ils constituent des projections. Il ne faudrait jamais étudier un système sans l’entité de référence et le processus qui a permis de l’élaborer et qui contribue à assurer sa survie dans la compétition entre les catégorisations et représentations. Il découle de ce qui précède que la construction de ces systèmes ne suppose absolument pas que les entités responsables de cette construction soient conscientes de ce qu’elles font. Comme le montrent les neurosciences, la conscience 5 ne prend en compte qu’un nombre très limité de représentations,. Ajoutons qu’il ne suffit pas de considérer le système dans sa statique, mais dans sa dynamique. Le monde dans lequel nous sommes, et nous-mêmes, évoluons en permanence. C’est une banalité semble-t-il de le dire. Mais beaucoup pensent que le monde tel qu’il a été est encore d’actualité, et se conservera à l’avenir. On retrouve là le cœur de la pensée dite conservatrice. Le monde ne change pas. Inutile donc de chercher de nouvelles solutions aux problèmes que nous rencontrons. Ces solutions se trouvent dans le passé. Il ne suffit pas de prendre conscience de l’existence de l’évolution du monde. Il faut aussi admettre qu’il évolue en général vers toujours plus de complexité. Là encore, ceci paraît une banalité. Pourtant l’échec de la plupart des actions politiques tient au fait que méconnaissant la complexité croissante des choses, s’appuyant sur des jugements simplistes, proposant le “ il n’y a qu’à ” inspiré du “ il n’y avait qu’à ”, elles ne prennent pas en compte les obstacles immédiats ou plus lointains qui les feront avorter. Pour concrétiser ce que peut signifier la systémique, vue sous l’angle de la vie sociale, nous devons présenter les concepts de base indispensables à ceux qui veulent acquérir l’esprit systémique. Ce sera l’objet de ce chapitre. Pour rester concret, nous prendrons quelques exemples inspirés de la sociologie politique. 2.2. Les Réseaux C’est le développement constant des réseaux de transport physiques ou d’information (ramification, diversification, sophistication) qui caractérise le plus évidemment le monde actuel, et qui fonde notamment le phénomène qualifié de mondialisation ou globalisation, constamment évoqué dans les débats politiques. Initialement, les acteurs ou agents (par exemple le village néolithique, la cité féodale) étaient isolés, vivaient sur un territoire limité, aux ressources et outils se modifiant peu en moyenne. Les innovations (mutations) pouvant ou non survenir au hasard se heurtaient au manque de richesses ou de mémoires collectives. Elles avortaient souvent, comme le montre l’échec de certaines civilisations en avance sur leurs temps, si bien que l’évolution se déroulait sur des rythmes infiniment lents. Ceci n’a pas empêché cependant les migrations des hommes primitifs, qui les ont emmenés très loin de leurs bassins d’origine, mais sur des durées de plusieurs dizaines de millénaires. Le développement des réseaux physiques de communication, voies routières, maritimes puis ferroviaires et aériennes permettant la circulation des hommes et des cultures, 5

Voir chapitre 4

19


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

a considérablement modifié le rythme évolutif. Le mouvement a commencé lentement avec les grandes découvertes géographiques et scientifiques à partir du XVIe siècle. Il s’est accéléré avec les modes de transports et de communication de l’ère industrielle. Il a été relayé depuis un siècle dans le domaine de l’informationnel, avec trois vecteurs principaux : l’écrit sur support papier, la voix et l’image sur réseaux hertziens (radio et télévision analogique couvant le monde entier à faible coût) puis l’explosion du numérique, sous la forme d’Internet et Internet à haut débit. Sauf accident, le développement des réseaux ne s’arrêtera pas. Les contenus en réseaux Ce sont les contenus échangés sur les réseaux qui font la force structurante de ces derniers. Quant il s’agit de réseaux de transports physiques (aérien, maritime), les contenus sont des personnes et des marchandises. Sur les réseaux informationnels, les contenus sont des informations, dont une grande partie relève des idées ou idéologies, c’est-à-dire du domaine des “ mèmes ”6. Le terme, inventé par le généticien britannique Richard Dawkins, désigne les gestes, images et discours par lesquels les organismes évolués, notamment les humains, formalisent et échangent leur expérience culturelle. Les mèmes peuvent être considérés comme des agents réplicateurs, au même titre que les gènes. Leurs modes évolutifs ne peuvent cependant être comparés intégralement à ceux des gènes. L’étude de ces nouveaux agents relève dorénavant d’une science en plein développement, la mémétique. Passant d’un individu à l’autre, lesquels leur servent de véhicules, les mèmes peuvent muter et entrent en compétition darwinienne entre eux pour l’accès aux ressources (accès aux cerveaux ou aux divers médias sociaux). C’est principalement par ce mécanisme qu’évoluent les cultures. Nous nous y référerons souvent dans la suite de ce livre. Mais l’étude des mèmes ne dispense pas de celle du langage et des concepts langagiers. Les mots, phrases, discours, images et autres symboles circulant sur les réseaux ne sont pas tous à assimiler aux mèmes. Ils constituent le ciment des échanges sociaux et donnent naissance aux connaissances rationnelles puis aux sciences. Ils émergent chez certaines espèces animales puis se développent et explosent chez l’homme vivant en société. 2.3. Les Agents Le monde moderne peut être considéré comme un théâtre qui confronte et met en concurrence sur des réseaux physiques ou virtuels de nombreux types d’objets ou d’acteurs humains et non-humains : hommes, biens, outils ou artefacts (objets fabriqués par l’homme), idées ou mèmes. Ce sont eux qui sont en fait les moteurs de la complexification sociale, quand ils cherchent à organiser l’espace et les relations ou institutions qui les relient. Ils créent cet espace au fur et à mesure qu’ils se rapprochent, organisent des échanges ou entrent en symbiose. Il est aujourd’hui usuel de désigner les acteurs d’un système complexe par le terme d’agents, inspiré de l’intelligence artificielle répartie. Ici, il s’agira des différentes parties prenantes à la compétition darwinienne (nous préciserons ci-dessous ce terme) pour l’accès aux ressources du monde ou résultant du développement des activités humaines. Les agents humains ne sont évidemment pas tous des individus isolés. Au contraire. Ce sont le plus souvent des groupes: blocs géopolitiques, nations, collectivités diversement structurées, entreprises et finalement individus. Pourquoi parler d’agents ? Pour indiquer qu’au lieu de rester des composants passifs (comme les rouages d’une machine) ces entités se comportent avec une marge croissante d’autonomie, luttant pour leur propre compte dans la compétition darwinienne. Nous pourrions aussi parler d’individus ou d’individualités. On se trouve en présence d’entités 6

Pour plus de détails, voir Chapitre 5.

20


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

réplicatives et mutantes, introduisant sans cesse, en interaction avec leur environnement, des innovations leur permettant de s’adapter. Ceci veut dire qu’elles se reproduisent et se transforment sans arrêt, comme tous les systèmes vivants, en s’efforçant de conserver leurs caractères propres. Dans de nombreux cas, ces agents sont regroupés en réseaux à plus petite échelle. Les mèmes doivent être considérés à ce titre comme des agents agissant pour leur compte propre ou pour celui des autres agents. L’ “ agentification ” Le développement des réseaux “ agentifie ” c’est-à-dire transforme en acteurs ou agents des entités ou composants s’étant comportés jusqu’alors en rouages passifs, sans exigences propres à l’autonomie. Des personnes qui par exemple restaient peu actives dans un monde privé de moyens de communication, s’enrichissent mutuellement en entrant en contact et en mutualisant leurs ressources physiques ou intellectuelles. Elles peuvent devenir des facteurs évolutifs efficaces. En termes politiques, la propagation des mèmes, notamment, joue un rôle essentiel en diffusant non seulement les modes et modèles à suivre, mais aussi la conscience politique et la volonté d’accéder aux ressources, parmi des sociétés ou des individus qui jusqu’ici subissaient leur sort sans imaginer pouvoir disposer d’une marge propre d’action. 2.4. Les Systèmes Si nous avons dit que le monde pouvait être assimilé à un système, ce terme, très générique, doit être précisé. Nous l’emploierons ici pour désigner l’ensemble des agents et des réseaux d’échanges entre ces agents, supposés constituer le monde. On dira d’un tel monde qu’il s’agit d’un système et non d’un ensemble indifférencié et incohérent, en ce sens que les agents qui le composent sont de fait ou potentiellement en interrelation par l’intermédiaire des réseaux et des contenus échangés. L’ensemble se comporte donc comme une entité unique. Dans certaines perspectives, ceci permet aussi de parler de la mondialisation ou de la globalisation comme un système. Quand on emploie le terme de système, en politique comme ailleurs, répétons-le, on ne fait évidemment pas allusion à quelque chose d’observable concrètement, aux contours et aux contenus objectifs (comme peuvent l’être des organismes biologiques). Tout locuteur, sans même le vouloir, crée autant de systèmes qu’il tente de descriptions du monde par le langage. On peut quand même s’entendre, par convention, sur des contenus de systèmes communs à plusieurs descriptions. Les Systèmes multi-agents On utilise généralement le terme de système quand au moins deux corps évoluent en relation. En fait, le monde en général et la vie politique en particulier mettent en relation un nombre considérable de corps. On parlera donc de Système multi-agents (SMA) ou de Système massivement multi-agents. L’intelligence artificielle donne un sens précis à cette expression. Mais n’entrons pas ici dans ces détails. Il suffit de garder en mémoire le concept général. Retenons seulement une de leur propriété essentielle : leur comportement ne peut être prédit exactement, c’est-à-dire en intégrant le détail du mouvement de chacun des corps. Seules sont recevables, avec une certaine marge d’erreur, les descriptions statistiques du système global. On sait en effet depuis Poincaré que les systèmes de plus de deux corps en interaction ne peuvent être décrits et donc prédits par l’analyse du comportement de chacun des agents pris individuellement. Le nombre des interactions possible entre agents d’un système ne comportant que quelques dizaines d’agents devient en effet quasi-astronomique. Ceci explique, entre autres raisons, que l’évolution du système global qu’est le monde, comme d’ailleurs celle de ses sous-systèmes (monde économique, politique, écologique…),

21


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

soit pratiquement et totalement imprévisible. Plus exactement, des tendances statistiques fortes peuvent être prévues, mais elles sont toujours susceptibles de bouleversements plus ou moins profonds. Le concept de système massivement multi-agents fait actuellement l’objet de nombreux travaux, applicables à divers domaines scientifiques. Il s’agit notamment de la simulation par l’intelligence artificielle et l’informatique de systèmes naturels complexes, en météorologie, démographie ou sciences de l’environnement. Il semble aujourd’hui que de telles simulations soient désormais possibles sans faire appel à des modèles mathématiques complexes, mais en s’appuyant sur des règles simples inspirées de l’informatique des automates cellulaires. Les Systèmes dynamiques chaotiques Le terme de système ne doit pas créer d’illusion. Il ne s’agit pas d’un système stable non évolutif. Il s’agit d’un système évolutif ou dynamique résultant de l’interaction permanente d’agents eux-mêmes évolutifs. On pourrait donc parler d’un système de processus, dont certains pourront être analysés en tant que tels, localement, mais sans oublier leurs interactions. La description politique du monde satisfait à la définition d’un système dynamique puisqu’il s’agit bien d’un système composé d’une grande quantité d’agents évolutionnaires (les humains, les groupes, leurs idées, etc.) disposant d’une certaine autonomie et réagissant les uns sur les autres, généralement sur le mode du conflit, plus ou moins tempéré parfois de négociations. Vient alors le point essentiel. Nous pouvons dire que le monde, système dynamique, est chaotique. Ce terme ne signifie pas qu’il s’agisse d’un chaos au sens commun du terme (encore que certains de ses aspects mériteraient ce qualificatif !), mais seulement qu’il n’est pas possible d’en donner un modèle (philosophique, politique, informatique) prétendant intégrer l’ensemble des activités des agents analysées une par une, ni surtout prévoir l’effet de l’interaction de ces agents. Par conséquent l’évolution du monde ne peut pas non plus être modélisée d’une façon qui évite l’apparition du désordre et de marches imprévisibles vers de nouvelles complexités éventuelles. En d’autres termes, le monde ne peut être représenté d’une façon à être prévisible et décidable (en répondant entièrement aux principes à partir desquels le modèle a été construit). Pour nous qui l’observons, il ne fonctionne pas comme une machine dont les différents rouages seraient liés par des processus définis à l’avance et non modifiables. La prévisibilité statistique Le système du monde peut cependant être décrit et prédit en termes de probabilités ou de statistiques : probabilité de l’existence d’un phénomène ou d’un agent donné, probabilité de survenance d’un événement donné. Les résultats des calculs de probabilités, toujours approchés, sont plus ou moins utilisables en fonction de la finesse ou granularité du regard porté sur le système. Mais il faut se souvenir qu’un phénomène défini par la probabilité qu’il a de se produire, n’est pas pour autant un phénomène du réel en soi. Il reste un concept construit, comme le système lui-même. La sensibilité aux variations des données initiales L’élément perturbant, propre aux systèmes dynamiques, est ce que l’on appelle la sensibilité aux variations des données initiales. Les dynamiciens montrent qu’un système dynamique se développe de façon turbulente ou non-linéaire, en ce sens qu’une petite différence (éventuellement infime) dans les données initiales de deux systèmes pour le reste identiques peut entraîner des conséquences plus ou moins importantes, difficilement

22


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

détectables au début de leur évolution, difficilement évitables lors de leur plein développement. Il s’agit du célèbre effet dit “ battement d’aile de papillon ”, constamment évoqué en météorologie, notamment à propos des phénomènes tourbillonnaires ou cycloniques. Un battement d’aile de papillon à Rio peut déclencher, de proche en proche et en mobilisant des forces de plus en plus puissantes, un cyclone en Asie. Or cette incertitude sur les données initiales est inévitable, dès que l’on prétend analyser et modéliser un système du monde réel, dont la plupart des paramètres échappent forcément à l’observation humaine. Ceci veut dire que, même si au départ certaines règles de développement données ont été déterminées avec une bonne précision comme étant ou devant être corrélées, l’évolution ultérieure du système conduit ces données à diverger profondément à partir d’infimes différences dans la détermination desdites données. L’évolution d’un système chaotique peut donner naissance à l’émergence plus ou moins subite et plus ou moins profonde de nouveaux états du système, représentant une réorganisation de celui-ci. En théorie, rien n’interdit que ces nouveaux états conduisent à la mort dynamique du système, par instabilité ou excès de désordre, ou au contraire par stabilité excessive (sur le modèle des cristaux d’un minéral, trop systématiquement ordonnés). Seules les émergences améliorant l’adaptation peuvent survivre. Nous en reparlerons un peu plus loin. Les décideurs économiques et politiques sont constamment confrontés à des catastrophes qu’ils n’avaient pas prévues parce qu’ils avaient oublié que les systèmes auxquels ils ont affaire sont de type chaotique, c’est-à-dire non seulement imprévisibles mais susceptibles de changements profonds et dévastateurs. C’est ce qu’a découvert à ses dépends le président américain G.W. Bush Jr. après avoir engagé son pays et ses alliés dans la guerre en Irak. Pourtant, la société américaine, le gouvernement lui-même et ses nombreuses agences sont riches en experts parfaitement au fait de la théorie du chaos et de la prudence qu’il faut manifester face à des systèmes chaotiques de grande taille. Mais rien n’y a fait. Jupiter rend fou ceux qu’il veut perdre Nous reviendrons sur cet aspect chaotique du monde, qui n’est pas encore bien compris des observateurs mal informés de la vie économique et politique. Si elles sont trop rigides, les recettes habituelles, réglementations, mesures d’intervention, sont généralement inutilisables ou peu utilisables, car le phénomène auquel elles sont censées s’appliquer évolue d’une façon pouvant être totalement inattendue, et fort loin des données initiales. L’effet “ battement d’ailes de papillon ” en politique A l’inverse, il faut signaler un point essentiel pour l’action politique quand celle-ci cherche à modifier un système dynamique chaotique comme l’est le monde. Une influence extérieure minime, par exemple l’action apparemment insignifiante d’un agent perdu aux confins du système, peut toujours, par effet “ battement d’ailes de papillon ”, provoquer des modifications profondes sinon radicales du système tout entier. C’est ce sur quoi ont toujours intuitivement compté les révolutionnaires adeptes de l’acte individuel. Un écrit, un geste exemplaire, à plus forte raison un attentat quelconque à l’ordre établi, peuvent bouleverser plus ou moins durablement ce dernier. On l’a vu récemment à l’occasion des événements du 11 septembre 2001. Auparavant, on citait l’attentat de Sarajevo à l’origine immédiate, disaiton, de la guerre de 1914. Ce facteur est à garder en mémoire quand les conservateurs de toutes sortes tentent de décourager les velléités de changement en expliquant qu’aucune réforme ne pourrait aboutir sans respecter une liste de préalables impossibles à réaliser. Le promoteur d’une innovation radicale ou un simple réformateur doivent en fait éviter à la fois l’abstention prudente et l’action tellement folle qu’elle serait condamnée d’avance. Il existe de nombreuses gammes d’actions ayant de fortes probabilités de succès, même si elles sont initialisées avec des

23


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

moyens très réduits. Leurs probabilités de succès sont accrues si elles sont renouvelées avec continuité, dans la mesure où, à l’expérience, elles se révèlent efficaces. Un système chaotique n’est pas prévisible mais il peut être modifié par des actions continues à la marge. C’est le contraire de ce qui se passe avec un système mécanique, tel par exemple un effondrement de terrain. On peut le prévoir mais il met en jeu de telles forces qu’il peut ne pas être modifiable ou évitable. 2.5. Systèmes dynamiques complexes ou hyper-complexes. Vu sous l’angle politique, le monde peut être considéré, avec ses milliards d’agents et de processus, comme un système complexe. Nous l’avons dit, il existe d’innombrables définitions de la complexité. Elles sont en fait toutes utilisables pour décrire les objets et processus du monde. Il faut choisir la plus appropriée aux objectifs que l’on recherche. Complexe ne veut pas dire compliqué. La définition la plus simple consiste à appeler complexe ce qui ne répond à aucun ordre apparent (en anglais randomness). On pourra dire aussi “ au hasard ”. Les simulations faites par Stephen Wolfram [op.cit.] montrent qu’un système construit à partir de règles extrêmement simples peut toujours évoluer, dans certaines versions de telles règles, et de façon non prévisible à l’avance, vers une complexité de plus en plus grande. La complexité ainsi entendue ne signifie pas nécessairement que le système soit devenu instable, au sens où notamment il perdrait toute cohérence et retournerait comme un cadavre en décomposition à l’état de ses éléments initiaux. On dira seulement qu’il n’est pas prévisible et que les règles intrinsèques auxquelles il obéit ne sont pas connues. Le système sera donc difficilement manipulable (sauf à trouver le moyen de réduire à nouveau sa complexité). La complexité organisationnelle Mais on peut donner de la complexité une définition plus classique, de type organisationnel. N’évoquons pas ici les définitions mathématiques de la complexité, qui n’ont pas d’intérêt pratique pour nous. Par contre, on peut retenir la définition de Gerald Edelman [Edelman et Tononi, op.cit.] pour décrire la complexité d’un système composé d’agents en interaction: “ le maximum d’agents organiquement ou fonctionnellement différents, entretenant le maximum de relations fonctionnelles différentes ”. Par exemple, un individu et une entreprise sont des agents différents qui entretiennent des relations fonctionnellement différentes (l’individu comme salarié ou comme consommateur, face à l’entreprise productrice de services ou de pollutions). S’ils sont en relation, leurs interactions créent de la complexité, pouvant prendre des aspects totalement nouveaux et imprévisibles. Le système du monde tel qu’envisagé par l’action politique, aussi vertigineusement complexe qu’il puisse paraître, n’est certainement pas le plus complexe observable. Le cerveau avec ses milliards de neurones et ses millions de milliards potentiels de synapses, l’est certainement davantage. L’écosystème terrestre l’est sans doute aussi. Il est toujours possible de décomposer un système complexe global en sous-systèmes, eux-mêmes en principe moins complexes. Mais il ne faut pas oublier que les composants obtenus continuent à entretenir des relations entre eux, même si celles-ci paraissent suffisamment faibles ou distantes pour être négligées. Un effet aile de papillon peut toujours se produire, de façon inattendue, comme nous l’avons vu. On peut, avec les mêmes précautions, descendre l’échelle de la globalité en individualisant artificiellement tel agent, ou les relations que tel agent entretient avec tels autres agents. On se place alors au plan “ local ”, artificiellement “ séparé ” du reste du système, compte tenu de la valeur considérée comme négligeable des relations qu’il entretient

24


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

avec le reste. On aura en ce cas généralement avantage à décrire des processus entre agents, plutôt que ces agents considérés dans l’absolu. Ces processus s’exercent généralement sur le mode activation/inhibition. Ils se présentent usuellement sous forme de l’émission par un agent ou à partir de lui d’un signal qui diffuse dans le milieu pour affecter d’autres agents : par exemple l’émission par une organisation de consommateurs d’un mot d’ordre de boycott visant les éventuels clients d’un produit donné. Les modalités d’analyse utilisées par les physiologistes intégrateurs [Gilbert Chauvet. op.cit.] peuvent en ce cas être employées avec précaution, pour établir un modèle global du système sur lequel pourront être simulées certaines actions, en évitant de recourir à l’expérimentation de terrain, au moins dans la phase initiale. Aujourd’hui, grâce aux travaux de Stephen Wolfram, [op.cit.], on devrait pouvoir recourir aux méthodes de la simulation avec des programmes informatiques simples tels que ceux utilisés pour la production des automates cellulaires. On constatera de toutes façons, comme dans l’analyse d’un organisme vivant, que les effets sont non-locaux (ils peuvent se produire à très grande distance) et non instantanés (ils peuvent agir avec des délais de réponse et/ou sur des durées de temps plus ou moins longs). 2.5. Systèmes dissipatifs ou en équilibre loin de l’équilibre Rappelons qu’un système hyper-complexe tel que le monde, composé d’agents en compétition darwinienne, est nécessairement un système désordonné au sens de la thermodynamique. Il n’est pas stable comme l’est par exemple un cristal dont tous les atomes sont rangés pour l’éternité dans un ordre donné, à température constante. Ce n’est pas pour autant un système instable ou erratique, au point que l’on ne puisse y observer la moindre régularité. S’il évolue, il évolue – sauf catastrophes toujours possibles – dans des espaces d’état mesurables. On peut le comparer utilement à un organisme vivant, tel que l’a décrit le physicien belge Ilya Prigogine, c’est-à-dire en équilibre loin de l’équilibre, au moins pendant certaines durées de temps. L’équilibre loin de l’équilibre nécessite la consommation de ressources prélevées dans le milieu ambiant. Il s’inscrit donc dans les comportements “ dissipatifs ” consommateurs de ressources. Mais le système dissipatif consomme pour produire, c’est-à-dire pour durer dans le temps, maintenir son milieu interne (homéostasie) et finalement se reproduire. Il est donc néguentropique, créateur d’ordre, au contraire de la tendance générale des systèmes à dériver vers le désordre ou entropie caractérisant la compétition darwinienne et plus généralement l’évolution sans boucles de rétro-action. Les mêmes qualifications peuvent être attribuées à tous les sous-systèmes découpés dans le système global, au niveau que l’on veut, dès que ces sous-systèmes manifestent une certaine permanence, voire croissance. Un système en équilibre loin de l’équilibre présente une morphologie ou forme déterminée. Celle-ci résulte de l’agrégation, au sein de bassins attracteurs, de nombreux comportements d’agents, inanalysables en termes individuels mais perceptibles en termes statistiques, par exemple les comportements de consommation ou d’épargne. On dira donc en général que le monde, objet de l’action politique, ne peut être décrit avec un minimum de rationalité scientifique qu’en s’en tenant aux règles du déterminisme statistique. De même, les prévisions relatives à son évolution, d’ensemble ou partielle, reposent également sur le déterminisme statistique. Celui-ci suffit le plus souvent à une bonne connaissance, comme à la définition par certains agents de bonnes stratégies de survie. Mais la possibilité d’un effet aile de papillon, on l’a dit, ne doit jamais être oubliée. Il est évident que plus le déterminisme statistique est affiné par la mise en place d’observations fines du système et de ses sous-parties, plus elle a de probabilités d’être meilleure. Aujourd’hui, de nombreux agents, en faisant appel à diverses sciences, se dotent

25


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

d’aides à l’étude et à l’observation du milieu mondial, afin de modéliser leurs stratégies d’adaptation le plus finement et avec la plus grande vitesse de réaction possible. 2.7. L’auto-organisation Depuis les années 1960-1980, l’auto-organisation est devenue un concept clef des sciences de la complexité. Nous pouvons l’évoquer dans ce présent chapitre consacré à la systémique, mais nous aurions pu aussi bien le mentionner dans le chapitre suivant consacré à l’évolution. L’auto-organisation désigne en effet un processus qui ne se conçoit qu’au sein de systèmes dynamiques ou évolutionnaires. Mais il n’intéresse pas seulement la vie. Il est désormais identifié dans l’ensemble des phénomènes physiques, y compris les plus élémentaires. Comme ce concept est très connu, nous nous bornerons ici à énumérer les diverses acceptions qu’il peut prendre, en signalant celles qui intéressent plus particulièrement la vie politique, ainsi d’ailleurs que les difficultés pouvant naître d’un recours abusif à ce qui, après tout, n’est qu’une image très globale cachant des phénomènes de détails multiples et souvent mal connus. On sait que c’est principalement Edgar Morin qui, dans son œuvre fondatrice La Méthode [Morin, op.cit.] a introduit le terme auprès des lecteurs français. Mais il ne l’avait pas inventé. Citons pour mémoire quelques-uns uns des pères du concept. Après Norbert Wiener, qui a pratiquement créé la cybernétique dans le courant de la seconde guerre mondiale, en étudiant les phénomènes de rétroaction, le biologiste Ludwig von Bertallanfy a transposé la cybernétique dans de nombreux autres domaines, notamment la biologie, en créant la Théorie Générale des Systèmes. L'approche systémique a développé alors les concepts de système, sous-système, interaction circulaire, rétroaction ou feed back, homéostasie, etc. Elle a tout de suite été appliquée aux systèmes sociaux par Gregory Bateson. On citera aussi John von Neumann, Heinz von Foerster et surtout, plus récemment, Stuart Kauffman qui a véritablement donné au concept ses lettres de noblesse, en montrant sa portée universelle 7 . En résumant beaucoup, disons que l’auto-organisation signale une propension générale d’un certain nombre d’entités de l’univers que nous considérons comme simples à s’unir pour former en évoluant des entités plus complexes. Cette définition met en évidence le fait que l’auto-organisation ne se produit que dans des cas déterminés et finalement assez rares, lorsqu’il existe des lois plus fondamentales, principalement des lois physiques, qui la permettent. On pourrait dans une certaine mesure dire qu’elle a quelque chose à voir sous cet angle avec la morphogenèse, c’est-à-dire la création de formes sous l’influence de telles lois. On retrouve aussi là le concept d’émergence, présenté au chapitre suivant. L’autoorganisation paraît inhérente au tissu même de l’univers, puisqu’elle se manifeste dès les premiers instants de sa vie, avec la différenciation du plasma initial en atomes puis en molécules, lesquels s’agrègent ensuite en structures colossales, nuages de gaz, galaxies, étoiles et planètes. Sur Terre, c’est l’apparition de la vie qui a constitué l’aspect le plus marquant de l’auto-organisation. D’abord au plan des premières molécules biologiques réplicantes, puis sur celui des génomes et des espèces, elles-mêmes en interaction avec leur environnement. L’exemple d’auto-organisation le plus souvent cité concerne les insectes sociaux, qui à partir de quelques fonctions simples (interaction par le biais de phéromones, notamment), construisent de vastes niches. Mais ce phénomène se retrouve à toutes les échelles du vivant et du social. Dans le domaine des sociétés humaines, il se manifeste en 7

Kauffman, At Home in the Universe: The Search for the Laws of Self-Organization and Complexity, 1995, Oxford University Press et The Origins of Order: Self-Organization and Selection in Evolution, 1993, Oxford University Press.

26


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

permanence, sous l’effet de contraintes génétiques ou culturelles. Ainsi un groupe d’enfants laissés à eux-mêmes se dote rapidement d’un leader et de comportements stéréotypés caractérisant les meutes. Il faut savoir que le phénomène existe aussi au plan politique, afin de tenter de décrypter l’évolution des structures sociales qui en découlent et, le cas échéant, agir sur elles pour utiliser les aspects jugés positifs et décourager les aspects négatifs. Mais, comme le plus souvent, dans les sociétés complexes, l’auto-organisation fonctionne dans des milieux ou ensembles en interaction permanente, il est difficile de comprendre de façon simplement intuitive les événements un tant soit peu complexes. On est par ailleurs très loin de disposer de modèles mathématico-informatiques intéressant de tels événements. L’auto-organisation, cependant, s’observe aussi entre agents informatiques. C’est un des aspects les plus spectaculaires de ce que l’on appelle la Vie artificielle, qui par de nombreux aspects ressemble à la vie biologique. Tout n’est pas clair dans la façon dont les systèmes informatiques créent de la complexité à partir du simple. Comme l’a montré Stephen Wolfram, les automates cellulaires sont par exemple capables de générer de la complexité intrinsèque (c’est-à-dire sans apport d’événements extérieurs) dont la raison profonde n’a pu encore être élucidée. C’est ceci qui fait penser que l’auto-organisation touche, par certains aspects, au tissu même de l’univers, comme nous l’avons dit plus haut. Certains scientifiques, comme Stuart Kauffman, considèrent que l’auto-organisation est inévitable, dans n’importe quel univers que ce soit. Ils en déduisent que l’apparition de la vie et celle de la pensée sont également inévitables, sur Terre comme dans le reste de l’univers. Si la vie biologique faisait défaut, la vie artificielle, à supposer qu’elle ait pu se développer durablement dans l’intervalle, pourrait prendre le relais. Rappelons qu’Edgar Morin a fondé le concept d’auto-égo-éco-re-organisation pour bien montrer que l’auto-organisation constitue un cycle permanent, qui se ressource à la fois en recyclant ses propres produits et en faisant intervenir des éléments de l’environnement transformés par l’action de l’agent auto-organisateur.

27


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 3. La méta-évolution L’évolutionnisme constitue un autre et sans doute le plus important des principes associés au constructivisme scientifique. Le terme d’évolutionnisme fait référence au fait que depuis longtemps, l’image d’un univers stable où les événements se répétaient sans fin à l’identique, n’est plus de mise dans les sciences. Toutes insistent sur les changements qui marquent l’ensemble des structures naturelles, dans le cosmos comme sur la Terre. Curieusement ce point de vue est encore refusé par les esprits conservateurs. L’évolutionnisme est fort légitimement associé à l’œuvre fondatrice de Charles Darwin, auquel les années qui passent ne retirent rien à sa réputation d’être l’un des très grands penseurs de l’humanité. On parle donc généralement d’évolution darwinienne, reposant sur l’algorithme variation au hasard/sélection. Mais pourquoi préférons nous ici parler de métaévolution plutôt que simplement d’évolution? Ce terme a été introduit par les chercheurs qui ont toujours insisté pour montrer que la compétition entre agents soumis à la sélection darwinienne n’excluait pas, au contraire, que ces mêmes agents puissent entrer en coopération ou symbiose. L’idée est essentielle aussi pour comprendre les phénomènes sociaux et politiques. Darwin n’a pas exclu la coopération, mais ce sont plutôt des penseurs inspirant la pensée mutualiste et socialiste, tels par exemple Piotr Kropotkin (1842-1921) qui ont insisté sur le rôle essentiel du partage et de l’union. Plus récemment, de nombreuses observations favorisent l’idée que l’organisme peut intégrer dans son génome différentes modifications améliorant son adaptativité, ce qui d’une certaine façon réhabiliterait le principe lamarckien de transmission des caractères acquis. On commence à nommer ceci l’auto-évolution. Nous verrons dans ce chapitre comment la sélection darwinienne par élimination des moins aptes s’est toujours conjuguée avec l’autoévolution pour construire des organismes plus complexes et plus résistants. On peut donc étudier de façon relativement séparée les mécanismes de sélection par élimination, associés définitivement dans l’opinion au darwinisme, et ceux de sélection par auto-évolution. C’est ce que nous ferons dans ce chapitre. Il faudra seulement garder à l’esprit que ces deux grandes catégories de mécanismes se conjuguent au sein de ce que nous appelons ici la méta-évolution. Mais nous ne nous limiterons pas à ces deux mécanismes de base. Le principe évolutionnaire est d’une telle richesse qu’il faut l’illustrer par d’autres approches qui le complètent. Nous n’avions que l’embarras du choix. Nous avons choisi d’évoquer d’abord un paradigme complémentaire, celui dit de l’auto-association stabilisatrice développé actuellement par le physiologiste Gilbert Chauvet pour représenter les interactions internes à l’organisme vivant qui maintiennent sa cohérence. Ensuite, nous nous devions de présenter la sociobiologie, discipline d’origine américaine. Elle insiste sur le rôle des comportements sélectionnés par l’évolution et inscrits dans le génome, souvent à des dates très reculées, qui déterminent encore le fonctionnement des sociétés modernes, en compétition et, là encore, en co-évolution avec les acquis culturels de ces sociétés. Nous mentionnerons aussi le thème de la construction de niches, également très récent, lequel illustre le fait que les organismes vivants co-évoluent avec les environnements qu’ils élaborent par leurs activités vitales. Enfin, nous dirons quelques mots de divers concepts utilisés couramment dans les études évolutionnaires : la rareté des ressources, l’émergence, le désordre et l’individuation.

28


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

3.1. La compétition darwinienne Le darwinisme, quand il s’agit des phénomènes de la vie, est associé dans l’opinion à la compétition entre les espèces, celles d’entre elles ayant bénéficié de mutations favorables éliminant leurs concurrentes. Cette notion de compétition n’a jamais été très populaire, elle ne l’est toujours pas, notamment en France, car on y voit l’apologie des forts qui dévorent les faibles. Mais il faut savoir que les sciences de l’évolution, si ce n’est l’ensemble des sciences, ont été révolutionnées depuis une cinquantaine d’années par l’exploration et l’approfondissement de l’hypothèse fondatrice de Darwin concernant la compétition entre organismes vivants pour l’accès à des ressources toujours inférieures aux besoins. De cette compétition résulte en effet la différenciation des espèces, selon des modalités que la génétique statistique puis la génétique moléculaire ont précisé depuis. La compétition est constamment évoquée dans le discours politique, soit pour la vanter comme facteur de renouvellement, soit pour en faire un danger social supposant des mesures compensatoires. Bornons-nous à retenir pour le moment que c’est la compétition entre acteurs économiques et politiques, c’est-à-dire au sens propre la lutte pour la vie, qui est le moteur essentiel de la mondialisation. Elle vise à donner la maîtrise de l’accès à l’énergie, à la nourriture ou aux processus productifs. Cette lutte pour la vie prend d’innombrables formes, en fonction elles-mêmes des innombrables types de ressources considérées comme vitales pour les innombrables catégories d’agents. Nier cela en prônant une fraternité généralisée n’a aucun sens. Si on veut pallier certains effets destructeurs de la lutte pour la vie, il faut partir du cœur du phénomène, en essayant de le faire évoluer dans le cadre de procédures mieux organisées. La compétition vue d’un point de vue politique semble ne respecter aucune logique générale et dépendre d’une infinité de facteurs aléatoires. En fait, elle s’exerce sur le mode darwinien le plus classique : reproduction des organismes existants jusqu’à épuisement de leurs ressources, mutations apparemment aléatoires, sélection des plus aptes et recommencement du cycle. Mais, lorsqu’il s’agit de la compétition entre groupes sociaux, qui n’est évidemment pas commandée par des mutations/sélections au niveau des génomes des individus qui les composent, le concept de compétition s’élargit et nécessite des études au cas par cas pour faire apparaître les processus par lesquels celle-ci se manifeste. La compétition est un phénomène bon en soi. Outre que la compétition est inévitable dans un système évolutif, elle encourage les acteurs à évoluer et à s’adapter. Rien ne serait plus néfaste que la mise en place de protections artificielles qui permettrait aux agents de ne plus ressentir les stimulus extérieurs. Très vite, ils s’engourdiraient (dans la mort thermodynamique) et redeviendraient des objets ou rouages passifs du système global. Ceci dit, la compétition a toujours engendré des inégalités entre agents ou groupes d’agents. Il y a ceux dont les mutations se révèlent bien adaptées aux changements du milieu et les autres. Les premiers se développent, se renforcent et grossissent. Les seconds survivent de plus en plus difficilement et tendent à disparaître – quand ils ne disparaissent pas effectivement. C’est là une des conclusions de ce que l’on a appelé le darwinisme dur ou réaliste. Ce mécanisme est universel, et ne s’arrêtera pas de sitôt. Cependant, localement, l’inégalité résultant de la compétition universelle peut être ressentie comme insupportable, et mériter des mesures de correction. Quand par ailleurs l’humanité dans son ensemble est en cause, qui est considérée comme une valeur en tant que telle, l’accroissement des inégalités internes résultant d’une compétition accélérée entre groupes humains paraît inacceptable. Ceci non seulement pour des raisons morales ou

29


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

éthiques (la dignité de la personne humaine dominée) mais pour de simples raisons de survie. Les populations soumises à l’exploitation des dominants ont aujourd’hui acquis suffisamment d’autonomie pour ne plus accepter la sujétion et moins encore l’élimination. Elles peuvent se retourner contre les dominants, dans des conflits inter-humains fratricides pouvant compromettre le développement de l’humanité tout entière. Pour ceux qui se préoccupent de la politique mondiale et ont les moyens d’intervenir, il est donc nécessaire de tenter des correctifs. Mais il ne suffit pas de le vouloir. Il faut trouver les bons moyens d’agir, ceux qui ne nient pas les réalités systémiques mais au contraire s’y appuient. Le moins que l’on puisse dire est que ce n’est pas toujours le cas. Beaucoup d’acteurs politiques plus ou moins bien intentionnés, notamment chez les militants de l’antimondialisation, ignorent ceci et font donc le jeu de leurs adversaires. L’algorithme darwinien L’hypothèse de la sélection darwinienne est devenue incontournable dans l'ensemble des sciences étudiant l'évolution des systèmes, quels que soient ces derniers. Elle s'inscrit dans la théorie générale de l'évolutionnisme. L'on ne peut sans doute pas s'en servir pour tout expliquer, tout déterminer, du plus simple au plus complexe, du plus matériel au plus intellectuel. Mais d'une façon générale, l'hypothèse de la sélection darwinienne est la clef indispensable permettant de comprendre comment la nature, au lieu de se reproduire sans modifications (au lieu d'évoluer sur place, si l'on peut dire), laisse émerger des phénomènes et structures nouveaux - qui sont très généralement plus complexes que leurs prédécesseurs. Si ces phénomènes et structures se conservent, c'est qu'ils s'avèrent plus viables, plus compétitifs que ces prédécesseurs. Le darwinisme moderne ne cherche pas à savoir a priori quels sont les mécanismes qui font que la reproduction ne se fait pas à l'identique. Ces mécanismes sont divers, accidentels ou systématiques. L'essentiel est qu'ils introduisent de nouveaux compétiteurs dans un milieu stabilisé par l'équilibre de fait s'étant établi entre les forces qui occupaient jusque là le terrain. Le mécanisme de la sélection darwinienne est simple, et a été décrit dans toutes les disciplines du vivant par les innombrables chercheurs évolutionnistes. Il suppose trois éléments: un générateur de modifications, interne à un organisme donné ; un milieu qui exerce une pression sur cet organisme tendant à éliminer ces modifications ; la capacité pour l'organisme de retenir et amplifier les modifications ayant résisté à la pression du milieu (mutation, sélection, amplification). A la fin du cycle, qui dans la réalité ne s'arrête jamais, l'organisme se trouve renforcé parce que mieux adapté. Le générateur de modification est la clef du dispositif. Il est constitué d'un système réplicateur (qui se reproduit à l'identique) comportant des défauts (certaines réplications ne se font pas précisément à l'identique). La plupart de ces défauts entraînent la disparition de la réplication défectueuse, sous la pression du milieu. Mais certaines réplications défectueuses se trouvent en fait mieux adaptées au milieu. Il ne reste plus à l'organisme qu'à les reprendre à son compte pour les intégrer à sa structure permanente. Nous avons indiqué précédemment que beaucoup de mutations conservées par l’évolution ne contribuent pas particulièrement à l’adaptation des espèces concernées. Elles ne survivent que parce qu’elles ne sont pas fatales pour ces dernières. Cependant dans certains cas, des mutations neutres peuvent devenir utiles en cas de changement dans l’environnement. Le biologiste Stephen Jay Gould [S.Jay Gould, op.cit.] les a nommées des “ exaptations ”. Ce concept est très utilisé aujourd’hui, y compris dans le domaine de l’intelligence artificielle adaptative 8. Certains paléoanthropologues estiment que l’immense développement qu’ont subi les hominiens a pu prendre naissance à partir d’une petite 8

Voir Chapitre 7.

30


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

mutation préexistante n’entraînant pas jusqu’alors d’effets positifs, et s’étant révélée précieuse lorsque ces hominiens ont été chassés de la forêt humide primitive. Beaucoup d’écoles au sein du darwinisme s’efforcent de répondre aux objections nombreuses que ce paradigme a toujours suscité chez ceux qui, selon le terme de Daniel Dennett, [Dennett, op.cit.] n’ont toujours pas accepté cette “ idée dangereuse de Darwin ”. Nous ne les examinerons pas dans ce livre, car elles font l’objet de très nombreux ouvrages d’accès facile, même aux non-spécialistes. Applications Les applications du concept de la sélection darwinienne sont innombrables, de la génétique jusqu'aux sciences sociales. Le mécanisme de la sélection darwinienne est utilisé non seulement au niveau génétique ou entre espèces et cultures en compétition, mais aussi dans le domaine des sociétés humaines. Celles-ci ne se reproduisent pas à l'identique, sinon nous en serions encore à l'âge de pierre. Une organisation politique ou sociale intelligente s'efforcera donc de se doter du générateur de modifications, ainsi que du dispositif permettant de distinguer et réutiliser les modifications les mieux adaptées aux nouvelles contraintes du milieu. Le générateur de modification sera d'autant plus efficace qu'il fonctionnera sur le mode aléatoire, que nous appelons ailleurs aussi anarchique. S'il se comporte en simple réplicateur fiable à 100%, il perd tout intérêt. Il faut noter une objection qui est souvent faite au processus de mutation/sélection propre à la sélection darwinienne. On peut comprendre que ce processus introduise de la variation, mais comment peut-il introduire de la complexité ? Or la vie, sous la pression de la sélection darwinienne, n’a cessé de buissonner vers des formes de plus en plus complexes – avec cependant, dans certains cas, des retours vers des formes plus simples. La réponse est, comme nous l’avons déjà indiqué, que la mutation n’est pas le seul générateur de modification. La symbiose ou association entre organismes en est un autre tout aussi important. C’est ce qu’exprime en particulier le paradigme de l’auto-association stabilisatrice décrit par Gilbert Chauvet 9. On pourra aussi se reporter sur ce point aux considérations de Howard Bloom concernant la marche vers un super-organisme 10. Plus généralement, on parle maintenant d’auto-évolution, concept que nous présenterons cidessous 11. On doit constater avec regret que le darwinisme est encore connoté politiquement d'une façon négative, en France tout au moins. Cela tient au fait que beaucoup s’en servent pour justifier tous les conservatismes. Pour eux, si l'homme est plus grand que la femme et la bat, ou si il y a des guerres, c'est parce que ces solutions ont permis la survie des chasseurscueilleurs, et continuent à assurer la survie de nos propres sociétés, puisque précisément elles n'ont pas encore été éliminées par l'évolution. Il faut donc les conserver, car elles peuvent encore servir…Plus généralement, cette forme de darwinisme primaire fonctionnaliste chante les louanges du libéralisme comme le meilleur moyen de faire triompher les forts sur les faibles, afin d'assurer les meilleures chances de survie. Observons à l’inverse, ce qui est révélateur de différences profondes dans les mentalités, que le darwinisme est considéré aux Etats-Unis, dans les milieux conservateurs, comme relevant d’un dangereux gauchisme idéologique. On sait que les fondamentalistes évangéliques croient encore, ou veulent faire croire, au créationnisme, c’est-à-dire que les espèces vivantes ont été crées par Dieu il y a quelques millénaires et n’ont pas évolué depuis. Sans tomber dans ces excès, les critiques du darwinisme y voient la volonté de toujours remettre en cause ce qui existe, au prétexte que l’évolution est en principe porteuse de 9

Voir ci-dessous, section 3 Voir chapitre 6 11 Voir section 3.2. 10

31


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

nouvelles formes mieux adaptées que celles les ayant précédé. Ceci ne peut pas faire plaisir aux détenteurs d’avantages sociaux ou économiques dont plus rien ne justifie la survie. Le besoin de générateurs artificiels de diversité Le développement des techniques et les modifications éventuellement destructrices qu'elles permettent à l'homme d'introduire dans l'environnement bouleverse les mécanismes adaptatifs darwiniens naturels. Ceux-ci, passant par des modifications génétiques qui entraînent elles-mêmes des modifications neurologiques et de comportement, tant chez l'homme que chez les autres espèces vivantes, demandent beaucoup trop de temps pour offrir éventuellement des remèdes à des innovations catastrophiques ou mal utilisées. Il faut donc mettre en place des générateurs de diversité et de mutations fonctionnant sur un tout autre rythme, et entraînant à court terme des retombées efficaces intéressant la planète entière. Le darwinisme nous rappelle cette évidence : si l'on veut survivre, il faut être le meilleur (et le plus rapide), pour résister aux pressions de l'environnement, environnement que nous créons nous-mêmes (gaz à effets de serre...) ou qui se modifie de son propre fait (un hiver nucléaire provoqué par une explosion sismique de très grande magnitude). Etre le meilleur n'est pas nécessairement être le plus gros ou le plus brutal. C'est être le plus intelligent, le plus inventif. C'est aussi savoir regrouper et fédérer les faibles, ou proposer des synthèses entre forces antagonistes. En matière de sciences sociales et de sciences tout court, le darwinisme, faut-il le rappeler, est la clef de l'innovation. Prétendre innover sans mettre en compétition des solutions nouvelles n'aboutit qu'à reproduire le présent. Mieux encore, on ne peut attendre d'innovation que d'un organisme mis en compétition darwinienne pour sa survie. D'où l'intérêt de faire la chasse aux académismes de toutes sortes, pour le plus grand bien de l'avancement des sciences. Finalement, il conviendrait de voir le darwinisme comme une incitation permanente à la mobilité et à la création, y compris par des démarches non-libérales de rupture allant à contre-sens de ce qui paraît l'évolution spontanée. Ajoutons que la compétition darwinienne auto-organisée telle que nous l'entendons ici ne devrait être guidée par aucune finalité prédéfinie (sauf à éviter cependant la remise en cause directe des principes fondateurs de la société- à supposer que ceux-ci puissent être précisés). Comme dans la nature, ses résultats se constateront après-coup. Elle pourra conduire à des avenirs qui nous paraîtront incertains. Ils n’en seront le plus souvent que plus féconds. 3.2. L’auto-évolution La biologie voit actuellement ses grands principes évoluer, suite à de nouvelles observations permises notamment par les progrès du génie génétique. Nous ne pouvons pas ici passer sous silence l’une de ces évolutions, qui pourrait être d’importance. Il s’agit de compléter ce véritable paradigme de l’évolution qu’est l’ “algorithme” darwinien (ou néodarwinien) dit mutation au hasard/sélection/amplification par un autre paradigme, que certains commencent à appeler faute de mieux le paradigme de l’auto-évolution. On sait que le paradigme darwinien a rendu l’immense service à la science d’évacuer les explications finalistes, selon lesquelles les formes vivantes actuelles, au “sommet” desquelles se situait prétendument l’humanité, résultaient d’un dessein ou doigt de Dieu visant à faire apparaître des êtres de plus en plus complexes et de plus en plus moraux. Pour les darwiniens au contraire c’est-à-dire aujourd’hui pour la presque totalité des biologistes, l’immense diversité des espèces vivantes est simplement le résultat d’un mécanisme résumé par ce que Jacques Monod a nommé le Hasard et la Nécessité. Des mutations survenant au hasard produisent des individus différents des parents. Si certains de ces descendants sont

32


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

mieux adaptés aux contraintes du milieu que ceux n’ayant pas muté, ils fondent de nouvelles espèces qui éliminent progressivement les précédentes. Ceci a tous les niveaux de l’échelle de la complexité, qu’il s’agisse des bactéries ou des mammifères supérieurs. Darwin n’avait pas eu les moyens de mettre en évidence les processus reproductifs responsables de ce phénomène. Après la Seconde guerre mondiale, la découverte de l’ADN par la biologie moléculaire permit au contraire de localiser dans le code génétique les “instructions” permettant la reproduction à l’identique des individus à l’intérieur d’une espèce, chaque espèce ayant son code génétique propre. Si des mutations affectent telle ou telle des parties de ce génome, c’est-à-dire tel ou tel gène commandant la synthèse des protéines responsables de la construction des cellules (notamment celles de l’embryon dans le cadre de l’embryogenèse), les “ordres” transmis lors de la reproduction sont différents. Ceci produit des mutants. La plupart des mutations sont fatales, mais certaines peuvent faire naître des individus mieux adaptés que les parents. Les mutations favorables elles-mêmes peuvent provoquer des changements de détail chez les descendants, par exemple un changement dans la couleur des yeux, ne remettant pas en cause la structure d’ensemble du génome. On aura donc des variétés différentes à l’intérieur d’une espèce dont les membres resteront interféconds. Mais dans certains cas, s’ajoutant les unes aux autres au sein de lignées de plus en plus isolées génétiquement, les mutations donnent naissance à des individus qui ne peuvent plus se reproduire entre eux, leurs génomes étant devenus trop différents. Alors une nouvelle espèce apparaît. Tout ceci a pu être démontré expérimentalement par les biologistes évolutionnaires, dits aussi néo-darwiniens (néo-darwiniens parce qu’ils ont apporté au darwinisme fondateur l’éclairage de la biologie moléculaire). Ils l’ont fait soit en observant dans la nature la façon dont les espèces s’adaptent aux changements des milieux, soit en provoquant artificiellement des mutations génétiques en laboratoire. Si bien que le paradigme darwinien est apparu dans les dernières décennies comme susceptible d’expliquer toutes sortes d’évolution au-delà du seul domaine biologique. Par exemple en physique ou en intelligence artificielle. L’hérédité des caractères acquis Reste que beaucoup de biologistes évolutionnistes ne s’expliquaient pas jusqu’à présent l’immense diversité des espèces passées ou encore actuelles. Comment dans le peu de temps relatif s’étant écoulé à partir de l’apparition des premières molécules réplicatives, un mécanisme aussi peu fréquent que celui de la mutation au hasard favorable a pu produire tellement d’espèces viables ? Les mutations au hasard sont généralement létales. Par ailleurs les espèces et, en leur sein, les organismes individuels se caractérisent au contraire par une grande robustesse, une grande résistance aux changements. Le propre de l’organisme vivant n’est-il pas de “persévérer dans son être”. Ceci se traduit de multiples façons et particulièrement, au niveau du génome, par divers processus réparateurs de l’intégrité face aux modifications accidentelles. Personne ne remet en cause le fait que ce sont des changements (c’est-à-dire, pour reprendre le terme, des mutations) se produisant dans le génome qui entraînent l’apparition de nouveaux phénotypes ou de nouveaux génotypes. Il faut aussi évidemment qu'ils se produisent chez des individus encore en âge d'avoir une descendance. Mais de nombreuses observations montrent que la plupart de ces changements ne résultent pas de mutations accidentelles aléatoires. Ils résultent de modifications dans le mode d’expression du génome ou de réorganisations de ses séquences se produisant au cours de processus qui n’ont rien d’aléatoires. Ils ont été sélectionnés depuis les origines par l’évolution parce qu'ils aidaient l’individu à mieux valoriser, si l’on peut dire, ses ressources génétiques et chimiques. Il s’agit alors de mutations immédiatement adaptatives, qui permettent de faire face à des contraintes nouvelles et qui sont généralement transmises aux descendants.

33


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Les individus s’adaptent constamment aux changements, on le sait. Ceux qui ne le font pas sont éliminés... Beaucoup de ces adaptations sont culturelles, elles concernent le mode de vie et se transmettent par imitation. Elles ne nous intéressent pas dans ce chapitre. Mais d’autres se traduisent par des modifications du génome (ou du mode d’expression des gènes). Comme telles, elles sont transmissible aux descendants selon les lois de l’hérédité. On retrouve donc un mécanisme dont les darwiniens orthodoxes ont toujours nié la possibilité, la transmission héréditaire des caractères acquis. Darwin, on le rappelle dans tous les manuels, s’était opposé à Lamarck qui ne niait pas l’évolution mais qui avait fait l’hypothèse que les individus au sein d’une espèce évoluaient progressivement en transmettant à leurs descendants les caractères favorables dont ils avaient pu se doter. Darwin avait refusé cette hypothèse d’une adaptation progressive et douce. Il avait introduit le principe de la sélection naturelle, c’est-à-dire de la disparition brutale et radicale des moins aptes. Mais ce sont les néo-darwiniens qui ont affirmé l’impossibilité de la transmission lamarckienne des caractères acquis en démontrant – ou croyant démontrer – le caractère intangible du patrimoine génétique, c’est-à-dire du génome conservé dans les cellules reproductives. Autrement dit, le génome propre à chaque espèce est protégé, selon eux, par une barrière infranchissable de l’influence favorable ou défavorable de l’activité des individus au sein de cette espèce. Seules des mutations au hasard peuvent l’affecter. Cette barrière existe, c’est indéniable. Sans cela les génomes spécifiques changeraient constamment. Mais de nombreuses observations récentes paraissent montrer qu’existent parallèlement un grand nombre de mécanismes permettant aux espèces de varier dans certaines limites, sans attendre une mutation génétique favorable aléatoire suivie de la sélection des mutants. Ces observations résultent du progrès des techniques de génie génétique étudiant la façon dont des facteurs extérieurs résultant de l’interaction de l’individu avec son environnement permettent soit de modifier les modalités d’expression des gènes ou des parties non codantes de l’ADN, soit de modifier les génomes eux-mêmes en y introduisant des éléments codants empruntés à des organismes extérieurs. Ce sont principalement les connaissances apportées par ces techniques, si décriées dans le public, qui montrent que le génie génétique spontané a toujours été à l’oeuvre dans la nature et que c’est sans doute lui qui a été et demeure le principal agent de la biodiversité. Comment définir l’auto-évolution ? Tout ceci fait que le temps n’est sans plus très loin où l’on pourra remplacer (en partie) l’algorithme néo-darwinien de la mutation au hasard/sélection par un concept ou paradigme autrement plus riche de perspectives, mais aussi, pour le moment, autrement plus confus, celui d’auto-évolution avec transmission sous condition de certains des caractères acquis. Comment définir l’auto-évolution ? On ne remettra pas en cause le principe de la sélection des plus aptes, qui est, comme on l’a souvent dit, une lapalissade indiscutable : ne survivent que ceux qui se révèlent mieux adaptés que les autres aux contraintes extérieures. Mais on admettra que les organismes individuels (phénotypes) au sein des espèces (génotypes) peuvent faire appel à un très grand nombre de mécanismes leur permettant de s’adapter pour leur compte à de nouvelles conditions de vie. Grâce à ces mécanismes, ils peuvent, nous l’avons dit, mieux valoriser les ressources dont ils disposent déjà, essentiellement en provoquant la synthèse de nouvelles protéines produisant de nouvelles résistances. Ainsi des plantes réfractaires au zinc peuvent, sans attendre que de nouvelles espèces résistantes apparaissent au terme d’éventuelles mutations accidentelles, survivre dans un milieu riche en zinc 12. L’ADN de certaines de leurs cellules dirige la synthèse de 12

Faut-il brûler Darwin, par Patrick Jean-Baptiste, Sciences et Avenir, novembre 2004, p. 59

34


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

nouvelles enzymes qui leur permettent de supporter le zinc. De plus, cette capacité peut se transmettre à l’ADN germinal (celui du génotype) dont on disait jusqu’ici qu’il était réfractaire aux modifications subies par le phénotype. Ainsi une nouvelle espèce ou sousespèce, voire de nombreuses autres plus ou moins différentes, peuvent apparaître dans le temps d’une génération. On conçoit, surtout quand il s’agit d’espèces simples comme les bactéries, que la diversité biologique devienne vite proliférante – et dangereuse pour les espèces supérieures. C’est sur cette prolifération que s’exerce la sélection. On peut prendre une image pour montrer en quoi l’auto-évolution, ainsi conçue, diffère de l’évolution sur le mode de la mutation au hasard (éventuellement) favorable. Supposons que je sois confronté à un problème quelconque. Logiquement, ma première réaction sera de faire appel à mes connaissances : puis-je trouver dans ma mémoire des éléments de solutions. Le cas échéant, j’interrogerai des personnes étrangères. Mais je m’adresserai à des interlocuteurs choisis parce qu’ils me paraîtront les mieux aptes à me renseigner. Je ne m’adresserai pas à des gens rencontrés dans la rue. Je ne ferai pas non plus appel à un processus encore plus aléatoire, par exemple ouvrir un dictionnaire au hasard et voir si je trouve des informations pertinentes dans la page ainsi sélectionnée. Il y aurait une chance sur des millions pour que cela soit le cas. Remarquons cependant qu'en me limitant à recenser mes connaissances antérieures, sans faire appel à une recherche d'informations au hasard, je me priverai de la chance, peut-être une sur des millions précisément, de trouver la page précise qui aurait pu révolutionner ma façon de penser et faire de moi, qui sait, un autre homme. C’est principalement par auto-évolution, en mobilisant leurs ressources internes, que procèdent semble-t-il les organismes vivants lorsqu’ils sont confrontés à un besoin d’adaptation. Evidemment, cette mobilisation n’est pas le produit d’une décision volontaire. Elle découle d’un mécanisme évolutif remontant sans doute aux origines de la vie. On pourrait l'analyser comme un processus réparateur enclenché par la perception de menaces sur l'intégrité du système. On sait que les premières molécules biologiques n’ont pu apparaître qu’en se protégeant des influences extérieures par l’équivalent d’une membrane à l’intérieur de laquelle ont pu se dérouler des processus de synthèse auto catalytiques, d’organisation-réorganisation des éléments et finalement de réplication. On conçoit que de tels processus, aussi fructueux, aient été conservés, sous des formes éventuellement différentes, tout au long de l’évolution. Sans eux, il n’y aurait pas eu d’évolution du tout. Les organismes apparaissent capables de réponses très différentes face à des agressions du milieu. Au cas par cas, telle réponse est sélectionnée tandis que les autres restent en sommeil. On est en présence d’un mécanisme qui ressemble un peu à la façon dont fonctionne le système immunitaire. Si cette réponse se révèle favorable, elle est transmise aux descendants grâce à des modifications génétiques ou épigénétiques mineures qui ne remettent pas en cause l’organisation d’ensemble du génome de l’espèce à laquelle appartient l’organisme considéré. Mais il est aussi possible que des lignées différentes au sein d’une même espèce finissent par s’individualiser en espèces différentes, faute de croisements suffisants pour entretenir l’interfécondité. Tout ceci ne relève pas du concept de mutation au hasard suivie de la sélection du plus apte. Si l’auto-évolution ainsi conçue ne peut pas faire apparaître n’importe quel caractère nouveau, elle donne quand même aux espèces et en leur sein aux variétés ou lignées beaucoup d’occasions de se diversifier, se complexifier et ainsi de s’adapter progressivement, en élargissant leurs sphères de survie. Cela ne veut pas dire, nous l’avons rappelé, que l’individu puisse décider lui-même des modifications qu’il subira, afin d’acquérir puis transmettre à ses descendants des caractères mieux adaptés. Autrement dit, l’auto-évolution dont nous parlons ne doit pas être confondue avec une évolution auto-orientée. Ce dernier concept permettrait en effet de réintroduire une sorte de finalisme, à base de volontarisme, que jusqu’ici rien ne permet de

35


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

présupposer (sauf peut-être en ce qui concerne l’influence de la conscience volontaire chez l’homme, si l’existence de cette dernière comme agent causal était retenue 13). Il s’agit seulement d’une évolution qui est rendue possible par l’entrée en jeu d’un certains nombre de facteurs évolutifs jusque là latents, au sein de l’individu, et qui se trouvent activés du fait de tel ou tel évènement auquel l’individu est confronté. Mais si nous retenons légitimement le terme d’auto-évolution, c’est parce que ces facteurs évolutifs ne proviennent pas de l’extérieur de l’individu mais de lui-même. De même, leur activation ne résulte pas du hasard, c’est-à-dire d’une cause aléatoire. Elle est d’une certaine façon déterminée par l’organisation antérieure de l’individu, le mettant à même de mieux valoriser des dispositions jusque là latentes ou de bénéficier d’alliances symbiotiques avec des partenaires lui apportant les ressources génétiques qui lui manquaient. Le hasard ne sera jamais exclu, mais il restera second. Mais quels sont les arguments permettant d’affirmer que ce qui précède ne relève pas de la simple supputation ? Trouve-t-on des faits qui démontrent la pertinence du concept d’auto-évolution ? Ils sont nombreux mais ils se présentent le plus souvent de façon différente. De plus certains d’entre eux sont encore conjecturels ou, tout au moins, ne sont pas encore pleinement reconnus par l’opinion scientifique majoritaire. Ceci explique d’ailleurs que les rapprochements qui, selon nous s’imposeraient afin de faire l’hypothèse d’une vraie révolution paradigmatique, n’aient en général pas encore été conduits jusqu’à leur terme. D’autant plus que, comme toutes les sciences expérimentales, la biologie est aujourd’hui extrêmement parcellisée et que beaucoup de ceux qui l’exercent refusent de faire appel à des modèles généraux. La biologie de l’ARN On considérait jusqu’à ces derniers temps l’ARN (acide robo-nucléique) comme le serviteur dévoué mais sans initiative de l’ADN, dont il assurait la duplication des sites codants lors de la construction cellulaire. La double hélice de l’ADN ou plus exactement les portions de celle-ci identifiés comme des gènes, c’est-à-dire comme portant les instructions permettant de commander la fabrication des protéines avait en effet jusqu'à présent focalisé l’attention. L’ARN – ARN dit messager – était considéré uniquement comme la recette que la cellule devait lire pour fabriquer la protéine commandée par le gène, c’est-à-dire par la portion d’ADN s’exprimant sous la forme dudit messager. Mais on a découvert 14 qu’une grande partie du génome ne code pas pour permettre la fabrication de protéines. On a parlé d’ADN-poubelle mais on lui trouve constamment de nouveaux rôles, lesquels permettraient d’expliquer pourquoi elle a survécu à la sélection naturelle. Elle sert ainsi à fabriquer des fragments d’ARN qui circulent dans les cellules. Le rôle de ceux-ci a été longtemps obscur. On soupçonne aujourd’hui que cet ARN est encore plus important à la vie de la cellule – et donc de l’organisme - que les protéines. Ceci explique la persistance de cet ADN non codant au long de l’évolution. Mais les expérimentations restent difficiles, l’ARN étant instable et peu observable. On lui prête cependant de nombreuses propriétés pouvant être importantes, notamment celle de catalyser les réactions chimiques. 15 Ceci permet d’identifier de nombreux types d’ARN, par exemple outre l’ARN messager, l’ARN transfert, l’ARN ribosomal, etc.

13

Voir chapitre 4. Move over DNA, Master and Commander par Philip Cohen, NewScientist, 27 novembre 2004, p. 36. 15 La découverte du potentiel d’auto-catalyse de l’ARN a suggéré l’hypothèse que celui-ci aurait été aux origines de la vie. La molécule aurait pu à la fois accumuler de l’information et activer par autocatalyse sa propre réplication. C’est l’hypothèse dite du Monde à ARN, qui n’a pu être reproduite expérimentalement à ce jour. 14

36


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

On conçoit que, dans l’hypothèse de l’auto-évolution, l’existence d’un agent aussi polyvalent s’exprimant tout au long de la vie du génome, à partir de ses éléments noncodants (et parallèlement à l’activité codante du génome) permettrait d’expliquer pourquoi certaines fonctions adaptatives puissent apparaître et se transmettre au sein des organismes, qu’il s’agisse de simples bactéries ou d’organismes pluricellulaires complexes. Il ne s’agirait plus du tout alors de mutations s’étant produites au hasard mais d’une véritable co-évolution de l’organisme et du milieu avec lequel il interagit. Le franchissement de la barrière germinale De plus en plus d’observations montrent par ailleurs aujourd’hui que la barrière germinale réputée étanche protégeant l’intégrité de la partie codante du génome peut être franchie par divers facteurs extérieurs, résultant de l’activité de l’organisme dans son milieu. Il en résulte que le génome est modifié de la même façon que s’il avait subi une mutation. Mais ces modifications peuvent être de bien plus grande ampleur. Elles sont provoquées en laboratoire par des manipulations diverses relevant du génie génétique. Mais dans la nature, elles se produisent spontanément, pour des causes diverses. Certaines sont accidentelles et pourraient être rangées dans la catégorie des mutations aléatoires. C’est le cas lorsque des rayons cosmiques provoquent des mutations génétiques. Mais d’autres sont systémiques, internes au système cellulaire et contribuant à son auto-réparation et à son adaptation. Ainsi, dans les cellules circulent, outre les éléments d’ARN déjà évoqués, des morceaux d’ADN (ADN circulant) qui peuvent s’introduire dans les génomes et modifier de façon plus ou moins importante l’économie du génome tout entier. Le transfert d’ADN, commun chez certaines cellules comme les globules blancs, peut aussi se faire entre cellules d’espèces différentes (Horizontal gene transfer). C’est lui qui est craint dans le cadre de la contamination par des organismes au génome artificiellement modifié. Mais il semble répondre à des besoins très anciens permettant de répondre spécifiquement à certains changements environnementaux, notamment sous forme de réactions immunitaires 16. Parasitisme et symbiose Une cause encore plus répandue de modifications adaptative du génome, ceci dès les origines de la vie, relève du parasitisme et de la symbiose, qui permettent à des organismes différents de s’associer pour mettre en commun leurs propriétés. Dans les cas de symbiose allant jusqu’à l’apparition d’une nouvelle espèce, un nouveau génome résulte du rapprochement des deux génomes antérieurs. La symbiose est considérée comme le facteur le plus efficace aux origines non seulement de la biodiversité mais de la constitution des organismes complexes, par association d’organismes plus élémentaires assurant des fonctions vitales spécialisées. Nous y reviendrons ci-dessous. Remarquons, contrairement à ce qui a été dit parfois, que la symbiose n’est pas à ranger dans la catégorie des évènements authentiquement aléatoires. On ne se marie pas avec n’importe qui mais avec un partenaire avec lequel on dispose déjà d’affinités. On est donc bien là dans le domaine de l’autoévolution. Physique quantique et auto-évolution Certains biologistes évoquent de plus en plus les très probables liens entre les mécanismes à l’œuvre dans les systèmes physiques au niveau quantique et ceux à l’œuvre dans les systèmes biochimiques. A priori pourtant il n’y en a pas, notamment parce qu’aucun ensemble de molécules biologiques ne semble capable d’offrir à un micro-état quantique un 16

"Jumping Gene" Helps Explain Immune System's Abilities . www.newswise.com/articles/view/508945/

37


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

isolement suffisant pour lui éviter la décohérence (c’est-à-dire pour lui éviter de retomber dans le monde macroscopique) le temps nécessaire à ce qu’il accomplisse un travail utile dans un organisme biologique. Ainsi les propriétés spécifiques aux particules quantiques, notamment l’état de superposition ou l’intrication, que l’on espère utiliser dans les calculateurs quantiques pour réaliser des opérations impossibles à un calculateur ordinaire, ne paraissent pas pouvoir se produire dans les cellules vivantes. Pourtant de plus en plus de chercheurs s’efforcent actuellement de démontrer le contraire. Un article de Paul Davies du Centre australien d’Astrobiologie à l’Université Macquarie, Sydney, en fait le recensement 17 . Une intuition simple suggère selon lui qu’il conviendrait d’approfondir ces perspectives. La science se heurte aujourd’hui à deux grands mystères. Le premier est celui de la vie (en ce qui concerne son origine mais aussi en ce qui concerne les mécanismes de l’évolution – pour ne pas parler de ceux propres au fonctionnement des neurones du cerveau). Le second est celui du monde quantique. Il y a tout lieu de penser qu’ils pourraient s’éclairer réciproquement. Nous n’allons pas aborder ici ces questions, qui mériteraient toute une bibliothèque à elles seules. Bornons-nous à renvoyer le lecteur aux travaux menés dans les années 1990 par JohnJoe McFadden et Jim Al-Khalili de l’Université de Surrey et que cite d'ailleurs Paul Davies18. Le Dr McFadden pensait pouvoir montrer notamment comment des particules quantiques se déplaçant par effet tunnel dans des molécules d’ADN pouvaient provoquer des mutations. Le point essentiel de sa démonstration était que ces mutations ne se produisaient pas au hasard, mais résultaient en quelque sorte d’un mécanisme d’évolution auto-dirigée par la cellule, ce qui nous ramène au sujet du présent article. Des phénomènes identiques auraient pu selon lui expliquer l’émergence des processus d’auto-catalyse enzymatique à l’origine de la vie. Pour Paul Davies, il serait temps que toutes ces hypothèses soient reprises très sérieusement par la Big Science, peut-être à l’occasion des travaux concernant l’ordinateur quantique. Il pense notamment qu’explorer le thème d’un ordinateur quantique biologique permettrait de montrer que les idées que nous nous faisons sur la décohérence sont encore bien sommaires. Des systèmes biologiques ont peut-être appris, dès l’origine de la vie, à abriter certains micro-états quantiques des risques de décohérence, au moins le temps nécessaire (quelques nanosecondes ?) pour leur permettre de faire tout ce qui dans les processus vitaux nous parait encore incompréhensible. Perspectives On peut conclure de ce qui précède que la biologie – ou si l’on préfère les sciences du vivant – vont devoir accepter dans les années qui viennent un renouveau méthodologique voire épistémologique considérable. La première nécessité consistera à se doter de modèles mathématico-informatiques permettant d’organiser de façon utile à l’approfondissement des recherches les données expérimentales de plus en plus nombreuses qui s’accumulent. La multiplication de recherches expérimentales parcellaires, fussent-elles approfondies dans le détail, ne permettra jamais de comprendre ce qu’est le phénomène de la vie. On décrira, mais comme le disait à peu près René Thom, décrire n’est pas expliquer. Aussi bien, le modèle à construire ne sera pas déduit des observations et expérimentations. Il sera construit (abduit) et c’est lui qui donnera un sens aux nouvelles expérimentations. Ce ne sera pas par hasard alors que le travail du théoricien du vivant retrouvera les méthodes du théoricien de la microphysique ou de la cosmologie. Les processus d’acquisition des connaissances ne

17

The Vital Spark, par Paul Davies, NewScientist, 11 décembre 2004, p. 28 JohnJoe McFadden. Interview http://www.automatesintelligents.com/interviews/2002/mai/mcfadden.html 18

38


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

peuvent plus désormais être différents selon les domaines scientifiques. Ils relèvent de la même méthodologie constructiviste. Une deuxième conclusion est plus pratique. Les quelques indications que nous avons données ci-dessus, concernant par exemple la biologie de l’ARN ou de l’ADN circulant, montrent l’immensité du domaine à explorer, ne fut-ce que dans le domaine de la génétique et de la protéomique. Ce sont très immédiatement des enjeux thérapeutiques qui apparaissent : on pense souvent aux maladies génétiques mais plus immédiatement encore sont concernées les luttes contre les nouveaux virus et microbes, la stimulation des réactions de défense de la cellule à l’égard des multiples agressions de l’environnement (dont la conséquence la plus courante est le développement de cancers). Les Etats-Unis ont bien compris l’intérêt de telles recherches, mais vu la faiblesse des moyens attribués aux biotechnologies, ce n’est manifestement pas encore le cas en Europe. Au plan philosophique enfin, on pourra s’interroger sur les conséquences d’un éventuel affaiblissement de ce que nous avons appelé le paradigme darwinien de la mutation au hasard suivie de sélection, avec la montée en puissance d’un concept dont nous avons dit qu’il serait nécessairement beaucoup plus flou, celui d’auto-évolution. En fait, comme les deux mécanismes ont joué simultanément dans l’histoire de l’évolution, on pourra continuer à les associer dans une philosophie moderne de l’histoire. Autrement dit, de temps en temps, l’irruption inattendue d’hypothèses et d’idées radicalement différentes est indispensable à la survie des systèmes de pensée, même les plus féconds. Il serait donc bien puéril de prétendre “ brûler ” Darwin. 3.3. La Symbiose Si Darwin lui-même, puis les néo-darwiniens, avaient principalement insisté sur la variation et la sélection comme facteurs de l’évolution et de la diversification des espèces, les biologistes ont découvert depuis le rôle essentiel de la symbiose, notamment, comme indiqué ci-dessus, pour conforter le concept d’auto-évolution. On entend par symbiose un rapprochement entre deux espèces permettant à chacune d’entre elle de s’enrichir des apports de l’autre, le couple ainsi formé disposant de meilleures chances de survie. Ceci ne veut pas dire que la symbiose remette en cause la compétition darwinienne comme moteur général. L’être résultant de l’union symbiotique s’insère dans la compétition, de la même façon que le mutant. Mais les modalités selon lesquelles il se modifie et varie sont différentes. Nous avons précédemment indiqué que la symbiose permet, mieux que la mutation, d’expliquer l’émergence de la complexité des espèces. L’exemple classique de la symbiose est celui du lichen, résultant de l’union d’une algue et d’une bactérie sans échange de matériel génétique. Mais on cite traditionnellement aussi le corail, les échanges entre fourmis et pucerons, sans parler des relations multiples entre l’homme et les animaux domestiques. Le véritable intérêt du concept de symbiose se situe en fait au niveau moléculaire voire atomique, puisque c’est là que la matière minérale, d’abord, la matière vivante ensuite, ont “ appris ” à se complexifier. En chimie, on sait que c’est l’échange ou mise en commun d’électrons qui a permis l’apparition de nouveaux éléments à partir de l’atome d’hydrogène. Ces nouveaux éléments sont entrés en symbiose, donnant naissance à des molécules de plus en plus complexes, celles de la chimie organique, à partir desquelles sont apparus les premiers réplicants biologiques, selon des modalités encore inconnues. Ceux-ci se sont à leur tour unis, par exemple pour donner naissance à des membranes, indispensables au développement des proto-cellules et proto-bactéries. Les proto-bactéries ont semble-t-il constamment échangé ou uni leurs génomes. Elles se sont parfois mariées pour conjuguer leurs potentiels. Ainsi les mitochondries responsables dans les cellules de la

39


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

fonction énergétique, ou les chloroplastes chargés de la fonction chlorophyllienne au sein des cellules végétales, sont considérées comme d’anciennes bactéries entrées en union symbiotique avec d’autres bactéries préexistantes qui leur apportaient certains services en échange de leur apport en énergie. Aujourd’hui, les biologistes qui étudient l’histoire infiniment riche du monde bactérien, insistent sur les chaînes de coopération entre bactéries de même espèce ou d’espèces voisines, qui ont totalement transformé l’environnement terrestre primitif tout au long des quatre milliards d’années ayant précédé l’apparition des premiers animaux pluricellulaires - eux-mêmes d’ailleurs pouvant être considérés comme la symbiose réussie de bactéries ancestrales. Ces chaînes ont donné naissance à ce qui apparaît aujourd’hui comme de superorganismes bactériens, se ramifiant sur la terre entière. Il est significatif, comme l’indique Howard Bloom [Bloom, op.cit.] que des microbiologistes comme le chercheur Israélien Ben Eschel emploient le terme de web bactérien pour désigner les organismes ayant permis aux bactéries de partir à l’assaut du monde, monde marin d’abord sans doute, monde terrestre ensuite. Tous les mécanismes sociaux d’aujourd’hui, reposant sur la mise en commun de ressources, l’échange de services, l’interconnexion de réseaux, exploitent ce mécanisme de la symbiose. Joël de Rosnay dans un ouvrage fondateur, L’Homme symbiotique [ Rosnay, op.cit.], en a donné de nombreux exemples intéressant l’évolution passée et future des sociétés humaines. Ces derniers temps, avec le développement des réseaux de transport au sein des sociétés humaines, les occasions de symbiose entre groupes et individus humains se sont multipliées. Ne réussissent que celles supposant certaines affinités communes, d’ailleurs très nombreuses. Si nous considérons le choix durable d’un partenaire sexuel comme un exemple important de symbiose entre individus humains, nous mesurons la grande variété des causes de rapprochement pouvant présider à la mise en place d’un couple symbiotique. Ainsi schématisé, le processus à l’œuvre dans la symbiose pourrait être représenté par la formule “ mise en contact/ accrochage/sélection/ampliation. Ce serait, comme tout algorithme digne de ce nom, un processus susceptible de se dérouler indépendamment des temps, des lieux et des substrats concernés. Symbiose, égoï sme et altruisme Le monde symbiotique ou en réseau n’encourage pas particulièrement la coopération pacifique. Il fut et reste régi par la compétition darwinienne pour l’accès à des ressources toujours rares par définition (puisque les demandes croissent spontanément jusqu’à atteindre les limites de la ressource telle qu’elle existe ici et maintenant). La lutte pour la vie est donc encore et plus que jamais à ce jour la règle fondamentale. Mais les êtres biologiques, à titre individuel ou en groupes, ont le choix entre deux attitudes pour affronter la compétition. Ces choix, dans la nature, résultent du jeu “ aveugle ” 19 de la sélection naturelle. Dans les sociétés dotées de conscience, ou de ce que l’on désigne par ce nom, les individus ou les groupes peuvent faire des choix délibérés (ce terme devant d'ailleurs être précisé). Mais les comportements en cause sont très proches. Les biologistes les résument par les termes d’égoï sme ou d’altruisme. Les “ égoï stes ” sont ceux qui disposent d’une dynamique propre suffisamment forte (souvent par ce qu’ils résultent eux-mêmes du regroupement antérieur d’êtres plus faibles) pour pouvoir se passer de coopération. Ils se conduisent généralement en prédateurs simples, prélevant dans l’environnement ce dont ils ont besoin pour survivre et se renforcer. Les 19

Richard Dawkins. L’horloger aveugle.

40


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

“ altruistes ” au contraire sacrifient une partie de leurs intérêts personnels pour participer à la défense d’un organisme plus grand auxquels ils participent et qui les aident à survivre. Il y a des altruismes mettant en œuvre des individus, comme les termites soldats qui se laissent tuer pour défendre la termitière, et des altruismes collectifs, ceux qui donnent naissance notamment aux symbioses évoquées ci-dessous. Evidemment, ces concepts sont un peu artificiels et tous les comportements vivants résultent d’un mélange d’égoï sme et d’altruisme. Ce mélange est particulièrement visible dans les groupes humains, où telle personne est altruiste au sein d’un groupe qui lui est proche, et férocement égoï ste à une échelle plus large. La difficulté, en ce qui concerne les humains, est que ceux-ci sont les terrains d’affrontement entre entités darwiniennes qu’ils ne maîtrisent pas en général, notamment les gènes et les mèmes, dont on a dit qu’ils luttaient souvent égoï stement pour leur survie propre sans se soucier des intérêts des hommes qui leur servent de véhicules. Ceci veut dire que si consciemment (nous reviendrons plus bas sur la signification de ce terme de conscience), certains hommes se voulaient altruistes (par exemple en privilégiant le dialogue et la paix entre tous les peuples) les entités génétiques et mémétiques qui les agissent en sous-main sur le mode égoï ste les pousseraient à la compétition, voire à des affrontements destructeurs. Mais, plus généralement, est-il réaliste d’envisager un monde apaisé, où les compétitions darwiniennes ne régneraient plus, ni entre les hommes, ni d’ailleurs (comme le voudraient peut-être certains écologistes naï fs) entre les espèces vivantes ? Une sorte de jardin d’Eden ? Cela paraît évidemment impossible car en ce cas, selon ce que nous dit aujourd’hui la science, l’histoire du monde s’arrêterait, tout au moins sur la terre. Pourrait-on au moins envisager que ces compétitions darwiniennes s’atténuent progressivement ? Cela ne semble pas non plus possible, car l’accroissement de ce que l’on peut appeler l’individuation ou l’agentification multiplie l’apparition d’individus ou de petits groupes au sein des grands ensembles, qui revendiquent à leur tour des espaces propres de parole et d’action. Il s’agit d’une excellente chose, génératrice de désordre au sens systémique, c’est-à-dire provoquant une accélération et une diversification des évolutions. Il en résulte sans doute une meilleure adaptation globale de l’humanité à son environnement, et du super-organisme à son environnement cosmique. On peut par contre rêver d’un monde où des cohabitations temporaires ou durables seraient négociées entre entités en compétition. Ces cohabitations viseraient à la survie de l’ensemble en éliminant les conflits potentiellement destructeurs de ce même ensemble. C’est l’ambition de toute politique internationale mondialiste digne de ce nom. Nous serions alors à la fois dans un monde de compétitions, souvent très âpres, mais où par contrat ou consensus social certains comportements seraient exclus (par exemple les affrontements armés ou ceux faisant appel à des armes de destruction massive) tandis que certains autres seraient encouragés, par exemple ceux relatifs à la coopération scientifique internationale. Il existe une science, la Praxéologie, qui a la prétention d’étudier les conséquences des choix imposés par la vie en société, notamment les conflits et les négociations en économie politique. Dans le cadre de la compétition, les organismes dominants cherchent à éliminer la compétition à leur profit, c’est-à-dire à éliminer ceux susceptibles d’être des opposants. Mais jusqu’ici, de telles stratégies, toujours recommencées, n’ont jamais réussi. L’évolution a toujours vu surgir de nouveaux compétiteurs, parfois partis de positions très fragiles, mais ayant bénéficié de faiblesses existant dans les systèmes dominants. C’est sur ce facteur que les opposants aux pouvoirs en place peuvent compter. Encore faut-il qu’ils sachent trouver la faiblesse des positions adverses. La symbiose permettant le regroupement des faibles en nouvelles unités plus fortes ou plus mobiles constitue évidemment la solution la plus facilement envisageable pour remettre en cause les empires les mieux installés.

41


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

3.4. Le paradigme de l’auto-association stabilisatrice Pour Gilbert Chauvet, physicien, mathématicien, médecin, qui se présente aujourd’hui comme physiologiste intégrateur, le paradigme darwinien mutation-sélection ne suffit pas à expliquer l’apparition et le maintien de la vie [Chauvet, op.cit.]. Il propose de le compléter d’un autre, qu’il a baptisé du nom d’auto-association stabilisatrice. Nous venons d’indiquer que l’évolution darwinienne ne repose pas uniquement sur la concurrence, mais aussi sur la symbiose. Pour survivre, les organismes s’associent afin de former des entités plus efficaces. C’est cette idée de base que Gilbert Chauvet a reprise et développée tout au long de ses différents travaux, lesquels aboutissent actuellement à des résultats concrets très prometteurs. Pour lui, l'organisme vivant est une sorte d'usine, mais de type unique, puisque les processus et les constituants s'y superposent et s'y combinent dans un apparent désordre difficilement déchiffrable. Pourtant on ne peut se résoudre à le considérer comme une simple usine uniquement mécanique. Qu'est-ce qui différencie dans le fond un système physique et un système biologique ? Selon ce scientifique, il convient pour les comprendre de modéliser sous forme mathématique les comportements biologiques. A la suite de René Thom et de sa théorie des catastrophes, on a essayé de le faire, par exemple en ce qui concerne la fuite. Mais la communauté des biologistes théoriciens n'est pas assez fournie en France. La biologie théorique repose sur la biologie mathématique mais suppose la recherche de concepts permettant de faire avancer la théorie. Ce n’est pas la même chose qu’établir des modèles qui certes permettent d'expliquer et de prédire certains effets produits par certains mécanismes, mais ne vont pas au cœur des phénomènes. Pour ce faire, il faut intégrer les nombreux modèles, existants ou à venir, autour de concepts susceptibles d’éclairer l’ensemble. Peu de gens travaillent dans le domaine de la physiologie totalisante, qui suppose l'intégration des mécanismes élémentaires découverts par les physiologistes et les biologistes, de façon à décrire le comportement global observé. La complexité explicitée aujourd'hui en cache une autre, non encore découverte. Quelle différence y a t-il entre le vivant et l'inerte ? La description des systèmes biologiques utilise les lois de la physique ou de la chimie. Celles-ci ne sont pas suffisantes, bien que les systèmes physiques et les systèmes vivants peuvent les uns et les autres évoluer dans le temps, loin de l'équilibre, au sens donné par Prigogine. Des interactions non-symétriques et non locales. Les phénomènes physiologiques s'ordonnent différemment des phénomènes physiques. Un système physique même complexe paraît simple à côté d'un système vivant. Ses composants interagissent de façon symétrique et locale : un courant passe ou ne passe pas, dans un commutateur bien défini localement. Au contraire, insiste Gilbert Chauvet, les interactions fonctionnelles dans un système vivant sont non symétriques et non locales. Une molécule émise par une source, cellule ou organe, va agir irréversiblement (c’est la nonsymétrie) sur une autre cellule ou organe (un puits), à distance et à travers de nombreux paliers fonctionnels. Le terme de non-localité, utilisé ici, est à prendre au sens classique et ne fait pas référence à la non-localité de la physique quantique. L’exemple le plus évident d’un tel mécanisme est celui de la sécrétion d’une hormone par un ensemble de neurones cérébraux, laquelle va agir sur des organes situés à l’autre extrémité de l’organisme. Des interactions fonctionnelles La complexité du vivant tient d'abord au grand nombre des interactions qui s'y produisent, supérieur à tout ce qui peut se passer dans un système physique. Mais elle tient surtout à ce que ces interactions sont fonctionnelles, c’est-à-dire qu’elles se sont ajoutées

42


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

successivement, au fur et à mesure de l’évolution, pour répondre aux besoins d’adaptation des organismes. Elles se produisent à tous les niveaux de la hiérarchie. Ceci pour être compris suppose une prise en compte des échelles d’espace, mais aussi des échelles de temps. La mesure de l'organisation d'une structure physique se fait à partir des échelles d'espace. Une structure vivante suppose qu'au-delà de la mesure de l'espace, on prenne en compte une hiérarchie découlant des échelles de temps. Les dynamiques des différents processus biologiques sont ordonnées en fonction du temps. On en trouve une image dans les programmes informatiques, où des boucles temporelles sont incluses les unes dans les autres. Des modèles mathématiques du vivant La non-localité apparaît dès que l'on se donne une représentation hiérarchique du système vivant. Ceci peut se décrire par des mathématiques appropriées. On a vu ci-dessus que, dans le système nerveux, le potentiel d'action va d'un neurone à l'autre via des structures de niveaux inférieurs. Le transport de ce potentiel peut être décrit par des opérateurs mathématiques. A partir de ceux-ci, il est possible d'établir des modèles mathématiques programmables en informatique selon des termes communs à tous. On peut introduire les concepts d'espaces continus des unités du système nerveux : espace des neurones, des synapses, des canaux. Cela permet de tenir compte simultanément de l'anatomie et de la physiologie de ce système. Pourquoi la complexité ? Une grande question est celle de l'émergence de la complexité, dans la perspective évolutionniste darwinienne. Un système complexe, comme le métabolisme du sucre dans l'organisme, apporte-t-il un mieux pour l'organisme ? La question paraît insoluble, puisque l'évolution privilégie aussi la survie de systèmes plus simples, comme les bactéries. On constate par contre que plus la complexité augmente, plus les mécanismes en jeu doivent être non locaux. Il faut apporter des substances à distance à des parties éloignées, ce qui ne simplifie pas l’organisation d’ensemble. La même question se pose à propos de l’émergence de la complexité au cours de l'embryogenèse. Comment se fait-il que des fonctions nouvelles se superposent sans se détruire les unes les autres ? La réponse à ce mystère tient dans ce que Gilbert Chauvet a nommé le principe de stabilité, ou plus exactement le principe de l'autoassociation stabilisatrice. Deux unités, structurales ou fonctionnelles, peuvent s'associer durablement grâce à ce principe. La dynamique du système global ainsi créé par ces deux unités va être plus stable que la dynamique de chacune d'elle isolément. Ceci est différent de ce qui se passe dans un système physique où plus les unités s'ajoutent, plus la dynamique devient difficile à maintenir. L'auto-association stabilisatrice doit être étudiée mathématiquement. Puisque deux actions chimiques peuvent s'associer sans se mélanger, c'est parce que leur espace n'est pas local. La localité, c'est la diffusion. La diffusion c'est le mélange. Aucun ordre spatial ou temporel ne peut apparaître dans ces conditions (sauf dans le cas bien spécifique de l’ordre au-delà de l'équilibre défini par Ilya Prigogine). Or, le système de deux voies biochimiques associées par l'interaction fonctionnelle est plus stable qu'une voie biochimique seule. Si la structure a besoin d'un produit donné et qu'il y ait défaillance, une autre voie apporte le produit nécessaire. La fixité du milieu intérieur peut être étudiée en termes mathématiques : c'est la stationnarité des systèmes biologiques. En gros, les flux sont constants. Cette approche permettra d'éclairer aussi la question des origines de la vie. On ne comprend pas encore le moment initial : pourquoi des unités auto-réplicantes ont pu émerger des processus physiques locaux? Cependant, on peut commencer à comprendre les stades ultérieurs, c’est-à-dire comment des cellules élémentaires ont pu s'auto-stabiliser en

43


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

s'associant, puis maintenir cette stabilité à travers d'innombrables auto-associations supplémentaires, afin d'aboutir à des systèmes de plus en plus complexes . 3.5. La sociobiologie Revenons un moment sur l’algorithme réplication/variation/sélection/ampliation popularisé par le darwinisme. L’algorithme apparaît aujourd’hui à l’œuvre partout, que ce soit dans les mécanismes évolutifs naturels ou en ce qui concerne l’évolution artificielle. Il a été formalisé grâce aux découvertes de la génétique moléculaire au milieu du XXe siècle. On considère qu’il s’applique de façon très générale dans le domaine de l’évolution des gènes, gènes isolés comme ceux des virus et gènes associés au sein de génomes dans tous les organismes complexes, de la bactérie à l’homme. Les gènes sont présentés (dans une approche “ réaliste ” dont nous avons montré les limites) comme des entités réplicatrices autonomes, dont la propriété est d’abord de se reproduire à l’identique, par duplication de l’ADN qui les contient, lors de la reproduction des organismes monocellulaires ou multicellulaires eux-mêmes dotés d’un ADN. Lors de la réplication cependant, des erreurs peuvent se produire. Des gènes plus ou moins modifiés peuvent apparaître. Ceux-ci dirigent la synthèse de nouvelles protéines provoquant l’apparition de mutants dont la plupart ne survivent pas mais dont certains peuvent donner naissance à des organismes viables, fondant de nouvelles espèces qui entrent en compétition darwinienne avec celles déjà existantes. Celles qui finalement survivent se développent au détriment des autres. Ceci correspond à la phase de l’ampliation ou multiplication. On peut noter qu’une partie de l’intelligence artificielle repose aujourd’hui sur l’utilisation systématique, au plan informatique cette fois-ci, de l’algorithme darwinien. Les techniques utilisées sont d’ailleurs regroupées sous le terme de calcul et d’algorithmes évolutionnaires. Elles donnent naissance aux entités de la vie artificielle. Mais on peut retrouver l’algorithme à l’œuvre dans tout ce qui concerne ce que l’on appelle les sélections de groupe. La sélection de groupe privilégie, non plus l’individu comme facteur moteur de l’évolution, mais le groupe. Un individu mutant suite à la mutation d’un gène n’a d’intérêt, dans cette perspective, que s’il rencontre un homologue (situation en fait extrêmement rare, mais, sur des milliers de sujets…) et fonde un groupe qui se comportera à son tour en agent compétitif. On conçoit que lorsqu’un groupe ou une espèce se trouve confronté à un autre groupe ou une autre espèce, cette confrontation puisse aboutir soit à une alliance soit à un conflit. Le conflit peut entraîner la disparition de l’un des antagonistes. Mais il peut aussi encourager des mutations adaptatives, qui permettront à des groupes adoptant des caractères nouveaux d’émerger du conflit avec de meilleures chances. C’est ce que l’on observe couramment en sociologie humaine ou simplement en politique. La compétition darwinienne, loin d’être impitoyable en provoquant la mort des faibles, peut au contraire leur assurer des chances renouvelées. Encore faut-il qu’ils trouvent le secret de mutations favorables à la survie, ce qui demande un minimum d’imagination. L’influence des gènes dans l’évolution L’étude de l’influence des gènes dans l’évolution a révolutionné toutes les sciences s’intéressant à l’animal dans son environnement (biologie adaptative, éthologie, etc.). Mieux que l’ancien concept d’instinct ou d’inné, elle a permis d’expliquer comment des comportements apparemment complexes pouvaient apparaître et se diversifier au sein des espèces. Les caractères acquis et transmis au niveau des gènes n’empêchent d’ailleurs pas, dans cette approche, que chaque espèce, notamment grâce aux activités d’investigation sur le mode essai et erreur auxquelles se livrent les individus, puisse acquérir des comportements transmis par imitation ou s’inscrivant dans un environnement modifié par l’activité de

44


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

l’espèce. C’est ce que l’on appelle la sélection par construction de niches, que nous évoquerons ci-dessous. Ces diverses constructions, qui entrent dans la catégorie globale des environnements culturels, peuvent en retour influencer l’évolution génétique en permettant le succès de mutations génétiques qui sans cela n’auraient eu aucune chance de survie. Il y a donc, chez l’animal même primitif, une interaction entre les gènes et la culture qui permet des adaptations particulièrement complexes et innovantes. Comme l’homme est fait pour l’essentiel d’héritages animaux, il a été tentant de transposer à l’explication des comportements humains individuels ou sociaux ce que découvrait la biologie animale révolutionnée par l’étude de la génétique. Non seulement des comportements basiques comme l’instinct sexuel, la recherche de nourriture, la défense du territoire et l’agression ont paru relever de l’explication par les gènes, mais même la plupart des comportements plus élaborés se traduisant par les rites, les modes et les habitudes jusque là considérés comme relevant de l’évolution culturelle ont trouvé des explications génétiques - au grand scandale des sociologues et psychologues traditionnels. La science traitant de l’influence des gènes sur les sociétés animales et humaines s’appelle la sociobiologie. Elle a été “ fondée ” et en tous cas brillamment illustrée par les travaux d’Edwards O. Wilson [Wilson. op.cit.] et de ses collègues, puis repris par de nombreux scientifiques. Parmi ceux-ci on citera Steven Pinker, dont un ouvrage important 20 est un exposé remarquable des thèses de la sociobiologie moderne. La sociobiologie a été soutenue par les forces politiques qui trouvaient là un alibi au laisser-faire - que nous retrouvons à la source de la mondialisation libérale. Si tel ou tel comportement humain est conditionné par les gènes, on ne peut rien faire pour le changer (sauf à modifier les génomes, ce qui n’est pas encore admis). Les conservateurs ont donc trouvé dans ce que l’on a appelé le tout-génétique des arguments à opposer aux partisans de l’action culturelle. Ces derniers estimaient au contraire que tous les maux dont souffrent les sociétés humaines résultent de choix culturels, autrement dits de choix politiques. Il suffit alors pour y porter remède de changer de politique. La co-évolution nature-culture La plupart des scientifiques sérieux considèrent aujourd’hui que les explications apportées par la génétique doivent être conjuguées à celles faisant appel à l’évolution culturelle. Depuis pratiquement l’apparition des premiers organismes multicellulaires, une coévolution nature-culture a régi la transformation du monde. Les travaux de Stephen Pinker, précités, proposent une conception apaisée et ouverte de la sociobiologie – quoique très marquée par la culture américaine contemporaine. Dans un livre récent portant sur le cerveau, Jean-Pierre Changeux [Changeux, op.cit.] a clairement montré comment les gènes et les apports de la vie en société se conjuguent pour créer l’individu, avec ses particularités le distinguant des autres, ceci dès avant même la naissance et tout au long de la vie. C’est ce que l’on appelle l’épigénétique. Rappelons que ce terme d’épigénétique, encore mal connu en France (et d’ailleurs doté selon les auteurs d’acceptions légèrement différentes), peut désigner ce qui s’ajoute à la génétique (épi signifiant au-dessus) pour co-déterminer l’évolution. En réaction à la croyance simpliste que tout chez l’animal et même chez l’homme relève de la “programmation” génétique ”, mais en réaction aussi à la croyance non moins simpliste que l’évolution culturelle obéit à des lois propres (le marxisme, le structuralisme, le freudisme, la compétition mimétique de René Girard 21ont tous proposé de telles lois), la presque totalité des chercheurs en biologie et en sciences humaines reconnaissent aujourd’hui que les gènes et que des facteurs évolutifs 20

The Blank Slate [Pinker, op.cit.] A ne pas confondre avec la mémétique. René Girard est un sociologue chrétien qui a beaucoup insisté sur le rôle de l’imitation (du chef par les vassaux) dans la structuration de l’espace social. 21

45


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

culturels se conjuguent pour produire des organisations corporelles et des comportements collectifs et individuels, animaux et humains, étroitement co-variants. De ces co-variations complexes découlent les sociétés. Dans le monde moderne, les origines génétiques des comportements individuels ou de groupe se mêlent inextricablement avec les acquis culturels. La violence urbaine, par exemple, est-elle sous commande génétique ou résulte-t-elle du fait que l’individu s’adapte mal à la vie dans des environnements urbains dégradés ? En fait, avec le développement de vastes machines techniques, on se trouve en présence de super-organismes qui se développent selon leurs logiques propres de façon presque incontrôlable 22 . Les acteurs politiques doivent s’en rendre compte et ne pas se borner à des actions superficielles incapables de reprendre le contrôle de comportements collectifs pouvant générer des risques majeurs et se développant inexorablement. Depuis notamment l’émergence des sociétés industrielles, puis scientifiques, la Terre s’est couverte de systèmes techniques qui sont devenus des entités évolutives à elles seules, en échappant de plus en plus souvent au contrôle de ceux qui les ont introduites ou qui les utilisent. Il suffit de citer l’automobile, le pétrole, les investissements lourds en matière d’architecture, d’infrastructures de transport, d’énergie, pour comprendre cela. Toutes ces infrastructures (ou phénotypes étendus au sens de Dawkins) conditionnent presque aussi sûrement le développement de l’humanité et ses relations avec l’environnement terrestre que peuvent le faire tel ou tel gène ou groupe de gènes au sein du génome humain. 3.6. Un autre aspect de l’évolution, la construction de niches Récemment, les éthologistes John Odling-Smee, Kevin Laland et Marcus Feldman 23, ont mis l’accent sur la façon dont les êtres vivants influencent leur propre évolution darwinienne en construisant par leurs activités des environnements spécifiques, à l’intérieur desquels ils s’abritent des contraintes sélectives du milieu. C’est si l’on veut une autre façon d’envisager le poids et le rôle des constructions dites culturelles, en réintroduisant la culture dans l’étude générale de l’évolution biologique. Le thème de l'ouvrage est simple à résumer. Il paraîtra même banal. En se développant et évoluant, les organismes modifient leur environnement. Ils y construisent des "niches" leur permettant d'améliorer leurs capacités de survie. La présence de ces niches influe en retour sur leur évolution, puisque se constitue ainsi un nouvel environnement auquel les organismes sont obligés de s'adapter à nouveau, soit au plan génétique, soit au plan comportemental. Mais, aussi banal qu'il puisse apparaître, ce processus de construction de niches est générateur d'une complexité qui, selon les auteurs, n'avait pas encore été bien mesurée. Les modifications incessantes et multiples de l'environnement produisent un nombre infini d'effets en retour (feed-back), tant sur cet environnement que sur les espèces qui doivent s'y adapter. L’ingénierie des écosystèmes C'est alors toute la dynamique de l'évolution qui en est affectée, telle du moins qu'elle était décrite par le schéma darwinien standard mutation/sélection s'exerçant au niveau des génomes. L'originalité de ce livre est qu'il propose des outils pour essayer de formaliser cette dynamique. Dans cette nouvelle optique, l'évolution des écosystèmes prend un rôle décisif, déjà évoqué par l'écologie mais insuffisamment étudié. On peut parler d'une véritable ingénierie des écosystèmes (ecosystem engineering), d'où résultent des modifications profondes des grands équilibres physiques ou biologiques antérieurs. Pour étudier tout ceci, il 22 23

Voir chapitre 6. Niche Construction, The Neglected Process in Evolution [Niche construction, op.cit.]

46


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

faut mettre en place, selon le terme proposé par les auteurs, une théorie étendue de l'évolution (extended evolutionary theory). Les auteurs ne pouvaient se limiter à ces affirmations. Ils devaient les justifier. C'est ce qu'ils ont fait par l'étude de nombreuses données intéressant l'évolution des espèces. Ils ont mis au point également des modèles théoriques, s'inspirant notamment de la génétique des populations. Ils proposent de nouvelles méthodes de recherches destinées à donner de la consistance à ces premières hypothèses, et permettre, espèrent-ils, de fournir un nouveau cadre conceptuel aux théories de l'évolution, non seulement en biologie mais dans les sciences sociales et humaines. Mais il faut bien constater que nous n'avons ici qu'un début des travaux à réaliser en utilisant ces nouvelles méthodes. Une voie est tracée, certes, mais il reste à l'exploiter. L’interaction de milliers de niches Il y a des millions d'espèces qui produisent des millions d'artefacts leur servant de niches protectrices, lesquelles interagissent en permanence. De cette interaction de millions d'agents résulte un type d'évolution jusqu'ici mal étudié. Pour le comprendre, il faut sauter à un niveau supérieur de complexité. Dans le mécanisme global de l'évolution, il faut en effet étudier le rôle que tiennent des agents qui ne sont plus seulement biologiques mais écologiques. Il s'agit d'écosystèmes résultant de l'intervention au sein du milieu physique des produits de l'activité constructrice des organismes, organisés en réseaux. Ainsi, un écosystème tel qu'une forêt résulte de l'interaction permanente des "niches" résultant de la compétition et de la symbiose de très nombreuses espèces. Ces écosystèmes ne peuvent pas être considérés eux-mêmes comme des organismes ou super-organismes, dotés de quelque chose qui ressemblerait à un génome. En d'autres termes, ce ne sont pas des réplicateurs au sens où on l'entend en biologie. Ce sont des entités spécifiques évoluant selon des lois spécifiques, d'ailleurs à découvrir. Ces lois sont de type émergeant et n'ont plus grand chose à voir avec ce qui se passe au niveau des génotypes des espèces impliquées. Leur évolution résulte de processus d'ingénierie d'une toute autre ampleur, se traduisant notamment par la modification des grands flux de production et de consommation d'énergie et d'éléments nutritifs préexistants dans le milieu naturel. On sera alors amené à prendre en considération deux types d'environnements au sein desquels s'organisera la mutation/sélection des espèces, ceux liés à des facteurs sur lesquels l'évolution biologique n'a pas de prise (par exemple les cycles solaires) et tous les autres. Dans l'étude de l'insertion des humains dans l'environnement terrestre, on se trouvera en présence de "méga-niches" ou écosystèmes "artificiels" associant de façon apparemment inextricable des facteurs physiques, biologiques et comportementaux. Ceux-ci évoluent et se complexifient sans cesse, sous l'influence de moteurs intrinsèques tels que les technologies instrumentales et les contenus de connaissance scientifiques, sur le développement desquels les humains malgré ce qu'ils affirment ne peuvent exercer aucun contrôle global. En quoi l'évolution des niches doit-elle être étudiée parallèlement à l'évolution génétique ? Parce que la création d'une niche, sous l'influence directe d'un certain nombre de gènes de l'espèce responsable, modifie de façon imprévisible l'expression de tous les autres gènes de cette espèce, ainsi que celle de tous les autres gènes de toutes les espèces en contact avec le milieu modifié par cette niche. Plus généralement, elle crée de nouvelles pressions de sélection. Les premiers individus responsables de la création d'une niche au sein d'une espèce transmettent un phénotype étendu jouant un rôle sélectif, non seulement sur leurs descendants mais sur de nombreuses autres espèces. Il en est ainsi évidemment de la pression exercée sur le monde animal - et sur les individus humains eux-mêmes - par les méga-niches humaines. Sous cet angle, on pourrait d'ailleurs considérer que la théorie de la construction de niches est une résurgence de l'hypothèse lamarckienne selon laquelle l'évolution des espèces

47


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

résulte de la transmission des caractères acquis durant leur vie par les représentants de cette espèce. Mais nous avons dit que cette théorie ne vise pas à remplacer le schéma moderne de l'évolution, reposant sur l'activité des réplicateurs génétiques. Elle veut seulement le compléter. C'est bien ce que signifie les concepts de co-évolution et d’auto-évolution, présentés plus haut, lesquels devrait associer désormais de façon plus explicite Darwin et Lamarck. Les auteurs présentent dans leur ouvrage les résultats d'études qu’ils ont réalisées montrant comment la construction de niche a modifié les processus évolutifs d'origine simplement génétique. Des mutations apparemment fatales sont conservées, d'autres apparemment utiles disparaissent. Plus généralement ils ont détecté des décalages de temps entre l'évolution biologique et celle des milieux, telle évolution se poursuivant alors que le mécanisme de sélection a disparu ou telle autre ne se produisant pas malgré qu'un mécanisme de sélection nouveau soit à l'œuvre depuis plusieurs générations. Une écologie évolutionnaire Pour tirer parti de ces premières études, le livre plaide pour la mise en place d'une écologie évolutionnaire et pas seulement descriptive. Il ne suffit pas de présenter les grands mécanismes physiques générant des écosystèmes, en ne prenant pas en considération l'évolution de ces mécanismes sous l'influence des facteurs biologiques et humains. Il faut étudier ce que les auteurs nomment l'ingénierie d'écosystèmes se produisant à des niveaux très locaux (décomposition d'une roche sous l'influence d'un escargot se nourrissant du lichen qui la protège de l'érosion, par exemple) mais aussi à des niveaux très globaux, tel que le désormais très populaire effet de serre. De telles considérations, pensent les auteurs, fournissent des bases déterminantes pour la compréhension et peut-être pour la prédiction de l'évolution des milieux naturels. Les écosystèmes résultant des constructions entrecroisées de niches et déterminant la sélection des réplicateurs biologiques, les gènes, ne relèvent pas de la théorie générale des réplicateurs, nous disent les auteurs. Cela dit, il faut lever une ambiguïté. N'est-ce pas Dawkins lui-même, créateur du concept de phénotype étendu, qui avait auparavant popularisé celui de mème dont on connaît le succès obtenu depuis lors. Les mèmes sont dans la théorie mémétique " classique ", des réplicateurs culturels qui prolifèrent dans les cerveaux grâce aux capacités à l'imitation dont sont dotés les humains et certains animaux 24. 3.7. L’émergence Un système complexe en évolution darwinienne se caractérise par la création en permanence de complexités nouvelles. Lorsque certaines des formes ainsi créées sont observables, on parle en général d’émergence. On parle aussi d’émergence quand des systèmes simples interagissant ensemble créent de la complexité, dans le cadre de ce que l’on appelle l’auto-organisation, évoquée au chapitre précédent. L’émergence traduit alors cette évidence que la totalité est toujours davantage que la somme des parties. Par définition, l’émergence est rarement prévisible, faute de connaître les données initiales dont elle résulte. Elle peut prendre une importance telle qu’elle ne peut être combattue, surtout par les agents aux détriments desquels elle se produit. Mais l’émergence n’est pas toujours négative, soit pour le système lui-même, soit pour tels ou tels des agents le constituant. Elle est même très généralement positive. Elle peut induire par exemple de nouveaux comportements, générateurs d’accès à de nouvelles ressources, qui relancent la compétition darwinienne. C’est grâce à ce phénomène que se sont développées les innombrables formes vitales. 24

Voir chapitre 5

48


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

L’émergence introduit aussi de nouveaux états du système. On explique généralement l’accroissement rapide des aires du langage et du cortex associatif chez l’homo sapiens par l’explosion des activités langagières symboliques ayant marqué le passage en savane des hominiens arboricoles. Certains scientifiques proposent d’appeler ce phénomène métamutation ou méta-transition. Il se retrouve à différents niveaux de l’évolution 25 . Selon cette hypothèse, un système donné qui se trouve soumis à l’apparition brutale de nouveaux agents, peut se trouver hors d’état de traiter de façon cohérente les flux nouveaux. Il devient, en termes systémiques, “ instable ”. Il ne peut survivre qu’en développant, sur le mode de l’évolution darwinienne, de nouvelles liaisons associatives réentrantes intégratrices. C’est ainsi que se serait mis en place très rapidement le cerveau de l’homme moderne face à l’explosion des flux langagiers. 3.8. Le hasard et le désordre dans l’évolution du monde Nous avons vu que le comportement d’un système dynamique complexe n’est pas prédictible en détail. Nul n’est donc exactement en mesure de prévoir ce que deviendra le monde, ni en termes géophysiques ou environnementaux, ni en termes politiques. Les pires catastrophes pourraient arriver, comme au contraire des périodes de latence plus ou moins longues, donnant l’impression que des équilibres se sont mis en place. Cependant, il ne s’agit pas d’une évolution soumise au hasard (presque) absolu, comme l’est la chute d’un dé ou mieux encore, la génération d’un nombre aléatoire par un programme informatique 26. Elle se produit dans des directions plus ou moins déterminées. Les travaux de Stephen Wolfram, déjà cité, ont montré ce que personne ne soupçonnait jusqu’alors : les systèmes dynamiques même simples, c’est-à-dire se transformant à partir de règles tout à fait élémentaires, peuvent à partir d’un certain moment (d’ailleurs imprévisible) produire de la complexité en évoluant sur le mode apparemment désordonné ou au hasard. Ceci peut être montré en utilisant des systèmes informatiques simples que sont les automates cellulaires 27. De tels processus peuvent ou pourront être mis en évidence en ce qui concerne l’évolution des systèmes sociaux. Ils résultent d’un déterminisme, puisque l’évolution en ce cas est commandée par les algorithmes simples ou hyper-simples définissant l’automate. Mais comme ce déterminisme ne peut être explicité, tout se passe comme si l’évolution se faisait au hasard. La complexité, ou organisation apparemment désordonnée, est donc inévitable. Elle réside au cœur même des systèmes naturels et sociaux. Il faut s’y résigner. Cependant, l’apparition du hasard, soit sous la forme de l’évolution spontanée de certains systèmes, soit à partir de mutations darwiniennes, ne se fait pas “ dans le vide ”.Au cours de son évolution antérieure, le monde s’est organisé en structures ou couches qui constituent le milieu dans lequel les nouvelles solutions survenues au hasard sont obligées de s’adapter. Autrement dit, il existe toujours un arrière-plan environnemental qui représente le nouveau milieu sélectif au regard duquel le hasard propose de nouvelles mutations créatrices. On retrouve le thème de la construction de niches évoqué ci-dessus. 3.9. L’individuation Dans le monde occidental, la politique, qui se veut généralement d’inspiration 25

Voir chapitre 7. Dans ces cas, le hasard n’est qu’une apparence, tenant à l’imprécision de nos instruments d’observation. On ne pourrait à la rigueur parler de hasard absolu (randomness) que si on faisait appel à des dispositifs utilisant les propriétés des entités quantiques (Voir Ian Stewart, In the lap of the Gods, NewScientist, 25 septembre 2004). 27 Voir chapitre 7. 26

49


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

démocratique, tend à exalter le rôle de l’individu, qualifié aussi de citoyen. Donner de plus en plus d’autonomie et de capacité de participation aux citoyens correspond à un idéal très noble de nos sociétés. Après avoir présenté la compétition et la symbiose, il faut donc réfléchir à la façon dont ces grands mécanismes fondateurs se rejoignent pour définir l’individu et son rôle. Le problème de l'individu et de l'individuation (émergence de l’individu) est un des plus fascinants qu'offre l'étude de l'évolution. Il déborde évidemment le cadre de la biologie pour rejoindre celui de l'ensemble des sciences humaines. Mais de plus en plus il concerne aujourd'hui la robotique, avec l'apparition d'artefacts et d'agents logiciels évoluant spontanément vers une indépendance croissante. En termes politiques, la question rejoint celle de l’altruisme et de l’égoï sme posée ci-dessus. La démocratie est inséparable d’une attention de plus en plus grande portée aux individus humains. Mais en contrepartie, l’excès d’individualisme fait oublier les impératifs de la vie en collectivité et détruit donc la démocratie. Plusieurs questions nous permettront de commencer à cerner le problème. L'individu est-il séparable du groupe ou de l'espèce ? La réponse est clairement non. Il n'est pas possible d'étudier séparément l'individu et l'espèce, ou l’individu et le groupe au sein d’une espèce. Les uns et les autres s'entre-déterminent et co-évoluent. Dans la nature, aucun individu ne peut survivre seul. Mais à l'inverse, aucune espèce ne se présente comme un organisme individuel, auquel les composants (les individus) seraient globalement asservis comme les cellules le sont au sein de l'organisme. Il est bien entendu possible de centrer l'observation soit sur l'individu, soit sur le groupe ou l'espèce, mais en ce cas il ne faut jamais oublier les relations de co-détermination et co-évolution qui relient les individus, éléments du groupe et le groupe lui-même. L'évolution ne montre-t-elle pas - chez certaines espèces tout au moins - une autonomie croissante des individus au sein des groupes et des espèces ? La réponse est oui, sous réserve de ce qui vient d'être dit précédemment. Il est certain que les individus, chez les insectes sociaux, bien que disposant d'une marge d'autonomie dont on a découvert récemment l'importance relative, sont plus dépendants de l'espèce que ne le sont les mammifères et, plus particulièrement, les humains. C'est notamment la présence d'un système nerveux central qui permet aux individus des espèces dites supérieures de s'affranchir des conditionnements collectifs génétiques. Mais leurs marges de liberté, même chez l'homme, demeurent étroites. Pour préciser en quoi elles consistent exactement, il faut étudier ces marges soigneusement, au cas par cas. Par ailleurs, quand on parle de liberté, il ne faut pas entendre libre-arbitre mais degrés de liberté tels qu’ils sont définis en mécanique, c’est-à-dire nombre de possibilités de mouvement offertes à un système, entre lesquelles le choix se fait nécessairement de façon déterminée. Nous reviendrons sur le libre-arbitre en tant que concept métaphysique au chapitre suivant. Les individus au sein d'une espèce se ressemblent-ils tous ? Ils se ressemblent, dans les grandes lignes, mais cela n'exclut pas des différences individuelles qui dans certains cas peuvent provoquer des comportements différents. L'on sait qu'en matière biologique, aucun individu, à l'intérieur d'une espèce, n'est rigoureusement semblable à un autre. Cela tient notamment à la diversification de ses chromosomes et aussi, de son développement épigénétique. Aujourd'hui, il apparaît que même les jumeaux vrais (sans doute aussi les clones) ne sont pas exactement semblables, du fait d'arrangements moléculaires fins se produisant de façon différente dans certaines parties, souvent mal étudiées, de leurs génomes. Mais cette constatation n'a d'intérêt que lorsque ces différences entraînent des différences notables dans les anatomies ou les comportements. L’apparition de nouvelles espèces Les mutations, clef de l'évolution, se situent-elles au niveau de l'individu ou à celui de l'espèce ? Elles apparaissent évidemment au sein des génomes des individus. Cependant,

50


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

même lorsqu'elles ne sont pas létales, mais favorables à l’adaptation, elles ne peuvent s'incarner dans des descendances que si l'espèce ou le groupe leur offre un environnement favorable. En effet, leurs chances de survie sont infimes au plan purement génétique. Il faut que la même mutation se produise au même moment chez des individus capables de s’apparier dans un couple reproducteur. D'où ce concept de co-évolution nature-culture, permettant dans certains cas la formation de nouvelles espèces. D'où également l'intérêt d'être attentifs aux individus susceptibles de porter des mutations intéressantes (par exemple dans le domaine de la préservation de la bio-diversité). Les enfants-prodiges ou surdoués, dits aussi “ monstres prometteurs ”, devraient sans doute à l’avenir bénéficier de précautions identiques si on voulait encourager la reproduction de leurs gènes. Les innovations comportementales ou culturelles prennent-elles naissance chez l'individu ou au sein du groupe, voire de l'espèce ? La réponse est identique à celle faite à la question précédente. On considère généralement que c'est l'individu qui invente un nouveau comportement, généralement par essais et erreurs. Ce comportement se propage ensuite au sein du groupe, dans les cas favorables, par imprégnation ou imitation - ce qui peut donner l'impression que l'innovation émane du groupe. Il paraît possible cependant de montrer qu'existe dans certains cas une forme d'innovation collective émanant de certains individus reliés par un réseau et se comportant globalement de façon homogène, tout au moins au plan statistique (à l'image de ce qui se passe entre groupes de neurones interagissant de façon dynamique. Ce point serait très important si des études ultérieures confirmaient la pertinence de l'hypothèse. Nous retrouverons cette question dans les chapitres 6 (les super-organismes) et 7 (les robots). Que peut désigner spécifiquement le terme d'individuation ? Il s'agit d'un processus fondamental, qui au cours de la construction d'un individu permet l'émergence d'une solution unique porteuse d'un éventuel potentiel d'innovation original. Sur le plan des contenus neurologiques, si l'on considère que l'individu, tout au moins chez les animaux supérieurs, est doté de capacités importantes de représentation et d'action, tout ce qui donnera de l'autonomie à cet individu sera une chance de plus pour que se manifestent de nouvelles formes de représentations et actions. Sur le plan plus général de l'évolution des espèces et sur le long terme, nous avons dit que l'on pouvait observer une poussée générale vers des individus de plus en plus autonomes face aux déterminismes génétiques, dans certaines lignes évolutives tout au moins. On pourra parler de marche vers l'individuation. Celle-ci, rappelons-le, ne peut être imputée à un finalisme ou une téléonomie, mais seulement au résultat du hasard et de la nécessité évolutionnaires. Tout se passe comme si l'apparition d'individus dotés d'outils sensoriels et neurologiques les rendant de plus en plus autonomes représentait pour certaines espèces un avantage sélectif important. Dans le cours de leur vie, l'avantage s'amplifie lorsque ces individus ont le temps de construire des mémoires collectives permettant de capitaliser et retransmettre une expérience sociale. C'est cet avantage sélectif qui a permis l'émergence des sociétés humaines. Dès que les individus ont acquis, grâce à de premières découvertes, une vie suffisamment longue pour apprendre et transmettre une expérience collective, par l'exemple puis par le langage symbolique, la croissance des sociétés paléolithiques est devenue explosive. Parallèlement, sur le court terme, au sein d'une espèce donnée, l'individuation se manifeste dès la fécondation, l'embryogenèse et la croissance, jusqu'à l'obtention d'un individu complet enrichi en permanence par ses expériences sociales et individuelles. De temps en temps, les hasards de la génétique, de l'éducation et de l'expérience sociale permettent à certains individus ou certains comportements d'échapper aux règles statistiques intéressant l'espèce, en donnant naissance à de véritables créateurs, susceptibles d'influencer de façon très visible le déroulement de l'évolution.

51


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chez les individus dotés de conscience, l'individuation s'exprime notamment par la conscience de soi 28. Gerald Edelman [Edelman, op.cit.] a fait remarquer que la conscience est privative à l'individu qui en est le support. Elle ne peut être ni communiquée ni partagée. La conscience de l'un n'est jamais semblable à celle de l'autre. Lorsque l'individuation d'une conscience très performante s'ajoute à celle d'une anatomie et d'une physiologie elles-mêmes supérieures aux moyennes habituelles, et que le tout s'exprime dans un milieu concurrentiel favorable, ce sont de véritables "mutants" (au sens imagé du terme) qui peuvent apparaître. Les résultats de cette individuation entraînent par imitation ou réaction des effets importants sur les populations de leurs semblables. Selon les cas, on se trouve en présence de "génies", de "chefs charismatiques", de "révolutionnaires", de "grands pervers" dont l'influence paraît inexplicable aux profanes, faute d’avoir pu mesurer l'écart à la moyenne que représentaient ces individus. Les mêmes phénomènes doivent jouer chez les animaux pour la sélection des dominants. L'influence des individus dominants peut se répercuter au profit des groupes au sein desquels ces individus se manifestent. Grâce à eux, des collectivités minoritaires fortement singularisées, par suite d'événements souvent d'ailleurs indépendants de leur volonté, peuvent faire basculer l'histoire.29 Individualisme et contrat social Comment s'organisent les rapports entre individus et groupes? A ce stade, il faut se demander si l'individu, ou plutôt la conscience individuelle par laquelle il s'exprime peut ou non se heurter à une conscience collective ? La dialectique de co-évolution entre individus et groupes ou espèces se poursuit à tous les niveaux évolutifs, et bien entendu au sein des sociétés humaines modernes. Il s'agit d'une dialectique supposant des oppositions tout aussi fréquentes que des symbioses. L'individu puise ses forces et sa protection dans le cadre social, mais ne peut atteindre son plein accomplissement qu'en prenant de la distance afin d’échapper à ce cadre. Ceci est bien connu de l'ensemble des sciences humaines, notamment de la pédagogie, de la sociologie ou des sciences politiques. Il y a donc en permanence des affrontements entre individus et groupes, se traduisant généralement selon les circonstances par des arbitrages diversement favorables aux parties en présence. Mais que signifie dans ce cas la notion de groupe, ou celle de conscience collective ? Comme nous le verrons ultérieurement, deux définitions sont possibles. La première se borne à constater que la conscience et la volonté collective résultent d'un accord, à un moment donné, entre individus acceptant de fondre leur individualité dans une expression commune. Pour des raisons de meilleure adaptation et survie, un certain nombre d'individus se sont réunis et ont décidé de s'amputer d'une part de leur autonomie individuelle au profit de comportements ou décisions régulés par un contrat social. La plupart des évolutionnistes considèrent que l'aptitude au "contrat social" dispose autant de racines génétiques que de sources culturelles. Elle aurait été sélectionnée par l'évolution comme éminemment favorable (dans la suite sans doute de la sélection des comportements dits " altruistes "). Une définition plus ambitieuse de la conscience collective considère qu’il s’agit de relations s’établissant entre individus d’un groupe, éventuellement à leur insu, permettant à ce groupe de se représenter lui-même par observation interne de son propre comportement. Les sociétés occidentales encouragent en général la progression de l'individualisme, conçu non seulement au sens étroit (l'égoï sme consommateur, par exemple), mais aussi au sens plus noble de la démocratie : que chaque homme ait la possibilité, notamment en termes politiques, professionnels, sociaux, d'exprimer toutes ses virtualités au sein de la cité. On en 28

Sur la conscience en général, voir chapitre 4. Tout le travail du philosophe Bernard Stiegler [Stiegler, op.cit.] met en valeur le rôle de l’individu créateur opposé au consommateur passif en quoi les industries culturelles financées par les multinationales voudraient le transformer. 29

52


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

espère un recul des automatismes hérités des siècles passés, sous forme notamment des fanatismes et violences collectives. Mais cette philosophie tout à fait louable ne doit pas conduire pour autant à privilégier l'individu-roi. Une émission de télévision intitulée de façon emblématique “ C’est mon choix ” a montré les dérives qui peuvent apparaître si la société reconnaît aux individus le droit imprescriptible de s’enfermer dans l’affirmation de personnalités généralement médiocres faute de se confronter à celles des autres. Comme nous l'avons indiqué au début, les progrès vers l'autonomie et la conscience de l'individu devraient se faire dans un progrès parallèle des groupes humains et, plus généralement, de l'espèce humaine au sein de l'environnement terrestre. Les mécanismes pour un bon contrat social, assurant l'adaptation de l'homme à son univers, deviennent alors aussi importants que ceux destinés à encourager l'autonomie des individus. L’observation de la mondialisation montre que les phénomènes de rapprochement entre sociétés humaines qui en résultent confrontent actuellement violemment des civilisations ou l’individu n’est pas grand chose, notamment quand il est faible et femme (que l’on pense aux Intouchables en Inde, par exemple), et d’autres où tout semble fait pour son confort, notamment quand il est homme et riche. Dans les deux cas, il y a excès et dangers. L’excès devient particulièrement inquiétant quand l’individu est poussé, comme l’est le terroriste kamikaze, à se sacrifier complètement au groupe. Mais il l’est aussi quand un sens morbide de surévaluation du soi pousse certains à tuer aveuglément leurs semblables, comme l’exemple se répand de plus en plus aux Etats-Unis et en Europe. On peut penser que des conceptions proches de celles régnant dans les démocraties occidentales représentent une sorte d’optimum, avec peut-être quand même une tendance excessive à préférer les intérêts des individus aux intérêts supérieurs des groupes. En cas de crise grave cependant, même dans les démocraties individualistes, on voir apparaître des personnes qui se sacrifient au groupe et qui exaltent ainsi des fibres collectives loin d’être mortes, même chez les plus égoï stes.

53


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 4. La conscience réincorporée Les sociétés occidentales modernes sont éminemment volontaristes. Contrairement à beaucoup de sociétés traditionnelles encourageant le fatalisme et la résignation, elles privilégient la volonté de transformer le monde en se libérant du poids des déterminismes. Depuis l’enfance, les humains sont conditionnés à agir, en utilisant la connaissance scientifique pour s’élever au-dessus des lois naturelles qui enferment les autres espèces vivantes dans des niches dont elles ne peuvent sortir. Mais paradoxalement, plus la science progresse, plus elle semble démontrer que la liberté dont se réclament les mouvements philosophiques et politiques occidentaux n’est qu’une apparence. Bien mieux, on découvre que la conscience volontaire, après avoir pris ses distances à l’égard des religions qui l’avaient enfermée dans le choix simple d’obéir ou de se damner, pourrait bien n’être qu’un épiphénomène greffé sur des mécanismes physiologiques ou neuronaux qui la déterminent entièrement. La question n’est pas mineure, pour la vie politique. Sommes-nous ou non capables de changer notre sort et d’influencer celui du monde ? Si oui, à quelles conditions ? Nous ne proposerons pas ici de solutions tranchées mais nous nous bornerons à résumer et commenter quelques-unes unes des thèses scientifiques les plus récentes interrogeant la question du libre-arbitre et de la conscience volontaire. Nous prendrons d’abord, avec Alain Berthoz, la mesure de tous les conditionnements biologiques qui déterminent la décision, chez l’organisme le plus simple comme chez l’homme le plus intelligent. Puis nous verrons comment le philosophe matérialiste Daniel Dennett s’efforce de “ sauver ”, dans une certaine mesure, le concept de libre-arbitre. Enfin, avec les neuro-physiologistes Antonio Damasio et Gérald Edelman, nous reprendrons l’étude de la complexité immense des processus corporels et neuraux desquels émergent la conscience. Il apparaît bien aujourd’hui que celle-ci, même lorsqu’il s’agit de la conscience dite supérieure qui semble caractériser l’homme, ne peut avoir de rôle causal, c’est-à-dire influencer directement le monde matériel et biologique. Ceci ne veut pas dire que l’individu n’ait pas de rôle causal, mais ce rôle s’inscrit dans une chaîne de déterminismes complexes, dont la conscience s’exprimant notamment par le langage, permet d’afficher à l’extérieur certains des états. La conscience est comme la partie émergée de l’iceberg qui signale aux navigateurs l’existence d’un jeu de forces considérables s’exerçant dans le monde sous-marin. 4.1. Déterminisme ou liberté. La science face à ses paradoxes. Les sciences et les philosophies qui s’appuient sur elles nous proposent aujourd’hui une vision paradoxale du monde. Alfred North Whitehead le faisait déjà remarquer, en des termes différents, il y a plus de cinquante ans 30. D’une part le progrès quotidien des sciences consiste à mettre à jour des mécanismes déterministes qui nous expliquent pourquoi le monde est forcément ce qu’il est. Ces déterminismes ne laissent pas de place au libre arbitre. D’autre part, les mêmes scientifiques, rejoignant en cela la presque totalité des philosophes, moralistes et religieux depuis la nuit des temps, nous appellent à modifier le monde par des décisions volontaires dont ils nous garantissent l’efficacité mais dont le modus operandi n’est jamais précisé. L’exemple offert par le grand généticien et père de la mémétique Richard Dawkins [Dawkins, op.cit.] illustre ceci jusqu’à la caricature 31. En bon méméticien, Dawkins nous 30 31

A.N.Whitehead, Procès et réalité, trad. Gallimard 1995 Sur la mémétique et les mèmes, voir chapitre 5

54


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

explique que les mèmes déterminent pratiquement tous les échanges culturels, jusqu’à composer notre propre personnalité. Mais il nous invite aussi à lutter vigoureusement contre ces déterminismes, pour défendre telle haute idée de l’humain que nous pourrions entretenir. En forçant le trait, cela signifie qu’il en appelle aux mèmes pour neutraliser les mèmes. Et qui est-il lui-même, sinon un mème ou, dans la terminologie mémétique, un mémeplexe ? Va-t-il se combattre lui-même, et comment ? A ce paradoxe, qui n’a pas échappé aux esprits religieux, la plupart des théologies (notamment monothéistes) répondent que le monde tel que nous le voyons est le produit d’un Dieu créateur responsable de l’ordre des choses, qui à ce titre connaît tous les déterminismes qui le régulent. Ce même Dieu a créé l’homme à son image, mais il ne lui a pas donné la connaissance. Il lui a seulement donné la possibilité de choisir librement entre le bien et le mal. Dieu propose alors à l’homme une voie de salut, qu’il pourra suivre ou ne pas suivre, grâce à la parcelle de liberté dont, à l’image de l’infinie liberté divine, il dispose. Ainsi se trouve sauvegardée la double conception d’un monde préexistant dont les règles peuvent être découvertes mais non modifiées, et celle d’un libre-arbitre humain pouvant par la volonté et la découverte choisir de se rapprocher de ce monde, c’est-à-dire de Dieu lui-même. Pour les scientifiques, qui sont généralement matérialistes, au moins dans l’exercice de leurs activités, il s’agit là d’un tour de passe-passe destiné à fournir une réponse acceptable à ce qui est ressenti en effet comme un des grands mystères de notre condition humaine : la coexistence apparente entre le déterminisme et le libre-arbitre. Beaucoup s’accommodent de ce mystère, mais certains recherchent une réponse qui soit du domaine du scientifique, c’està-dire potentiellement susceptible de vérification expérimentale. Appelons libre-arbitre ou conscience volontaire une propriété attribuée aux humains qui leur permettrait non seulement de se représenter eux-mêmes dans leur environnement (la conscience) mais aussi d’être capable de prendre des décisions n’ayant pour références que cette représentation qu’ils ont d’eux-mêmes (le libre-arbitre). “ Je me considère comme un honnête homme, donc je décide de rendre à son propriétaire le portefeuille trouvé dans le métro… mais je pourrais aussi bien le garder ”. On peut compléter cette définition en ajoutant que la conscience volontaire s’accompagne d’une sensation d’urgence : le sujet s’exhorte lui-même à être conscient (ouvrir les yeux), se projeter dans l’avenir, rechercher des solutions aux problèmes qui se posent à lui, faire œuvre d’invention. Le libre-arbitre pourrait à ce titre être considéré comme un homonyme de la créativité. La croyance et, pourrait-on dire, la foi aveugle en la conscience volontaire a depuis longtemps été et demeure le fondement principal de la morale sociale dans les sociétés occidentales. Les cultures asiatiques n’exaltent pas de la même façon le rôle des individus. Leur philosophie repose sur la méditation, dans laquelle la volonté individuelle paraît se dissoudre dans une fusion avec un Tout non différencié. Cependant, dans la pratique sociale courante, le volontarisme est tout autant encouragé en Asie qu’en Occident. On le voit avec l’importance conférée par la Chine contemporaine à la conquête de l’espace. Constamment, par l’appel au libre-arbitre, les individus sont incités à ne pas céder aux pesanteurs qui “ aliènent leur liberté ”, à mieux se représenter leur “ vraie nature ” et à prendre des décisions susceptibles de servir au mieux les intérêts ou les valeurs de celle-ci. Constamment, des personnes, que nous appellerons des “ politiques ” cherchent à convaincre d’autres personnes, que nous appellerons des “ citoyens de base ”, du fait qu’ils sont libres de choisir entre les voies qui s’offrent à eux. Remarquons cependant que, selon les “ politiques ”, certaines de ces voies sont meilleures que d’autres et que ce sont celles-là que les “ citoyens de base ” devraient librement choisir. On voit que ces “ politiques ” laï cisent d’une certaine façon la conception religieuse d’un Dieu omniscient. Ils se mettent à la place de celui-ci et invitent les citoyens ignorants à les rejoindre. Mais les citoyens, aussi ignorants qu’ils soient, ne se laissent pas automatiquement mettre en condition. Aussi les politiques, qui sont

55


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

persuadés pour ce qui les concerne d’être libres, reconnaissent par diplomatie la liberté dont disposent les citoyens et cherchent à obtenir leur adhésion en faisant appel à des formes de persuasion indirectes. Les défenseurs du libre-arbitre que nous sommes pratiquement tous quand il s’agit de décider de nos propres intérêts, acceptent volontiers l’idée que les choix ne se font pas au hasard, qu’ils sont justifiés par des raisons souvent très contraignantes. Ils refusent par contre d’admettre que les décisions se prendraient automatiquement, quelque part dans leur corps, sans que leur conscience volontaire ait eu à en débattre. Si on leur dit que le siège de la conscience volontaire n’apparaît nulle part dans le cerveau, on ne les convainc pas. Ils répondent que ce problème de la conscience est à ranger parmi les quelques dizaines de grandes questions auxquelles la science n’a pas encore pu apporter de réponse. Il y a quelque chose de la foi dans cette attitude. Il n’est sans doute pas étonnant que la société laï que prolonge ainsi dans le domaine du profane le discours traditionnel de la plupart des grandes religions, pour qui le sujet dispose d’une liberté absolue lui permettant de choisir entre le bien et le mal. Elle reste en effet très empreinte d’une morale religieuse multi-séculaire. Pourtant, si l’on se tient un peu informé de l’évolution des connaissances scientifiques, on ne peut ignorer que le libre-arbitre, et plus généralement la conscience en tant que moteur pour la prise de décisions, sont de plus en plus dénoncés comme des illusions par les sciences contemporaines. Chacune des avancées théoriques consiste à montrer que derrière les décisions apparemment libres se trouvent des enchaînements de causes qui en déterminent strictement le résultat. L’homme ne bénéficie plus d’aucun privilège de principe par rapport aux animaux. Comme eux, il est rigoureusement déterminé. Les mécanismes qui lui imposent ses décisions se sont mis en place tout au long d’une très longue évolution, celle de la vie. Les choix qu’il fait en permanence, il n’aurait pas pu ne pas les faire, à moins d’avoir été soumis à des déterminismes différents. Certes, il s’agit de déterminismes complexes, qui n’ont rien de linéaire, dont les boucles et rétroactions de causalité sont multiples et qui laissent encore une large part à ce que l’on appelle l’aléatoire (c’est-à-dire à des mécanismes non encore élucidés). Mais dans nul domaine il n’est possible de mettre en évidence une situation correspondant précisément à ce dont nous avons en permanence l’intime conviction : pouvoir aussi bien décider de faire telle chose que de ne pas la faire. De nombreux ouvrages ont développé ces thèses. Un des plus récents et des plus pertinents est celui du neurophysiologiste français Alain Berthoz. 4.2. La décision liée selon Alain Berthoz Dans son ouvrage très remarqué [La Décision, 2003, op.cit.], Alain Berthoz a présenté les mécanismes qui déterminent les prises de décisions dans le monde vivant, qu’il s’agisse de décisions inconscientes ou conscientes, qu’elles intéressent les animaux ou les hommes. On peut y voir un plaidoyer extrêmement argumenté de la thèse selon laquelle ce dont l’homme s’enorgueillit en en faisant le privilège de son espèce, c’est-à-dire l’aptitude à prendre des décisions “ intelligentes ” est extrêmement répandue et relève de mécanismes depuis longtemps hérités de l’évolution, compte tenu des atouts de survie qu’ils offraient aux espèces vivantes. L’auteur ne traite pas directement la question du libre-arbitre, mais tout le travail tend à faire penser que celui-ci, conçu comme une propriété spécifique à l’homme et ne disposant d’aucune assise biologique, est une illusion. La continuité évolutive des mécanismes permettant les décisions dites intelligentes Il s'agit d'une grande leçon que l'on retrouve dorénavant dans tous les ouvrages sérieux de biologie, de physiologie, de neurologie et de cognition. Il existe une grande continuité évolutive, de l'amibe à l'homme, dans les mécanismes décisionnels, notamment de type dit

56


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

intelligent, permettant l'adaptation. Il ne s'agit pas évidemment d'une continuité en ligne directe, mais plutôt de convergences de solutions, prenant des formes particulièrement sophistiquées dans certaines lignées animales, notamment celles résultant des processus dits d'hominisation. L'espèce de créationnisme naïf prétendant que tout ce qui concerne le cerveau et l'esprit humain serait apparu d'un coup et comme par miracle avec les dernières versions de l'homo sapiens n'est plus recevable. Encore faut-il le prouver, face aux défenseurs acharnés du dualisme corps-esprit. A cet égard, Alain Berthoz fournit nombre d'exemples convaincants. Il s'agit d'une nouvelle pierre (décisive) à ajouter aux travaux de la psychologie et de la sociologie évolutionnaires. La décision rationnelle n'existe pas Alain Berthoz insiste sur l'inanité des théories et des ouvrages illustrant la possibilité et la façon de prendre des décisions soi-disant rationnelles. Qu'il s'agisse de la vie quotidienne comme de la vie économique ou de la vie politique, il n'existe nulle part dans le cerveau (ni dans l'organisme collectif, sous la forme d'un état-major décisionnel) un "esprit dans la machine" 32, siégeant au sommet du système et prenant les meilleures options possibles à partir d'un tableau de bord et de logiciels d'aide à la décision. Les décisions, petites ou grandes sont des réactions à des états émotionnels (peur, besoin sexuel ou de prédation…) qui, selon le mot de Damasio, visent eux-mêmes à conserver ou restaurer l'intégrité, l'homéostasie de l'organisme. Elles ne s'expriment pas sous forme de choix intellectuels mûrement délibérés mais d'actions engagées dans l'urgence. Ces actions elles-mêmes prennent la forme de gestes ou de comportement précis, adaptés à chaque type de situation ou d'espace rencontrés. L'ensemble est placé sous le contrôle d'aires spécifiques du cerveau, héritées de millions d'années d'évolution, qui s’activent à la suite d’entrées sensorielles ayant provoqué un type d'émotion déterminé, adapté à chaque situation et aux effets induits de l'émotion elle-même. Les décisions sont plus ou moins "informées", selon les relations que l'organisme entretient avec son environnement. Lorsqu'il s'agit des hommes, le décideur peut s'appuyer, s'il en a les moyens, sur l'information collective mémorisée au sein de la société. Ces informations guident éventuellement son action, mais ne participent pas au cœur du processus de la décision, même lorsque celle-ci se veut rationnelle. L'attention portée aux émotions comme source de la cognition plutôt qu'à d'éventuels processus computationnels abstraits se déroulant dans le cerveau, est devenue le thème à la mode des analyses portant sur les liens entre le corps, le cerveau et l'esprit. Alain Berthoz n'innove donc pas dans ce domaine. Mais la richesse de son propos est de multiplier les exemples où le cerveau prend les micro ou macro-décisions dont peut découler la survie ou la mort de l'organisme. dans des délais bien inférieurs à ceux d'une prise de conscience éventuelle. Les décideurs en général, et chacun d'entre nous en particulier, qui s'efforcent à la rationalité face aux passions et égarements de la vie courante, n'accepteront pas de voir réduite la portée de leur prétendue raison raisonnante. Si cependant ils se donnent la peine de réfléchir à leurs propres comportements, individuels ou collectifs, en s'éclairant des exemples fournis par Alain Berthoz, ils percevront sans doute qu'il n'existe pas en eux un Je abstrait qui décide, mais un organisme en proie à des émotions et à des réactions le plus souvent inconscientes. Pour reprendre un terme emprunté à la psychiatrie, nous sommes “ décidés ” par des forces antérieures à toute prise de conscience. Certes, au fur et à mesure que s'étendent les capacités associatives des cerveaux, l'organisme élargit le répertoire des méthodes permettant de mieux apprécier le milieu au sein duquel il se trouve. Un prédateur complexe comme le loup développe des stratégies plus évoluées que celles (peut-on penser) de la 32

Selon les termes de Pinker et de Dennett

57


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

mouche. Le loup a mémorisé (génétiquement) de nombreux scénarios de chasse entre lesquels il choisit, plus ou moins consciemment, semble-t-il, les mieux adaptés. Ce choix lui-même est déterminé par les informations elles-mêmes complexes concernant la proie et le territoire recueillies par les sens de l'animal isolé ou au sein de la meute. L'émotion et l'action de base restent les mêmes, de la mouche au loup, mais elles s'adaptent beaucoup plus finement aux exigences d'une situation bien précise. Le décideur économique qui joue à la Bourse ou G.W. Bush Jr. qui décide d'envahir l'Irak s'appuient sur des scénarios encore plus nombreux, sur des données encore plus diversifiées, mais au fond des choses, ils ne peuvent prétendre prendre des décisions rationnelles au sens où l'entend une acception idéaliste du concept de raison. Ils agissent par émotion. Mais alors qu’est-ce qui distingue une décision rationnelle, mûrement étudiée, d'une autre prise pour des motifs d'humeur ? Celui qui décide est-il capable de choisir la rationalité, avec les contraintes qu'elle impose, plutôt que le choix impulsif? On peut penser que le décideur, consciemment ou non, choisit en fonction des informations dont il dispose. S’il s'engage dans des processus de consultation rationnelle, voire dans des travaux scientifiques préalables à sa décision, c'est parce qu'il appartient à un milieu où existent les informations nécessaires et parce qu'il a été éduqué pour les utiliser. Ce n'est pas alors lui qui décide rationnellement, mais plutôt ces informations qui décident à sa place. Autrement dit, en ce qui me concerne, soit je prends des décisions irréfléchies parce que je n’ai pas d’éléments m’incitant à réfléchir – ou parce que mes passions l’emportent sur tout le reste…. soit je pèse soigneusement le pour et le contre, mais alors je ne peux pas ne pas le faire. Je le fais parce que mon esprit est empli d’arguments contradictoires, procurées par le milieu culturel et appelés en mémoire suite à mon expérience passée ou présente. Il faut bien alors que je sorte de la contradiction. Une mise en concurrence darwinienne de ces arguments s’organise dans mon cerveau, l’argument qui “ pèse le plus fort ” dans mes neurones finissant par emporter – non sans conflit d’ailleurs avec mes passions qui n’ont pas cédé pour autant tout le terrain. On pourra développer alors l'hypothèse très féconde selon laquelle les vraies entités décisionnaires sont les informations en réseau accumulées par les organismes vivants au sein de leurs cultures. Mais ces informations étant dépourvues de corps sensibles, elles doivent passer par l'intermédiaire des organismes vivants et de leurs émotions pour entrer en compétition darwinienne les unes avec les autres, et construire ainsi un monde plus complexe. Nous retrouvons ainsi d'une certaine façon la problématique des mèmes évoquée ci-après. 4.3. Le libre-arbitre selon Daniel Dennett Le philosophe américain Daniel Dennett [Dennett, op.cit.] est connu comme un matérialiste évolutionniste. Pour lui, la vie et la conscience sont des émergences du monde matériel apparues suite à une longue évolution résultant des mécanismes de la sélection darwinienne appliqués sur de longues périodes de temps et à un nombre incommensurable d’espèces. Dans un livre déjà ancien consacré à la conscience 33 il a montré que les faits de conscience peuvent être expliqués par la coopération en temps quasi-réel de modules d'information répartis dans le cerveau. Il n’y a pas, selon lui, de chef d’orchestre traitant de façon cartésienne les différentes informations perçues par les sens afin de diriger le corps comme le ferait un pilote d’avion dans son cockpit. Mais le livre laissait sur sa faim. On aurait voulu en savoir un peu plus sur les mécanismes neuronaux donnant naissance à l’illusion de l’autonomie de la conscience et du Je, ceux qu’ Alain Berthoz nomme la synchronisation, produit de la mise en réseau d'aires du cerveau et aussi d’un changement dans la nature de l'information codée dans ces réseaux. 33

La conscience expliquée, 1991 [Dennett, op.cit.].

58


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Nous avons noté ci-dessus que le prétendu "libre-arbitre", que l'on peut aussi attribuer à l'exercice de la "conscience volontaire", constitue en effet le point difficile de toutes les hypothèses scientifiques visant à faire apparaître les bases matérielles de l'esprit. Les philosophes, avec David Chalmers 34 , distinguent les problèmes “ faciles ” de la conscience, et le problème “ difficile ” (Hard problem, autrement dit insoluble). Les problèmes faciles, (bien que restant difficiles) sont ceux concernant le fonctionnement systémique du corps et du cerveau produisant des faits de conscience, comme par exemple les mécanismes de la vision. Aujourd’hui, les techniques d’exploration fonctionnelle du cerveau permettent des progrès considérables, les découvertes nouvelles se produisant pratiquement tous les jours. Le problème difficile est celui du Je et plus encore du libre-arbitre dont chacun d’entre nous est convaincu de disposer. Même lorsqu'on pense avoir démontré que la conscience volontaire est un phénomène émergent à partir de la complexité neuronale des cerveaux individuels, eux-mêmes interagissant avec la complexité au moins aussi grande des informations, idées ou mèmes, circulant dans les réseaux de communication sociaux, eux-mêmes interagissant avec le monde, on se heurte à la conviction bien ancrée que le Je capable de prises de décisions volontaires est quelque chose de plus que cela, et ne peut être évacué aussi facilement. Les modèles de conscience artificielle que certains commencent à envisager 35 ne résolvent pas davantage le problème. S'ils permettent de se représenter ce que sera une entité artificielle consciente d'elle-même dans son environnement, ils n'explicitent guère en quoi le libre-arbitre que l'on pourrait reconnaître à ces entités ressemblerait à celui de notre propre Je. Le libre-arbitre serait une illusion Aussi bien, la conclusion la plus répandue, propre à désespérer les volontarismes de toutes sortes, consiste à dire que le libre-arbitre des individus ou des collectivités n'est qu'une illusion. Les prétendues décisions libres seraient en fait le résultat de processus complexes mais déterministes qui en feraient ce qu'elles ont été et pas autre chose. C’est globalement la thèse qui inspire un livre récent de Jean-Pierre Changeux [Changeux, op.cit.] et plus clairement encore celui de Daniel M. Wegner, au titre explicite36. Un livre encore plus récent, qui nous a paru remarquable à de nombreux points de vue, traite également du libre-arbitre, parmi les vingt problèmes non résolus auxquels se heurte la science contemporaine37. Pour l’auteur, qui a consulté de nombreux scientifiques, le libre-arbitre est effectivement une illusion. Nous sommes déterminés en tout, selon des modalités que les neurosciences font de plus en plus apparaître. Il en déduit que toutes les législations fondées sur le concept de responsabilité des individus, accompagné de sanctions en cas de dérogations aux règles, devraient être repensées. Il ne s’agirait pas de ne pas sanctionner. Les règles et les sanctions sont indispensables à la survie des sociétés. Elles existent de fait dans les super-organismes animaux 38. Par contre, la culpabilité dont on charge les déviants aux règles, en cherchant à les convaincre qu’ils auraient pu faire le Bien au lieu de faire le Mal, ne présente que des inconvénients. Il vaudrait mieux s’en prendre aux causes, innombrables malheureusement, qui les ont déterminés à se comporter de façon asociale. Ce point de vue, émanant d’un auteur américain, dans une société de plus en plus moralisante, est des plus intéressant. Nous venons de rappeler que Daniel Dennett s'est attaché à montrer que l'esprit humain est un produit de l’évolution biologique, y compris dans ses manifestations les plus élaborées comme la conscience volontaire. Mais il semble qu'il ne se soit pas lui-même 34

David Chalmers, The Conscious Mind, Oxford University Press, 1996 Alain Cardon, Modéliser et concevoir une machine pensante ; Vuibert, Coll. Automates Intelligents, 2004. 36 Daniel Wegner, The Illusion of Conscious Will, MIT Press, 2002. 37 John Vacca, The World’s 20 Greatest Unsolved Problems, Prentice Hall, 2004. 38 Voir Chapitre 6. 35

59


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

totalement satisfait des démonstrations qu'il proposait à ses étudiants et à ses lecteurs, visant à réintégrer le Je dans le déterminisme matérialiste. Dans de nombreux articles postérieurs à ses premiers livres, il a repris cette question du libre-arbitre (free will), jusqu'à finalement y consacrer un nouvel ouvrage, Freedom Evolves, que l'on pourrait traduire par "Interprétation évolutionniste du libre-arbitre". Le libre-arbitre produit de l’évolution ? Dennett cherche aujourd’hui à montrer que le concept de libre-arbitre est compatible avec une vision scientifique du monde. Il a toujours voulu proposer une synthèse de la philosophie et des sciences de la nature, s'appuyant sur la biologie évolutionnaire, les neurosciences, la théorie des jeux et la mémétique, dont il fut un des premiers défenseurs - le tout illustré chaque fois que possible par des simulations relevant de l'Intelligence Artificielle. Il qualifie sa démarche de "naturaliste". Mais il refuse l'étiquette de réductionnisme trop vite accolée à de tels propos. En darwinien convaincu, il a toujours défendu l’idée que des complexités imprévisibles peuvent surgir de l'algorithme darwinien classique hasard/sélection. Par de nombreux exemples, il montre que la co-évolution génétique et culturelle "contrainte" par la sélection naturelle a produit l'esprit, la moralité et le libre arbitre au même titre que nos attributs physiques et physiologiques. Il refuse l'hypothèse brutale selon laquelle le libre-arbitre du Je serait une simple illusion. Il y a selon lui quelque chose de spécial dans le Je tel qu'il se manifeste chez les humains ayant acquis une autonomie suffisante par rapport aux déterminismes primaires. Mais la difficulté consiste à le démontrer sans rien retirer de ce qu'il avait précédemment appelé l'idée dangereuse de Darwin, selon laquelle tout ce qui survient - y compris ce que nous appelons les manifestations les plus "nobles" de l'esprit résulte de processus évolutifs se déroulant sans téléonomie, c'est-à-dire sans manifestation d'une finalité. Pour cela, il prend directement à contre-pied l'argument de ceux qui disent que la psychologie évolutionnaire, assortie de mémétique, nous propose un monde dépourvu de toute possibilité de choix. Contrairement à l'opinion répandue, la science ne diminuerait pas notre autonomie du fait qu'elle fait apparaître les mécanismes ou règles sous-jacents aux êtres et aux phénomènes. Semblablement, les mèmes 39 ne sont pas de simples virus prenant possession de nos esprits pour nous transformer en zombies. Comme à un autre niveau de conceptualisation les hypothèses et théories scientifiques, les mèmes concourent au contraire à nous apporter en permanence de nouveaux points de vue sur le monde. Finalement, pour Dennett, le Je résulte d'une interaction permanente avec les autres. C'est éminemment un produit du développement des sociétés complexes. Les conditions ayant permis l'apparition du libre-arbitre sont identiques mais à un niveau de complexité supérieur à celles ayant produit l'évolution du monde physique et biologique. A tous les niveaux émergent des agents dont la liberté d'action s'accroît du fait qu'ils résultent de l'agrégation de formes plus simples interagissant avec un environnement de plus en plus complexe. Les problèmes moraux que se posent les hommes sont de même nature que les processus par lesquels les animaux rassemblent des informations sur leur environnement afin de mieux s'y diriger. Le libre- arbitre mais pas comme on l’imagine Dans une interview sous ce titre donnée au journal NewScientist 40, Daniel Dennett s'est efforcé de résumer l'essentiel de son argumentation. Comme certains le font encore, il est illusoire de continuer à proposer des théories de l'esprit qui ne replacent pas celui-ci dans l'évolution darwinienne du monde physique et biologique. Ces théories sont inspirées par la 39 40

Voir Chapitre 5 NewScientist, 24 mai 2003, p. 39

60


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

peur innée du déterminisme, déjà apparue dans l'Antiquité quand les penseurs grecs ont expliqué que le monde résultait de l'interaction entre atomes inanimés. Pour tenter de sauver le libre-arbitre, certains de ces philosophes ont fait appel à l'idée de hasard, résultant de la dérive aléatoire des trajectoires des atomes. Le hasard est sans doute un argument contre le déterminisme, mais pas en faveur du libre-arbitre : "Disposer d'une roulette dans la tête ne vous rend ni plus libre ni plus responsable", explique Dennett. En fait, selon lui, c'est une erreur de placer le déterminisme et l'inévitabilité (inevitability) sur le même plan, en supposant que l'un implique l'autre. Par inévitabilité, il faut entendre "impossibilité d'éviter" (unvoidability). Qu'est-ce qu'éviter ? C'est comprendre les déterminismes auxquels nous sommes soumis, afin de décider des conduites les plus adaptées à la survie. L'évolution darwinienne a manifestement favorisé par sélection l'apparition d'agents "éviteurs" (avoiders). Les modèles de la Vie Artificielle, notamment le Jeu de la Vie de Conway 41, montrent comment de tels agents peuvent naître spontanément et survivre en apprenant à échapper à ceux qui veulent les détruire. Ce qui caractérise ces agents dans notre monde est la capacité d'extraire de l'information de l'environnement et de l'utiliser pour élaborer des stratégies d'évitement. Plus on peut comprendre et intégrer les règles du monde qui nous entoure, plus on devient capable d'éviter les risques et de choisir des conduites judicieuses et personnalisées. Les animaux le font déjà, mais les hommes de la société scientifique le font encore mieux (ou devraient le faire encore mieux). L'homme, pour reprendre une citation de Paul Valéry reprise par Daniel Dennett, est une machine à produire son futur. Pour contrôler les informations de plus en plus nombreuses que l'homme recueillait sur le monde, son cerveau a dû grandir et gagner en performance. Mais le cerveau individuel à lui seul ne peut s'acquitter de cette tâche. Les hommes se distinguent des animaux par le langage. Contrairement à ces derniers ou à leurs ancêtres plus primitifs, ils ne sont plus obligés de rassembler et mémoriser par eux-mêmes l'information dont ils ont besoin. Grâce aux langages et aux webs, notamment scientifiques, ils peuvent mobiliser l'expérience de milliards de leurs semblables. Cela ne retire rien à leur responsabilité personnelle. Au contraire, cela lui donne ses fondements. On voit que cette conception généreuse du libre-arbitre où celui-ci trouve ses bases dans la culture collective est conforme à l'optimisme qu'a toujours manifesté Daniel Dennett face à l'évolution du monde telle que nous pouvons la percevoir. On peut se demander cependant si l'argument résout entièrement le problème posé : qu'est-ce exactement que le libre-arbitre du Je volontaire, dont chacun d'entre nous se sent intuitivement le dépositaire ? On en revient nécessairement à une sorte de déterminisme. Il ne s'agit pas d'un déterminisme linéaire analogue à ce que pourrait dire du monde l'hypothétique démon de Laplace dont les mathématiques du chaos ont démontré l'impossibilité. Mais il s'agirait plutôt d'une sorte de déterminisme chaotique, si l'expression peut avoir un sens. L'interaction des multiples informations que recueille mon organisation d'agent connecté à un réseau m'impose à tous moments un certain type de décision et de comportement. Le cerveau ne fonctionne pas alors comme une machine de Turing, mais plutôt comme un vaste réseau neuro-mimétique. Les informations reçues en entrées se conjuguent selon leurs poids respectifs, sur le moment, pour donner des sorties totalement imprévisibles et non reproductibles, mais non aléatoires. Ceci se fait selon des processus de création de complexité qui me seront à jamais imprédictibles et indescriptibles. Mais je ne prends pas ma décision à partir de rien. Lorsque des mèmes, tels ceux valorisant le recours au libre-arbitre, s'insèrent dans ces mécanismes de prise de décision, ils peuvent avoir pour effet de renforcer les canaux par lesquels le système acquiert

41

John Conway, Game of Life http://www.bitstorm.org/gameoflife/

61


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

et combine les informations internes et externes. L'organisme produit alors des décisions "éclairées" plutôt que des décisions sommaires ou rapides. Pour approfondir la question, il serait certainement nécessaire de procéder à des simulations en intelligence artificielle. Comment un système devant prendre une décision peut-il être informé, influencé ou déterminé par des informations externes à lui auxquelles il aurait accès ? Ces informations se combinent-elles d'elles-mêmes (par exemple en fonction de leur "poids" respectif, comme dans un réseau neuronal) pour produire la décision ? Ceci n'éclairerait sans doute pas ce qui est à la base de l'impression subjective de libre-arbitre ressenti par le sujet qui décide, c'est-à-dire par l'agent éviteur, pour reprendre la terminologie de Dennett. Mais ceci permettrait au moins d'en préciser les mécanismes. La question de l'altruisme et de la morale Dennett, dans cet esprit, veut justifier la thèse selon laquelle l'altruisme et la morale sont compatibles avec le darwinisme. C'est un sujet qui est souvent traité, notamment aux Etats-Unis. Les uns veulent montrer que l'altruisme et la morale ne peuvent dériver de la compétition darwinienne, puisqu'ils peuvent nuire aux intérêts immédiats des individus et diminuer leurs aptitudes à propager leurs gènes. Dans ce cas, ils ne peuvent avoir été sélectionnés par l'évolution et proviennent d'autres causes. Certains voient là un argument très fort contre le darwinisme et une incitation à la recherche d'interventions spirituelles ou même divines dans l'évolution. Les darwiniens au contraire se sont efforcés de démonter cet argument en montrant que, dans un certain nombre d'espèces, en dehors de l'instinct maternel proprement dit, on trouve des comportements ressemblant relevant de l'altruisme, par exemple chez les fourmis ouvrières qui se sacrifient pour défendre la reine ou les larves. C'est ce qu'on appelle la "kin selection" ou sélection par appartenance à la même espèce. En ce cas, on explique que ces fourmis aident à propager non leurs gènes mais ceux de leurs sœurs et cousines capables de se reproduire. Dennett s'inscrit dans la ligne de ces arguments, en élargissant les références. Il montre avec de nombreux exemples que l'on peut justifier les comportements altruistes, ainsi que l'appel aux références morales, dans une perspective strictement évolutionniste. Comme il l'a fait à propos du libre-arbitre, il refuse de nier l’existence et la spécificité de l'altruisme et de la conscience morale, ainsi que certains darwiniens purs et durs ont pu le faire, mais il veut montrer que ces propriétés typiquement humaines s'inscrivent naturellement dans l'histoire ��volutive de notre espèce. Ce faisant, Dennett se donne beaucoup de mal pour défendre une cause qui paraît aller de soi. Il semble que dans le règne animal, outre l'instinct maternel (et paternel) déjà nommé, il existe de nombreux exemples où des individus peuvent défendre leurs proches au détriment de leurs intérêts propres, et donc au détriment de leur capacité à disséminer leurs gènes. C'est le cas notamment dans les comportements de coopération au sein d'une espèce ou d'un groupe. Nous ne sommes plus alors il est vrai dans le cas de la compétition entre individus, mais dans celui de la compétition entre groupes - trop souvent perdue de vue par les darwiniens traditionnels, et dont Howard Bloom notamment a rappelé le rôle important 42 . On peut sans peine concevoir alors que les individus capables de se sacrifier pour la conservation du groupe aient pu être sélectionnés par l'évolution, sans qu'il soit nécessaire dans un premier temps de faire intervenir un processus reproductif. Si je meurs pour la patrie, la patrie ne s'en portera que mieux et, plus tard, de nouvelles naissances lui permettront de rester compétitive. Il faut dans cette optique considérer le groupe comme un organisme susceptible d'imposer à ses membres des comportements qui aident à sa survie, indépendamment des problèmes de transmission des gènes. On se trouve alors dans le domaine du culturel, ou de l'épigénétique, et non plus dans celui du génétique. 42

Voir Chapitre 6.

62


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Comme le montre très bien Dennett, dès que dans les groupes humains les représentations du groupe et de sa survie (les mèmes du groupe) ont pu apparaître et se répandre dans les cerveaux au même titre que les autres représentations des objets du monde, elles ont du inspirer des comportements altruistes, des réflexions ou évaluations de type moral, qui ont aidé à la survie des groupes, y compris initialement sur le mode inconscient. On retrouve alors une explication de l'altruisme et de la morale qui est très répandue chez tous ceux qui ne veulent pas y voir la preuve d'une intervention divine au sein des consciences. Le comportement altruiste, les prescriptions morales, ne visent pas un hypothétique bien en soi, mais un intérêt à plus long terme, intérêt du groupe ou de l'individu, qui se substitue chez les êtres capables d'un minimum de projection dans le futur, à la défense des intérêts immédiats. Ma conscience morale peut s'étendre, au-delà de mes proches, à l'espèce humaine tout entière, voire à la biosphère. Mais dans tous les cas, elle vise à la conservation d'intérêts de survie qui, globalement, sont égoïstes. La morale ainsi conçue suppose une évaluation permanente du poids des intérêts égoïstes immédiats et de celui des intérêts égoïstes à plus long terme. L'individu ayant un profil moral particulièrement marqué et reconnu améliore ses chances d'être sélectionné comme chef, puisqu'il peut proposer au groupe de transcender les intérêts individuels, y compris les siens propres, dans la perspective de la survie dudit groupe. Dire cela ne retire rien à la valeur du recours à la morale, mais fait descendre celle-ci du piédestal de droit divin où veulent la mettre ceux qui, souvent, s'en prétendent les hérauts pour mieux aliéner les autres. Répétons-le, il n'est pas nécessaire que l'altruisme et la morale soient conceptualisés de façon consciente, pour que leurs bons effets en faveur de la survie des groupes puissent s'exercer. Beaucoup de sociétés primitives reconnaissent sans doute plus ou moins inconsciemment la valeur de l'altruisme, soit dans les comportements de la vie quotidienne, soit comme argument pour sélectionner leurs chefs. Mais il est évident que lorsque des codes moraux ( c’est-à-dire, dans le vocabulaire de la mémétique, des mèmes relatifs à la moralité) sont apparus par l'intermédiaire des langages créateurs d'une conscience collective, l'altruisme et la morale ont été l'objet de prescriptions explicites aidant à leur diffusion et rendant plus difficiles (mais pas impossibles, évidemment) les comportements égoïstes. 4.5. Le cerveau des sensations Antonio R. Damasio est chef du département de neurologie au Collège de médecine de l'Université de l'Iowa. Il est également professeur adjoint au Salk Institute de La Jolla. Il est aujourd'hui mondialement connu pour ses travaux sur le cerveau humain, dont il explore la complexité, notamment au regard de la mémoire, du langage et des émotions. Dans ses écrits, traduits en de nombreuses langues, ce chercheur mêle étroitement l'expérience clinique, les études neurologiques, une imagination créatrice et une sensibilité philosophique et humaine remarquables. Antonio Damasio est une référence, non seulement dans le domaine des neurosciences, mais aussi pour tout ce qui concerne la simulation du moi et de la conscience sur des automates. Son dernier livre, Looking for Spinoza [Damasio, op.cit.] développe les résultats expérimentaux mentionnés dans ses précédents ouvrages43 ainsi que leur philosophie générale Celle-ci a consacré la prise en considération des sentiments dans la compréhension des relations entre le corps, le cerveau et l'esprit. Mais Looking for Spinoza les enrichit encore. L'auteur y présente une synthèse achevée et harmonieuse de ses travaux et hypothèses. Ajoutons que, par ce livre, Antonio Damasio rend un hommage justifié à un philosophe 43

Notamment The Feeling of What Happens.

63


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

longtemps méconnu, Benedict Spinoza, étonnamment en avance sur son temps. L'hommage de Damasio à Spinoza est d'autant plus précieux qu'il met en relief ce que ne font pas les biographes ordinaires du philosophe hollandais, c'est-à-dire l'étonnante convergence entre les hypothèses de celui-ci relativement à l'origine de l'esprit, et les études modernes de neurophysiologie rapportées par l’auteur. Cette convergence en elle-même pose problème: comment un esprit qui ne connaissait rien à la science actuelle a-t-il pu si tôt faire œuvre de précurseur ? La thèse de Damasio sur les origines de l'esprit et de la conscience est aujourd'hui remarquablement cohérente et convaincante. Elle confirme et éclaire les théories, de plus en plus fréquentes aujourd'hui, montrant que les formes les plus élaborées de l'esprit et de la conscience humaine sont des acquis de l'évolution ayant émergé, selon les lois simples de la compétition darwinienne, dès l'aube de l'apparition de la vie sur Terre. Damasio, pour sa part, ne se livre pas sur ces questions à des spéculations philosophiques, comme le fait par exemple Daniel Dennett. Ce qu'il avance s'appuie sur une série impressionnante d'observations cliniques ou permises par l'imagerie cérébrale fonctionnelle. Ces expériences n'apportent évidemment pas des preuves définitives, mais leur convergence permet de donner des fondements solides aux interprétations qu'en propose l’auteur. Ceux que le prétendu réductionnisme de Damasio scandaliserait (faire des sentiments conscients et de l'état du Moi lui-même la conséquence d'états bien définis du corps) doivent se dire que l'auteur n'avance rien sans preuves expérimentales. D'autres expériences à l'avenir nuanceront certainement les premières, mais pour le moment, nous pouvons nous reposer sur elles et ne pas mettre en cause de façon purement idéologique ses propositions. Essayons de résumer en quelques paragraphes l'essentiel de sa démonstration. Elle semble si cohérente que nous pourrions parler en raccourci d'un véritable "système Damasio" L'homéostasie Les organismes vivants se caractérisent d'abord, avant même leur capacité à se reproduire et à muter, par l'existence d'un "corps" assurant la permanence d'un milieu interne protégé de l'extérieur par une barrière. Des plus simples aux plus complexes, ils n'ont pu survivre qu'en maintenant ce milieu interne à l'abri des agressions de l'environnement. C'est ce que l'on appelle couramment l'homéostasie. L'organisme vivant est une "machine homéostatique" dont le métabolisme est assuré par des processus élémentaires acquis génétiquement et présents dès les formes les plus simples de cellules homozygotes. On retrouve ces mécanismes sans changements fondamentaux tout au long de l'échelle des organismes vivants. Les stimulus et sensations Les mécanismes assurant la survie et le métabolisme des organismes sont déclenchés par des stimulus externes (réception d'une phéromone provenant d'un partenaire sexuel possible, par exemple) ou internes (sensation de faim provenant de la baisse du dosage du sucre). Une chaîne de déclenchement (trigger) s'engage ensuite, jusqu'au cerveau, mobilisant les différentes ressources de l'organisme. On ne peut séparer conceptuellement le stimulus ou déclencheur et le mécanisme déclenché. L'un et l'autre co-évoluent en inter-relation. Les réflexes Les corps ont été dotés progressivement par l'évolution d'organes de plus en plus complexes capables d'assurer les grandes fonctions d'alimentation, d'excrétion, de reproduction, de fuite devant les prédateurs. Ces organes sont commandés par des réflexes de base (basic reflexes) déclenchés par les stimulus précités. Des dispositifs de contrôle coordonné de la bonne exécution de ces fonctions ont été sélectionnés par l'évolution, y

64


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

compris chez les organismes les plus simples, notamment sous la forme d'échanges de messages chimiques. Dès le début, un système immunologique s'est développé pour assurer la protection contre les invasions extérieures. Ainsi s'est précisé ce qui était pour ces organismes le Bien (les facteurs leur permettant de se maintenir en vie et en bonne santé) et le Mal (les facteurs les conduisant à dépérir et mourir). Spinoza, rappelle Damasio, a qualifié de "conatus" la tendance, propre à la vie, de chaque organisme à persévérer dans son être, en faisant appel aux ressources nécessaires. Les cartes corporelles cérébrales Avec la complexification croissante des organismes, des organes spécialisés dans le contrôle de l'homéostasie et dans le déclenchement des actions réparatrices sont apparus. Ce furent les systèmes nerveux. Une part importante des génomes, chez les organismes simples comme le ver ou la mouche comme chez l'homme, s'est trouvée dédiée à la programmation des processus d'entrée-sortie et de contrôle coordonnés permettant la surveillance des paramètres de bon équilibre et la mise en œuvre des procédures de survie : s'alimenter, se reproduire, élever les descendants, fuir les agresseurs, etc. Pour cela les cerveaux disposent de multiples cartes corporelles (body-map) qui permettent la synthèse des signaux provenant du corps. Le cerveau, en ce sens, élabore une image dynamique du corps analogue aux tableaux de bord des machines complexes. Il s'agit de connaître en temps quasi-réel l'état du système et d'engager immédiatement les actions réparatrices. Les émotions Les stimulus permettant la mise en œuvre des différents processus vitaux et leur coordination par le cerveau s'organisent, à partir des organes des sens, en messages sensoriels de plus en plus élaborés (sensations) lesquels donnent naissance, au-delà d'un certain niveau d'évolution, à des tendances et appétits (drives, appetites) puis à des émotions d'appétence ou de rejet produisant des états corporels complexes. Dans la terminologie de Damasio, sensations et émotions ne sont pas nécessairement conscientes. Au contraire, dans la totalité des êtres vivants y compris chez l'homme, elles sont principalement inconscientes. Les émotions ne sont pas des phénomènes gratuits, mais font partie essentielle de la mise en œuvre des processus vitaux. Elles ont été programmées par l'évolution génétique pour mobiliser le plus efficacement possible les ressources de l'organisme au service du bon fonctionnement des organes sensoriels et effecteurs. Damasio les désigne du nom de "emotions proper ", que l'on pourrait traduire par le terme de "tuteur émotionnel" ou "moteur émotionnel". Il distingue les émotions basiques, énergie, enthousiasme, malaise ; les émotions primaires : faim, plaisir, désir, peur et les émotions "sociales" résultant de l'exercice des précédentes dans la vie en société, laquelle est indispensable à la construction des individus, même des plus simples : orgueil, sympathie, indignation, etc. On a tout lieu de penser que même si les émotions sont difficiles à mettre en évidence chez les organismes relativement simples (insectes, mollusques), elles existent pourtant. En tous cas, on sait maintenant les observer à l'œuvre dans les espèces plus complexes, de la même façon que chez l'homme, même lorsqu'elles ne sont pas entrées dans le champ de la conscience. Dans cette optique, les émotions sont indispensables à la survie. Les émotions, comme les sensations, mais à un niveau supérieur, se traduisent par diverses modifications corporelles. Celles-ci sont à la fois le signal permettant au cerveau de les enregistrer et le moyen dont dispose l'organisme pour affronter victorieusement les facteurs internes et externes visant à déstabiliser son homéostasie. Ainsi, manifester des signes de colère peut éloigner un adversaire. Là encore, ces modifications corporelles n'ont pas besoin d'être conscientes pour jouer leur rôle protecteur.

65


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Les émotions, facteurs essentiels de la capacité de l'organisme à survivre dans un milieu nécessairement hostile, se déclenchent dès que l'organisme perçoit, sous forme de messages sensoriels simples ou complexes (sensations), les indicateurs internes ou externes signifiant le danger (le Mal) ou au contraire l'obtention d'un état d'équilibre (le Bien). Chaque individu est entouré de stimulus générant des émotions (emotionally competent stimulus, ECS) auxquels il réagit en permanence. L'identification de ces ECS est généralement programmée génétiquement (par exemple la méfiance à l'égard d'un objet non identifié). Mais beaucoup d'ECS sont les produits de l'expérience individuelle, que l'on pourra dire culturelle. Les processus qui précèdent l'apparition des émotions, et celles-ci elles-mêmes, sont hérités génétiquement, du moins dans leurs grandes lignes. L'évolution individuelle de chacun (sa culture) se borne à individualiser et enrichir ces cadres génétiquement transmis. Les moteurs émotionnels ayant évolué pour optimiser les chances de survie des individus peuvent se révéler mal adaptés ou néfastes dans d'autres circonstances, notamment dans la vie en société moderne. Mais comment espérer que leurs déterminants génétiques puissent cesser d'agir? C'est là tout le problème du contrat social. Les sentiments et les pensées Chez les organismes dotés de pré-conscience ou de conscience, notamment chez l'homme, les mécanismes de survie précédemment décrits et générant des émotions, vont plus loin. Certaines émotions deviennent conscientes. On peut les appeler des sentiments (feeling). Ceux-ci, dans leurs formes extrêmes, prendront la forme de passions. Comment définir les sentiments, par rapport aux émotions, outre le fait qu'ils sont conscients et que celles-ci ne le sont pas ? Les sentiments correspondent à la perception d'un certain état du corps à laquelle s'ajoute la perception de l'état d'esprit correspondant, c'est-à-dire des pensées (thought) que le cerveau génère compte tenu de ce qu'il perçoit de l'état du corps. Les sentiments et les pensées ne viennent donc pas de nulle part, mais sont adaptés à la situation où se trouve l'organisme. Damasio rappelle que c'était là le point de vue de William James (1842-1910) 44 aussi méconnu en son temps que Spinoza : "le sentiment est la perception du corps réel modifié par l'émotion". C'est donc au sommet seulement de processus empilés (nesting principle) qu'apparaissent les sentiments. Du fait que ceux-ci sont conscients, leur importance a été surestimée, tandis que les mécanismes leur donnant naissance, restant inconscients, ont été ignorés ou peu étudiés. Quel est alors le rôle des sentiments, en termes de sélection darwinienne ? Poser la question revient à poser la question du rôle de la conscience. La conscience, chez l'homme comme chez les organismes en présentant des formes simples, se construit sur la base d'émotions transformées en sentiments. Sert-elle à quelque chose ? On admet généralement que la conscience n'est pas un simple épiphénomène, mais permet d'organiser les sensations et les émotions du moment en les comparant les unes aux autres, et en les rapprochant de celles constituant la conscience biographique du sujet. La conscience mobilise et regroupe à tout moment dans un espace de travail commun un certain nombre d'informations nécessaires à la définition de stratégies de survie et à la prise de décision. Damasio s’est toujours efforcé de cerner le concept de proto-soi, de soi instantané, de soi biographique (c'est-à-dire capable de se rétrojecter dans le passé et se projeter dans l'avenir). Il reprend aujourd’hui ces hypothèses. Il fait reposer le soi sur une prise de conscience des émotions les plus fortes, c'est-à-dire aussi de certains des facteurs déclencheurs de ces émotions, ainsi que des modifications corporelles qu'elles entraînent. L'état de conscience en ce cas est d'abord une conséquence des émotions qui le précèdent, mais il agit en retour sur celles-ci, en favorisant la prise de décision commandant des comportements d'adaptation et les modifications corporelles qui leurs sont 44

Sur William James, voir http://www.emory.edu/EDUCATION/mfp/jphotos.html

66


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

liées. Il peut s'établir à ce niveau une co-évolution ou interaction entre émotions, sentiments et comportements en découlant. Les idées Les sentiments entrant dans le champ conscient génèrent aussi des comportements de type social. La conscience se construit principalement, dans le cerveau conscient, par le jeu des échanges langagiers et symboliques entre individus au sein des groupes. L'interaction entre émotions et sentiments se poursuit à ce niveau. On exprime un sentiment lui-même lié à une émotion, par l'échange d'une information symbolique ayant valeur de langage, signes ou mots. Ceux-ci s'organisent en opinions ou idées dès lors qu'ils respectent un certain formalisme grammatical. Ce faisant on peut communiquer avec les autres sur une base commune, puisque ceux-ci sont organisés génétiquement pour fonctionner d'une façon identique au sein de l'espèce. A l'intérieur des groupes, les émotions et les sentiments s'expriment sous forme de comportements spécifiques, sélectionnés par l'évolution pour assurer la survie collective. C'est le cas de l'empathie par laquelle on comprend intuitivement ce que ressent autrui. C'est aussi le cas des comportements dits altruistes ou moraux. Les individus y sacrifient un intérêt immédiat au profit d'un avantage plus lointain procuré par la survie du groupe que favorise ce sacrifice. L'établissement et le respect d'un contrat social permettant de sublimer les déterminismes génétiques primaires en découlent aussi. D'autres comportements collectifs se traduisent par des échanges d'idées. Celles-ci, pour Damasio, ne sont pas inspirées par une rationalité abstraite. Elles expriment directement les émotions et sentiments des individus. Elles ne sont comprises et acceptées par les autres individus que si elles correspondent à leurs propres émotions et sentiments. Sinon, elles sont ignorées ou rejetées. Toute cette évolution s'est construite par interaction entre les organismes et les milieux de plus en plus étendus auxquels ces organismes se sont trouvés confrontés en conséquence de l'accroissement de leurs possibilités corporelles. On se trouve là dans le paradigme de l'adaptation darwinienne le plus classique, sans qu'il soit nécessaire de faire appel à une quelconque finalité a priori. Utilité d'une neurophysiologie des passions Damasio ne se limite évidemment pas à la description de ces divers mécanismes élémentaires. Il montre comment ils construisent les formes et valeurs sociales élaborées, caractéristiques de l'humanité telle que nous la connaissons actuellement. Mais là l'auteur, qui ne veut pas s'engager dans des constructions spéculatives, admet que l'état actuel des recherches n'est pas suffisant pour démontrer l'interaction de l'anthropologie, de la sociologie, de la psychanalyse avec la neurobiologie. C'est encore moins le cas en ce qui concerne l'éthique, le droit et la religion. Il se borne pour sa part à rechercher, comme nous venons de le voir, les prémisses de l'éthique et de la morale dans les espèces animales, sous la forme des comportements altruistes. Mais il en dit assez pour laisser penser que, de même qu'en ce qui concerne l'altruisme, toutes les formes élaborées de l'activité sociale devraient pouvoir être repérées et, le cas échéant, modifiées, à partir de leurs traces neurales. Evidemment, les personnes n'ayant pas compris les mécanismes évolutionnaires sur le mode darwinien ayant conduit à l'apparition de nos sociétés et de leurs cultures reprocheront à Damasio son matérialisme ou son réductionnisme. Mais aujourd'hui il n'est plus possible de présenter les produits les plus élaborés de la société comme ayant surgi de nulle part, ou provenant d'une évolution uniquement culturelle. Au demeurant, Damasio tient à montrer qu'il n'est pas réductionniste. Pour lui, la biologie des relations entre le corps et l'esprit, la neurophysiologie des émotions et des

67


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

sentiments (des passions) ouvre des perspectives morales considérables. Est-ce que connaître nos émotions et nos sentiments peut nous conduire à mieux vivre, atteindre un état de "contentement", d'accomplissement, qui était selon lui celui de Spinoza ? C'est parce que Spinoza avait atteint cet état, nous dit Damasio, que malgré sa santé fragile il a pu réaliser une œuvre aussi sereine, aussi prémonitoire des grandes discussions philosophiques et morales qui allaient se généraliser au siècle des Lumières. A la question qu'il se pose à lui-même, Damasio répond positivement. Découvrir, grâce aux recherches qu'il nous propose, quels sont les ressorts profonds de nos sentiments et de nos pensées nous aidera à rechercher cet état d'accomplissement sans lequel la vie n'est guère supportable. Une grande variété de remèdes aux dysfonctionnement dont nous souffrons pourra être envisagée, ceci dès les prochaines décennies. Mais ce sera aussi au plan collectif, celui de la politique et la morale sociales, que ces recherches seront utiles. Les mécanismes régulateurs de l'activité sociale ont été en général développés par l'évolution depuis des millions d'années. D'autres sont récents, datant de quelques millénaires et se cherchent encore dans le désordre. Mais les problèmes que l'humanité affronte aujourd'hui se compliquent considérablement. Une évaluation systématique des mécanismes régulateurs s'impose de façon de plus en plus pressante. Les remèdes aux dysfonctionnements collectifs, par exemple l'addiction aux drogues et la violence, seront plus complexes que ceux applicables aux individus. Mais connaître l'esprit humain de façon plus scientifique aidera à trouver ces solutions. Il ne servira à rien de vouloir imposer aux gens des conduites ou des sacrifices qu'ils se seront pas en état de comprendre. On peut par contre espérer que, mieux informés par la science, ceux qui s'attacheront à traiter les grands problèmes sociaux, et les individus impliqués eux-mêmes, trouveront des voies d'espoir vers un meilleur état d'équilibre et de "contentement". Il s’agit d’une vue optimiste du futur, que beaucoup d’évènements actuels semblent démentir. Mais il serait malvenu de la rejeter comme utopique. 4.6. La Conscience selon Gerald Edelman Les études consacrées au cerveau humain ne se comptent plus, si bien qu’il est sérieusement envisagé de réaliser un ou plusieurs Atlas du cerveau permettant de rassembler et comparer les données, afin d’en tirer des informations que leur désordre actuel ne permet pas d’obtenir. Les approches et les modes d’observation sont multiples et se situent à tous les niveaux possibles, depuis l’analyse des molécules de liaison intersynaptiques jusqu’au cerveau global. Mais il reste difficile de passer de la description à l’explication, notamment quand il s’agit de comprendre l’origine, les modalités et l’utilité fonctionnelle des grandes propriétés du cerveau, l’intelligence et surtout la conscience. La conscience est pourtant, elle-aussi, l’objet d’une inflation d’études considérable, comme le montre la lecture des sommaires des revues internationales qui lui sont consacrées. Dans la mesure où on accepte le postulat du matérialisme scientifique selon lequel la conscience est une propriété émergente de l’organisation cérébrale ou neurale, l’étude de la conscience suppose inévitablement celle du cerveau. Le risque est alors de réductionnisme, se centrer sur l’anatomie et la physiologie des aires et des circuits cérébraux supposés impliqués dans les états précurseurs de la conscience, en perdant de vue la nécessité de constituer un modèle d’ensemble dans lequel on pourrait reconnaître ce que l’intuition commune attribue depuis des siècles à l’esprit humain et à la conscience. Gerald M. Edelman ne prête pas à cette critique. C’est certainement dans le monde le meilleur connaisseur, aussi bien du cerveau proprement dit que de ses fonctions émergentes, notamment la conscience. Il dirige aux Etats-Unis le Neurosciences Institute et préside la Neurosciences Research Foundation. Il est également directeur du département de biologie du

68


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Scripps Research Institute. Ses travaux précédents en immunologie lui ont valu le prix Nobel de physiologie/médecine. Depuis 30 ans, il s’est consacré à l’étude des bases neurales des fonctions cérébrales supérieures : comment le cerveau a-t-il évolué pour produire ces fonctions, comment celles-ci se manifestent-elles aujourd’hui. Ceci l’a d’abord conduit à élaborer une théorie générale, la Théorie de la Sélection des Groupes de Neurones, TSGN 45 , reposant sur le principe que face aux exigences de la survie s’imposant aux organismes, des cellules spécialisées, les neurones, eux-mêmes regroupés en faisceaux, ont été sélectionnés sur le principe de la compétition darwinienne : les groupes de neurones les plus aptes à assurer telle fonction étant retenus et inscrits dans le patrimoine héréditaire. La compétition entre groupes de neurones règne également au cours du développement du cerveau chez le jeune et l’adulte, plusieurs groupes de neurones entrant en concurrence (dans certaines limites de spécialité évidemment) pour répondre à tel besoin, sans plan génétique déterminé à l’avance. Ceci explique la diversité des réponses possibles et leur redondance éventuelle ou dégénérescence 46. Gerald Edelman, étudiant les propriétés dites supérieures du cerveau, s’est également particulièrement attaché à comprendre le fonctionnement du cortex associatif, depuis longtemps considéré comme le siège de l’intelligence associative et de la conscience. Il a mis en évidence l’existence et le rôle des fibres qu’il a qualifié de réentrantes joignant à partir du système thalamocortical un très grand nombre des aires cérébrales spécialisées. Contrairement aux autres groupes de neurones, organisés soit en boucles fermées soit en faisceaux non remontants, les fibres réentrantes fonctionnent dans les deux sens, émettant vers une zone donnée et transmettant en retour des signaux provenant de cette zone. L’ensemble constitue un réseau dense interactif, couvrant la presque totalité du cerveau supérieur, un peu analogue au réseau Internet. On comprend bien qu’un tel maillage soit éminent favorable à l’émergence d’états associatifs plus ou moins volatils et se succédant rapidement tels que ceux identifiés dans la conscience primaire (commune à un grand nombre d’animaux et à l’homme) et dans la conscience supérieure, moins répandue puisqu’apparemment limitée à l’homme. Tout ceci avait été exposé dans de nombreux articles et ouvrages. Mais il manquait une présentation facilement accessible de la théorie générale du cerveau et de la conscience qui a progressivement émergé de toutes ces études. On la trouve dans le dernier ouvrage de Gerald Edelman 47 que nous nous proposons ici d’analyser et commenter. L’auteur part du principe qu’il détient aujourd’hui un modèle explicatif global de la conscience permettant de résoudre les difficultés que pose encore la compréhension d’un phénomène paraissant rebelle à la description objective, dans la mesure où nous en sommes nous-mêmes issus. Dire que toutes les questions y sont résolues serait sans doute excessif, mais beaucoup de problèmes y sont éclaircis et des pistes pour tenter de résoudre ceux qui ne le sont pas sont offertes. Il va sans dire que Gerald Edelman est un matérialiste et s’annonce comme tel, ce qui n’est pas sans courage dans un pays comme les Etats-Unis où les fondamentalistes religieux disposent d’une audience accrue, y compris de la part des institutions publiques. Mais ce n’est pas un matérialiste réducteur, puisqu’il postule que si l’esprit n’est rien sans le corps, il admet l’émergence de la complexité à partir du simple et se donne les outils pour en traiter sans y voir le produit de déterminismes linéaires. Quelles sont les propositions de Gerald Edelman relative à la conscience ? Résumonsles ici, en y ajoutant nos commentaires. Le matérialisme scientifique 45

46

Theory of Neuronal Group Selection; TSGN entendue au sens de convergence dans les réponses fournies par des organes différents

47

Wider than the sky, the Phenomenal Gift of consciousness, Plus vaste que le ciel, Une nouvelle théorie du cerveau [Edelman, op.cit.]

69


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

L’auteur s’inscrit explicitement dans le postulat du matérialisme scientifique: seule l’étude du fonctionnement des neurones peut donner naissance aux sensations, pensées et émotions subjectives, c’est-à-dire à la conscience. Darwin avait été précurseur sur ce point comme sur beaucoup d’autres, puisque pour lui, contrairement à ce qu’avait affirmé son collègue Alfred Russell Wallace, les facultés de l’esprit devaient être des produits de l’évolution même si initialement ils n’avaient pas contribué directement à l’adaptation. Le langage serait né du développement du cerveau. En retour, il aurait accéléré le développement de celui-ci. La même démarche est proposée concernant les raisons de l’apparition de la conscience. Les bases neurales de la conscience, et non celle-ci, ont été initialement sélectionnées pour leurs contributions à l’adaptation. Ce sont elles qui ont une valeur causale dans le fonctionnement de l’organisme en vue de sa survie. A partir de ces bases s’est construit l’état conscient subjectif. Le livre va s’efforcer de montrer comment. Edelman introduit ainsi une de ses propositions importantes. La conscience n’est pas apparue tout armée chez l’homme. De plus, ses formes primitives elles-mêmes n’avaient pas de valeur adaptative. Le cerveau s’est développé selon certaines structures qui, elles, avaient valeur adaptative. Ces structures ont progressivement servi de bases (les bases neurales) aux premières formes de conscience. C’est alors seulement que la conscience primaire s’est révélée utile à la survie des espèces qui en étaient dotées, ce qui a produit en retour le renforcement des bases neurales. Pour Edelman, on ne peut progresser dans la compréhension de la conscience qu’en la faisant descendre du piédestal où les philosophies idéalistes l’avaient mise. C’est un peu de la même façon, en détrônant l’homme de la place centrale qu’il s’était attribué dans l’univers, que l’astronomie puis la cosmologie ont pu devenir des sciences. L’auteur rappelle le fait que la conscience dépend entièrement du cerveau, et non d’autres organes. Quand celui-ci est altéré, elle l’est aussi. Il n’y a pas de survie de la conscience après la mort. Mais les spiritualistes objectent: “ qu’en savez-vous ? Vous ne recherchez pas scientifiquement de preuves de l’existence de consciences non liées à des corps, parce que vous postulez que cela est impossible ”. Les matérialistes répondent : “ si de tels faits avaient été scientifiquement observables, ils auraient depuis longtemps été observés". Il n’y a pas d’ostracisme métaphysique systématique à l’égard de l’hypothèse spiritualiste. La conscience est un processus Par ailleurs, pour Edelman, la conscience est un processus et non une chose. On ne peut identifier ni dans le corps ni dans le cerveau de neurones spécifiques qui seraient le siège de la conscience. Ce processus résulte de l’activité de populations de neurones réparties dans de nombreuses aires du cerveau. C’est aussi un processus propre à chaque individu, puisque chaque humain dispose d’un corps et d’un cerveau non partageable et non exactement semblable à celui des autres humains. Par ailleurs, la conscience est continue, intentionnelle (renvoyant en général à des choses). Elle est aussi partielle et son champ est fonction du degré d’attention. Mais l’attention, qui focalise la conscience, n’est pas la conscience. La conscience enfin est unitaire ou intégrée, sauf en cas de troubles du cerveau. Elle est faite de scènes unitaires se succédant à un rythme rapide mais intégrant des expériences passées (le présent remémoré de Edelman). Qu’est-ce que l’attention ? L’attention est l’aptitude à sélectionner consciemment certaines caractéristiques dans un large éventail de signaux sensoriels présentés au cerveau. Qu’est-ce qui la provoque ? Un animal peut-il être attentif, sans être conscient de l’être ? Oui, car il s’agit d’un produit des bases neurales de la conscience primaire essentielle pour la survie. Mais comment moi, puis-je sélectionner consciemment les objets de mon attention ? Qui agit en moi pour m’obliger, par exemple, à rester attentif à la poursuite de la rédaction de

70


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

ce livre ? Il nous semble que ce thème de l’attention est traité trop rapidement par Edelman. Nous pourrions en dire de même du thème de l’heuristique, c’est-à-dire de la recherche attentive de solutions aux problèmes qui se posent à l’homme, et même la recherche de problèmes là où il ne semble pas y en avoir. Ce comportement, chez le chercheur scientifique, est ressenti comme conscient et même volontaire. Mais il s’agit sans doute d’une illusion. Quelles en sont alors les bases neurales sous-jacentes ? Conscience primaire et conscience supérieure Edelman rappelle que nous sommes également conscients d’être conscients. Mais il faut distinguer absolument entre la conscience primaire et la conscience supérieure. La conscience primaire consiste à avoir des images mentales dans le présent. Elle ne s’accompagne pas du sentiment d’un soi doté d’un passé et d’un futur. Elle est faite essentiellement de ce que Edelman a nommé dans ses ouvrages précédents le “ présent remémoré” (rappel d’expériences passées). La conscience primaire est commune à l’homme et à de nombreux animaux (sinon à tous les animaux). La conscience supérieure est conscience d’être conscient, conscience de ses actes et de ses intentions. Au niveau élémentaire, elle exige l’aptitude sémantique, capacité de créer un symbole en associant une signification à une représentation. Au niveau développé, elle nécessite l’aptitude linguistique. Les primates en ont quelques rudiments mais seuls les humains sont dotés de l’ensemble de ces possibilités. L’état conscient, y compris au niveau de la conscience primaire, permet de ressentir les qualia, c’est-à-dire d’attribuer des qualités subjectives à certaines perceptions. On ne peut décrire les qualia en termes objectifs, précisément parce qu’ils sont subjectifs, c’est-à-dire résultant du fonctionnement de corps et de cerveaux individuels, différents les uns des autres. Les qualia s’enchaînent les uns aux autres. On ne peut être conscient d’un qualia isolé. Les qualia servent à opérer des discriminations d’ordre supérieur, utiles à la survie : par exemple distinguer un son renvoyant à un objet extérieur menaçant d’un autre renvoyant à un objet inoffensif. Nous pouvons sans difficulté, nous semble-t-il, suivre Edelman quand il impose de distinguer systématiquement la conscience primaire, très répandue dans le monde animal, et la conscience supérieure, limitée aux humains et peut-être à quelques animaux supérieurs. Il y a encore beaucoup de théoriciens de la conscience qui ne font pas cette distinction, peut-être pour des raisons idéologiques, car ils seraient alors obligés de prendre en compte l’existence de la conscience primaire au sein d’espèces réputées très primitives. En amont de l’une et l’autre de ces consciences se trouvent des bases neurales plus ou moins évoluées qui leur servent de support. Les bases neurales font indiscutablement partie du corps. Evoquer la hiérarchie : - bases neurales, conscience primaire, conscience supérieure - a pour effet de réintroduire la conscience dans les phénomènes biologiques. On pourrait dire qu’il s’agit de la “ réincorporer ”. C’est ce que de leur côté font les roboticiens. Ils ne conçoivent plus de conscience artificielle sans l’implanter dans le corps sensible d’un robot. La réentrance Edelman montre que c’est l’anatomie du cerveau qui permet de comprendre l’apparition de la conscience : description globale des régions du cerveau, modes de fonctionnement des neurones et des synapses, organisation des trois grands systèmes neuroanatomiques constituant l’architecture générale du cerveau. Il est important de visualiser le mode de fonctionnement de chacun de ces systèmes. Le système thalamocortical, par exemple, assure la connexion entre les différentes aires corticales par l’intermédiaire de fibres “ réentrantes ”. Par ailleurs, il faut se souvenir du fait que les cerveaux ne sont pas des machines analogues à l’ordinateur, c’est-à-dire construits tous de la même façon et appliquant

71


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

des programmes identiques. Chaque cerveau est différent des autres et son fonctionnement suppose l’intégration dynamique de nombreuses aires différentes, tant dans le cerveau luimême que d’un individu à l’autre. Le terme de fibres réentrantes a été forgé par Edelman pour désigner des fibres massivement parallèles fonctionnant dans les deux sens et connectant les cartes construites dans chacune des aires corticales. Ainsi s’établissent des processus synchrones dynamiques mettant en cohérence les contenus de ces aires. Nous verrons que la réentrance est une propriété essentielle à sa théorie du cerveau. Depuis longtemps, les anatomistes avaient observé les fibres de liaison dans le cortex dit justement associatif, mais ils n’en avaient pas tiré de conclusions bien précises relativement à la génération des états de conscience. Le terme de réentrance est inspiré de l’informatique, comme quoi, même si les cerveaux ne sont pas selon Edelman analogues à des ordinateurs séquentiels, on peut y retrouver certains traits caractéristiques des traitements informatiques en feed-back. La Théorie de la Sélection des Groupes de neurones Le cerveau n’a pas été conçu tout d’une pièce. Il s’est formé au cours d’une longue évolution soumettant ses différentes structures à la sélection naturelle. La théorie du cerveau proposée par Edelman dans ses différents ouvrages repose sur le darwinisme global ou théorie de la sélection de groupes de neurones (TSGN) déjà citée. Seuls les modèles sélectionnistes fondés sur le raisonnement en termes de population lui paraissent pouvoir expliquer que les cerveaux fonctionnent selon des procédures globalement proches malgré l’ampleur considérable des variations individuelles qu’ils présentent. La variabilité neurale ne traduit pas un défaut du système, mais est fondamentale. Elle permet que parmi ces populations de variantes soient sélectionnés à tous moments les éléments les plus aptes à produire les comportements nécessaires à la survie. Ces éléments n’auraient pu être programmés une fois pour toutes compte tenu de l’ambiguï té des entrées d’information provenant de l’environnement. Comment le cerveau produit-il alors des réponses cohérentes et structurées ? La TSGN répond à la question. Cette sélection à partir d’un très grand nombre de variantes s’applique à trois niveaux : celui du développement fœtal, celui de l’expérience acquise au cours du début de vie, celui de la réentrée en cours de vie assurant la coordination de nombreuses aires différentes. L’intégration par réentrée des différentes aires corticales est indispensable pour assurer la liaison (binding) entre ces aires, dont résulte la conscience. Comme elle n’a pu être programmée à l’avance, elle ne peut résulter que de la TSGN, sélection des groupes de neurones les plus aptes à assurer cette liaison. La TSGN explique pourquoi les réponses du cerveau peuvent à la fois être versatiles et efficaces. C’est qu’elles sont “ dégénérées ”. La dégénérescence est la propriété qu’ont des éléments différents d’assurer une réponse identique. Il s’agit d’une propriété biologique très répandue, assurant la souplesse adaptative des êtres vivants. La liaison entre les neurones ou groupes de neurones participant à l’établissement de ce que Bernard Baars 48 appelle (d’un mot qui ne dit pas grand chose) l’espace de travail conscient. Celui-ci fait l’objet de diverses hypothèses : synchronisation par médiateurs chimiques ou par les champs électromagnétiques (sinon par des actions mettant en jeu des particules quantiques). Ces hypothèses semblent être restées confuses. Pour Edelman, il n’y a pas de véritable problème : au sein d’un réseau dense de fibres interconnectées dans les deux sens, des liaisons se produisent et viennent en concurrence jusqu’à ce que les plus efficaces l’emportent, avant d’être à leur tour remplacées. On pourrait peut-être assimiler cela à certains effets globaux se produisant (sans que les utilisateurs en soient conscients) au sein du réseau 48

Baars,. A Cognitive Theory of Consciousness, 1988. Le livre est consultable en ligne sur http://www.nsi.edu/users/baars/BaarsConsciousnessBook1988/index.html .

72


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Internet, sous l’influence de contraintes externes ou internes. Les flux s’y regroupent en faisceaux plus ou moins persistants, par exemple en conséquence des requêtes posées aux moteurs de recherche. La conscience primaire Différents mécanismes cérébraux ont permis l’apparition de la conscience primaire, c’est-à-dire l’aptitude à construire une scène discriminante (spécifique). Le processus fondamental est l’aptitude à procéder à des catégorisations perceptives (découpages du monde par le cerveau). Celles-ci sont assurées par des interactions entre systèmes sensoriels et moteurs dans des “ encartages ” globaux assurés par des fibres réentrantes. Un encartage global est une structure dynamique contenant différentes cartes sensorielles liées par réentrées. Cette structure est à la base de la catégorisation. Les entrées sensorielles externes s’y conjuguent avec les entrées proprioceptives (internes). Le monde est ainsi “ échantillonné ” en fonction des activités de l’animal. Plusieurs encartages permettent de créer un concept, concept du mouvement vers l’avant par exemple. Ceci ne permettrait pas l’adaptation en l’absence de mémoire. La mémoire est indispensable à la conscience, même primaire. Selon la TSGN, la mémoire est la capacité à répéter ou supprimer un acte spécifique. Elle résulte de modifications dans l’efficacité synaptique de différents groupes neuronaux, modifications qui incitent de façon dégénérée certains circuits à recommencer. Il y a plusieurs sortes de mémoire, à long ou court terme, qui supposent des modifications de force différente. Dans cette perspective, la mémoire n’est pas la reproduction d’un comportement à l’identique mais la façon de faire revivre (ou réactiver) non identiquement des comportements antérieurs. D’autres systèmes (systèmes de valeur construits lors du développement) modulent l’étendue des ressouvenirs. Quel est l’événement décisif de l’évolution ayant donné lieu à l’émergence de la conscience primaire? Ce serait l’apparition des connexions réentrantes du système thalamocortical, à la transition entre reptiles et oiseaux puis mammifères. Deux types de voies réentrantes permettant le traitement des signaux se seraient dégagés, celles distinguant le soi du non-soi. La perception y est associée à la mémoire dans de très courts intervalles de temps (le présent remémoré). Une scène consciente peut alors être créée en une fraction de seconde. Les informations provenant du soi y jouent toujours un rôle clé. L’aptitude à créer des scènes conscientes est utile à la survie (imaginer un prédateur à partir de quelques indices sensoriels). La conscience supérieure s’est développée chez les primates sur ces bases, par association avec d’autres circuits réentrants permettant l’acquisition de la capacité sémantique et du langage. La conscience supérieure permet d’imaginer le futur, de se remémorer le passé et d’être conscient d’être conscient. Mais la conscience primaire reste fondamentale. Sans elle, pas de conscience supérieure. On pourrait penser que Gerald Edelman décrit les mécanismes de la conscience d’une façon arbitraire. Il donne l’impression d’avoir une idée a priori de ce qu’est celle-ci et de chercher à retrouver ensuite dans l’anatomie et la physiologie du cerveau les facteurs pouvant produire les phénomènes qu’il a définis. Mais ce livre est un résumé de très nombreux travaux expérimentaux qui ont, semble-t-il, permis de tester les hypothèses initiales et de les organiser en théorie générale du cerveau. Seules d’autres hypothèses convenablement vérifiées, émanant de neuroscientifiques aussi éminents que l’auteur, permettraient de critiquer ses thèses. Nous sommes cependant obligés de constater que l’auteur ne fournit pas d’indications sur les processus évolutionnaires ayant permis l’apparition chez les successeurs des reptiliens du système thalamocortical réentrant qui est décisif, comme il l’indique, pour la discrimination entre le soi et le non soi. Il ne donne pas davantage d’indications concernant l’apparition des autres systèmes neuroanatomiques nécessaires à la conscience primaire. On

73


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

retrouve la question de fond posée par la théorie darwinienne de l’évolution. Comment des caractères précurseurs de systèmes favorables à une adaptation ultérieure peuvent-ils être sélectionnés alors qu’ils n’apportent aucun avantage dans un premier temps ? Une réponse possible, en termes darwiniens, serait que des caractères propres aux neurones, par exemple une propension à développer des axones dans diverses directions, auraient conduit à la mise en place au hasard de fibres réentrantes associatives, conservées dans les génomes même si elles n’apportaient pas d’avantages particuliers, jusqu’au jour où de telles fibres auraient rendu suffisamment de services fonctionnels pour être sélectionnées. Une autre façon d’expliquer l’apparition de cerveaux organisés pour produire de la conscience primaire puis supérieure serait de faire appel aux expériences intéressant l’émergence de propriétés linguistiques dans des populations de robots. S’il s’avérait que de tels robots commencent à échanger des contenus sémantiques avant d’avoir, si l’on peut dire, le cerveau pour cela, on devrait pouvoir montrer, dans la suite de ces expériences, que ces échanges, devenant de plus en plus complexes, pourraient favoriser la sélection d’organisations matérielles et logicielles les mieux aptes à les traiter et à en générer d’autres, c’est-à-dire de cerveaux artificiels. On rejoindrait là l’hypothèse selon laquelle serait le langage et, avant lui, chez les animaux, les échanges sociaux à base de symboles, qui auraient entraîné le développement des cerveaux 49. Le noyau dynamique Selon la TSGN étendue, toutes les expériences conscientes sont des qualia, autrement dit des discriminations personnelles dans des scènes complexes. Mais comment expliquer la richesse de chaque état de conscience et son unité ? Pour Edelman, comme pour beaucoup de neurologues, il faut faire appel aux propriétés des systèmes complexes 50. Un système complexe peut à la fois intégrer ses parties et prendre beaucoup d’états différenciés combinant les propriétés de ces parties. C’est le cas du cerveau. Ses réseaux interactifs manifestent une intégration fonctionnelle poussée (par exemple l’aire corticale responsable de l’orientation) puis grâce aux liaisons réentrantes ils deviennent intégrés au niveau supérieur, c’est-à-dire qu’ils acquièrent davantage de propriétés unitaires quand ils sont liés que quand ils ne le sont pas Cette description peut être appliquée au système thalamocortical. Il est dynamique et grâce au nombre considérable de ses connexions neurales, il change d’état en quelques fractions de seconde. Par ailleurs il est constitué d’un plus grand nombre d’interactions internes que d’interactions avec les autres parties du cerveau. Il “ se parle principalement à lui-même ”. On peut dire qu’il s’agit d’un noyau fonctionnel au service de la conscience. Edelman l’a nommé le “ noyau dynamique ”. C’est l’outil nécessaire aux propriétés unitaires et pourtant différenciées du processus conscient. Ses réponses peuvent aussi stimuler des systèmes non conscients donc moduler le comportement de l’organisme entier. Les premières discriminations influençant le noyau dynamique proviennent des signaux du corps puis, au cours de la vie, du soi corporel. Mais il n’y a nulle part dans le noyau dynamique un observateur interne (un homoncule) qui pourrait apprécier son état instantané, même si nous avons nous-même l’impression d’être cet observateur. Aussi convaincante que soit l’hypothèse d’un noyau dynamique qui soit le moteur principal de la fabrication du soi dans la conscience primaire puis supérieure, on reste sur sa faim. Comment un tel processus peut-il générer la conviction qu’éprouve le sujet conscient d’être un Je observateur mais aussi un Je acteur, doté de volonté? Edelman répondra sans 49

50

Voir sur ce point le chapitre 7. Voir chapitre 2.

74


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

doute que cette sensation d’être un Je est un qualia créé au niveau de la conscience supérieure qui ne peut être décrit en terme de processus neural. On pourra dire aussi que le Je est une création récente de certaines sociétés, et qu’il en existe d’autres où les individus ne se perçoivent pas comme des Je, mais comme baignant dans une sorte de conscience diffuse, telle que la méditation peut en donner l’exemple. Il reste que, les qualia en général et l’intuition d’être un Je au sein du champ conscient en particulier étant des phénomènes fondamentaux dans notre appréhension du monde, l’impossibilité précise de décrire la façon dont ils émergent et se manifestent à l’intérieur d’un système de réseaux d’informations tel que le noyau dynamique décrit par Edelman est très frustrante. Pourrait-on espérer que les spécialistes des systèmes cognitifs artificiels puissent un jour proposer des modèles de traitement d’information (sans doute en réseaux multi-agents) plus convaincants que la description du noyau dynamique donnée par Edelman, avec une représentation du soi “ vu de l’intérieur ” dans laquelle nous pourrions entrer ? Avec un peu d’optimisme au regard des possibilités de la conscience artificielle, on pourrait envisager en effet de voir opérer un robot doté d’un Je artificiel dont nous comprendrions mieux les processus que ceux des cerveaux biologiques. La “ transformation phénoménale ” n’est pas causale L’impossibilité de localiser dans le cerveau le Je conscient pose la question du rôle causal de la conscience. C’est pour Edelman le nœud de sa théorie. On a vu comment le processus conscient peut être causé par des processus neuraux, grâce aux interactions réentrantes centrées sur un soi servant de référence pour la mémoire, y compris dans la conscience primaire. L’activité du noyau dynamique convertit les signaux reçus du milieu extérieur ou provenant de l’intérieur du corps en ce que Edelman appelle une “ transformation phénoménale ” : qu’est ce qu’il en est d’être tel animal conscient doté de ce qualia spécifique qu’est la conscience de soi. Elle n’est pas causée par les processus neuraux mais l’accompagne. Quel est alors son rôle? Pour Edelman, la transformation phénoménale (conscience de soi) ne peut être causale. Ce sont les processus neuraux qui la génèrent qui le sont. Mais elle est un indicateur plus ou moins fiable de la façon dont ces processus se déroulent. Cet indicateur sert d’abord au sujet lui-même. Il lui donne si l’on peut dire l’état d’un certain nombre de ses compteurs corporels. De plus, si cet état peut être communiqué aux autres par un langage quelconque, le groupe tout entier en bénéficie. Prenons un exemple simple. Si je glisse sur une pente verticale, le fait d’être conscient de ma chute ne m’empêchera pas de tomber. Mais prendre conscience de cet accident me permettra peut-être une autre fois de ne pas me mettre dans la situation de tomber à nouveau. Par ailleurs, je pourrai signaler à mes compagnons que je suis en train de tomber, ce qui leur évitera de s’avancer comme je l’avais fait sur le bord de la falaise. Compte tenu de tels avantages, les processus neuraux produisant la conscience de soi, conscience primaire puis conscience supérieure, ont été sélectionnés par l’évolution. Edelman fait l’hypothèse que c’est principalement du fait de leurs bénéfices en termes de communication que les processus générant la transformation phénoménale (notamment le noyau dynamique) se sont développés au cours de l’évolution. C’est ce qu’illustre l’exemple que nous venons de donner. Tout ce qui est causal provient de l’état du système thalamocortical et des autres systèmes neuroanatomiques. Sans être directement causale, la conscience de soi produit par le noyau dynamique, sous-ensemble du système thalamocortical, serait avant tout un véhicule de communication faisant connaître à l’extérieur, notamment aux semblables du sujet, ce qui se passe au sein de l’organisme de celui-ci.

75


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Les processus décrits sont conformes semble-t-il aux observations neurologiques, y compris en ce qui concerne le temps de retard entre une action (ou décision) engagée au niveau de l’organisme et la conscience que l’on peut en avoir. Ces observations comme on le sait, donnent des arguments à ceux pour qui le libre-arbitre est une illusion. Comment faire coexister le déterminisme au niveau des décisions prises par le corps et la liberté au niveau d’une prise de conscience survenant après que la décision du corps ait déjà été mise en œuvre ?51 Nous pouvons ainsi dire que Edelman “ réincorpore ” la conscience. Sans en faire un processus sans influence, un simple épiphénomène, il en fait une des modalités par lesquelles le corps manifeste ses décisions et amplifie leurs effets. Ceci notamment dans le monde des informations communicables par le langage. De la même façon, quand le corps prend une décision, cette décision s’accompagne généralement d’une action musculaire qui entraîne une conséquence sur le monde. Dire que le corps décide ne signifie évidemment pas que le corps jouit d’un librearbitre quelconque. Le corps est “ décidé ” par de nombreux déterminismes non linéaires, bien décrits par Alain Berthoz, comme nous l’avons vu. Il en résulte que, dans une très large mesure, la conscience réincorporée est décidée par ces mêmes déterminismes, avec un niveau de complexité supplémentaire apportée par ce qui se passe au niveau de l’individu conscient. Le corps est évidemment aussi le siège d’un grand nombre de comportements inconscients médiatisés par le cerveau. Edelman étudie notamment le système des ganglions de la base et du cervelet, responsables d’automatismes inconscients, comme le contrôle du mouvement. Ils ne comportent pas de fibres réentrantes. Ils sont reliés au cortex mais celui-ci ne les commande que lorsque l’attention prend le relais des automatismes, par exemple à certains moments difficiles de la conduite automobile. Il existe plusieurs niveaux d’attention, sous commande du cortex. A l’inverse, les ganglions de la base peuvent agir sur le cortex. Cela pourrait être une façon d’expliquer l’inconscient freudien, notamment le refoulement. Langage et conscience La conscience primaire ne permet pas de se représenter le passé, le futur et soi-même comme conscient d’être conscient. La conscience supérieure le peut. Les animaux en semblent dépourvus, ce qui ne veut pas dire qu’ils n’ont pas de soi, ni d’image du passé dans le présent remémoré ni de mémoire à long terme. Ce qui leur fait défaut, ce sont les aptitudes sémantiques, c’est-à-dire l’utilisation de symboles pour donner du sens aux événements et raisonner sur eux en leur absence. Le langage ne se limite pas à l’utilisation de symboles, car il suppose l’aptitude syntaxique, c’est-à-dire la possibilité de former des phrases. Certains animaux comme les chimpanzés sont capables de certaines aptitudes sémantiques (par exemple se reconnaître dans un miroir) ce qui prouve qu’ils ont un début de conscience supérieure. Les humains ont des aptitudes sémantiques et syntaxiques étendues, se superposant à leur conscience primaire. On a identifié depuis longtemps les zones cérébrales y jouant un rôle, notamment l’hippocampe nécessaire à la mémoire épisodique, ainsi que les aires du langage dites de Broca et de Wernicke. Mais comment les aptitudes sémantiques et syntaxiques sont-elles apparues au cours de l’évolution ? Comment a-t-on pu découvrir qu’un geste, un son ou un objet pouvait tenir lieu d’une chose ? Sans doute par l’apparition de nouvelles voies et nouveaux circuits réentrants se superposant à ceux déjà existants du cortex, et donnant notamment un accès 51

De nombreux neuroscientifiques actuels persistent à tenter de démontrer l’irréductibilité de la question du Je, c’est-à-dire du Hard problem. Citons Christof Koch, "The Quest for Conciousness", Roberts and Co ou Jeffrey Gray, "Conciousness, creeping up on the Hard problem", Oxford University Press. Mais tous finissent par nier le fait que le Hard problem se pose vraiment. Jeffrey Gray envisage même l'hypothèse selon laquelle le monde perçu par la conscience ne soit pas le monde réel.

76


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

étendu à la mémoire. Par ailleurs nombreuses sont les hypothèses anatomiques et comportementales pouvant expliquer l’explosion du langage chez l’homme. Edelman ne pose pas la question de savoir qui, dans la naissance du langage, a précédé et induit l’autre, la modification neuronale ou la modification anatomique et comportementale - étant entendu aussi que le langage n’existant pas encore n’a pu apporter ses bénéfices, initialement, à ceux qui en étaient dépourvus. On pourrait là encore imaginer qu’une petite modification, soit neuronale, soit anatomique, ait apporté des bénéfices très réduits mais suffisamment significatifs en terme d’aptitudes sémantiques, le processus s’accélérant ensuite. Dans les expériences déjà citées d’émergence du langage chez les robots, c’est la pression de sélection en faveur de la communication qui a permis l’exaptation en faveur de la création d’un langage d’aptitudes sensori-motrices pré-existantes. Certaines hypothèses relatives à l’apparition du langage chez les hominiens vont dans le même sens. Des aptitudes sémantiques rudimentaires présentes chez les anthropoï des, peut-être à la suite de mutations favorables dans les circuits réentrants, se seraient trouvées brutalement encouragées par un changement d’habitat rendant la communication linguistique indispensable à la survie. Ainsi, la conscience supérieure et ses bases neurales seraient un résultat de l’émergence du langage, lui-même étant un résultat de l’apparition d’une vie en société exigeant pour sa survie la communication symbolique d’individu à individu. Mais peut-on être conscient sans langage ? Autrement dit, peut-on penser sans les mots ? Les théoriciens du “ déterminisme linguistique ” répondent par la négative. Edelman semble partager ce point de vue. On sait que la question est controversée. Il est important pour comprendre les cultures d’admettre que la conscience supérieure est le produit du langage, lui-même produit d’une société obligée à communiquer. La vie sociale structurée par le langage donne naissance en effet aux grandes constructions symboliques dépassant largement les consciences individuelles (mythologies puis théories scientifiques). Ces constructions modèlent la façon dont se construisent les contenus conscients individuels, puis par l’intermédiaire des individus qu’elles mobilisent, elles modèlent le monde tout entier. Les processus impliqués paraissent très proches de ceux décrits par Edelman au niveau des cerveaux individuels. On pourrait parler d’une théorie de la sélection des groupes de neurones transposée au champ des méta-circuits et métareprésentations sociales. Les considérations qui précèdent montrent, à notre sens, que l’étude de la conscience limitée à ce qui se passe au plan du cerveau individuel n’est pas suffisante. Il faut absolument étendre l’étude aux processus se déroulant au plan des super-organismes sociaux. Mais ceci oblige à bien d’autres considérations, notamment celles concernant le rôle éventuel des entités informationnelles autonomes, les mèmes, circulant sur les réseaux et susceptibles de formater les contenus de la conscience supérieure 52. L’élargissement de l’étude de la conscience au niveau du super-organisme humain n’enlève évidemment rien à l’intérêt de comprendre ce qui se passe au plan des individus humains, de leur corps, de leur cerveau et de leurs contenus cognitifs. L’individu demeure en effet un agent essentiel de l’évolution du super-organisme, du fait qu’il est équipé pour générer de l’émergence à un rythme rapide et avec une efficacité d’action physique sur le monde considérable. Les représentations Pour Edelman, la représentation est le résultat de discriminations et catégorisations effectuées par le sujet conscient. Par exemple, je me représente la table que je regarde comme distincte du reste de la pièce. L’auteur ne veut pas en faire l’équivalent, trop souvent utilisé 52

Voir Chapitre 5. Susan Blackmore, théoricienne des mèmes, suggère que le Je serait en fait un mème qui se serait emparé du cerveau des hommes modernes.

77


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

par ce qu’il nomme les psychologues cognitivistes, des structures neuronales (équivalentes à des informations dans un ordinateur) induites par les signaux venus de l’extérieur. Il s’agit là, dit-il, d’une description vue de l’extérieur ou objective qui perd de vue les sens et les intentionnalités qu’ont ces structures pour celui qui les héberge. De plus, pour lui, le substrat neural de la conscience n’est pas représentationnel. Des formes de représentation se produisent dans la conscience mais elles n’évoquent pas les états neuraux sous-jacents, mémoire, cartes perceptives par exemple. Ceci permet de ne pas lier les représentations, terme à terme, avec les états du cerveau ou les états de l’environnement. Des formes diverses de représentations, par exemple des images mentales, sont liées à des états divers de la conscience primaire et de la conscience supérieure, mais ne les déterminent pas. La cognition et l’intentionnalité de la conscience supérieure ne déclenchent pas nécessairement des images. Ceci permet d’éviter de traiter les représentations comme les données nécessaires au fonctionnement de l’ordinateur cérébral, lequel se livrerait sur elles à des calculs. La signification, essentielle à l’intentionnalité, résulte du jeu de nombreux processus convergents qui enferment la représentation dans les circuits “ dégénérés ” résultant du fonctionnement des fibres réentrantes support de la conscience supérieure. Il n’y a pas une fonction s’appliquant à une représentation, comme dans l’ordinateur, mais des interactions multiples et changeantes dont beaucoup se passent de représentations. N’importe quelle représentation peut correspondre à de nombreux états neuraux sous-jacents et à de nombreux signaux différents reçus de l’extérieur. Edelman présente des expériences de magnétoencéphalographie qui démontrent cette affirmation. C’est la diversité des faisceaux réentrants qui permet une telle convergence, nouvelle preuve apportée selon lui à la TSGN étendue. Ceci montre qu’une grande partie de la psychologie cognitive perd de son intérêt, quand elle prétend attribuer des états fonctionnels équivalents à des informations de même nature codées dans les cerveaux et traités par des programmes computationnels identiques. Une très grande diversité et variabilité est la règle, non seulement au niveau des représentations et de leur rôle, mais au niveau des états neuraux sous-jacents. L’intentionnalité et la volonté dépendent de l’interaction des contextes locaux du milieu environnant, du corps et du cerveau. D’une façon générale, Edelman diminue l’importance que l’on attribue généralement aux représentations. Il n’en fait certes pas des épiphénomènes mais des productions non immédiatement significatives. En d’autres termes, selon lui, il ne faudrait pas attribuer trop d’importance aux images du monde que nous hébergeons. C’est là un nouvel aspect de sa démarche générale : réincorporer la conscience dans les mécanismes neuraux sous-jacents, afin d’aller directement à ces derniers. Mais alors se pose la question du rôle de ces représentations, qu’il faudra bien expliquer pour comprendre leur apparition et leur survie au cours de l’évolution. Y a-t-il là quelque chose à voir avec l’imaginaire ou même avec le rêve ? Quel est le lien entre la représentation susceptible de prise de conscience et la catégorisation qui constitue la façon élémentaire dont l’organisme vivant s’inscrit dans le monde, ceci avant même qu’il ne dispose d’une conscience primaire ? On ne peut pas non plus oublier que les représentations ne sont pas seulement des constructions individuelles. Elles sont aussi construites au cours des relations entre individus. Par exemple, la représentation d’un prédateur est construite au cours d’expériences vécues par le groupe ou transmise par lui. Elles jouent donc un rôle plus important que ne semble le penser l’auteur. Ceci nous conduit au concept de concept, dont Edelman ne parle pas, sauf à dire que le concept désigne l’aptitude du cerveau à catégoriser ses propres activités et à construire un universel, ce qui ne nous paraît pas suffisant. Le concept est une des briques de base avec lesquelles se construisent les échanges langagiers au sein d’une collectivité. Pour simplifier, on pourrait dire que les concepts correspondent aux mots du langage verbal. Ils ne sont pas construits par des individus particuliers, à partir de leurs représentations. Ils émergent sur le

78


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

mode darwinien des interactions multiples entre locuteurs ayant acquis des représentations globalement comparables. Ainsi, à force d’être exposés à la pluie, comme tous les êtres vivants, certains d’entre eux y ont associé une représentation individuelle que, dans leurs échanges, ils ont fini par nommer de la même façon, rassemblant sous ce nom un certain nombre de caractères statistiquement significatifs (humidité, froid, utilité pour l’agriculture, etc. ). Les concepts, en retour, contribuent à formater les représentations individuelles en les enrichissant de tous les sens donnés par la collectivité au phénomène désigné par le concept. Le concept de concept, entraînant celui de loi reliant les concepts (loi scientifique, par exemple) nous conduit à la question de la construction des connaissances. Même si celle-ci est un phénomène collectif, les cerveaux individuels y contribuent directement. On trouve toujours, semble-t-il, un individu à l’origine de la qualification d’une entité observée. Il ne semble pas qu’aux origines, ce processus soit très différent de ceux intéressant la catégorisation, notamment au sein de la conscience primaire. Mais, dans la conscience supérieure, comment le cerveau observant les images qu’il reçoit du monde extérieur à partir de ses organes sensoriels et de ses instruments, en fait-il des “ objets ” de connaissance scientifique ? Autrement dit, le processus décrit par Mme Mugur-Schächter sous le nom de MRC s’applique-t-il, consciemment ou inconsciemment ? Plus généralement, ne faut-il pas s’interroger sur le processus épistémologique d’acquisition et de contrôle des connaissances, incluant notamment l’induction et l’abduction53, quand on étudie la conscience et les bases neurales de celle-ci ? Commentaire final Résumons ce qui précède, car la question est essentielle. La théorie de la conscience proposée par Gerald Edelman repose sur le processus de réentrée et la théorie sélectionniste du fonctionnement cérébral (TSGN) qui constitue le principe d’organisation de l’ordonnancement spatio-temporel et de la continuité du cerveau. Nous ne sommes pas face à des ordinateurs pour qui la variance et l’individualité constitue des défauts. Celles-ci sont au contraire nécessaires pour que les divers groupes de neurones constituant des répertoires puissent entrer en interactions réentrantes soumises à la sélection découlant de la croissance et de l’expérience propre à chaque individu. C’est la connexion par réentrée, multiple, redondante et très rapide entre cartes sensorielles et motrices qui permet la catégorisation perceptive ou découpage du monde en modules adaptatifs laquelle constitue la première manifestation de la conscience primaire. C’est elle qui, se combinant avec les autres systèmes neuroanatomiques non réentrants du cerveau, notamment les systèmes dits pour Edelman “ de valeur ” sert un peu de Maître Jacques explicatif pour expliquer les différents états neuraux générant des états conscients. On retrouve partout l’idée que ceux-ci, sans être des épiphénomènes, c’est-à-dire sans ne servir à rien, ne sont jamais premiers et causaux. Ils servent surtout de supports pour la communication langagière qui, elle, permet en mobilisant les ressources physiques et biologiques de plusieurs individus, la construction d’environnements collectifs ayant eux un rôle causal. Ce recours généralisé à la TSGN n’est pas pour Edelman une simple hypothèse. Il affirme que tout ce qu’il avance a pu et pourra être vérifié expérimentalement, notamment en multipliant les explorations fonctionnelles non invasives des cerveaux humains. En ce qui concerne la connaissance subjective ou interne des qualia et autres états de conscience, l’auteur admet que l’on ne puisse rien en dire d’objectif, c’est-à-dire de scientifique, au sens où la physique prétend par exemple décrire le monde de la matière. Il faudra toujours se référer à l’expérience de chacun, en faisant la supposition que ce que je 53

L’abduction (selon Pierce) consiste à passer de déductions puis d'inductions locales à l'élaboration de théories plus générales, de type paradigmatique. On considère généralement qu’il s’agit d’une aptitude dont seul l’homme serait capable.

79


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

ressens, moi, n’est sans doute pas très différent de ce que ressent mon semblable. Chaque soi individuel s’est construit au terme d’une histoire unique basée sur celle de ses états neuraux sous jacents, à commencer par celle du noyau dynamique. Les informations internes (proprioceptives) y jouent dès le stade fœtal un rôle très important. L’élargissement des perspectives apportées par le langage, déterminant principal de la conscience supérieure, s’est fait également au cours d’histoires spécifiques. La variété ou diversité des individus les uns par rapport aux autres pourrait être présentée comme une autre forme de la TSGN. Face aux difficultés, elle permet à l’espèce d’offrir des réponses dégénérées, analogues à celles de l’immunologie, qui sont un gage de bonne adaptabilité globale. Mais en conséquence de la richesse et de la spécificité individuelle, lorsque l’individu meurt, tout meurt avec lui. 4.7. Conscience réincorporée, parole conférée Que conclure concernant le statut que nous pourrions attribuer à la conscience, autrement dit, comment situer cette faculté, entre déterminisme et libre–arbitre ? Est-ce ou non une illusion d’en appeler, comme on le fait couramment dans la vie sociale et politique, au volontarisme et à la responsabilité des individus ? Plus précisément encore, qui sont ceux qui lancent de tels appels ? Des sujets conscients et autonomes ou l’émanation de forces biologiques anonymes visant à renforcer l’adaptabilité darwinienne des sociétés humaines, face à des sociétés animales reposant sur d’autres armes que les facultés conscientes des individus pour se disputer la biosphère ? Pour commencer à répondre à cette question, nous pourrions proposer de s’entendre sur quelques postulats relevant indiscutablement de la métaphysique, ou plutôt de ce nous pourrions appeler la métaphysique scientifique. Ces postulats ne sont pas démontrables par la démarche scientifique, mais aujourd’hui ils présentent, selon nous, les meilleurs caractères explicatifs possible : n La conscience n’est pas une propriété du cerveau qui soit extérieure au corps. Elle est produite par l’activité de celui-ci. Il s’agit d’un rappel du postulat moniste selon lequel l’esprit et le corps sont deux aspects différents d’une même réalité matérielle. Le monisme s’oppose au dualisme selon lequel l’esprit est d’une autre substance et d’une autre nature que le corps. Il est évident que si l’on voulait expliquer la conscience à partir du dualisme, c’est-à-dire d’une position spiritualiste, il serait inutile en principe de faire appel aux neurosciences ou à toutes sciences que ce soit. Dans la métaphysique spiritualiste, la conscience étant une sorte de don conféré à la créature corporelle par la divinité, il suffirait de rechercher dans les écritures ou les traditions religieuses les définitions qui en sont données pour tout comprendre à son sujet - ou ne rien comprendre car il s’agit d’articles de foi qu’il convient d’admettre sans les discuter. Ce qui précède veut-il dire que, pour expliquer la conscience d’une façon scientifique, il faille nécessairement être matérialiste ? Les neuroscientifiques et les cogniticiens qui s’attaquent au problème de la conscience sont effectivement pour la plupart des matérialistes. Mais on pourrait admettre qu’un scientifique spiritualiste fasse des pas plus ou moins grands dans la recherche des bases matérielles de la conscience sans renier sa foi. Il faudrait néanmoins qu’il soit assez clairvoyant ou honnête pour savoir s’arrêter quand il introduirait dans ses hypothèses ou ses démonstrations des arguments relevant du spiritualisme, c’est-à-dire non démontrables par la science matérialiste. n Comme le font Edelman et de nombreux autres neuro-scientifiques, on peut distinguer entre une conscience primaire, qui est très répandue dans le monde animal, et une conscience supérieure, pratiquement limitée à l’homme et, sous des formes moins développées, à quelques animaux évolués. La première est fondamentale, car c’est elle qui

80


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

exprime l’unité du moi au sein des différentes perceptions externes et internes qui informent le système nerveux. Mais elle ne s’accompagne pas de la conscience de soi. C’est-à-dire que le sujet conscient, dans le cadre de la conscience primaire, réagit avec beaucoup d’opportunité, mais sans en être conscient…un peu comme nous le faisons dans les états ne mobilisant l’attention : se déplacer à bicyclette, par exemple, sur une route ne présentant pas de difficultés particulières. On pourrait estimer que la très grande majorité des comportements humains se déroulent sous l’emprise de la conscience primaire, ce qui rapproche considérablement l’homme des autres animaux. En biologie, les mécanismes assurant l’unité du moi sont ceux mêmes permettant la vie, par exemple chez la cellule la plus primitive. Chez la cellule ou autres organismes “ simples ”, ils ne s’accompagnent pas de conscience primaire telle que définie ici. La cellule se porte très bien sans conscience primaire. Mais les êtres disposant de cette faculté ont sans doute plus d’autonomie au regard des perturbations d’un environnement complexe que ceux qui ne l’ont pas. n La conscience supérieure s’accompagne de la conscience d’être conscient, c’està-dire d’être un Je disposant d’un passé et d’un possible futur. En état de veille, elle est toujours active, mais elle ne couvre qu’une faible partie des comportements. Tout laisse penser qu’elle s’est développée à la suite du langage, celui-ci ayant été le phénomène premier, comme semblent le monter les expériences portant sur l’émergence du langage chez les robots. Avec le langage se sont constitués de grandes bases de connaissances symboliques et des flux d’échanges se développant de façon autonome par rapport aux individus. Ces échanges structurent en permanence les contenus des consciences supérieures et des Je eux-mêmes. Par l’accès aux connaissances permises par le langage, les individus disposant de la conscience supérieure sont capables de se représenter leur situation de façon relativement objective (selon des points de vus partagés). Cette représentation est fragmentaire et peu fiable, mais elle est préférable à l’ignorance absolue qui est celle d’un organisme non conscient. En retour, les individus utilisent le langage et le Je pour afficher leurs contenus conscients à destination des autres individus. A quoi cela leur est-il utile ? Ayant fait connaître ce qu’ils pensent, c’est-à-dire en fait ce qu’ils sont dans leur profondeur, ils provoquent dans des délais très cours le regroupement de ceux qui “ pensent ” comme eux. Les individus ainsi regroupés exercent de fait des actions collectives sur le milieu qui sont d’une plus grande efficacité que s’ils agissaient seuls. Ce sont apparemment les avantages sélectifs apportés par ces propriétés nouvelles qui ont permis le développement de la conscience supérieure chez les humains. Mais alors il devient presque indispensable de considérer la conscience supérieure, y compris dans ses manifestations individuelles, comme résultant de la compétition entre les groupes humains dotés du langage. On pourra définir ces groupes sociaux comme des super-organismes dotés de conscience 54. n En dehors de ceci, ni la conscience primaire ni la conscience supérieure ne sont causales. C’est l’individu tout entier, utilisant son corps et son cerveau, qui est causal, c’est-à-dire qui est capable d’agir sur son environnement, notamment à partir de ses organes moteurs. Mais l’individu lui-même n’est pas autonome, ou plutôt libre au sens qu’entend le terme de libre-arbitre. Son comportement, c’est-à-dire ses décisions, sont produits par des mécanismes physiologiques complexes interférant avec l’environnement. Ils ne résultent cependant pas de déterminismes linéaires simples. Le nombre des facteurs est si grand que le comportement global n’est pas prévisible. On dira qu’il s’agit d’une émergence. La décision est inhérente à la vie même [Berthoz, op.cit.]. Dès qu’une structure biologique capable de réplication apparaît, elle est soumise à des contraintes de survie qui l’oblige à faire des choix. On peut admettre que ces choix se produisent initialement de 54

Voir chapitre 6.

81


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

façon aléatoire, mais les mauvais choix entraînant la mort de l’organisme, ne survivent que les organismes capables de meilleurs choix, c’est-à-dire présentant une organisation génétique et les processus de fonctionnement physiologique les mieux à même d’assurer leur survie. Chez les animaux dotés d’une certaine complexité, les décisions contribuant aux choix vitaux sont elles-mêmes complexes, faisant appel aux sensations, aux affects et autres traits définissant des caractères propres à chaque espèce et au sein de celle-ci, à chaque individu. n Les causes qui déterminent le comportement final d’un sujet sont innombrables, résultant à tout moment de l’exécution coordonnée ou conflictuelle de nombreuses fonctions endogènes (propres à l’individu) et de nombreuses influences exogènes (extérieures). Ceci fait que, vu de l’extérieur, le comportement d’un individu, qu’il s’agisse d’un humain ou même d’un organisme simple, est inexplicable et imprévisible, sauf en termes de probabilités. A plus forte raison, le comportement d’un sujet même conscient apparaît-il inexplicable et imprévisible à son Je conscient, qui ne dispose pas des informations nécessaires à la compréhension de ce qui se passe à tout instant en lui et autour de lui. Il peut en résulter une impression d’indéterminisme ou de liberté. n Même si la conscience n’est pas causale, elle n’est pas une illusion. Il n’en est pas de même du libre-arbitre. Celui-ci serait probablement une illusion, ce qui retirerait tout fondement scientifique à la notion de responsabilité individuelle qui l’accompagne généralement dans les sociétés occidentales, ainsi qu’à l’arsenal répressif destiné à punir les crimes et délits. On pourrait considérer ces concepts comme des “ gardiens de la conformité ” 55, émergences sociologiques destinées à protéger les super-organismes humains des désordres susceptibles d’être provoqués par des individus n’acceptant pas les règles collectives. Il s’agirait de formalisation au niveau du langage de contraintes analogues non verbalisées s’imposant aux individus dans les groupes animaux. Les humains ne peuvent renoncer à la croyance au libre-arbitre et à la responsabilité individuelle parce que leurs cerveaux ont génétiquement évolués pour entretenir ces croyances. De la même façon, selon la plupart des scientifiques, les cerveaux ont évolué de façon à entretenir l’idée de la divinité, celle-ci s’étant révélée indispensable à la survie des sociétés primitives ne supportant pas l’idée que rien ne survivrait à la mort des individus. n Finalement la conscience supérieure doit être vue comme une propriété du corps tout entier, avec ses attributs et son histoire particulière. Ce devrait être une banalité à dire, mais lorsque je m’adresse à la conscience de telle personne, je ne m’adresse pas à une sorte de pur esprit, mais à un être vivant complet dont j’ignore à peu près tout. De même, quand cette personne prend une décision, ce n’est pas sa conscience qui l’a prise au moment où elle le dit. La décision était déjà prise par son être tout entier. n Parmi les facteurs déterminant le comportement global des individus se trouvent les contenus cognitifs collectifs accessibles à travers le langage. Les Je caractérisant la conscience supérieure sont, nous l’avons dit, construits très largement à partir de ce que véhiculent les échanges langagiers puisant eux-mêmes dans les bases de connaissances sociales. Les décisions (ou apparentes décisions) des Je conscients sont construites à partir des informations provenant de ces bases de connaissances, transmise par le langage. A l’inverse, les Je peuvent aussi, à titre individuel, créer des contenus langagiers qu’ils déversent dans les flux collectifs. Finalement, les humains sont aujourd’hui équipés, grâce aux bases neuronales et corporelles qui génèrent la conscience supérieure, pour “ donner la parole ” (ou plutôt donner “ une “ parole) à tout ce qui chez eux relèvent de la conscience primaire, du corps et plus généralement du biologique, c’est-à-dire du vivant.

55

Voir chapitre 6.

82


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

n Les bases de connaissances sociales, accessibles aux consciences supérieures, sont des superstructures informationnelles émergentes caractérisant les super-organismes humains. Elles résultent de la compétition darwinienne entre ces super-organismes, laquelle favorise les connaissances s’étant révélées les plus efficaces dans la prise des décisions vitales. On peut considérer que les connaissances scientifiques et technologiques se sont progressivement imposées, aux dépends des connaissances mythologiques, comme plus les efficaces dans la lutte pour la survie. Mais alors on peut dire que la science, à travers les humains, “ donne une possibilité de parole au monde ”, tout au moins au monde humanisé. n Répétons-le, il n’est pas nécessaire de supposer que la conscience individuelle, la conscience collective et finalement la science soient les produits d’un mécanisme mystérieux qui aurait émergé on ne sait comment d’un substrat biologique initial. Gerald Edelman utilise systématiquement un schéma darwinien pour expliquer l’émergence de la conscience individuelle. Il l’a décrit par le concept de “ Théorie de la sélection de groupes de neurones ”. Ce schéma peut être utilement étendu à tout ce qui concerne le monde non plus des neurones individuels mais des individus regroupés en réseaux neuronaux étendus transmettant des informations symboliques à travers le langage, lesquelles à leur tour s’organisent en réseaux de connaissances. n Si les humains en particulier, par la conscience elle-même prolongée par le langage, donnent la parole au biologique et au physique qui est en eux, les contenus symboliques, qu’ils soient ou non construits en systèmes rationnels et scientifiques, sont aussi porteurs de parole pour leur compte. Cette parole ne s’exprime pas directement, mais par l’intermédiaire des humains et aujourd’hui, de leurs artefacts. Mais elle est autonome par rapport aux humains individuels qui leur servent seulement de relais, si l’on peut dire. Il s’agit d’une parole “ conférée ” aux entités non humaines du monde et se développant sur le mode darwinien, à partir de “ corps virtuels ” répartis dans le monde et incluant le plus souvent des humains qui ne sont pas conscients de cette appartenance. n Ainsi, nous pouvons conclure que si les Je de la conscience supérieure se trouvent “ réincorporés ” dans les corps des humains conscients et perdent donc une partie de la liberté absolue qui leur était attribuée jusqu’à présent par l’opinion commune, ils sont indirectement à la source d’une parole inconsciente “ conférée ” s’exprimant à travers des entités que nul n’avait jusqu’ici soupçonné l’existence. Il s’agit de nouveaux partenaires que les humains devront désormais apprendre à reconnaître et avec qui, le moment venu, ils devront négocier. Ce sont les plus importants de ceux-ci que nous allons présenter dans la seconde partie du livre. n Mais alors, que penser des exhortations au volontarisme et à l’activisme politique destinés censément à améliorer le monde ? A qui s’adressent de tels messages ? Et surtout de qui émanent-ils ? Qui suis-je, par exemple, moi qui écrit ce livre ? Dans la ligne de ce qui précède, nous pourrions nous borner à constater que de tels messages existent et qu’un certain nombre d’humains leur donnent un sens. Si certains appellent à l’activisme politique, c’est parce que leur être tout entier a déjà fait ce choix et tente de se trouver ou de se susciter des alliés dans la compétition pour la vie. Quant à moi, compte tenu de ma situation dans le monde, je n’aurais pas pu ne pas écrire ce livre. Si certaines personnes le lisent, elles ne pourront pas ne pas lui donner le sens qu’elles lui donneront, soit pour l’approuver et se laisser au moins en partie influencer par lui, soit pour le rejeter. Ces menus événements, quels qu’ils soient, entreront dans la compétition pour la construction par le langage d’un monde bien plus vaste, peut-être auto-référant, dont nous serions des éléments.

83


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Nous ajouterons cependant, pour ceux qui ne se résoudraient pas à admettre que la conscience et le libre-arbitre ne puissent être reconnus aujourd’hui par la science matérialiste, qu’il convient de rester prudent, un peu comme l’était Pascal face à la vie éternelle. Une solution d’attente est suggérée par Georges Charpak et Roland Omnès, dans leur dernier ouvrage “ Soyez savants, devenez prophètes ”. [Charpak, Omnès, 2004, op.cit]. Il s’agit de deux physiciens réputés, qui n’ont jamais cédé au mysticisme. Pour eux, la conscience et le libre-arbitre résultent de mécanismes non-linéaires qui sont loin d’être encore élucidés. Attendons que la science ait progressé à leur égard avant de décider qu’ils relèvent du déterminisme biologique et sont donc impossibles. Des réponses “ subtiles et inattendues ” peuvent surgir à tout moment pour nous aider à résoudre la difficulté. Il faut donc patienter…et travailler dans plusieurs directions à la fois pour chercher de telles subtilités, la physique quantique offrant certainement la voie la plus prometteuse.

84


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Deuxième partie. Les nouveaux acteurs Quand on observe le monde sans se préoccuper de renouveler et élargir le regard, on ne voit à l’œuvre que des acteurs identifiés depuis des millénaires : les organismes vivants, les humains, les groupes sociaux nombreux que forment ceux-ci. On ne remet pas en cause la certitude que ce sont en dernier ressort les humains, armés de la conscience volontaire, qui décident des événements les concernant. Les sciences de la complexité, dont nous avons examiné quelques aspects, invitent à de nouveaux regards. Elles obligent à faire appel, selon l’expression de Joël de Rosnay, au macroscope et – pourrions nous ajouter, au “ différenscope ”. Il faut voir plus large et autrement. Ceci est bien dans l’esprit du paradigme systémique. Dans un monde considéré comme une entité globale, nous découpons des soussystèmes qui correspondent à nos besoins d’action physique et de communication. Ces soussystèmes ne sont pas des réels en soi, ce sont des réels construits par notre esprit, lui-même acteur majeur de nos actions. Mais ils font cependant partie de ce que nous avons appelé le “ réel humanisé ”. Pour nous, ici et maintenant, ils doivent être intégrés dans les modèles du monde que nous nous forgeons en permanence. Nous devons donc les nommer et les qualifier par des mesures instrumentales, comme nous le faisons pour les objets du monde matériel. Ce faisant, dans un jeu permanent d’action-réaction, nous contribuons à leur donner la parole, c’est-à-dire à les renforcer et à les étendre. Nous allons ici examiner trois grandes catégories de ces nouveaux acteurs auxquels nous avons déjà fait allusion : les mèmes, les super-organismes et les entités artificielles. Nous y ajouterons une catégorie encore très hypothétique, mais qui fera sûrement parler d’elle dans les années ou décennies prochaines, les posthumains, qui sont des humains “ augmentés ” de tous les appendices que leur offrent les technologies émergentes. Les posthumains pourraient être nos successeurs si l’humanité ne se détruit pas auparavant, comme le prédisent certains scénarios-catastrophes que nous évoquerons. Toute cette nouvelle “ faune ” fait depuis une dizaine d’années l’objet d’innombrables travaux et recherches. Malheureusement, les sciences politiques, notamment en France, ayant du retard sur les autres sciences, découvrent seulement ce dont il s’agit. Il s’ensuit que le discours et la pratique politique, eux-mêmes en retard sur les sciences politiques, ne prennent pas en compte le rôle de ces nouveaux acteurs comme il le faudrait. Ceci explique en partie l’irréalisme et la naï veté de beaucoup de programmes politiques, de gauche ou de droite. Peut-on attribuer à ces nouveaux acteurs une conscience volontaire analogue à celle que nous attribuons aux acteurs humains et, sous certaines limites, aux acteurs animaux ? Peut-on par exemple considérer qu’un mème ou un robot autonome, c’est-à-dire des systèmes organisés de symboles ou d’idées, se comportent comme des êtres vivants et, qui plus est, comme des êtres rationnels ? On pourrait formuler deux réponses sans doute aussi peu adaptées l’une que l’autre. La première est de dénier toute capacité d’auto-réflexion (au sens de l’autonomie) à de tels “ êtres ”, ce qui en fait des éléments de plus à ajouter aux innombrables déterminismes qui pèsent sur notre supposée capacité de libre-arbitre. Mais on peut à l’inverse considérer qu’ils acquièrent, en interagissant avec nous ou, mieux encore, de leur propre chef, des capacités de décision et d’invention prenant sans doute des formes différentes des nôtres, que nous ne saurions sans danger sous-estimer.

85


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 5. Le monde des mèmes Nous avons vu dans le chapitre consacré à l’évolution que les processus de construction des réseaux biologiques - associant bactéries, animaux, êtres humains - utilisent des composants de la matière vivante liés à l'organisation cellulaire ou proches d'elle, notamment les gènes. Ceux-ci composent des structures moléculaires complexes propres à chaque espèce, les génotypes. Les génotypes commandent la fabrication des phénotypes, c’est-à-dire des individus constituant l’espèce. Les individus eux-mêmes constituent des sociétés adaptées à des milieux spécifiques. Ces sociétés développent des cultures qui modifient leurs milieux et créent ainsi de nouvelles conditions auxquelles doit s’adapter l’évolution génétique. C'est la sociobiologie, science de l'étude de l'influence des gènes sur les organisations sociales, qui peut le mieux rendre compte des architectures et des comportements de base de ces sociétés. Mais les cultures ne dépendent pas exclusivement de la commande génétique. Elles sont pétries de comportements et messages symboliques inventés par des individus créatifs, qui se transmettent par imitation et survivent à travers les générations s’ils apportent un avantage dans la lutte pour la survie. Les observateurs de la vie sociale ont depuis longtemps constaté que de tels symboles pouvaient avoir une sorte de vie propre. Depuis l’antiquité est évoquée la lutte des idées. Mais avant le généticien britannique Richard Dawkins, il n’était venu à personne l’idée de comparer ces symboles à des organismes biologiques, capables d’évoluer et de se reproduire indépendamment de notre volonté d’une façon comparable à celle des virus, ou, plus précisément encore, à celle des gènes. Dawkins les a nommés des “ mèmes ”. Une science, la mémétique, a commencé à se construire autour de l’étude des mèmes. Il est indispensable de bien comprendre ce dont il s’agit, si l’on considère que la compétition darwinienne entre les mèmes peut déterminer en grande partie le contenu des cultures humaines et peut-être aussi des esprits. En France, le concept de mème est resté longtemps ignoré ou rejeté comme puéril par des sociologues héritiers de Durkheim ou du structuralisme. Mais c’est une erreur, comme on commence à le découvrir. Les mèmes sont devenus incontournables, à la mesure du développement des réseaux et systèmes d’information moderne. On ne trouve pas d’ouvrages français sur la mémétique, si ce n’est celui qui vient de sortir Pascal Jouxtel, président de la société francophone de mémétique 56. Nous avons donc retenu pour illustrer ces travaux ceux de Susan Blackmore, investie à fond dans une " mémétique " pure et dure, prenant des formes parfois religieuses. Nous y avons ajouté les contributions de Robert Aunger, qui a le mérite de chercher les traces neurobiologiques des mèmes dans nos cerveaux et pas seulement dans les réseaux d’échanges sociaux. C’est bien en effet sous forme d’associations neuronales que se retrouvent toutes les représentations, quelles qu’elles soient. On retiendra que la mémétique reste une science qui se cherche et qui est donc loin d’avoir dit son dernier mot. Mais elle trouve déjà de nombreuses applications dans l’ analyse des processus de constitution et d’utilisation des langages. Nous en donnerons un exemple à propos de ce que l’on nomme parfois le “ langage afficheur ” 5.1. La machine mémétique Très tôt dans l'évolution animale, sont apparues des ébauches d'encéphales devenues dans certaines espèces des cerveaux eux-mêmes de plus en plus complexes. Ce sont des 56

Pascal Jouxtel. Comment les systèmes pondent. Introduction à la mémétique. Collection AutomatesIntelligents. Vuibert 2005 [Jouxtel, op.cit.]

86


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

organes associatifs ressemblant en gros à des serveurs informatiques, capables de gérer des informations symboliques ou représentations résultant de l'activité des organes des sens et des organes de commande. Très liées au départ aux activités sensorielles et aux comportements propres à chaque espèce, ces représentations ont évolué en fonction de l'évolution génétique de chacune des espèces. Elles ont pris de plus en plus d’autonomie par rapport aux circuits sensori-moteurs de premier niveau, tout en restant définies par les besoins généraux des individus au sein de l’espèce. Ainsi le cerveau d'un prédateur est capable de se représenter des entités abstraites ou “ catégories ” correspondant aux animaux qu'il chasse ou aux circonstances de la chasse. Son cerveau a génétiquement évolué de façon à lui rendre ce service indispensables à sa survie. Mais le prédateur restera indifférent, sauf par dressage, à la circulation d'automobiles ou d'avions dans son espace de vie. A proprement parler, il ne les verra pas. Les gènes n'auront pas prévu l'existence de tels objets culturels. Cependant, si un lion se trouve confronté fréquemment à des automobiles, comme dans un parc, il apprendra à les identifier. Récemment, on a découvert que chez un très grand nombre d’espèces, des comportements et messages à contenu symbolique pouvaient être créés par les individus les plus doués, les plus explorateurs, alors même que rien dans l’organisation du système nerveux transmise par héritage ne le prévoyait. Si ces créations se révèlent fructueuses, pour la survie, elles se transmettent par imitation. L'exemple toujours cité est celui des mésanges anglaises ayant appris à percer les capsules en aluminium des bouteilles de lait, pour en consommer la crème. Ce comportement inventé par une mésange innovante s'est très vite répandu dans l'ensemble des populations de mésanges britanniques. Une autre forme, bien plus fréquente sinon universelle de transmission d'un comportement acquis est l'imprégnation, qui fait qu'un jeune à sa naissance imite fidèlement les modèles que lui proposent ses parents (parents ou toute personne, animal ou objet animé se trouvant là lorsque le jeune cherche en naissant des exemples à reproduire). Ces modèles sont adaptés au milieu et à l’instant. Ils n’ont rien de stéréotypé, contrairement aux comportements hérités considérés jadis comme “ instinctifs ”. De plus en plus, on détecte chez les animaux des mécanismes d’éducation souple des jeunes par les parents, très proches de ceux existant dans l’espèce humaine. C’est l’imitation qui est à la base de cette vie collective qu’il faut bien appeler culturelle. Certains physiologistes considèrent que seuls les humains sont capables de véritable imitation. Pour d’autres, il s’agit d’une aptitude assez largement répandue. Il faut seulement savoir la détecter. L’étude de l’acquisition des connaissances par des robots évolutionnaires montre qu’il s’agit d’un processus véritablement fondamental qui dépasse même le domaine des êtres vivants 57. Bien qu’ayant fait l’objet d’écrits à succès, ces questions n’étaient cependant que modérément commentées par le grand public avant la publication en 1999 du livre de la psychologue britannique Susan Blackmore, The Meme Machine [Blackmore, op.cit.]. Nous avons là, curieusement, l’exemple d’un ensemble de mèmes, regroupés dans un ouvrage certes bien fait mais austère, qui ont explosé dans les esprits parce qu’ils correspondaient à une attente implicite du milieu. L’ouvrage en effet a fondé une démarche scientifique nouvelle là où les constatations restaient auparavant dispersées et présentées sans liens logiques. Ses domaines d’application ont été nombreux. L’un de ceux qui nous intéressera particulièrement ici concerne la science politique. La vie politique consiste pour l’essentiel à communiquer par des paroles ou des écrits prenant souvent la forme de slogans plus ou moins symboliques voire simplistes. Dans de nombreux cas on peut les assimiler à des mèmes. La science politique ne peut donc ignorer les travaux de la mémétique, ceci d’autant moins que la mondialisation offre un théâtre considérablement agrandi au déploiement des mèmes, 57

Voir chapitre 7. On pourra sur ce point étudier les expériences menées par Sony CSL , notamment “ The Playground Experiment ” http://playground.csl.sony.fr

87


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

notamment avec les moyens de diffusion et de télécommunication de masse rendus accessibles par le progrès technique. La sociobiologie, nous l’avons vu, ne nie pas la culture, c'est-à-dire le fait que les sociétés humaines créent des comportements, des langages, des institutions qui se transmettent d'individus à individus sur le mode lamarckien ou acquis, c'est-à-dire sans être inscrits dans les gènes. Mais pour elle, d'une part la culture ne peut se développer que sur des terrains définis par les gènes, et d'autre part les constructions culturelles ont peu d'autonomie au regard des conditionnements imposés par les gènes. Edwards O.Wilson, le père de la sociobiologie, affirmait que “ Les gènes tiennent la culture en laisse ”. Pour prendre un exemple simple, on dira ainsi que les chants et musiques militaires ne sont apparus et ne se sont développés que parce que les groupes humains sont génétiquement programmés par les gènes pour s'affronter dans la défense du territoire ou l'accès aux ressources. La sociobiologie propose une explication déterministe, objectiviste et “ matérialiste ” des comportements sociaux, qui est dans la continuité des sciences sociales américaines du début du XXe siècle. Celles-ci faisaient la chasse aux interprétations subjectivistes et idéalistes de l'homme et de la société inspirées des traditions religieuses et des études historiques. Mais elles s'éloignaient aussi de la sociologie de l'école française, initialisée par Durkheim, et repris par le structuralisme, pour qui les structures sociales peuvent s'interpréter en tant que telles, indépendamment des substrats biologiques. Aujourd'hui, les divergences se sont atténuées. Chacun a admis que les gènes (ou ce que l'on met sous ce terme, c'est-à-dire une réalité dont la complexité se révèle tous les jours plus grande que les premiers généticiens ne l'imaginaient) jouent en effet un rôle essentiel auquel il est difficile de s'opposer directement. Mais ont reconnaît aussi que la culture et les créations culturelles caractérisant les civilisations ont pris depuis quelques siècles dans l'histoire humaine une telle importance qu'elles entraînent d'innombrables phénomènes se développant selon des formes et à des vitesses telles que l'explication génétique est bien en peine de répondre. Ce qui s'explique par les gènes dans une société de chasseurs-cueilleurs nécessite d'autres outils dans une société technologique et scientifique développée. Ceci ne veut pas dire que les explications soient toutes trouvées et que la recherche de solutions soit simple. Dans chaque cas posant problème, il faudrait multiplier les analyses pour mettre en évidence l'entrelacement des causes déterminantes entre inné et acquis, afin de faire apparaître les possibilités évolutives. Jusqu'à ces derniers temps, les sociologues classiques ne disposaient pas de méthodes très puissantes pour analyser les “ êtres ” culturels ou sociologiques : idées, images, institutions diverses et variées. Ils n'avaient pas l'outil extrêmement fécond du néodarwinisme appliqué à l'évolution biologique utilisé par leurs collègues généticiens. Ils faisaient appel à l'histoire, au droit, à d'innombrables facteurs inventés pour les besoins de la cause (citons les thèmes de la “ dialectique infrastructure-superstructure ”, de la “ mystification ”, de la “ mauvaise foi ” ou de la “ domination ”). Mais leur démarche laissait une grande impression de désordre et d'impuissance, du même ordre que celle ressentie par les naturalistes du XVIIIe et du début du XIXe siècle avant que l'évolutionnisme darwinien ne commence à proposer des logiques générales à fort pouvoir explicatif. 5.2. La mémétique selon Suzan Blackmore N'en déplaise à l'école sociologique française, qui a multiplié des observations fort intéressantes mais sans lignes conductrices, ce fut du côté des Britanniques que vint un début de salut, avec Richard Dawkins, immédiatement relayé par les philosophes et scientifiques évolutionnistes américains (notamment le plus grand d’entre eux, Daniel Dennett), puis par Susan Blackmore.

88


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Celle-ci raconte qu'elle a découvert la mémétique à la suite d'une maladie l'ayant tenu quelques mois éloignée de ses travaux universitaires antérieurs. En tant que psychologue spécialisée dans les croyances bizarres, comme les expériences près de la mort ou les abductions par des extra-terrestres, il est vrai qu'elle avait déjà eu l'occasion de s'interroger sur la puissance et le caractère contagieux de certaines idées. Son cerveau était donc prêt, pour parler comme elle le ferait sans doute, à se laisser envahir par le mème de la mémétique. Qu’est-ce qu’un mème ? Un mème, selon Susan Blackmore, est “ une idée, un comportement, un style ou un usage qui se propage de personne à personne au sein d'une culture ”. Les mèmes, affirme-telle, ont constitué et constituent aujourd'hui encore une force puissante qui a façonné notre évolution culturelle. Par rétroaction, elle a façonné notre évolution biologique, c'est-à-dire aussi génétique. On voit l'importance de l'enjeu : les mèmes pourraient devenir, s'ils ne le sont déjà, responsables de l'avenir de l'homme. Mais il s'agit des mèmes et non pas des hommes. Les hommes, dans cette perspective, ne seraient finalement que des objets passivement manipulés par des entités qui leur sont extérieures. Comment cela peut-il se faire ? Ajoutons : fallait-il que les hommes soient abusés pour que personne ne s’en soit avisé auparavant. Nous avons tous entendu parler du poids des idées, des propagandes, des images. Mais on y voyait cependant des créations de l'esprit humain, maîtrisables par les personnes disposant d'une éducation ou d'une culture suffisantes. Nul ne s'imaginait jusqu'alors que c'était l'esprit humain qui était créé par les idées, les propagandes, les images... Il faut reconnaître que Susan Blackmore s'est engagée dans une démarche intellectuellement fort courageuse, partant d'un pays, la Grande-Bretagne, encore largement imprégné de croyances religieuses confinant à l'intolérance. Son travail s'est positionné d'emblée comme refusant le spiritualisme, l'humanisme et même, nous le verrons, la spécificité de la conscience humaine. Pour elle, le monde est déterminé par des conflits entre agents non humains, les gènes et les mèmes, pour qui les valeurs humaines les plus hautes n'ont aucun intérêt si elles ne servent pas leur survie. Elle-même en tant que scientifique et auteur d'un ouvrage à succès ne se reconnaît aucune individualité et aucun libre-arbitre particuliers. Nous reviendrons sur ce point en conclusion du chapitre. Les mèmes sont-ils spécifiques aux hommes ? D'où sont venus les mèmes ? Il s'agit d'une question capitale. Pour commencer à y répondre, Susan Blackmore pose une question préalable : pourquoi l'homme dispose-t-il d'un cerveau anormalement important par rapport à celui des animaux proches, ainsi que d'un langage complexe, créateur d'innombrables concepts, phrases, idées ? Rien dans la situation des préhominiens n'exigeait cela. Ils auraient très bien pu survivre comme l'ont fait les autres primates, en exploitant leurs ressources d'origine. On sait en effet que les évolutionnistes ne veulent pas expliquer l'apparition d'un organe nouveau par le fait que cet organe s'est révélé ultérieurement utile. Le génome n'intègre les gènes commandant la phylogenèse d'un organe nouveau, suite à un long processus de mutation/sélection, que si de puissantes raisons initiales permettent la survie des mutations responsables de cet organe. Des animaux qui fonctionnent bien sans un gros cerveau n'ont aucune raison de changer d'encéphale. C'est pour résoudre cette difficulté que les anthropologues “ classiques ”, non méméticiens, cherchant à expliquer l'apparition du cerveau et du langage, font appel à des modifications radicales dans l'environnement naturel. On évoque régulièrement un changement de climat ayant obligé les premiers hominiens à quitter la forêt pour des milieux ouverts. Le langage aurait alors remplacé progressivement l'épouillage ou toilettage (grooming) pour assurer la cohésion de groupes plus importants et plus mobiles. Pour Susan Blackmore, cette hypothèse est artificielle.

89


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Elle considère que le fait nouveau fut l'apparition chez les hominiens de la capacité à imiter, vers 2 millions d'années avant notre ère, c’est-à-dire peu avant l'invention des outils. Elle affirme que les animaux ne sont pas capables d'imitation (affirmation très contestée par d’autres méméticiens) car il s'agit d'une activité complexe. Imiter signifie copier un comportement inédit observé chez un autre animal. L'opération est difficile, exigeant une grande intelligence, rare dans le règne animal. Les oiseaux reproduisent des chants, quelques cétacés imitent des sons et des actions, mais c'est tout. Ce que l'on appelle imitation chez un animal constitue en fait l'adaptation d'un comportement inné à une situation nouvelle. C’est ce que fait par exemple un jeune en imitant sa mère qui lui apprend à chasser. L'imitation généralisée de toutes sortes d'activités non spécifiées est bien plus difficile. Elle constitue une aptitude précieuse, car son détenteur bénéficie ainsi du savoir ou de l'ingéniosité des autres. L'imitation s'est développée chez les hominiens à partir du moment où certains gestes se révélant propices à la survie, par exemple tailler un silex, ont été reproduits par la communauté. L'évolution génétique a certainement favorisé les imitateurs, ceux-ci enregistrant plus de succès dans le monde pouvant donc fonder des familles plus prolifiques. Des “ gènes de l'imitation ” sont donc apparus et se sont répandus. Tout était alors prêt pour que les mèmes prennent naissance. Que signifie en effet l'imitation ? Elle consiste à créer une entité informationnelle (une sorte de recette, comme celle du “ pudding de la tante Rose ”) qui circule de cerveaux en cerveaux en se modifiant ou s'enrichissant le cas échéant. C'est cette entité qui constitue le mème. Les premiers mèmes ont été des mèmes utiles à la survie, reproduisant des comportements inventés par essais et erreurs qui se sont révélés productifs et qui ont été copiés par les voisins de l'inventeur. Les hominiens ont inventé des savoir-faire nouveaux pour identifier la nourriture, chasser, allumer un feu et cuisiner. En même temps, du fait que ces savoir-faire ont été immédiatement imités, les hominiens ont inventé les mèmes correspondants et de ce fait une culture à base de création, échange, mémorisation, modification de mèmes. Mais ce faisant, la nouvelle entité, le mème, transportant initialement un savoir immédiatement utile, s'est transformé en réplicateur égoï ste. L'espace encore peu rempli offert par les cerveaux s'est très rapidement peuplé de quasi-virus informationnels, proliférant compte tenu de leurs propres possibilités réplicatrices et mutantes, sans tenir compte de l'intérêt des hommes qui en étaient les porteurs et véhicules. Les humains, autrement dits, se sont mis à parler sans arrêt mais pour ne rien dire de spécialement utile. Ils étaient en fait “ parlés ” comme aurait dit Lacan (qui parle ?) par d'innombrables générations de mèmes. Une analogie peut être trouvée quand on regarde la façon dont les virus biologiques se répandent chez les êtres vivants en profitant des ressources que ceux-ci mettent à leur disposition, soit pour les héberger, soit pour les aider à se transporter. Les mèmes sont d'ailleurs bien, selon l'expression de Richard Brodie, un autre “ inventeur ” de la mémétique, des virus de l'esprit 58. Les gènes et les mèmes ne sont pas comparables Il ne faut pas assimiler trop complètement gène et mème. Susan Blackmore a consacré de longs développements à ce thème, montrant que ces deux entités évoluent dans des domaines très différents. Le mécanisme d'ensemble de leur évolution est cependant voisin. C’est un algorithme, c'est-à-dire une sorte de recette qui fonctionne indépendamment des ingrédients. La réplication des mèmes d'une personne à une autre est très fréquente. Elle est imparfaite, à l'instar de la réplication des gènes de parents à enfants : on transforme une information en la reproduisant. Parmi toutes les variantes, certaines seront à leur tour de nombreuses fois répliquées et transformées, tandis que d'autres disparaîtront. Les mèmes 58

Richard Brodie, Virus of the Mind: The New Science of the Meme (Integral Press, 1996)

90


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

subissent ainsi les trois processus de l'algorithme darwinien réplication/variation/sélection. Mais les mèmes, contrairement aux gènes, prennent d'innombrables formes, utilisant d'innombrables supports, se regroupent en d'innombrables familles (les mèmeplexes) ce qui rend difficile l'établissement de typologies. La mémétique, aussi bien, est-elle encore dans l'enfance, alimentant de nombreux forums de discussion sur Internet. C’est tout l’univers dont nous entretient Pascal Jouxtel dans son livre cité en référence [Jouxtel, op.cit.]. S'ils sont des réplicateurs, les mèmes entrent en compétition darwinienne les uns avec les autres, de façon encore plus égoï ste que ne le font les gènes. Ces derniers sont en effet contraints par la sélection de groupe à favoriser la survie du groupe car la disparition du groupe entraînerait en général leur propre disparition. Il n'en est pas de même pour les mèmes. Comme ils sautent très facilement d'un cerveau à l'autre, servir l'intérêt de ces cerveaux ne leur apporte pas en général d'avantage particulier59. Les mèmes en d'autres termes ne s'intéressent pas à la survie des gènes. Ceci veut dire que si la culture humaine est pour l'essentiel le produit de l'activité des mèmes, cette culture n'aurait pas pour objectif - ou plutôt pour résultat - de servir l'intérêt des hommes, simples véhicules pour les mèmes. Les mèmes sont des réplicateurs, mais ils servent égoï stement leurs propres objectifs en se répliquant et mutant dès qu'ils en ont la possibilité. Inutile de préciser qu'une telle formulation n'implique pas que les réplicateurs, gènes ou mèmes, soient dotés d'une volonté. Dans la conception darwinienne de l'évolution, les mutations se font au hasard. À mesure qu'ils se perpétuent, les mèmes façonnent notre esprit et notre culture, ce qui peut d'ailleurs créer de nouveaux environnements favorisant des mutations génétiques, telles que celles ayant permis le développement du cerveau, de l'appareil nécessaire au langage et autres traits caractéristiques de l'homo sapiens. Cette argumentation de type déterministe est très séduisante, quoi qu’en pensent les défenseurs d'une culture humaine se développant sous l’influence d’une hypothétique philosophie humaniste. Il suffit de voir comment des complexes mémétiques lourds, des mèmeplexes, se développent dans la civilisation contemporaine au mépris le plus évident de l'intérêt des hommes qui en sont les porteurs : les affrontements idéologiques ou religieux, la publicité pour des produits de consommation plus dangereux qu'utiles… Les mèmes symbiotiques Cependant pour Susan Blackmore, tous les mèmes ne sont pas inutiles à notre survie, c'est-à-dire à celle de nos gènes. Elle semble considérer que les langues, les systèmes politiques, les institutions financières, l'éducation, la science, la technologie… sont des mèmes (ou des groupes de mèmes). Ces entités se transmettent de personne à personne par imitation. Elles se co-développent symbiotiquement avec les gènes dans un processus évolutionnaire global où les mèmes sont les réplicateurs évolutifs et où les hommes sont des machines à fabriquer des mèmes tout en étant des machines à reproduire leurs propres gènes. Cette conception permet de retrouver un des mécanismes fondateurs de l’évolution mentionnés dans le chapitre précédent, qui est la symbiose. Qui profite de qui dans ces symbioses ? Sans doute l'ensemble. Vers quoi, vers quel avenir se dirige l'évolution ? Nul ne peut le prédire. Susan Blackmore n'ignore évidemment pas les technologies de l'information. Elle montre qu'avec ces dernières, et notamment le Web, les mèmes ont trouvé de nouveaux terrains infiniment productifs pour se développer. Il s'agit d'une idée devenue banale, qu'a reprise Jean-Michel Truong dans son ouvrage Totalement inhumaine (Truong, op.cit.) en parlant d'e-gènes (autre mot pour e-mèmes) développant un être nouveau virtuel qu'il a 59

Le monde est empli de fanatiques ou mystiques qui propagent ce qu’ils estiment être la bonne parole, même s’ils doivent y laisser la vie. Selon la mémétique, ce sont des mèmes puissants qui s’expriment à travers un terrain favorable.

91


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

nommé le Successeur, successeur de l'humanité actuelle. Susan Blackmore n'est pas allée jusque là. Elle évoque le fait que si les roboticiens veulent rendre les robots intelligents, ils doivent en priorité leur apprendre à imiter, c’est-à-dire à fabriquer des mèmes. C'est ce co-développement entre les gènes et les mèmes, mis en évidence par la mémétique, qui explique la spécificité de l'histoire humaine par rapport à celle des animaux. Contrairement aux animaux, les hommes sont uniques parce qu'ils ont évolué, , sous l'action de deux réplicateurs au lieu d'un : les gènes et les mèmes. Cette évolution les a dotés d'un cerveau surpuissant et d'un langage, indispensables aux mèmes pour se reproduire, ainsi que de toute une série d'aptitudes singulières, notamment la conscience. La conscience est un mème Voici le point le plus " scandaleux " de la pensée de Susan Blackmore. Pour elle en effet, la conscience est un mème, ou plutôt un ensemble de mèmes, un mèmeplexe, qu'elle qualifie de selfplexe. La conscience est un mème particulièrement élaboré puisqu'il s'agit d'un mème conscient d'être un même, et donc doté d'un pouvoir réplicatif infiniment plus grand que celui dont dispose le mème inconscient de l'être. Cela ne veut pas dire pour autant que la personne humaine, que le Je, évacué par Susan Blackmore en tant qu’entité spécifique , puisse reprendre les rênes. Qui sommes-nous ? Qui est le Je qui parle ? Susan Blackmore n'a pas de mal à démontrer que le dualisme, postulant l'existence d'un esprit séparé du corps, n'a plus guère de défenseurs chez les scientifiques occidentaux. A l'inverse le réductionnisme, réduisant l'esprit au fonctionnement coordonné d'un ensemble de neurones, n'a jamais mis en évidence l'existence ou le siège de tels neurones. Nulle part n'apparaît un moi en charge du contrôle de ma vie. L'organisme que je suis semble fonctionner très bien dans un ensemble d'actionsréactions interagissant avec le milieu. Ce fonctionnement est certes régulé et coordonné, mais de façon identique à celui d’un organisme animal ou d’un robot complexe moderne. Le Je est-il alors simplement une illusion ? Susan Blackmore répond par l’affirmative - avec une nuance importante. Comme nous venons de le dire, pour elle, le Je est un mème ou plutôt un ensemble de mèmes particulièrement envahissants, le selfplexe, qui s'est installé dans nos cerveaux et qui se renforce lui-même sans cesse en protégeant et légitimant les mèmes qui s'y agrègent. Les mèmes isolés trouvent une force reproductive accrue en s'associant pour constituer un Je qui décide de tout à leur place, comme des fantassins isolés prennent une force nouvelle en se regroupant au sein d'une armée qu'ils dotent d'un général 60. Cette nouvelle armée, c'est le selfplexe. Le rôle du Je représenté par le selfplexe n'est pas de défendre un hypothétique moi, mais d'aider les mèmes associés en son sein à se propager. Chaque Je est une “ machine à mèmes ”, une “ meme machine ”. Mais nous sommes aussi des machines biologiques, des machines à gènes ou “ gene machines ”, ces machines biologiques aux capacités et intérêts variés que définissent nos gènes ainsi que notre appartenance à une espèce et à des groupes au sein de cette espèce. Il s'agit là de réalités biologiques et sociétales existant chez les hommes comme dans toutes les autres espèces vivantes. Elles sont le terrain indispensable à la vie des mèmes, et évoluent selon des logiques qui ne recoupent que partiellement celles des mèmes. Ces machines biologiques s'interpénètrent en permanence avec les machines mémétiques que nous sommes par ailleurs. Il faut s'en convaincre, et se laisser vivre ainsi.

60

La comparaison est de nous.

92


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

5.3. Les mèmes selon Robert Aunger A la suite de Dawkins et de Blackmore, le chercheur britannique Robert Aunger [The Electric Meme, op.cit.] diversifie et étend considérablement le concept de mème. “ The Electric Meme ”, publié en 2002, est un gros livre très ambitieux. L'auteur y propose ce qu'il appelle “ une nouvelle théorie sur la façon dont nous pensons ”61. Ceci ne peut pas laisser indifférent ceux qui réfléchissent aux idées politiques et à leur rôle. L’objectif de Robert Aunger est de revenir aux bases mêmes des travaux sur la mémétique, en essayant d'identifier le facteur causal déterminant les phénomènes décrits par ce concept manifestement encore flou de mème. Il voudrait “ être à la mémétique ce que Watson et Crick furent à la génétique ”. Avant eux, la génétique accumulait les conjectures, dont beaucoup se sont révélées prémonitoires, mais faute d'avoir identifié l'agent causal, elle comportait de nombreux aspects qui relevaient davantage de la philosophie que d'une science dure. La mise en évidence de l'ADN et de son mécanisme de réplication permirent au contraire les innombrables développements de la génétique, dont nous sommes loin d'avoir exploré toutes les possibilités. Ouvrir la chasse au mème Robert Aunger ne prétend pas avoir trouvé l'équivalent de l'ADN en matière de mémétique. En revanche, il espère avoir suffisamment dégagé le terrain pour que la “ chasse au même ” puisse sérieusement commencer. Pour lui, le mème est probablement une entité réplicative associant par un lien électrochimique les synapses d'un ou plusieurs neurones. Le mème est donc interne au cerveau. Il ne peut en sortir pour contaminer d'autres cerveaux qu'à travers divers processus d'intermédiation que le livre examine. L'auteur propose d'ailleurs le terme de neuromème. Cette entité est susceptible de se déplacer d'un neurone à l'autre et, surtout, elle peut se répliquer à l'intérieur du cerveau, en envahissant de plus en plus d'aires cérébrales et en modifiant éventuellement leurs fonctionnalités. Il s'agit donc ainsi et en premier lieu d'une contamination de la matière cérébrale, par un agent réplicant soumis comme tel aux règles de l'évolution darwinienne. Les agents évolutifs identifiés par la mémétique traditionnelle (constitutifs de la culture, si nous opposons celle-ci à la nature, codifiée par les gènes), sont multiples. On a d'ailleurs tendance à confondre souvent le vecteur et le répliquant. L'image de Ben Laden est un mème (ou dissimule un mème) puisqu'elle induit des comportements d'ailleurs variés chez ceux qui la reçoivent. Mais c'est aussi un véhicule qui utilise les réseaux modernes de la société de l'information pour se répandre et pour se dupliquer. Par ailleurs, le mot Ben Laden, l'allusion même à Ben Laden résultant de la circulation d’une image de lui, peuvent aussi être considérés comme des mèmes. Une fois engagé dans cette voie de la méméfication (c'est-àdire de la transformation de tout ce qui nous entoure en mèmes) il n'y a pas de raison de s'arrêter. Certains ont vu d'ailleurs dans une telle méméfication galopante l'effet de la contamination des esprits des méméticiens et de leurs disciples par le mème de mème. Il est certain qu'arrivé à ce stade, il faut reprendre pied. On est certes en droit d'appeler mème tout symbole du langage, qu'il s'agisse d'ailleurs de mots individuels ou de leurs associations en phrases et en discours. Mais alors il faut revoir à l'aune de la mémétique l'ensemble des sciences de l'homme, pour mieux identifier les réplicants, ainsi que ce à quoi ils correspondent dans les cerveaux (représentations) et dans notre environnement (notamment les objets du monde réel identifiés par le langage, ainsi que les machines ou artefacts qui constituent des objets très particuliers crées par l'homme). Pourquoi d'ailleurs ne 61

A New Theory of How We Think

93


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

pas le faire ? On développerait ainsi une description de type objectif de ce super-organisme qu'est l'humanité et des traitements d'information qui s'y déroulent. Cette description conduira inévitablement à une modélisation à partir de références computationnelles qui nous permettront ensuite de réaliser des machines intelligentes. Si on veut au contraire, comme certains méméticiens semblent le faire, distinguer entre les idées, images, symboles ou représentations mentales qu'ils qualifieront de mèmes, et d'autres idées ou représentations échappant à la mémétique et à ses illusions, comme pourraient l'être par exemples les théories scientifiques dûment prouvées par l'expérimentation, alors où faire passer la frontière entre ce qui est mème et ce qui ne l'est pas ? Pour Susan Blackmore, tout est mème ou mèmeplexe, y compris la conscience de soi, le Je. Pour Dawkins ou Dennett il ne semble pas que ce soit le cas. Mais qui a raison ? Le mème est un réplicateur de type biologique C'est effectivement pour sortir la mémétique de cette situation de confusion intellectuelle, qui était celle de la génétique avant l'identification de l'ADN, que Robert Aunger entreprend de mieux préciser ce que selon lui nous devrions appeler un mème. Il retient pour cela l'hypothèse fondamentale de Dawkins : il s'agit d'un réplicant ou réplicateur de type biologique, susceptible de contaminer les milieux qui l'hébergent. Cette analyse lui permet d'abord de clarifier les rapports entre les gènes et les mèmes, rapports de subordination avait dit le père de la sociobiologie, E.O.Wilson. Robert Aunger adopte au contraire le point de vue devenu commun selon lequel il y a co-évolution entre la nature (l'organisme et celles de ses fonctions directement commandées par les gènes) et la culture (tout ce que l'individu apprend au contact de son environnement, dès le stade de l'embryon, et qui se traduit par la mise en place puis la sélection de neurones et connexions synaptiques en grand nombre, la vie durant). Mais pour lui, cette co-évolution restera mystérieuse si on n'en précise pas les mécanismes. Elle est en partie le produit de l'activité des mèmes. Les mèmes qui “ infectent ” l'individu dès le plus jeune âge spécifient le profil épigénétique de l'individu et les fonctions qu'il remplit au sein de la société. Mais que sont exactement les mèmes ? En quoi peuvent-ils être qualifiés de réplicants ? S'agit-il de parasites, de parasites symbiotiques ou de parasites égoï stes ? Comment se fait la co-évolution entre mèmes et gènes et qui la dirige ? Résoudre ces questions devrait permettre de mieux cerner le concept encore flou de culture et même de fonder une véritable théorie nouvelle de la culture, tant animale qu'humaine. Mais elles ne peuvent être résolues qu'une fois les mèmes convenablement identifiés. Le zoo des réplicateurs Pour y voir plus clair, Aunger propose analyse les réplicateurs que nous connaissons déjà : le gène, le prion ou le virus informatique. Cette exploration du zoo darwinien des réplicateurs permet d’en proposer une définition précise : la source doit produire directement la copie, identique à elle-même, par transfert d'information et en ne disparaissant pas dans le processus. Par ailleurs, la réplication est au minimum une duplication : le réplicateur doit donner naissance à deux copies de lui-même et pas seulement se reproduire en un seul exemplaire. Parallèlement, il convient d'identifier les vecteurs, véhicules ou interacteurs qu'il ne faut pas confondre avec les réplicants mais qui contribuent à leur dissémination. C'est le plus souvent les interacteurs qui sont visibles et auxquels on est tenté d'attribuer la contamination (en les prenant pour des mèmes). Une image représentant Ben Laden n’est pas un même, c’est un vecteur ou interacteur. Le mème est l’idée Ben Laden suscitée par son image.

94


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Enfin, il faut rappeler que la réplication constitue des lignées (ou espèces en génétique), dotées d'une stabilité suffisante pour se perpétuer, mais cependant susceptible d'évoluer du fait de leurs mutations sous la pression concurrente d'autres lignées.

Une Théorie de la Réplication Il s'ensuit une Théorie de la Réplication, ainsi formulable : “ Les réplicateurs utilisent différents mécanismes pour faire des copies d'eux-mêmes. Chaque mécanisme définit une vitesse de réplication spécifique, laquelle entraîne une dynamique évolutionnaire elle-même spécifique ”. Sous cet angle, la réplication apparaît comme un phénomène hautement complexe et spécialisé. Les méméticiens doivent s'en souvenir avant de voir dans toute entité apparaissant ici et réapparaissant là un authentique réplicateur. A la lumière de l'étude des gènes, des prions et des virus informatiques, Robert Aunger est conduit à préciser également le concept d'information, laquelle est transmise par le réplicateur. Il n'existe pas de définition commune de l'information. Certains y voient une réalité immatérielle. Si on considère le mème (ainsi que les autres réplicateurs étudiés) comme une entité matérielle, il faut au contraire retenir de l'information une définition matérielle ou physique. Il s'agit de liens atomiques ou électro-chimiques entre éléments (entre neurones dans le cas des mèmes) qui construisent un certain ordre néguentropique, lequel ordre peut être transmis (ou détruit) au prix d'une certaine dépense. Le mécanisme de transmission est de type clé-serrure, à l’image de la reconnaissance moléculaire. Les réplicateurs, y compris les mèmes, sont donc des entités qui transfèrent des contraintes structurelles hautement spécifiques. Ceci se traduit par ce qu’il appelle le Principe du réplicateur “ casanier ” ou “ collant ” (Sticky Réplicator Principle) : le réplicateur choisit un substrat pour y vivre et il n'en sort plus. Autrement dit, la source et la copie doivent partager le même substrat. Le Principe contredit la mémétique classique, qui prétend qu'un mème peut naviguer d'un substrat à un autre (d'un cerveau vers un ordinateur puis à nouveau vers un cerveau, par exemple). Si le mème pouvait passer d'un substrat à l'autre, on ne voit pas de quoi il serait fait exactement. Ceci est possible dans le monde numérique, entre calculateurs ou autres supports informatiques, mais pas entre des milieux qui ne sont pas des calculateurs. On peut en conclure que le mème, s'il existe, constitue une entité du monde physique, évoluant à l'intérieur d 'un milieu homogène. En cela, il ressemble au gène. On ne trouve le mème que dans le cerveau Si le mème est un authentique parasite, responsable de nombreux phénomènes jusqu'ici attribués aux gènes ou à d'autres causes, son identification fera considérablement progresser les sciences, notamment les sciences humaines et politiques. Mais où chercher ce mème ? Conformément aux principes évoqués précédemment, Robert Aunger s’engage dans cette recherche en éliminant tout ce qui n'est pas biologique, notamment les artefacts où les méméticiens classiques identifient des mèmes aussi nombreux que virulents : une voiture, une maison, un grille-pain. Il élimine également les mots et symboles utilisés dans les échanges entre les hommes. Un mot en soi n'a de valeur mémétique que s'il se réfère à une connaissance ou une représentation déjà présente dans les cerveaux des interlocuteurs utilisant ce mot pour communiquer. D'une façon générale les comportements décrits par les comportementalistes ou béhavioristes ne peuvent être considérés comme hébergeant des mèmes. S'ils peuvent être imités, ils ne peuvent se répliquer de façon autonome.

95


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Selon Aunger, c'est finalement dans le cerveau, et seulement dans le cerveau, qu’il est possible de trouver des mèmes. Pour justifier son hypothèse, l'auteur propose une véritable théorie du cerveau. Il montre que les opérations cérébrales découlant du fonctionnement des neurones, d'abord limitées à la mise en relation directe des organes sensoriels et moteurs, ont commencé à s'associer du fait de l'émergence de réplicateurs, les neuromèmes, qui ont établi des ponts mobiles entre synapses et neurones. Ce sont ces neuromèmes qui, en se répandant et en se répliquant dans l’ensemble du système nerveux, ont assuré sa plasticité. Et ceci pour l’ensemble des espèces dotées d'un encéphale, tout au long de leur évolution. L'apparition chez les primates puis chez l'homme de gros cerveaux a donné aux neuromèmes un champ d'action et une efficacité accrus. Les mèmes ont ainsi pu développer et spécialiser des connections non câblées génétiquement. Aujourd'hui, ils jouent un rôle majeur dans le fonctionnement du cerveau. Leur compétition darwinienne permanente assure l'émergence d'un comportement global adapté à la milliseconde, reposant sur une mémoire à court terme et dans certains cas, l'autoréférentialité. Dans cette hypothèse, le mème est une connexion plus ou moins temporaire entre synapses d'un même neurone ou entre neurones, jouant un rôle fonctionnel, par exemple en commandant tel état local du cerveau intervenant dans l'établissement d'une représentation ou la commande d'un comportement moteur. Il s'agit donc d'une réalité physique, que l'on pourrait identifier un jour avec les moyens adéquats de l'imagerie cérébrale fonctionnelle. Cependant, comme par définition le mème est très volatile et mobile, la mise en évidence d'un mème identique susceptible de se trouver à divers endroits du cerveau sera pratiquement impossible. Le mème concrétise en fait une cohérence d'état entre un ou plusieurs neurones à un certain moment et en un certain lieu, permettant de déclencher la production d'une impulsion globale. Robert Aunger avance l'hypothèse qu'il y a continuité entre la mémoire à très court terme résultant de l'activité des mèmes et sa consolidation dans une mémoire à long terme commandée par les gènes. Il évoque en ce sens le rôle d'une protéine spécifique dite CREB, connue pour consolider certaines liaisons synaptiques. Poursuivant la construction de sa théorie mémétique du cerveau, l'auteur avance la définition suivante du neuromème : le neuromème correspond à la configuration d'un nœud du réseau neuronal capable d'induire la réplication de son état dans d'autres nœuds. Cependant l’auteur ne précise pas clairement les mécanismes permettant cette induction d'état. S'agit-il de l'envoi de transmetteurs ou d'une véritable induction électro-magnétique entre axones parcourus par le potentiel d'action ? Quoi qu'il en soit, les mèmes devraient exister en très grand nombre. Chacun des 100 milliards de neurones du cerveau humain pourrait en générer un à tout moment, plaçant les mèmes en compétition darwinienne permanente, dans l'inconscient ou le conscient, pendant la veille ou le sommeil. Certains seraient stationnaires, responsables des zones de stabilité relative du cerveau. D'autres seraient mobiles, utilisant notamment les liaisons neuronales associatives réentrantes entre aires cérébrales. Les représentations mentales un tant soit peu complexes exigent la coopération de nombreux mèmes. L'auteur n'indique pas en ce cas selon quelles logiques ou quels processus ces mèmes se conjuguent. De même, la question des contraintes dans lesquelles s'exerce la compétition darwinienne des mèmes n'est pas non plus évoquée. Existe-t-il de telles contraintes ? La compétition se fait-elle, comme dans certains systèmes multi-agents de la vie artificielle, sans contraintes de départ ? Ces questions restent posées. Dans l'hypothèse ainsi présentée, qui insiste sur le rôle de la réplication des mèmes à l'intérieur du cerveau, leur apparent parasitisme n'en est pas un. L’activité des mèmes constitue au contraire un avantage adaptatif acquis. Elle permet notamment la redondance des informations entre neurones et plus généralement la permanence des informations constituant la personnalité culturelle du sujet. Elle assure enfin la migration de la mémoire à court terme

96


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

vers la mémoire à long terme. Les mèmes seraient finalement les briques (molles et mobiles) à partir desquelles se construiraient les cerveaux et leurs contenus cognitifs. Il s'agirait de parasites “ gentils ” et non nuisibles, un peu comparables aux germes qui assurent le bon fonctionnement de nos viscères. Les “ instigateurs ” Les méméticiens classiques ne se satisferont pas de cette description des mèmes, qui en fait pratiquement des modules internes aux cerveaux. Que devient ce rôle de parasite de l'esprit, avec lesquels les mèmes imposent à des milliers de gens leurs contenus sémantiques et les comportements destructifs que ces contenus peuvent commander, guerres civiles ou guerres de religions ? Pour les méméticiens, nous l'avons rappelé, les mèmes sautent littéralement de cerveau en cerveau, à travers des supports aussi divers qu'inattendus dans lesquels ils s'incarnent momentanément. Mais la mémétique n'a pas encore expliqué clairement comment l'information contenue dans un neuromème peut être décodée et recodée pour s'inscrire dans le véhicule ou interfacteur, puis à nouveau décodée et recodée pour entrer dans le cerveau de la personne contaminée ? Pour Aunger le même, tel qu'il est défini en conformité avec la Théorie du Réplicateur présentée précédemment ne peut pas sauter d'un cerveau à l'autre, ni directement ni par l'intermédiaire de signaux dans lesquels il se dissimulerait. Cependant la transmission sociale de l'information reste indispensable à l'établissement d'une culture. Afin de résoudre cette difficulté, l'auteur propose l'hypothèse que le mème se borne à émettre, via le cerveau et l'organisme dont il est l'hôte, des signaux ayant la fonction d' “ instigateurs ”. Ils seraient émis au hasard, jusqu'à rencontrer le cerveau d'un autre organisme en état de déclencher les processus internes permettant la création d'un homologue du mème émetteur. La lignée pourrait alors poursuivre son développement comme si aucun espace entre les organismes n'avait dû être franchi, aux erreurs mineures d'ajustement près résultant du processus de conversion. La transmission n'est ni directe, ni parfaite ni même assurée. On se trouve dans la situation d'un arbre qui dissémine ses graines en espérant que l'une d'entre elles rencontrera un terrain favorable pour germer. Dans la plupart des cas, le signal n'est pas reçu ou provoque des résultats très éloignés de ceux que le mème émetteur transmettait. En termes de contenus d'information, les mèmes et leurs signaux sont complètement indépendants. Les signaux sont élaborés avec les moyens, sous contrôle des neurones moteurs dont le corps dispose, de la même façon que le mème à l'intérieur du cerveau est transmis par échange électrochimique entre neurones cérébraux. On retrouve là en fait la façon traditionnelle dont les animaux communiquent entre eux. Leurs représentations cérébrales commandent des comportements musculaires, comportements qui sont reçus comme symboles d'un contenu de communication par les animaux en état de les percevoir : par exemple un geste de menace, que d’autres animaux appartenant ou non à la même espèce peuvent identifier s’ils se trouvent à portée. En ce cas, le message est transformé par ceux qui l’ont reçu en un contenu sémantique déterminé, à partir duquel ils règlent leur conduite : fuir ou attaquer. Aux origines, le saut du mème d'un cerveau à l'autre a dû se produire dès le moment où le mème a pris naissance à l'intérieur du cerveau. Mobiliser les moto-neurones responsables de l’émission de signaux vers l’extérieur n'était pour lui qu'une autre face de l'action de mobilisation des neurones cérébraux internes. Ceci veut dire que la communication culturelle (entre organismes) s'est établie dès le moment où se sont mis en place des neurones capables d'activités internes à l'organisme. Mais, une fois mis au contact du monde extérieur et confronté à la compétition avec les signaux provenant d'autres organismes, le signal émis par un mème donné a eu toutes les chances d'induire des résultats plus ou moins différents de

97


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

ce que provoquait le mème dans l'organisme d'origine. C'est pourquoi la culture évolue. Elle ne découle jamais de la simple addition des produits des cerveaux individuels. Elle est le résultat d'un conflit darwinien permanent entre agents. Les contraintes à l’intérieur desquelles cette évolution s'inscrit, qui sont de type sociologique, économiques, politiques ou autres, peuvent parfois (mais pas toujours) être identifiées de façon à ce que l'évolution culturelle globale puisse être modélisée. Pour que la communication s'établisse et que la culture n'éclate pas dans d'innombrables directions, il faut supposer que les organismes qui échangent des mèmes présentent des similitudes. Celles-ci résultent d'abord de structures génétiquement programmées. On retrouve l'hypothèse de Chomsky relative à l'existence de circuits nerveux innés permettant l'acquisition du langage – hypothèse étendue aujourd’hui à l’ensemble des fonctions cognitives : les bébés ne naissent pas avec des pages blanches en place d’esprit. Mais il existe aussi des développements épigénétiques voisins, ayant conduit à l'établissement d'un minimum de ce que l'on pourrait appeler une communauté de pensée ou de mode de vie. Les mèmes en ce cas reconfigurent à la marge ce qui existait. Ils ne construisent pas tout à partir de rien. Les filières mémétiques qui persistent sont celles qui, d'une certaine façon, étaient adaptées au milieu receveur. Sinon, elles ne seraient pas reçues ou avorteraient presqu’immédiatement. C'est ainsi qu'une personne de culture scientifique ne cède pas facilement aux arguments présentés par une secte ou par un marabout. Les systèmes technologiques mémétiques Robert Aunger poursuit actuellement ses travaux par des considérations sur le changement sans doute radical qu'apportera dans quelques années l'émergence de systèmes automatiques intelligents, associés ou non à des cerveaux humains. L'élément nouveau viendra du fait que de tels systèmes pourront générer leurs propres mèmes, grâce à leur puissance auto-référentielle et créatrice. On pourra les nommer des “ technomèmes ”. Ces mèmes viendront en conflit darwinien avec ceux des systèmes sociaux traditionnels. On entrera alors dans un monde différent de l’actuel, auquel il convient de réfléchir dès à présent. Une nouvelle sorte d'évolution apparaîtra alors dans notre univers, basée en grande partie sur les capacités mémétiques des technologies et leurs capacités de s'associer en méta-mèmes ou mèmeplexes d'une très grande puissance opérationnelle. Ceci d'autant plus que les machines computationnelles n'ont pas besoin de langages symboliques ou autres médiateurs pour échanger et agréger leurs mèmes. Elles peuvent en principe se parler directement de cerveau artificiel à cerveau artificiel. Le super-organisme Comment expliquer la transmission apparente des mèmes ? Autrement dit, comment expliquer le fait que les contenus cognitifs d'un individu soient suffisamment semblables à ceux d'un autre individu, au sein d'une même espèce, pour qu'un message “ instigateur ” simple émis par le mème d'un individu puisse générer l'apparition d'un mème semblable chez un autre individu ? C'est là qu'il faut faire intervenir le concept de super-organisme, lequel rassemble les individus d'une même espèce. Or le défaut des analyses mémétiques, y compris de celles de Robert Aunger, est de vouloir partir de l'organisme individuel et plus particulièrement de son cerveau pour analyser le mème. Il devient alors difficile de comprendre comment le mème peut être partagé par d'autres organismes, sauter d'un cerveau à l'autre. Faire appel à des signaux instigateurs nécessairement simples ne résout pas la difficulté. Si je n'ai jamais entendu parler d'Al Quaida, le mot Ben Laden ne signifiera rien pour moi.

98


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Nous pensons qu’alors il faut introduire le concept de super-organisme, brillamment appliqué aux systèmes sociaux humains par Howard Bloom62. Dans les super-organismes que sont les sociétés d'insectes sociaux, on ne s'étonne pas de voir les insectes individuels disposer de moyens de communication fournis par l’évolution, par exemple les phéromones. L'utilisation des phéromones résout à la fois la question de la forme et du fond (c'est-à-dire du contenu sémantique) de l'échange. Si par ailleurs de telles sociétés, par exemple celles des abeilles, pouvaient générer une culture non entièrement sous contrôle génétique, à partir de l'échange de messages produits par les insectes eux-mêmes en interaction avec un environnement spécifique, on ne s'étonnerait pas davantage de voir que chaque individu puisse saisir, même à partir d'indices faibles, le contenu cognitif des signaux produits par les autres. Il faut se rappeler qu'avant d'être autonomes, les individus appartenant aux espèces complexes, y compris l'espèce humaine, sont les membres d'un super-organisme (ou de plusieurs super-organismes) qui leur offrent dès le départ un milieu culturel très organisé. Celui-ci est constitué d'innombrables représentations implicites, d'innombrables signaux ou symboles codifiés qui correspondent à ces représentations et prennent la forme des divers langages utilisés par ces groupes pour la communication interindividuelle. Les représentations collectives ne flottent pas en l'air. Elles sont présentes, sous forme de mèmes ou métamèmes dans les cerveaux de certains individus (les individus “ cultivés ”). Elles se transmettent par l'enseignement et l'usage. Quand elles sont structurées, elles prennent la forme de contenus scientifiques. L'apprentissage consiste alors à relier le signal et la représentation collective qu'il symbolise aux représentations et aux signaux déjà acquis par l'individu, ceci dès sa vie embryonnaire. Si j'apprends que l'objet que je vois s'appelle un avion et que le mot avion sous-tend un ensemble de relations dont je n'avais jusqu'à présent qu'un modèle sommaire résultant de ma propre expérience, je deviens capable d'enrichir ce modèle de tout ce que j'apprendrai ultérieurement relativement aux avions. Il faut bien voir que ce processus de mise en conformité des membres d'un superorganisme, inhérent à leur existence (lesquels organismes sont en compétition darwinienne les uns avec les autres) n'est pas apparu et ne se poursuit pas à la suite d’un plan défini. Il résulte d'un mécanisme permanent de type reproduction, mutation, sélection, amplification, c'est-àdire d'un processus darwinien. Ce processus ne peut intéresser que des entités évolutionnaires, c'est-à-dire en particulier réplicatives, s'exprimant sur le mode darwinien. En d'autres termes, l'ensemble du processus d'élaboration et de consolidation du super-organisme repose sur l'émergence et la compétition darwinienne permanente des neuromèmes, puis des sociomèmes, résultant de l'activité des systèmes moteurs et cérébraux des membres du superorganisme. Les mèmes ne sont donc pas des facteurs épisodiques apparus dans la vie sociale mais les agents de base responsables de la constitution des super-organismes associant des individus dotés de systèmes nerveux. Il ne faut donc pas s'étonner s'ils s'adaptent aux représentations comme des clefs à des serrures, mutations mises à part. Il ne faut pas non plus s'étonner qu'ils soient partout et qu'ils jouent de multiples rôles. Certains paraissent nuisibles à la survie de quelques super-organismes. On parlera alors au sein de ceux-ci de mèmes parasites ou mortels. Mais ils correspondront à l'émergence d'autres super-organismes tendant de se faire une place au soleil en recrutant des associés dans les super-organismes existants. C'est ainsi que le mème Ben Laden peut être interprété dans différents contextes cognitifs et politiques comme menaçant ou fédérateur.

62

Voir chapitre 6.

99


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

5.4 Le langage-afficheur Dans ce chapitre consacré aux mèmes, nous pouvons examiner la question du langage, puisque tous les spécialistes de la mémétique le considèrent comme le plus important des générateurs de mèmes au sein des sociétés humaines. Comment le langage a-t-il pris naissance ? Cette question a suscité d’innombrables hypothèses, toutes difficiles à vérifier faute d’indices scientifiquement observables. Chacun en est réduit aux conjectures. Certaines expériences mettant en œuvre des robots semblent montrer aujourd’hui que le langage pourrait émerger spontanément dans des communautés d’entités artificielles en interaction63. Evoquons ici une hypothèse un peu voisine, bien qu’elle ne porte pas sur des robots mais sur des humains, ou plus exactement sur les précurseurs des hommes d’aujourd’hui, les primates obligés de s’adapter à de nouvelles conditions de vie à la suite du bouleversement supposé de leur habitat, la forêt humide. Ont-ils pu devenir, par simple émergence évolutionnaire, les premiers inventeurs-utilisateurs de mèmes langagiers dans l’histoire ? L’analyse la plus pertinente nous a paru être celle offerte par Jean-Louis Dessalles, théoricien de la communication et des processus évolutionnaires, dans son remarquable Aux origines du langage [Dessalles, op.cit.]. Il s’agit d’un scénario explicatif de l’apparition du langage au sein des sociétés pré-humaines. Comme tout scénario, ce n’est qu’une fiction, mais elle est non seulement très structurante mais aussi très vraisemblable. La compétition entre hominiens Partons du postulat suivant, à partir duquel s'enchaîneront les autres développements : les groupes d'hominiens primitifs étaient en compétition permanente pour la survie, avec les autres espèces vivantes d'abord, mais aussi entre eux. Pour affronter cette double compétition, il leur était vital de constituer des groupes. Les individus isolés rejoignaient les groupes ayant la capacité de leur offrir les meilleures chances de survie. Les groupes les plus aptes à la survie étaient ceux disposant de la plus forte cohésion face aux dangers. Du fait d'une mutation au hasard réussie, c'est par le langage que les groupes d'hominiens ont assuré leur cohésion. Leurs pratiques gestuelles traditionnelles, produisant de la cohésion sociale (partage de proie, toilettage…) s’étaient en effet révélées de plus en plus difficiles à maintenir dans le milieu nouveau auquel ils étaient confrontés à la suite à des changements climatiques ou géologiques. Pour bien faire (mais ceci dépasserait le cadre de cet essai), il faudrait afin de mieux comprendre ce qui suit remonter en amont dans l’étude des langages animaux, en étudiant les hypothèses relatives à l’apparition des proto-langages au sein des nombreuses espèces qui en sont dotées. Il faudrait faire apparaître comment les représentations du monde dont disposent ces animaux se sont matérialisées en utilisant les fonctions d’expression disponibles et en adoptant des formes codées communes permettant leur transmission d’individu à individu64. On estime généralement que c’est la disparition de la forêt humide et son remplacement par la savane qui ont obligé certains primates à changer d’habitat et de mode de vie. Cette hypothèse dite Out of Africa perd aujourd’hui de son importance. On évoque plutôt des accidents géologiques créant des failles où de nouvelles formes de survie s’imposaient. Mais peu importe. Des groupes plus larges devenaient nécessaires pour survivre dans ces nouveaux milieux. Ce serait une augmentation de capacité du cortex associatif qui aurait permis aux individus d’associer représentations internes et symboles externes et donc d’explorer de nouvelles techniques pour assurer et maintenir la cohésion. 63

Voir chapitre 7. Voir "Paroles animales", Sciences et Avenir, Hors-série de juin 2002. On pourra lire aussi une excellente présentation de l’évolution des cultures animales, par Dominique Lestel : Les origines animales de la culture [Lestel. op.cit.]. 64

100


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

L’influence du leader Dans l’hypothèse proposée par Jean-Louis Dessalles, le langage s’est développé sous l'influence des leaders de groupe, depuis les proto-langages jusqu'aux langages élaborés permettant les raisonnements et la mise en mémoire de données d'expérience,. Le leader affiche par le langage sa compétence à mener le groupe. D'abord en signalant les faits nouveaux, ensuite en rappelant, toujours par le langage, l'expérience du groupe de façon à utiliser celle-ci pour faire face aux difficultés et l'enrichir (fonction de remémorisationcapitalisation). La signalisation est une procédure non verbale pouvant être considérée comme un précurseur à la création de mèmes langagiers. Rappelons que l’existence d’un leader, généralement un mâle dominant, mais dans certaines espèces une femelle dominante (comme cela semble être le cas chez les éléphants d’Afrique) caractérise la plupart des sociétés de mammifères. Il n’y a aucune raison de supposer que cette fonction de leader ne se soit pas retrouvée dès les origines chez les hominiens. Le leader-signaleur ou le leader-coordonnateur de la mise en alerte est assez répandu dans les espèces animales. Ces théories relatives au langage-afficheur sont déjà anciennes. Mais, selon Jean-Louis Dessalles, les membres du groupe (les associés) ne suivent pas le leader par simple mimétisme ou entraînement. Ils se considèrent eux aussi comme des leaders virtuels : ils n'acceptent la primauté du leader qu'après avoir testé sa compétence. Ce test est en fait continu. C'est par le langage que s'effectuent ces tests : gestes ou cris, puis paroles proprement dites. Chaque assertion du leader est questionnée ou contredite. Le leader argumente. Seuls les arguments réellement convaincants sont retenus par les associés. Ainsi les leaders ne sont pas encouragés à se vanter de compétences qu'ils n'ont pas. Les associés restent compétents, même lorsqu'ils acceptent - toujours sous réserve d'inventaire - la direction du leader. Maintenir sa propre compétence garantit qu'un leader tenté par la dictature ne prendra pas le pouvoir. Ainsi le langage (ou si l’on préfère l’échange de mèmes) qui sert de véhicule à ces affichages et tests de pertinence, se développe en permanence, tant sur le plan des fonctions que des contenus mémorisés. La dialectique leader-associés peut prendre toutes formes possibles, depuis la conversation quotidienne (babillage, obéissant à des règles strictes d'affirmation-contestation) jusqu'à la discussion d'hypothèses scientifiques dans des instances académiques. C'est cet ensemble que l'on peut résumer par la théorie du langage afficheurcontesté. Des mutations anatomiques Les différentes mutations génétiques et culturelles caractérisant l'hominisation, notamment l'apparition de l'appareil phonateur, les aires cérébrales dédiées au traitement du langage, les langues elles-mêmes, les écritures, le développement des contenus rationnels et scientifiques véhiculés par les mots et les raisonnements, ont été sélectionnées non pas en vertu de leur mérite propre, mais parce qu'elles ont assuré - jusqu'à ce jour - les survies des groupes en ayant bénéficié. Notons au passage que la vieille question, consistant à se demander qui du langage ou de l’évolution anatomique a précédé l’autre n’est toujours pas résolue. On pourrait penser que ce sont les proto-langages qui ont favorisé la sélection d’individus dotés d’aires cérébrales dédiées au langage, ces proto-langages eux-mêmes s’étant imposés à la suite du bouleversement de l’environnement des hominiens. Mais rien n’est certain. En tous cas, des études récentes ont montré que les représentants d’hominidés vieux d’au moins 500.000 ans ont des capacités crâniennes égales ou supérieures à celles de l’homme moderne, malgré la

101


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

forme de leur crâne qui pouvait laisser penser le contraire65. Ceci montre que l’évolution anatomique est très ancienne, sans doute antérieure à l’apparition du langage sous sa forme moderne. Mais quel facteur alors aurait provoqué sa sélection ? Les échanges langagiers sont particulièrement favorables à la naissance et au développement des mèmes. L’hypothèse mémétique ne remet pas en cause le schéma présenté ici. Le langage afficheur se traduit le plus souvent par l'énoncé de mèmes que le leader a capté et reprend à son profit (d'une façon souvent inconsciente). Mais les associés peuvent combattre les mèmes du leader en faisant appel à d'autres mèmes. On pourrait dire d’une façon différente que des mèmes adverses peuvent profiter du terrain offert par les associés contestataires pour tenter leur chance. La capitalisation des contenus d'expérience au sein des langages repose en partie sur l'archivage et la redistribution de mèmes. Les mèmes évoluent selon les lois de la sélection darwinienne, en superposition de l'évolution des groupes et de leurs associés. Si une mutation apparaît au niveau d'un mème, du fait d'une innovation introduite par un leader ou un associé, elle se propage ou non en fonction de la sélection que lui impose le milieu utilisateur du langage. Il y a des mèmes simplistes et des mèmes très complexes (théories scientifiques) dont les chances de survie respectives ne peuvent être prédites à l'avance. Variantes du système Ce qui est décrit ici est le mécanisme sous sa forme schématique. Il arrive que, dans des groupes, le leader s'impose par des arguments moins favorables à la survie du groupe : par la force, par le mensonge. Cette stratégie réussit lorsque les associés renoncent à tester la compétence du leader et suivent celui-ci par mimétisme ou entraînement d'ordre non langagier. Ces groupes ont-ils moins de chance de survie que ceux où la dialectique leaderassociés se poursuit en permanence à travers le langage ? En principe oui, mais on peut supposer qu’en période de crise ouverte nécessitant une réaction rapide, l’autorité dictatoriale du leader puisse se révéler momentanément utile. Chez les hominiens primitifs, les groupes étaient en compétition entre eux, mais localement, compte tenu de leur dispersion géographique et du peu de diversification de leurs comportements. Les groupes humains modernes sont au contraire en compétition permanente et à grande échelle, derrière leurs leaders. Les groupes eux-mêmes sont devenus multiples, par la taille, par la nature de leurs intérêts et activités, par la qualité de leurs leaders et de leurs associés. En simplifiant, on distinguera les groupes familiaux, les associations, les entreprises, les administrations et les Etats, mais aussi les regroupements par croyances (sur le plan de l'irrationnel) ou par écoles philosophiques et scientifiques (sur le plan du rationnel) ainsi que de nombreuses autres sortes de groupes. Pour étudier chacun d'eux, il sera nécessaire d'identifier les modes de leadership et d'association, les modalités d'expression des langages afficheurs et de leur contestation, les grands mèmes correspondant à la mémorisation et à la circulation des contenus cognitifs respectifs. La compétition entre groupes entraîne de nombreux regroupements, destinés à assurer la survie collective des groupes regroupés au sein desquels chacun se comporte comme un associé dans un groupe individuel. Les groupes associés élisent un groupe leader ou un leader de groupe leader, à condition d'être satisfaits, après l'avoir testée, de son aptitude au leadership. En apparence, plus les groupes sont vastes, en regroupant un grand nombre de petits groupes, plus le langage afficheur du leader devient sommaire et difficilement questionnable par les associés. Cela tient sans doute à la perte d’efficacité d’un langage sophistiqué et au caractère de plus en plus abstrait des contestations langagières dans les groupes de groupes 65

Pour la Science, n° 2687, p. 38, Allen, Bruss, A. Damasio.

102


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

importants. Diverses circonstances, par ailleurs, facilitent la prise de pouvoir de leaders ayant perdu la compétence d'assurer la survie du groupe par la pertinence de leur langage, tout en conservant leur leadership par la force ou avec d'autres arguments laissant une large place au mimétisme ou au suivisme des associés. Mais peut-être ne s'agit-il que d'une apparence. Dans les groupes ayant déjà acquis par eux-mêmes une forte compétence langagière, l'assimilation à des regroupements plus vastes se négocie à partir d'argumentations faisant une plus large place à la rationalité de type scientifique. C'est ainsi que des leaders charismatiques, faisant en permanence appel à l'irrationnel (mysticisme, culte de la personnalité) peuvent entraîner certaines populations mal informées. Mais ces mêmes leaders auront beaucoup plus de difficultés à être pris au sérieux dans des sociétés dont les membres ou associés pratiquent depuis longtemps la contestation interne. Il est légitime de qualifier ces derniers groupes de démocratiques, démocratie plus ou moins marquée évidemment selon les groupes. Langage afficheur et démocratie L'expérience montre qu'historiquement, les deux types de groupement, supposant soit un leader prédominant soit des associés très actifs (que nous appellerons pour simplifier dictatorial et démocratique) se sont développés en parallèle. Ils l’ont fait soit dans des aires géographiques différentes, soit par recouvrement au sein de mêmes aires géographiques ou sociales. Rien n'assure à terme que l'un l'emportera sur l'autre à l'avenir. Ils pourront éventuellement fusionner progressivement plutôt que lutter jusqu'à la disparition de l'un des modes. Ce serait l'hypothèse la plus favorable à la survie de l'humanité telle que nous la concevons, mais pas nécessairement à la survie des minorités les plus évoluées ou activistes, porteuses de renouvellement. Dans la compétition entre groupes, rien ne garantit que les groupes ou ensembles de groupes démocratiques aient plus de chances de survie que ceux l'étant moins. Si les groupes non-démocratiques disposent de ressources naturelles plus grandes ou font appel à des moyens de compétition utilisant la force, par exemple, l'habileté langagière gage de cohésion interne des groupes démocratiques ne suffira pas à assurer leur survie. Finalement, la survie des groupes démocratiques dépendra de leur aptitude à utiliser pleinement les ressources de leurs associés ou agents. Il leur faudra d’abord savoir tirer le meilleur parti de tout le capital de connaissances accumulé par les expériences mémorisées de façon empirique puis scientifique. Mais sur cette base, ils devront aussi inventer en permanence les solutions les plus aptes à assurer le bon fonctionnement de la circulation des informations et des compétences ainsi que la contestation interne, et l'apport de valeur ajoutée en résultant. Toutes les solutions imaginables ne seront pas également efficaces. Il faudra donc organiser les méthodes pour générer et tester sans arrêt de nouvelles solutions capables de résister aux nouvelles contraintes de l'environnement. Mais attention. Evitons le piège du volontarisme sociétal. Dans la mesure où les groupes évoluent de façon imprévisible et ingouvernable, la mise en place des structures permettant aux groupes dits démocratiques de valoriser les compétences et les initiatives de leurs membres se produira spontanément, par essais et erreurs. En cas de succès seulement, ces structures seront concrétisées par des dispositions pouvant faire l’objet d’une prise de conscience explicite, par exemple dans le domaine législatif et constitutionnel.

103


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 6 . Les super-organismes La personnification des groupes sociaux, humains ou non-humains, semble remonter aux origines mêmes de la pensée sociale et politique. Cette personnification s’accompagnait généralement d’une divinisation, c’est-à-dire que l’on dotait ces groupes de qualités surhumaines, généralement attribuées aux divinités. Faut-il donc considérer comme nouveau et surtout significatif l’identification et l’étude des super-organismes modernes qui, s’ajoutant aux mèmes examinés précédemment, mèneraient une vie autonome dans l’espace économique et social d’aujourd’hui ? Tout dépend du caractère original des découvertes que l’on prétendra faire ou de celui des méthodes utilisées pour caractériser ces super-organismes. Nous devons constater une nouvelle fois que la sociologie française n’a guère renouvelé le regard porté sur les organismes sociaux, s’en tenant à des analyses politiques ou juridiques traditionnelles. Elle n’a pas tiré parti des outils d’analyse fournis par les sciences de la complexité. Il faut donc faire appel à des auteurs anglo-saxons. Nous n’en avons retenu qu’un ici, compte tenu du grand succès qu’ont rencontré ses livres, y compris en France. Il s’agit d’Howard Bloom, talent multiple, polémique, évidemment discutable mais que l’on ne peut ignorer. Howard Bloom s’intéresse particulièrement aux super-organismes idéologiques ou géopolitiques, qu’il essaye de décrire selon une méthode très générale, susceptible de larges applications historiques ou géopolitiques. Nous ne pouvions néanmoins nous limiter aux vues de Howard Bloom. Nous avons choisi d’évoquer deux autres catégories de superorganismes, qui sont aujourd’hui au cœur de bien des débats politiques : ceux qui naissent de la mise en réseau des systèmes d’informations et de connaissances technologiques (le “ cerveau global ”) et, dans un tout autre domaine, les super-organismes (ou prétendus tels) correspondant à l’existence des écosystèmes, dont l’homme est malheureusement un grand transformateur, pour ne pas dire un grand destructeur. 6.1. Les super-organismes sont-ils réels ? Depuis quelques années, aux Etats-Unis et même en Europe, se développent des hypothèses relatives à l’histoire de l’univers qui mettent en scène l’émergence d’un cerveau global, parfois appelé super-organisme, lequel inclurait tous les êtres vivants, y compris les hommes. Cette émergence aurait commencé à partir de l’apparition de la vie sur Terre et permettrait d’expliquer nombre de phénomènes apparemment dispersés caractérisant l’évolution66. Mais nous ne retiendrons pas ici, pour le moment, l’hypothèse de l’existence d’un super-organisme ou cerveau global, s’étendant éventuellement à l’ensemble de l’univers. Il n’est guère possible d’en tirer d’applications utiles pour la compréhension de la vie politique. En revanche, il paraît intéressant de commenter le concept de super-organisme, appliqué à toutes les entités sociétales qui regroupent des individus ou des groupes humains sur de larges échelles, transcendant les frontières juridiques ou géographiques traditionnelles. Ce concept, dira-t-on, n’est pas original. Cela fait des années, sinon des siècles (pensons au personnage du Léviathan, de Hobbes, représentant l’Etat) que l’on personnifie les nations, les Etats, les entreprises. Les personnifier ne signifie pas seulement leur donner un nom et une image 66

Cette hypothèse rassemble plusieurs scientifiques ou philosophes reconnus. Un groupe de travail international s’est même constitué sur ce thème, le Global Brain Research Group, auquel participe Joël de Rosnay, auteur de L’homme symbiotique [Rosnay, op.cit], directeur de la prospective à la Cité des Sciences et futurologue bien connu, est membre.

104


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

humanoï des. C’est aussi les considérer comme de véritables organismes biologiques dont on cherchera à identifier le cerveau, les membres, les organes sensoriels, et dont on analysera les comportements comme on le ferait avec un être vivant. Mais, comme le montre la littérature politique, ces procédés n’ont jamais réussi à dépasser le stade d’analogies grossières. Aucun aperçu véritablement innovant sur les institutions concernées n’en est jamais résulté. De plus, la personnalisation s’est appliquée à des structures déjà identifiées comme des organismes plus ou moins autonomes. C’est-à-dire qu’elle n’a pas fait apparaître de nouveaux organismes ou de nouveaux comportements là où le regard non averti ne voyait rien de significatif à signaler. Le concept nouveau de super-organisme, que nous voulons présenter ici, est différent. De même que la mémétique fait apparaître des réplicants quasi biologique quand précédemment on ne voyait que des échanges de mots ou images, de même le concept systémique de super-organisme nous conduit à jeter un regard plus averti sur les relations jusque là considérées comme anodines, mais en fait conflictuelles, qui s’établissent entre groupes humains. Il s’agit d’un regard original jeté sur l’histoire, la géopolitique et plus généralement la politique. La question du réalisme Ceci étant dit, il ne faudrait pas s’imaginer que les super-organismes ont une réelle existence. Nous retrouvons ici la critique du réalisme qui s’impose particulièrement en systémique. Les systèmes que l’observateur découpe dans le continuum de ses observations renvoient d’abord à son propre regard et à sa propre action. C’est dans une large mesure lui qui les crée, pour les mettre au service de sa démonstration. Cependant, après qu’ils aient été qualifiés par de nombreuses observations croisées reconnues valides par un grand nombre d’autres observateurs, les systèmes ainsi “ créés ” commencent à entrer dans le monde propre à cet ensemble d’observateurs. Le pré-supposé fait ici est que ces systèmes se comportent alors comme de véritables organismes ayant des comportements de type biologique. Ils rejoignent les mèmes dans la catégorie des acteurs non humains qui interagissent constamment avec l’évolution des humains. Pourtant, si j’analyse le développement de telle secte criminelle, envoyant des pseudopodes dans les différentes couches de la société et si j’en conclue que nous sommes en présence d’un super-organisme en émergence qui pourrait devenir redoutable, est-ce moi qui aurai créé cette secte et ce super-organisme ? La réponse sera évidemment non. La secte existait avant moi. Mais du fait que je rassemble et rend cohérentes des observations à son égard qui restaient jusque là dispersées, je lui donne une présence et une force qui entraînent divers comportements moteurs, tant chez moi ou chez ceux qui partagent mes analyses que parmi les membres de cette secte. Je dois donc me préparer à agir en conséquence. Prenons un exemple encore plus concret. Je vois s’avancer vers moi une bande de personnes que je trouve, à tort ou à raison, d’aspect menaçant. Il s’agit bien d’une bande, c’est-à-dire de gens entretenant des rapports d’interaction particuliers. Ce ne sont pas des individus isolés. Certains peuvent être effectivement menaçants, dans la mesure où ils sont pris de boisson et profèrent des insultes à l’égard des passants. Si cependant je fais de cette bande encore informelle un super-organisme doté d’une intelligence, d’une volonté, de moyens d’actions dépassant ceux des individus qui la composent et si je me comporte en conséquence, soit en devenant agressif à mon tour soit en manifestant de la peur, j’ai beaucoup de chance de faire naître entre ces personnes les comportements collectifs propres à une bande organisée : élection d’un chef, émissions de provocations destinées à tester l’adversaire, passages à l’acte… Fallait-il ne rien voir et ne rien faire, passer en rasant les murs ? Sans doute pas. Dans la mesure ou des indices répétés me laissaient penser que j’étais en face d’un super-organisme potentiellement dangereux, une attitude possible aurait été, sans

105


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

rechercher inutilement la provocation, à me constituer moi-même en super-organisme, par exemple en recrutant des passants susceptibles de m’aider à prévenir une agression. Le thème du super-organisme, doté de moyens dépassant largement ceux des individus qui le composent, rencontre beaucoup de succès en politique aujourd’hui, même si le terme n’est pas toujours affiché. L’analyste politique en voit partout, à tort ou à raison. On pourrait sans difficulté établir une typologie : super-organismes géopolitiques, dont le plus souvent évoqué est la superpuissance américaine, super-organismes économiques, sur le modèle des sociétés transnationales, super-organismes criminels ou terroristes (les maffias, Al Quaida…), super-organismes techno-scientifiques, super-organismes idéologiques et religieux, superorganismes biologiques ou même écosystémiques … Il est certain qu’un tel regard systémique renouvelle utilement les analyses traditionnelles qui s’en tiennent aux apparences, notamment juridiques, ou aux proclamations officielles d’intention, sans chercher à voir les dynamiques qu’ils sous-tendent. Mais il ne faut pas tomber dans l’excès contraire, illustré notamment par ce que l’on appelle la théorie du Complot. Voir partout à l’œuvre des systèmes organisés occultes ayant entrepris de déstabiliser les civilisations ou manipulant les individus induit beaucoup d’erreurs et peut à la limite être dangereux. On fait ainsi naître le danger contre lequel on avait prématurément crié au loup. 6.2. Le super-organisme selon Howard Bloom Les auteurs, généralement américains, ayant développé ce thème du super-organisme sont nombreux. Nous nous limiterons ici au plus connu d’entre eux, bien qu’il n’ait pas suivi le cursus universitaire habituel et ait été longtemps un peu marginalisé dans le monde académique. Il s’agit de Howard Bloom, chercheur très fécond et populaire aux Etats-Unis. Spécialiste des comportements de masse, c’est l’un des grands illustrateurs de la mémétique. Il est, entre autres titres, le fondateur du “Group Selection Squad", cercle académique visant à une radicale réévalution du néodarwinisme à l'intérieur de la communauté scientifique. Outre de très nombreux articles, il est l'auteur de l'ouvrage The Lucifer principle [Bloom, op.cit.]. Son livre, Global Brain, paru en 2000 [Bloom, 2000, op.cit.], reprend et développe les hypothèses indiscutablement innovantes présentées dans le précédent. Nous disons qu'il s'agit d'hypothèses innovantes, non pas parce qu'elles sont totalement originales, mais parce que Bloom, avec un génie particulier de la mise en perspective historique et de la pédagogie, leur donne une forme qui ne peut passer inaperçue. Son travail constitue un événement dans l'histoire déjà longue de la description des systèmes complexes évolutifs. L’analyse politique ne peut se passer de telles approches qui rajeunissent considérablement les études juridiques et sociologiques traditionnelles. La sélection de groupe Rappelons le point de départ de l'auteur, déjà amplement argumenté dans The Lucifer Principle. Selon l’auteur, c'est une erreur méthodologique de centrer l'étude de l'évolutionnisme darwinien (qu'il ne remet pas en cause) sur la compétition sélective entre individus (individual selection). Celle-ci est sans doute la plus visible aux individus que nous sommes, mais elle cache le mécanisme essentiel, qui est la compétition entre groupes (group selection). Bloom ne conteste pas a priori que les individus au sein d'une espèce ou, comme l'avait montré Dawkins, leurs gènes, puissent être considérés comme des unités réplicatives et mutantes soumises à évolution sur le mode hasard/sélection. Mais il veut montrer que si on se limite aux individus, on se trouve vite à court d'explications pour comprendre ce qui les façonne et les fait évoluer ceux-ci. D'où viennent, ainsi, les différences de caractères, les prédispositions qui se remarquent abondamment entre les hommes et fondent leur diversité ? C’est l’appartenance à des groupes différents qui les déterminent.

106


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Si au contraire on considère que l'unité réplicative et mutante est principalement ou premièrement le groupe, on ouvre un champ d'observation scientifique considérable, non seulement sur la façon dont le groupe en tant qu'entité évolue dans le cadre de la sélection darwinienne, mais comment ce même groupe utilise et façonne l'individu. On sait depuis longtemps que l'individu n'est rien sans le groupe - et réciproquement. La lutte du groupe pour sa survie impose donc des contraintes extrêmes à l'individu, différentes selon les groupes, qui sont loin d'être perçues de façon évidente et qu'il faut connaître. Ce discours est celui de la sociobiologie, et a valu à cette dernière de solides inimitiés, du fait de son caractère perçu comme attentatoire au libre-arbitre des individus. Mais la sociobiologie fait de l’évolution génétique des individus la raison essentielle qui explique l ‘évolutionnisme de groupe. Elle confère donc aux gènes la principale responsabilité dans la mise en conditions des individus. Au contraire, Howard Bloom et l’ensemble des méméticiens conjuguent en permanence l’explication par les gènes et celle par les mèmes. On ne peut que suivre Howard Bloom quand il nous dit que la science et la morale occidentales prennent abusivement le point de vue de l'individu pour décrire le monde, ce qui les laisse désarmées quand il s'agira de proposer des actions efficaces, visant à assurer la survie évolutive tant de l'individu que du groupe. On en a des exemples tous les jours quand il s’agit de traiter des phénomènes sociologiques tels que la violence ou la drogue. Pour agir, il faut remonter aux sources qui entrelacent inextricablement les comportements que la morale usuelle qualifie de bien ou de mal. Il ne suffit pas de vouloir agir sur le seul individu. Ce n'est pas la première fois que les sociologues ou éthologues cherchent à comprendre ce qui conditionne les individus dans leurs activités collectives. L'histoire des civilisations et des idées a montré la transmission de représentations collectives très fortes dont les implications ne sont pas toujours perçues consciemment par les individus. Pour les mettre en évidence, il faut des explorations de l'inconscient toujours difficiles. Mais il manquait à ces travaux le fil conducteur que fournit Howard Bloom. Mutualisation et symbiose En effet, la deuxième contribution essentielle de cet auteur est de replacer l’évolution darwinienne des individus et des groupes dans un mécanisme générateur fondamental qui, selon lui, dépasse largement l'histoire de la vie puisqu'il le rattache à la logique même de l'histoire de l'univers. Il s’agit de la tendance des unités élémentaires à se regrouper, se mutualiser, créer le cas échéant des symbioses, ceci mettant en place des chaînes de relations de plus en plus étendues, au plan géographique comme au plan de la complexité. Nous avons déjà mentionné la symbiose comme processus évolutif fort. Howard Bloom fait remonter ce processus aux origines mêmes de l’univers. En d'autres termes, l'évolution, et plus particulièrement l'évolution de la vie, au sein de laquelle s'exerce la compétition darwinienne, tend à créer des réseaux, des webs, comme on dit maintenant. Bien qu'ils soient encore fort mal connus, les plus spectaculaires sont sans doute les webs bactériens, auxquels on peut rattacher les webs viraux. Howard Bloom décrit les nombreuses façons permettant aux organismes précellulaires ou aux cellules eucaryotes (sans noyau) d'échanger et de modifier leurs ADN ou pré-ADN. Les canaux de diffusion terrestres, comme les courants océaniques et aériens, ainsi que les êtres qu'ils transportent, ont été et demeurent les vecteurs permettant à ces webs de s'étendre. L'univers en cours d'élaboration sur Terre depuis 4.5 milliards d'années est donc décrit ici comme un système unique aux composants interconnectés, à l'œuvre depuis l’origine. Les sociétés humaines et leurs productions, les réseaux électroniques, n’en sont qu'un avatar parmi de nombreux autres. Sur ce point, l'auteur rappelle que l'Internet, malgré sa croissance exponentielle, n'est pas essentiellement original et ne peut pas être compris utilement si on ne le replace pas dans l'évolution du système global. Ce système, il lui donne plusieurs noms :

107


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

intelligence collective, cerveau global, système adaptatif complexe A priori, ce dernier terme paraît préférable. Evidemment, comme dans toute approche systémique, un système global peut être décomposé en sous-systèmes à l'infini. Il ne faut donc pas chercher les frontières d'un système donné dans un hypothétique univers “ en soi ”, mais dans le discours de celui qui emploie le concept. Bloom utilise aussi parfois le terme de « machine à apprendre » (learning machine), c'est-à-dire de système se complexifiant en contact de l'environnement, selon les modèles bien connus des chercheurs en intelligence artificielle adaptative. Nous ne ferons pas ici de différence entre toutes ces expressions. Mais remarquons qu'elles ne laissent pas place aux systèmes dits "conscients", qu'ils soient animaux ou humains, et du même coup au rôle éventuel de la conscience dans l'évolution. Nous y reviendrons. Howard Bloom ne nie évidemment pas le rôle essentiel des gènes dans la construction du système évolutif global et de ses sous-systèmes, les uns et les autres en compétition interne. Mais, en tant que militant de la mémétique étendue (étendue au-delà de la seule espèce humaine, contrairement au postulat de Susan Blackmore selon lequel seule l’imitation telle qu’elle existe chez l’homme peut produire des mèmes), il insiste sur le rôle des mèmes dans l'évolution des groupes à travers les usages qu'en font les individus membres de ces groupes dans le cadre de leurs évolutions culturelles. Pour lui, les mèmes sont tout autant comportementaux que langagiers. Ils sont tout autant inconscients que conscients, beaucoup plus d'ailleurs inconscients que conscients. Il donne d'innombrables exemples montrant comment, y compris chez les animaux les plus anciens dans l'histoire évolutive, les mèmes ont contribué à l'évolution des espèces et plus généralement à la diffusion d'une intelligence globale dans l'univers. Les mécanismes qui structurent les super-organismes Une fois admis que, pour comprendre les individus il faut comprendre les groupes, voyons ce que Howard Bloom propose à cette fin. Bien que certains pourraient y voir des banalités, l'inventaire proposé des mécanismes évolutifs structurant l'évolution des groupes est éclairant. L’auteur en dénombre cinq principaux : - les gardiens de la conformité (conformity enforcers) - les générateurs de diversité (diversity generators) - les juges internes (inner judges) - les redistributeurs de ressources (resource shifters) - les organisateurs de compétitions entre groupes (intergroup tournaments) Il faut noter que, selon lui, ces mécanismes agissent généralement en même temps ou dans des intervalles de temps courts. Ainsi un groupe peut encourager à la fois le respect de normes strictes d'appartenance et les déviances créatives de quelques artistes ou inventeurs. Mais le plus important est de se rendre compte que ces mécanismes sont universels. Pour le montrer, Howard Bloom nous entraîne dans un long voyage, richement documenté, à travers l'histoire de la biologie et à travers l'histoire humaine. Ces rappels historiques sont utiles, si l’on admet que nous continuons à subir les conditionnements décrits, aussi bien comme individus que comme parties d'un ou plusieurs groupes. Les gardiens de la conformité Dans toute évolution d'agents en interconnexion symbiotique compétitive, les gardiens de la conformité veillent à ce que les agents en coopération respectent des règles communes permettant au groupe de garder son unité et sa cohérence à travers les changements qu'il doit affronter. Cette fonction est nécessaire, mais elle ne doit pas devenir exclusive. Un excès de conformité stérilisera les capacités d'invention indispensables à une adaptation suffisamment flexible. Dans toutes les sociétés, jusque dans les familles, de tels mécanismes de

108


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

« conservation » et de mise en conformité sont innombrables. Les générateurs de diversité Les générateurs de diversité jouent un rôle antagoniste. Ils favorisent les processus et les individus créatifs, voire anarchistes. Mais à leur tour, s’ils ne sont pas contrés par les gardiens de la conformité, ils pourront entraîner l'explosion du groupe par excès de diversité. Les juges internes Par le terme de « juges internes », Howard Bloom décrit les divers processus permettant à un organisme de garder son homogénéité (son homéostasie, pourrait-on dire) à travers les aléas de l'évolution. Il peut s'agir de sécrétions endocrines sanctionnant un succès ou un échec sans que le sujet s’en rende compte. Mais il peut s’agir aussi ce que l'on appelle la « voix de la conscience » chez un humain, ou la « vox populi » dans un groupe. Ces juges, là encore, sont ambivalents. Ils peuvent aussi bien encourager l'organisme en le renforçant que le condamner et le forcer à dépérir. C’est l'apoptose67 dans la vie cellulaire, à laquelle peut correspondre la maladie et la mort dans le cas des humains. Ces mécanismes, comme les autres, sont des acquis de l'évolution. Ils se sont implantés génétiquement et/ou culturellement parce que, grosso modo, ils favorisaient la construction du système global. Les redistributeurs de ressources Les redistributeurs de ressources sont les différents canaux internes ou externes apportant aux cellules, individus et groupes les nutriments matériels ou psychologiques indispensables à leur survie. Ils fonctionnent de façon impitoyable, selon Howard Bloom, au bénéfice de ceux qui s'adaptent bien et rencontrent donc le succès et au détriment de ceux qui ne s'adaptent pas, notamment en ne trouvant pas de rôle utile au profit de l'ensemble. Ce sont eux qui concrétisent la sélection darwinienne par élimination des plus faibles si mal acceptée par la morale sociale occidentale. Howard Bloom cite plusieurs fois un passage de l'évangile dont le sens général est que ceux qui possèdent recevront davantage, et ceux qui ont moins recevront encore moins. Lorsqu'une cellule nerveuse, par exemple, ne trouve pas emploi dans le cours du développement du nourrisson, les vivres lui sont coupés, au profit des neurones constamment excités par des stimulants externes. Elle meurt donc. On retrouve le mécanisme de l'apoptose. Les organisateurs de compétition Dans cette nouvelle série de mécanismes, les solutions les moins adaptées disparaissent, au cours de mises en compétition rigoureuses. Ces compétitions n'appliquent pas de règles précises. Leur résultat se borne à sanctionner - sans aucune préoccupation de valeur bien entendu - les solutions qui sur le moment sont les plus efficaces. Ils ont cependant dans l'ensemble un effet utile d'élagage pour éviter que le système global ne s'effondre sous le poids de solutions multiples contradictoires. Une intelligence interne Un autre point important, sur lequel insiste Howard Bloom, est que ces divers mécanismes évolutifs conduisent à des systèmes et réseaux intelligents, au sens propre du terme. En d'autres termes, ils sont capables de résoudre des problèmes de type logique ou mathématique, de façon évidemment inconsciente. Pour justifier cette affirmation l’auteur donne plusieurs types d’exemples. Certains sont bien connus des éthologistes, comme celui des mésanges anglaises perceuses de bouchons de bouteilles de lait, déjà cité ici, ou des 67

Mort programmée de certaines cellules.

109


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

insectes sociaux, abeilles ou fourmis, communiquant dans la recherche de nourriture. D'autres sont plus inattendus. Citons en particulier le fait que des communautés d'insectes ou d'animaux sont capables de résoudre des problèmes logiques du même type que ceux posés dans les tests de Quotient Intellectuel. 6.3. Une vision technologique du cerveau global On conçoit que l’hypothèse du cerveau global puisse être utilisée dans une perspective évolutive moins grandiose que celle proposée par Howard Bloom. Elle se ramène alors à ce qui devient un peu une banalité aujourd’hui, mais mérite d’être étudié car il s’agit d’un fait vérifiable tous les jours : dans la société humaine, la mise en réseau des connaissances et des créateurs ou porteurs de connaissance est en train de construire l’équivalent d’un très vaste cerveau distribué, potentiellement à la disposition de toute l’humanité. Encore faut-il pouvoir et savoir s’en servir. Remontons en arrière. L'évolution semble montrer qu'une capacité, survenue par hasard au sein d'une espèce vivante, prend racine et se maintient non pas parce qu'elle est bonne en soi (ce qui ne veut rien dire d'ailleurs), mais parce qu'elle permet à cette espèce de survivre. C'est ainsi que l'apparition du langage chez l'homme, ayant entraîné le développement cérébral et celui des sciences et techniques, n'était pas meilleure en soi que l'émergence de la fonction chlorophyllienne chez les végétaux. Mais elle a permis jusqu'à ce jour la survie de l'espèce humaine dans sa sphère. D'autres facultés ont permis à d'autres espèces de survivre parallèlement à l'espèce humaine, par exemple l'utilisation des phéromones chez les fourmis et de l'acuité sensorielle chez les rats. Au sein d'une espèce, et particulièrement chez l'espèce humaine, la compétition entre sociétés différentes se pose également en termes de survie, si du moins certaines sociétés tendent à éliminer les autres parce qu’elles se disputent des niches voisines. Dans le cas de compétition entre sociétés humaines, les sociétés disposant des sciences et techniques ont montré une plus grande capacité à survivre et dominer. Cet avantage va-t-il se poursuivre ? On peut envisager deux risques qui incitent à en douter. Le premier serait que les sciences et techniques mal maîtrisées provoquent un mégaaccident (par exemple un hiver nucléaire ou un effondrement de l'éco-système). Le second serait que des sociétés exclues du développement et en proie à l'ubris suicidaire se saisissent des sciences et techniques dont elles disposent pour détruire les sociétés dominantes. Pour éviter ces deux risques, il faut se persuader que les sciences et techniques seules ne suffisent pas (non plus que l'antique appel à la conscience que l'on veut ajouter à la science). Afin de survivre à moyen terme, les sociétés scientifique et techniques doivent se doter d'un dispositif nouveau, n'existant pas encore : le cerveau global (global brain). Le développement cérébral et langagier des hominiens leur a permis de faire face aux contraintes de la survie dans un environnement plus sélectif. Face à un environnement encore plus complexe et évolutif, le développement d'un cerveau global et de sociétés capables de l'utiliser permettra-t-il à l'humanité, non seulement de survivre, mais de continuer à évoluer dans des conditions améliorant ses chances à long ou très long terme ? Répondre à cette question nécessite de discuter ce concept de cerveau global. Appelons alors cerveau global la conjonction : - d'une infrastructure de réseau aussi réticulaire et décentralisée que possible, reliant tous les hommes et tous les groupes ; - de très nombreuses bases de connaissances et de données (pouvant à terme représenter toutes les connaissances existantes !) interconnectées par des liens logiques ; - d'une pensée systémique/matricielle (et non analytique/linéaire) capable de tirer parti

110


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

de ces ressources en évitant l’enfermement dans des raisonnements étroits et guidés par des préjugés. Réseau et pensée systémique sont inséparables. Ils se développent et co-évoluent en symbiose. Le web dit « sémantique » consistant à utiliser les ressources de la documentation et de la recherche documentaire en hyper-texte représente un premier pas dans cette direction, mais il ne s'agit encore que d'une approche limitée. De nombreuses autres méthodes, relevant de ce que l’on appelle le Data Mining (fouille de données et de documents) sont aujourd’hui étudiées pour rendre accessible l’immense contenu des connaissances produites dans les sociétés technologiques. Le cerveau global, ainsi défini, permettrait de mutualiser les sources d'informations et de veille, les outils de modélisation, les occasions d'invention (par émergence) et finalement les décisions politiques. Pratiquement, on devrait y retrouver les vertus et la rigueur de la démarche scientifique, recommandée depuis le milieu du XIXe siècle, mais reposant sur des moyens infiniment plus puissants. Idéalement, le cerveau global devrait intéresser l'humanité entière : ce serait la seule condition permettant d'éviter l’apparition de sociétés soit en régression et exclusion rapide, soit en proie à l'ubris suicidaire évoqué ci-dessus. Mais ce n'est pas encore le cas, notamment du fait de la compétition interne entre sociétés humaines, y compris au sein des sociétés scientifiques et techniques – sans parler des obstacles apportés par la diversité des langues, l’illettrisme, les retards technologiques… Les possibilités du cerveau global risquent donc d'être confisquées, soit par des pays soit par des groupes (de type militaro-industriel) dotés dès aujourd'hui d'une suprématie économique et politique. On assiste en fait alors à une guerre pour l’information et par l’information (information war) entre sociétés développées, qui s’organise au détriment des plus faibles. Dès lors, il est vital pour ces dernières et la démocratie en général que s’élargisse le cercle des sociétés les plus avancées fondatrices et utilisatrices du cerveau global, afin que celui-ci soit étendu progressivement à l'humanité entière. Pour cela, il faudrait faire en sorte de « globaliser » ou mondialiser le cerveau global. Idéalement, chaque individu devrait pouvoir devenir l'un des milliards de neurones le composant. Dans une telle perspective, étudier et mettre en œuvre les processus permettant cette globalisation représente désormais un enjeu majeur. Il est possible d’esquisser le cahier des charges d’une politique en ce sens. La pensée systémique/matricielle générée et transmise au sein des réseaux se développera d'autant mieux que les informations et savoirs seront accessibles à tous. Outre la question récurrente de l'accès universel à Internet, ceci pose celle de la mise en compatibilité formelle des contenus, s'ajoutant à l'interconnectivité des infrastructures. Tous les contenus ne peuvent être mathématisés. Il faudra donc adopter des outils performants de traduction automatique vers quelques langues communes. On devra également s'entendre sur des dictionnaires de concepts communs. Par ailleurs, les processus permettant la simulation, la discussion, la décision et l'innovation doivent être accessibles à tous, et pas seulement aux scientifiques et experts. Ceci inclut aussi bien les citoyens de la base que les décideurs, peu portés en général à la pensée systémique/matricielle. Le cerveau global doit donc se décliner en de multiples aires cognitives et faisceaux neuronaux adaptés à des populations multiples. Des outils évolués d'intelligence artificielle, enfin, sont indispensables pour relayer les cerveaux humains, sans se substituer à eux. Ces automates intelligents piloteront la mise en place des aires cognitives et des faisceaux neuronaux, à tous les niveaux de granularité nécessaires, en fonction des données qu’apporteront et des questions que poseront les utilisateurs.

111


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Ceci dit, les vraies difficultés, dans ces perspectives, ne seront pas théoriques mais pratiques. Un nombre suffisant de scientifiques, d’experts et au-delà d’eux, de citoyens de toutes cultures, devront accepter de participer à la construction du cerveau global. Est-ce envisageable aujourd’hui ? Il est inutile de dire que la vision résolument optimiste qui précède pourrait être démentie avec d’excellents arguments. On fera valoir par exemple qu’Internet est utilisé par des minorités terroristes pour recruter des militants et frapper de terreur les opposants en mettant en scène des exécutions capitales. Mais les optimistes répondront qu’il ne s’agit peutêtre que d’un épisode malheureux dans la marche vers un cerveau global plus ouvert et plus constructif. Les systèmes complexes ne se développent jamais de façon linéaire. Notre esprit en donne l’exemple. Il est constamment traversé, même chez les plus civilisés d’entre nous, par des pulsions ou des idées qui n’ont rien de pacifique. 6.4. L’écosystème vu comme un super-organisme L’écologie et des sciences de l’environnement constituent un autre domaine politiquement important, où le concept de super-organisme s’applique avec beaucoup de pertinence. Les « environnementalistes » ont montré depuis longtemps que les interactions complexes entre entités biologiques et milieu physique formaient un système intégré. Mais plutôt que celui de système, il vaut mieux utiliser le terme d’organisme, pour bien montrer qu’il s’agit de quelque chose de vivant, en évolution permanente, un peu comparable à un organisme biologique. On parlera alors de super-organisme pour insister sur deux aspects. Le premier est qu’il s’agit d’un système tellement complexe qu’il est pratiquement (comme le « réel » lui-même) impossible à décrire en totalité. Le second est qu’il n’est pas divisible. Comme la systémique l’autorise, on peut toujours découper dans le système global tel ou tel sous-système, par exemple le milieu océanique ou le monde de la végétation équatoriale, mais tous ces sous-systèmes s’influencent les uns les autres. Il n’est pas possible d’identifier et prendre en compte toutes ces influences, mais de ce fait on risque d’en oublier certaines, qui peuvent se révéler importantes. C’est ce que font en permanence les politiques environnementalistes qui ne s’intéressent qu’à des aspects partiels des milieux naturels, en provoquant des dégâts en retour non prévus. Qualifier l’écosystème terrestre de super-organisme et le modéliser comme tel présente-t-il un intérêt méthodologique, autre que celui consistant à nous rappeler que les causes et les effets s’y influencent d’une façon permanente ? Certainement, si l’on se donne ainsi un cadre permettant de l’étudier avec efficacité. Nous nous trouvons là dans un cas typique où il serait intéressant d’appliquer la méthode de conceptualisation relativisée MCR présentée au chapitre 1. Nous ne considérerons pas le super-organisme en question comme une réalité en soi, ce qui n’aurait aucun sens, mais comme une entité-objet que nous devrons préciser, dans nos esprits, en la soumettant à des observations menées par nous, observateurs subjectifs et non objectifs, avec nos instruments du moment. Petit à petit, on obtiendra une description de l’entité de plus en plus précise. Elle restera probabiliste mais nous pourrons ainsi l’intégrer aux autres entités constituant le “ réel humanisé ” ou instrumental dans lequel nous agissons. Nous sommes alors placés dans la même situation que les physiciens tentant de préciser les concepts de particules exotiques qu’ils ont calculées ou qu’ils croient observer. Pour cela, ils utilisent aujourd’hui de très grands instruments comme les accélérateurs. Si l’on veut préciser l’entité-objet écosystème terrestre, nous devons faire sur lui de très nombreuses hypothèses, à partir de très nombreux points de vue, et faisant appel à de très nombreuses sources de vérification expérimentale. L’ensemble sera ensuite rapproché et mis en cohérence sur des instruments capables de simuler au mieux la variété des agents naturels ou artificiels

112


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

en interaction. Concrètement, ceci veut dire qu’il faut se doter de ce que l’on commence à appeler des Simulateurs de la Terre (Earth Simulators) dont le cœur sera formé de réseaux d’ordinateurs répartis et qui sera alimenté par un nombre aussi grand que possible de stations d’observations s’adressant à tous les aspects de l’écosystème, physiques, climatiques, biologiques, humains 68. Inutile de dire que l’on est très loin du compte aujourd’hui, même au Japon qui s’est pourtant investi plus que les autres grands pays dans cette direction. Pourquoi un tel retard ? Serait-il en partie voulu par les intérêts économiques et politiques qui contribuent à détruire tous les jours les équilibres naturels et qui ne souhaitent pas que des études scientifiques mettent en évidence les dégâts qu’ils produisent. On sait par exemple que l’administration américaine a sciemment mis au placard les rapports de scientifiques faisant état de leurs craintes vis-à-vis de la politique fédérale de refus de prise en compte des objectifs de Kyoto en matière de réduction des émissions de gaz à effets de serre. Les Simulateurs de la Terre aideront certainement à donner si l’on peut dire un corps à ce super-organisme qu’est l’écosystème terrestre. Mais s’agira-t-il d’un corps comparable à celui d’un organisme biologique, tel un animal ? La comparaison avec un organisme vivant pourrait faire apparaître de nombreux caractères communs, comme la sensibilité aux épidémies, les processus réparateurs, les risques de dégradation brutale, voire de coma ou même de mort. Mais les scientifiques considèrent généralement qu’il ne faut pas aller trop loin dans la personnalisation, au contraire de ce qu’avait fait James Lovelock en créant la figure emblématique de Gaï a 69. Il lui avait été reproché d’être dangereusement rassurante : Gaï a trouvant toujours en elle-même les ressources lui permettant de résister aux agressions. Un organisme biologique est déjà complexe et difficile à modéliser, comme nous l’avons vu en présentant les travaux de Gilbert Chauvet. A plus forte raison un organisme associant des milliards et des milliards d’organismes et d’agents différents. Le besoin de personnaliser les super-organismes qui nous incluent ne tient pas compte cependant de ces conseils de prudence. Aujourd’hui, de nombreux cosmologistes présentent notre univers comme un super-organisme parmi d’autres, émergeant périodiquement du vide quantique. 6.5. Les super-organismes sont-ils dotés de conscience ? Dès que l’on utilise le concept de super-organisme pour désigner une société d’êtres vivants, qu’il s’agisse d’animaux ou d’hommes, on est tenté de lui prêter des aptitudes à la conscience. S’agit-il d’une illusion de type anthropomorphique ? Les sociétés au contraire n’ont-elles pas effectivement la possibilité d’entretenir des formes de conscience collective plus ou moins proche de ce que sont les consciences individuelles ? Nous avons vu70 que la conscience supérieure, caractérisant presque exclusivement (semble-t-il) les humains en société, était intimement liée au langage. La conscience primaire est différente. C’est une propriété du corps en situation. Elle exprime l’unité du moi organique au sein des différentes perceptions externes et internes qui informent le système nerveux. Mais elle ne s’accompagne pas de la conscience de soi. On la retrouve sous des formes plus ou moins sophistiquées chez tous les animaux (sinon plus largement encore). Par contre, avec l’aptitude du corps au langage, ce serait seulement chez les hominiens que le cerveau aurait acquis la possibilité de transmettre des informations symboliques éclairant les autres membres du groupe sur certains des contenus de la conscience primaire. L’énonciation d’un contenu conscient par un locuteur entraîne des réponses de la part de ses interlocuteurs, si bien que se construisent 68

[Baquiast-Cardon, Entre science et intuition, la conscience artificielle, op.cit.] James Lovelock, The Gaï a Theory suivi de The ages of Gaï a . Pour plus de détails, voir http://www.ecolo.org/lovelock/ 70 Chapitre 4. 69

113


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

progressivement des échanges en miroir, qui se complexifient au cours du temps. On peut supposer que l’émetteur initial est conduit à prendre conscience de son existence en tant que Je, en s’assimilant à ceux auxquels il s’adresse et qui lui répondent. Le Je caractéristique de la conscience supérieure se serait donc ainsi construit au cours de l’échange. On peut le constater dans la vie courante. Le modèle de moi autour duquel s’ordonnance ma conscience supérieure est constamment construit par les informations que je reçois du monde extérieur. Ce que me disent de moi mes interlocuteurs, les modèles que des tiers me proposent et plus généralement tout ce que je vois ou que je lis, je me l’applique à moi-même. C’est pour cela que les méméticiens sont, comme nous l’avons vu, tentés de considérer que le Je n’est pas autre chose qu’un mèmeplexe, en reconfiguration permanente, grâce auquel prend sens l’ensemble de mes références conscientes. Mais, sans aller jusqu’à dépersonnaliser totalement le Je, comme le fait la mémétique, on peut réfléchir à ce que suppose l’hypothèse selon laquelle la conscience supérieure individuelle naît et se développe par les échanges langagiers au sein d’un groupe social. Gérald Edelman fait de cette hypothèse un des fondements de sa théorie de la conscience supérieure. Mais il n’en développe pas toutes les conséquences. Cela se comprend. Etudiant seulement dans le cerveau ce qu’il appelle les bases neurales de la conscience individuelle, il laisse de côté les échanges au sein des groupes sociaux, qui relèvent d’autres disciplines scientifiques. Ici, nous n’avons pas de raison de restreindre notre domaine de réflexion. Nous avons posé en principe qu’il fallait désormais identifier et analyser les multiples superorganismes qui regroupent de multiples façons les individus au sein des espèces vivantes. Ils forment des entités plus ou moins stables dotées d’une vie propre et se livrent pour leur compte à une compétition darwinienne incessante, dans le cadre de ce que Howard Bloom appelle la sélection de groupe. Cette compétition n’est pas génétique, car un groupe n’a pas de gènes en propre, autres que ceux du génome des individus qui le composent. Elle est culturelle. Mais elle n’en a pas moins d’importance dans l’évolution globale du monde biologique. La conscience collective primaire Qu’il s‘agisse d’une colonie bactérienne, d’un essaim d’abeilles, d’une meute de loups ou d’humains habitant un territoire auquel ils sont attachés, les super-organismes sociaux présentent une certaine cohérence. Ceci permet de les analyser comme des organismes au lieu de les considérer comme des regroupements occasionnels d’individus isolés. Chacun obéit à des règles sociales complexes, dont la plupart demeurent d’ailleurs encore mystérieuses au regard des scientifiques. Ce ne sont en tous cas pas des organismes assimilables à celui d’un animal isolé, avec ses caractères anatomiques et ses processus physiologiques de mieux en mieux identifiés par la science. Il n’y a pas de raison cependant de leur refuser l’aptitude à la conscience, au moins à la conscience primaire qui paraît inséparable de toute constitution biologique organisée. Mais les bases corporelles et les substrats neurologiques d’une telle conscience primaire ne sont évidemment pas ceux que les neurologues attribuent à la conscience primaire de l’organisme animal ou humain individuel. Il faut les rechercher au cas pas cas, ceci étant d’autant plus difficile qu’il est logique de postuler que la conscience primaire d’un essaim d’abeille n’est pas celle (au moins dans les formes, sinon dans ses logiques profondes) d’une communauté villageoise humaine. On pourrait évidemment éviter toute difficulté en évacuant l’hypothèse que de tels super-organismes disparates puissent disposer de consciences primaires éventuellement comparables à celle de l’homme. Mais on se priverait alors des nombreuses occasions permettant d’étudier et peut-être de mieux commencer à comprendre des comportements collectifs inexplicables autrement On se priverait sans doute aussi de la possibilité de mieux comprendre la conscience primaire humaine.

114


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Si nous limitons ici aux seuls groupes humains, peut-on faire l’hypothèse que les étudier en utilisant l’acquis des études de la conscience primaire individuelle réalisées par les neuro-physiologistes peut apporter des éléments différents et plus instructifs que ceux fournis par la sociologie ou la psychologie sociale ? Allant du simple couple jusqu’à l’humanité entière, ces groupes humains sont si variés qu’il paraît difficile d’y observer quelques substrats communs permettant l’émergence d’une conscience primaire collective. Mais il est certains domaines où la sociologie traditionnelle reste à court de théories explicatives, tels l’inconscient collectif, les pulsions de foules allant de l’agression jusqu’à l’adhésion sans nuance, et bien d’autres phénomènes qui révèlent l’existence d’un corps social « physique » situé dans le temps et dans l’espace. Ce corps serait déterminé par d’autres facteurs que les réflexes génétiquement programmés des individus, mais il adopterait des états bien définis dont la supposée conscience primaire collective serait à la fois l’émanation et l’agent coordonnateur. Les sociobiologistes, nous l’avons vu, font l’hypothèse que la plupart des comportements inconscients collectifs sont provoqués par l’héritage génétique des individus. Il en serait ainsi par exemple de l’agressivité qui obéit à des réflexes ancestraux visant à la défense du territoire. Pour leur part, les généticiens hésitent maintenant à faire le lien entre tel gène et tel comportement précis, surtout si celui-ci n’est pas individuel mais collectif. Ils soupçonnent des relais multiples qui ne peuvent être analysés avec les outils actuels. Expliquer une réaction de foule comme la panique par l’influence des gènes commandant les réflexes de fuite chez les individus est un peu court. Ce serait comme expliquer le réflexe de fuite d’un individu par le système de commande d’un de ses groupes musculaires. Il faut donc rechercher un mécanisme plus global. Dès lors de vastes champs d’investigations sont aujourd’hui ouverts, qui conduiront à mieux étudier comment la conscience primaire se manifeste chez les individus, animaux compris, puis à rechercher si de telles manifestations se retrouvent au niveau des groupes. Une réponse affirmative pourrait faire penser à l’existence d’une véritable conscience primaire collective. La conscience collective supérieure Bien plus riche encore nous paraît devoir être l’hypothèse d’une conscience collective d’ordre supérieur. Mais il faut bien s’entendre sur ce que désignera ce mot. Il ne s’agit pas d’évoquer la façon dont les échanges langagiers ont contribué dans le passé ou contribuent encore, au cours du développement, à construire la conscience supérieure des individus. Ce sont des sujets que les diverses sciences cognitives ont depuis longtemps abordé. Une approche beaucoup plus originale, conforme au paradigme des super-organismes exposé dans le présent chapitre, consisterait à étudier la façon dont des groupes constitués d’individus aptes à la communication peuvent se doter progressivement de contenus sémantiques (ou connaissances) leur assurant un avantage sélectif. Nous verrons dans le prochain chapitre que c’est précisément ce que paraissent faire des robots qui acquièrent spontanément, du simple fait de leur relation compétitive au sein d’un groupe, un début de communication symbolique par l’intermédiaire d’un proto-langage partagé. Un groupe n’a pas d’autres organes sensoriels ni d’autres actionneurs musculaires que ceux des individus qui le composent. Ces organes, même regroupés, ne sont pas capables de performances radicalement nouvelles. Il n’en est pas de même du cerveau. On peut considérer qu’un groupe dispose d’un cerveau d’une toute autre nature que les cerveaux des individus qui le composent, dès lors que ces cerveaux sont reliés par les canaux de la communication symbolique, notamment langagière. Un vaste cerveau réparti se constitue alors, aux performances instantanées considérablement augmentées, tant en puissance qu’en diversification ou versatilité. Par ailleurs, grâce au langage, des mémoires collectives

115


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

indépendantes des individus se mettent en place et peuvent stocker d’innombrables modèles du monde, accessibles relativement facilement aux générations successives. Nous avons vu que l’hypothèse de Gérald Edelman relative à la création des zones fonctionnelles du cerveau, qu’il a nommé la « Théorie de la Sélection des Groupes de Neurones », permet d’expliquer, grâce à la sélection darwinienne, comment émergent les structures et les contenus neuraux les mieux aptes à la survie des individus. La même théorie, transposée au cas de la conscience collective, pourrait expliquer comment les groupes sociaux ont structuré leurs contenus conscients collectifs en développant les bases de connaissances les plus aptes à assurer leur survie. Imaginons ce qui aurait pu se passer dans cette hypothèse. En simplifiant, nous supposerons que les premiers échanges langagiers se sont produits dans toutes les directions envisageables (sous forme d’une espèce de babillage aléatoire) jusqu’à ce que l’expérience conduise à ne retenir que les signifiants les plus aptes à représenter l’expérience du groupe en interaction avec son environnement. C’est d’ailleurs ce que l’on observe, nous le verrons, avec les expériences portant sur l’acquisition d’un protolangage par des populations de robots. Les premières connaissances explicatives ont été d’abord très empiriques, puis ont été intégrées à de vastes mythologies pour enfin se retrouver au sein de systèmes hypothético-déductifs rationnels qui ont donné naissance à l’immense appareil des sciences et technologies actuelles. Au terme de ce processus, qui du groupe ou de chacun des individus qui le composent est devenu informé, réactif, intelligent et finalement conscient ? Autant l’un que les autres, pourrions-nous répondre. Mais très probablement il faudrait situer le cœur de la compétence au sein du groupe, car aucun individu à lui seul ne peut atteindre à la puissance de mémorisation du collectif. Peut-on se représenter simplement comment un groupe acquiert de la compétence ? Supposons un groupe humain primitif. Un des membres de ce groupe communique aux autres par le langage un contenu quelconque de sa conscience, par exemple : « je ressens un malaise et je l’attribue au fait d’avoir consommé telle plante ». A cela un autre répond : « j’ai consommé cette plante et je ne ressens pas de malaise ». Un troisième rétorque : « je ressens un malaise, mais je pense que c’est mon voisin qui m’a jeté un sort ». Aucune de ces assertions ne peut être déclarée fausse si on ne l’extrait pas du champ des significations conférées par la conscience primaire de chacun des individus aux phénomènes que rencontre cet individu. C’est-à-dire qu’elle est vraie pour chacun de ces individus pris individuellement, vraie, parce qu’il le ressent ainsi et qu’il le dit en conséquence. En revanche, confrontées dans l’espace commun qu’impose le langage, elles se révèlent contradictoires et suscitent de façon presque automatique une procédure d’élucidation ou levée de doute. On peut imaginer un processus très simple. Par exemple, un quatrième membre, dont le cerveau aura été informé grâce aux échanges langagiers du contenu des différentes assertions et en aura constaté l’incompatibilité, sera conduit à faire un test. Il ira (sans même y penser, c’est-à-dire sans faire appel à une prétendue décision volontaire) consommer la plante incriminée. Chacun observera le résultat. S’il ressent un malaise, il le montrera. Il y aura donc deux personnes en faveur de la toxicité, contre une en faveur de chacune des autres hypothèses. Si d’autres voix émettent le même diagnostic, la plante sera étiquetée comme toxique par la majorité des membres du groupe. Le groupe aura acquis une compétence précieuse pour sa survie future. Mais imaginons un autre groupe, similaire, où le candidat à l’arbitrage choisisse de faire une offrande à la divinité pour conjurer le sort. Celle-ci n’aura pas d’effet prophylactique, mais on pourra expliquer cela par le caractère vraiment irascible du dieu. Dans ce cas, le groupe persistera à consommer la plante vénéneuse et multipliera les invocations et les sacrifices pour pallier les effets du poison. Dans la compétition darwinienne avec le groupe précédent, ce dernier groupe aura toutes les chances de disparaître.

116


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Un processus collectif de construction d’une épistémologie relativisée Dans le chapitre 1, nous avons présenté la méthode proposée par Mme MugurSchächter pour construire les connaissances en s’inspirant du processus utilisé par les physiciens quantiques. On crée une entité à observer, initialement non qualifiée parce que créée, et on multiplie les observations pour en obtenir d’elle des descriptions relatives (probabilistes) permettant de la rapprocher des processus physiques inobservables qui sont sous-jacents. On obtient une connaissance qui « marche », c’est-à-dire qui est utilisable pour l’action pratique, même si nul ne prétend s’en servir pour décrire un réel en soi à jamais inaccessible. Ainsi peut-on symboliser les différents états d’une particule quantique par une fonction d’onde ou vecteur d’état et utiliser cette connaissance dans un appareil, sans avoir à se poser la question de savoir si cette particule existe ou non dans la nature. Pour Mme Mugur-Schächter, c’est le physicien ou, comme elle l’écrit, le cerveau de l’homme qui se livre à cette opération. Nous avons indiqué à ce propos qu’il faudrait préciser ce que l’on entend par le cerveau ou la conscience du physicien, si l’on voulait donner à la thèse présentée une portée plus large. En termes évolutifs, comment par ailleurs une telle propriété des cerveaux humains aurait-elle pu émerger ? Admettons que la conscience supérieure soit d’abord un processus collectif, supporté par le groupe tout entier, apparu naturellement, par émergence, au sein de groupes rassemblant des individus biologiques dotés de conscience primaire et de capacités d’échanges langagiers mais pas encore de conscience supérieure. Dans ce cas, l’exemple simpliste que nous venons de présenter pourrait fournir un début d’indication. Les membres d’un groupe humain observent un phénomène : le caractère vénéneux d’une plante. S’il s’était agi d’un groupe animal, ne disposant pas de protolangage, ce caractère n’aurait pas été nommé. Il aurait seulement été « vécu », c’est-à-dire que certains individus seraient morts, d’autres auraient développé des résistances, le groupe aurait peut-être acquis des réflexes culturels d’évitement, mais l’information relative au caractère vénéneux de la plante n’aurait pas existé et n’aurait donc pas pu être systématiquement communiquée. Dans le cas de notre groupe humain, les individus peuvent constater par le langage et communiquer aux autres les états corporels qu’ils ressentent et qui s’expriment de façon non nommée au sein de leur conscience primaire sous forme de sensation de malaise. Comme ils sont capables de proto-langage, c’est-à-dire de proto-catégorisations rationnelles, chacun des individus ressentant ce malaise sera tenté de créer un proto-concept, associant l’état ressenti à un objet du monde extérieur pouvant l’expliquer. Les uns parleront d’une plante empoisonnée, les autres d’un sort jeté sur eux et d’autres encore créeront au hasard d’autres hypothèses. Si plusieurs individus émettent ainsi plusieurs proto-catégorisations, lesquelles entraîneront plusieurs processus de vérification expérimentale, l’entité-objet initialement créée, c’est-à-dire le malaise ressenti, finira par être précisé sous une forme probabiliste. On dira : il s’agit d’un empoisonnement et c’est dans la plupart des cas (calcul de probabilité) en consommant telle plante que le malaise survient. L’information, répandue par le langage au niveau du groupe suffira à informer ultérieurement les membres qui le composent, ce qui aura rendu le groupe tout entier plus savant et donc mieux adapté dans la lutte pour la survie. Mais dans ce cas on voit que ce n’est pas un individu isolé, saisi d’on ne sait quelle inspiration qui aura à lui seul conduit l’ensemble du processus de construction d’une « connaissance relativisée ». Ce sera le groupe. Sans le groupe, il ne se serait rien passé. Quant au groupe, son comportement de création de connaissance n’était pas fortuit. Il était nécessaire, du fait de l’existence en son sein des échanges langagiers lesquels ne peuvent que donner naissance à la création de concepts qui entrent en compétition. En pratique, ils sont mis en œuvre par les membres du groupe, utilisant pour cela leurs instruments sensoriels et effecteurs. Les concepts qui répondent le mieux à ces quasi-procédures de vérification sont sélectionnés. Nous verrons dans le chapitre suivant que le même processus paraît à l’œuvre

117


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

dès que l’on rassemble des groupes de robots en compétition, obligés d’interagir à partir des entrées-sorties dont ils disposent, dont certaines peuvent être réutilisées pour donner naissance à des langages. C’est l’univers qui s’auto-informe En élargissant le regard, nous pourrions dire que c’est l’univers tout entier qui, par de tels processus, s’auto-complexifie ou, si l’on préfère, qui s’auto-informe. L’univers global se trouve enrichi par l’apparition en son sein d’un groupe ayant survécu parce qu’il a identifié le caractère toxique d’une plante. C‘est un univers plus informé qu’il n’aurait été s’il avait comporté un groupe ayant attribué la toxicité à un mauvais sort et ayant donc disparu faute d’avoir pu se prémunir contre le poison. Il comportera désormais un groupe et, au-delà de ce groupe, une information qui associera tel phénomène d’empoisonnement à telle plante. Cette association ou contenu cognitif sera « entrée » dans les bases de connaissances caractérisant la conscience supérieure collective du groupe en question. Elle sera aussi accessible à la conscience supérieure des individus qui se référeront à ces bases de connaissances, d’où l’intérêt de mettre en place des bases de connaissances en libre-accès (open source). Il en résultera toute une série de conséquences matérielles en chaîne, par exemple l’éradication systématique de la plante par les groupes ainsi avertis, ou la recherche de plantes moins toxiques susceptibles d’être cultivées. Bref un monde nouveau aura été construit, remplaçant l’ancien monde, sans qu’aucune conscience supérieure individuelle ait pris pour cela la moindre décision prétendue volontaire. Au cours de ce processus par contre, les individus auront acquis une occasion précieuse d’enrichir leur conscience supérieure, à condition que l’état de leur conscience primaire les ait rendus ouverts, disponibles, pour de tels enrichissements. C’est ainsi, pensons-nous, qu’il est possible de comprendre pourquoi les superorganismes conscients, et nous les humains qui en faisons partie, construisent autour d’eux des mondes plus riches, plus complexes, sans que nul ne décide jamais qu’il faut faire ceci ou cela. C’est finalement l’univers tout entier qui évolue, sans finalité prédéfinie, au hasard de la compétition/sélection des groupes d’individus comportant des bases neurales capables d’héberger une conscience primaire fut-elle rudimentaire, née elle-même d’une unité biologique fut-elle également rudimentaire. En interagissant, des mécanismes de départ extrêmement simples créent des mondes infiniment complexes. Le fait pour un groupe de mettre à la disposition de ses membres des connaissances, empiriques ou scientifiques, acquises par les processus simples que nous venons de décrire, peut être compris comme un contenu de conscience collective permettant à cette portion d’univers de se représenter lui-même à ses yeux. La portion d’univers qu’est le groupe se dote d’un Je collectif, analogue bien que moins facilement discernable de l’intérieur, au Je des consciences supérieures individuelles. Pas plus que dans le cas des Je individuels, le Je collectif ne sera directement causal. Il sera toujours second par rapport aux processus générateurs. Mais il aura le rôle réorganisateur et fédérateur qui est celui du Je pour les individus conscients. Comment s’exprimera le Je collectif ? D’abord indirectement par l’intermédiaire des individus qui auront pris conscience de son existence. Ils parleront alors de la famille, de la nation, de la science, comme d’entités réifiées dotées de corps. Mais le Je collectif pourra aussi s’exprimer directement, de façon il est vrai pouvant rester inconsciente aux individus, en générant des comportements dépassant leurs intérêts immédiats, par exemple l’altruisme. Dans ce point de vue, on peut penser que les différents comportements signalés par Howard Bloom comme contribuant à la survie des super-organismes, notamment les défenseurs de la conformité et les générateurs de diversité, se trouvent très tôt inscrits dans le patrimoine culturel des groupes. Ils le sont sans doute aussi dans le patrimoine génétique des

118


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

individus constituant ces groupes, de même qu’ils sont inscrits dans d’autres réflexes collectifs plus primaires, comme ceux concernant la défense du territoire ou la recherche de nourriture. Ce sont eux en effet qui permettent au Je collectif, très utile à la survie de la conscience collective basée sur l’accumulation des connaissances, de se constituer et se renforcer. A cette liste de comportements acquis et transmis par hérédité culturelle voire génétique, en vue de la construction d’un savoir collectif, on pourra sans doute ajouter la soif inextinguible pour la remise en cause des connaissances et la recherche de nouvelles entités scientifiques qui caractérise, non seulement le scientifique digne de ce nom, mais l’homme en général. Ce ne serait après tout qu’une transposition de la propension à explorer son environnement et à le caractériser par essais et erreurs qui distingue tout animal, tout être vivant, lui aussi digne de ce nom.

119


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 7. Entités artificielles et virtuelles

Le recensement des sciences de la complexité dont la compréhension est dorénavant indispensable à l’action politique ne serait pas complet si nous ne mentionnons pas les immenses changements qui surviendront prochainement dans le domaine de l’informatique, de l’intelligence artificielle et de la réalité virtuelle. Ces sciences et technologies ont déjà profondément transformé les sociétés modernes, notamment depuis une vingtaine d’années. Toutes les activités sociales sont concernées : recherche scientifique, industries et commerce, administrations publiques et services, arts, loisirs, défense. Mais ceci n’est rien par rapport à ce qui se prépare. D’une part, les outils et applications disponibles pour toutes ces activités verront leurs performances continuer à croître. Leurs applications seront de plus en plus nombreuses. Elles convergeront grâce aux sciences de l’intelligence et de la connaissance : sciences de l’information et des communications, robotique, biotechnologies, nanotechnologies, sciences cognitives… Mais, d’une façon plus surprenante bien qu’encore inaperçue par la plupart des observateurs, ces sciences vont générer de nouveaux êtres et de nouveaux environnements qui, quoique artificiels ou créés par des moyens artificiels, seront de plus en plus difficiles à distinguer de notre monde habituel. Ceci posera des problèmes encore plus immédiats que ceux signalés dans notre premier chapitre, découlant de la montée irrésistible du monde quantique : qui sommes-nous, que sont nos perceptions, dans quels rapports nous situeronsnous au regard des entités virtuelles ? On dira que ces questions seront pendant longtemps encore éloignées des préoccupations de la vie politique courante. Mais ce serait une erreur. Des enjeux immédiats sont posés, notamment quant à l’accès des pays en développement et des milieux dits défavorisés à ces sciences et technologies. Tout semble se passer aujourd’hui comme si une nouvelle espèce humaine, augmentée de toutes les ressources de ces sciences, tendait à émerger aux dépens de la très grande majorité des humains “ traditionnels ” qui en demeurent éloignés. Aux dominations géopolitiques traditionnelles s’ajouteront demain les dominations par l’intelligence. Plus généralement, et comme toujours en matière de science et technologies, rien ne garantit que les puissantes ressources apportées par les sciences de l’artificiel soient mises au service d’un développement optimum de l’humanité. D’où l’intérêt que les citoyens et les hommes politiques s’informent de ces perspectives et que de larges discussions s’engagent relativement à leur meilleure utilisation possible. Cette question mériterait plusieurs ouvrages à elle seule. Pour en donner le meilleur aperçu, nous présenterons d’abord ce qu’en pensent les techno-gourous américains, les mieux informés que l’on puisse trouver sur ces questions puisqu’ils se situent à la source. Nous avons retenu parmi de nombreux autres les plus connus, Ray Kurzweil et Hans Moravec. On a tendance en France, quand on étudie leur propos – ce qui est rare – à en faire des illuminés ou des désinformateurs au service de la puissance des Etats-Unis. Mais il suffit de regarder ce qui se passe quotidiennement dans les laboratoires pour se rendre compte qu’ils sont très proches, sinon en dessous de la réalité. Nous consacrerons ensuite une section à la question philosophiquement très importante qui est posée par l’intelligence artificielle évolutionnaire : que penser de l’apparition, par le jeu de processus simples et purement physiques, de propriétés comparables sinon identiques à celles des facultés jugées les plus nobles de l’espèce humaine et des animaux supérieurs? Nous terminerons par quelques considérations sur un phénomène moins connu que ne l’est la robotique, bien qu’il lui soit proche. Il s’agit de la génération d’entités présentant des

120


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

similitudes à celles de la vie, à partir de ce que l’on appelle les automates cellulaires. Nous évoquerons à cet égard le travail considérable de Stephen Wolfram : A New Kind of Science. 7.1. L’avènement des super-intelligences La croissance exponentielle des moyens de calcul, vulgarisée par la loi dite de Moore, a depuis longtemps été admise par l'opinion publique. Cette loi prédisait un doublement tous les deux ans du nombre des transistors dans une puce. Vérifiée en ce qui concerne les composants électroniques, elle peut être observée dans les autres domaines des technologies de l'information. Elle se traduit par une croissance exponentielle de la puissance de calcul en général (vitesse en MIPs, capacité des mémoires en bits, miniaturisation des tailles des composants, densité des réseaux, prix des unités de traitement, etc.). Lorsque le silicium aura épuisé ses mérites, d'autres technologies plus puissantes prendront le relais. Deux perspectives sont déjà à l’étude, les calculateurs quantiques et les calculateurs dits biologiques ou à ADN qui devraient devenir opérationnels dans 10 à 20 ans. Mais seuls les informaticiens se sentaient jusqu'alors concernés par ce phénomène dont peu d'entre eux pensaient qu'il puisse toucher directement leur vie quotidienne. C'est le mérite de Ray Kurzweil (Kurzweil, op.cit.) et de Hans Moravec (Moravec, op.cit.), d'avoir montré que la loi de Moore est l'arbre cachant la forêt d'une évolution beaucoup plus générale, touchant toutes les technologies et, par conséquent, toutes les sciences et leurs applications. Selon leurs analyses, nous nous trouvons actuellement dans la partie rapidement ascendante d'une courbe de développement très rapide intéressant la puissance des moyens technologiques mis à disposition de la recherche et de l'innovation. Quelles que soient les unités par lesquelles on l'exprime et les domaines concernés, cette croissance de plus en plus accélérée annoncerait un changement de paradigme dans l'évolution de la vie sur terre, changement aussi important que celui marqué par l'apparition du langage chez les hominiens. Il s'agirait d'une "évolution (sinon d'une révolution) dans l'évolution" qui devrait se traduire dans quelques dizaines d'années par l'apparition de "machines conscientes" représentant un potentiel d'intelligence et de connaissances au moins aussi grand que ne l'est à ce jour celui de l'humanité tout entière. Les hommes associés à ces systèmes constitueraient de superintelligences capables d'entreprendre, pour la fin du 21e siècle et le début du suivant, dans le cadre d'un renouvellement complet des connaissances scientifiques actuelles, une transformation de plus en plus approfondie de notre planète et de son environnement cosmologique. Il faut bien voir que les progressions attendues ne porteront pas seulement sur les matériels et composants, comme on a tendance à le dire trop souvent. Elles intéresseront aussi les logiciels, notamment avec le développement des systèmes d’intelligence répartie et de multi-agents. Ray Kurzweil propose pour justifier ces prévisions quelques "lois" ou règles qui ont l'intérêt de regrouper de façon cohérente des faits d'observations globalement indiscutables, à quelques détails près, et que chacun peut constater comme lui. Chaque technologie se développe selon une courbe en S : sa croissance commence lentement et imperceptiblement, puis s'accélère brutalement jusqu'à atteindre des limites se traduisant par un palier. Mais alors une autre technologie prend le relais et le phénomène d'ensemble se poursuit, toujours sur un rythme accéléré. De telles courbes de croissance n’intéressent pas seulement le domaine des composants électroniques et plus généralement des capacités de traitement des ordinateurs ou des réseaux. Elles se retrouvent dans tous les domaines voisins, micro-machines (MEMS), nanotechnologies, génomique, protéomique, exploration fonctionnelle du cerveau, etc. Fait essentiel, grâce à l'industrialisation et à l'automatisation des processus de production, la croissance des possibilités des outils s'accompagne d'une baisse elle aussi accélérée des coûts d'acquisition des ressources.

121


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Un cercle vertueux Logiquement, Ray Kurzweil nous propose une autre loi de même nature pour mesurer les retombées de toutes ces technologies sur l'approfondissement des connaissances. C'est la loi dite par lui des "retours accélérés". Tout progrès dans un domaine produit des progrès en retour dans de nombreux autres domaines, le tout à nouveau selon une courbe d'accélération exponentielle. C'est ainsi que les moyens de calcul ou d'observation constamment améliorés permettent de mieux analyser les phénomènes biologiques, mentaux ou sociaux. Il devient possible alors de les simuler de façon de plus en plus fidèle, ce qui induit de nouvelles perspectives d'analyse pour lesquelles on utilisera des outils dont l'augmentation de capacité se sera considérablement accrue entre temps. Un cercle vertueux s'engage alors, prenant la forme d'un recyclage non seulement de toutes les connaissances mais de tous les éléments du réel à portée des organisations super-intelligentes (Etats et entreprises) responsables de cette évolution. Selon nous, le premier mérite de Ray Kurzweil, partagé avec Hans Moravec, est d'avoir observé et calculé les faits lui permettant de formuler de telles lois et d'avoir insisté sur la nécessité de reconsidérer radicalement le travail du prévisionniste. Jusqu'ici, les prospectivistes et futurologues sérieux, c'est-à-dire refusant les pièges d'un excès d'imagination, privilégiaient des courbes de développement linéaires trop timides dont les conséquences se révèlent fausses. De leur fait, la société s’enfermait dans des projets sans ambitions ou bien se polarisait sur les risques sans voir les remèdes possibles. C’est bien ce qui se produit aujourd’hui. Les phénomènes susceptibles d'être positifs, intéressant l'évolution de notre évolution, sont loin d'être perçus par ceux qui ont le pouvoir de décision. Il faut dire aussi que beaucoup d’efforts sont faits pour maintenir des choix et des orientations hérités du passé. Ils ne correspondant plus aux possibilités offertes par les sciences et les technologies, mais servent encore de très puissants intérêts... C'est alors l'humanité tout entière, y compris les populations des grands pays développés, qui s'engage dans des impasses. Aux Etats-Unis, les experts en prévision ont commencé à comprendre les avertissements de Kurzweil et Moravec. De nombreux cercles économiques et stratégiques anticipent déjà les conséquences de l'émergence de futures intelligences, qu’elles soient artificielles ou associées à celles des hommes. Les Pouvoirs Publics considèrent généralement que ceci fait partie des technologies de puissance, dans lesquelles les Etats-Unis doivent veiller à conserver quelques années d’avance sur leurs concurrents. Ce n'est malheureusement pas le cas en France, ni même en Europe. Le second mérite de Ray Kurzweil et de Hans Moravec est d'avoir tiré les conclusions qui s'imposent si leurs prémisses sont exactes à la réflexion scientifique et politique générale. On peut résumer ces conclusions d'une façon simple : les super-intelligences associant l'homme et les technologies sont déjà en cours d'émergence. Elles changeront la face de l'évolution terrestre dans les prochaines années - sans préjudice de ce qui pourra se passer dans un siècle ou deux. Kurzweil a peut-être eu tort de consacrer de longs développements à des perspectives certes spectaculaires mais qui relèvent sans doute encore d'un futur à 50 ans et plus, telles que le téléchargement du contenu d'un cerveau humain dans une machine. Il lui suffisait d'envisager ce qui sera déjà en soi une révolution d'ampleur considérable : la construction de systèmes conscients et intelligents - systèmes auxquels les hommes pourront d'ailleurs, nous l'avons indiqué, s'associer symbiotiquement de façon plus ou moins étendue. Ceci étant, on ne s’étonnera pas si ces projections, même moins ambitieuses que le téléchargement du cerveau et la téléportation des hommes, suffisent déjà à déchaîner les critiques contre Kurzweil et ses collègues. Ces critiques ignorent ou ne veulent pas voir ce

122


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

que réalisent déjà les scientifiques dans de nombreux laboratoires71. Elles reposent le plus souvent sur des a priori relatifs aux limites prétendues des machines et des technologies. Elles découlent de l'incapacité d’abandonner les méthodes linéaires d'extrapolation du présent vers le futur. Mais d'autres objections sont plus inquiétantes car elles peuvent susciter des réactions violentes. Ce sont celles qui présentent comme des hérésies, au sens propre, le fait d’envisager que l’intelligence humaine puisse être mise en concurrence avec des intelligences artificielles. Ces jugements ne relèvent plus de l'approche scientifique mais de préjugés dogmatiques, philosophiques et plus souvent religieux devant lesquels il devient difficile d'argumenter. Plutôt que s'acharner à vouloir mettre Kurzweil et Moravec en difficulté, nous pensons qu'il faut étudier les perspectives proposées et faire dès maintenant tout ce qui est possible pour les concrétiser au mieux du développement durable - ce qui suppose pour l’Europe un effort important de rattrapage du retard toujours plus grand qui la sépare des Etats-Unis. Une priorité politique Comprendre ce que signifie cette marche vers de super-intelligences à échéance de quelques dizaines d'années, admettre son caractère inexorable (sauf accidents toujours possibles, dus notamment à la folie humaine), devrait donc constituer un objectif de civilisation transcendant tous les autres. Il faudrait orienter dès maintenant en ce sens le fonctionnement des sociétés, dans le cadre d'une priorité scientifique et politique majeure. La première urgence, nous semble-t-il, concerne la communauté de l'Intelligence Artificielle, qui devra se réveiller, à l'exemple des Kurzweil, Moravec et Minsky. Pour concrétiser cela, Kurzweil propose de remplacer le vieux terme d'Intelligence Artificielle par celui d'Intelligence Augmentée ou Intelligence Accélérée. Ces expressions ont l'avantage de ne plus établir de barrière entre une intelligence humaine et une intelligence artificielle, mais d'anticiper leur fusion dans la super-intelligence annoncée. Il est temps en tous cas de cesser les anciennes querelles entre écoles de l'Intelligence Artificielle et de s'unir pour des chemins de développement qui s'annoncent très prometteurs72. On avait beaucoup disserté ces dernières années sur l'opposition entre la vieille Intelligence Artificielle, réputée avoir échoué par excès d'ambition et manque de moyens de calcul, face à la nouvelle Intelligence Artificielle évolutionnaire. Si l'approche évolutionnaire conserve tous ses mérites pour générer de la complexité par appel à des règles computationnelles simples, l'ancienne Intelligence Artificielle, partant de l'analyse et de la modélisation du vivant, retrouve toutes ses perspectives avec les puissants moyens de calcul mis aujourd'hui à sa disposition. Les exemples récents de synthèse d’ADN simples (virus de la poliomyélite) montrent la voie, amplement développée par Ray Kurzweil : scanner puis numériser le vivant afin d'en recréer des équivalents artificiels susceptibles de s'interfacer avec ce même vivant. L’actualité scientifique offrira dorénavant tous les mois ou presque de nouveaux exemples analogues. Les nanotechnologies fourniront ultérieurement des substituts nombreux susceptibles d’être interfacée avec les composants biologiques. La seconde urgence consiste à sortir des spécialités disciplinaires (l'intelligence artificielle, la robotique, l'informatique, la physique des composants et des nanocomposants, la biologie, la neurologie, les sciences sociales, etc.) pour aborder des projets intégrés. Ce sont des systèmes super-intelligents qu'il faudra réaliser. Ceci veut dire qu'il ne s'agira pas seulement de logiciels ou robots, en réseaux ou non, mais aussi de corps et d'esprits vivants s'interfaçant momentanément ou durablement avec les artefacts. On ne pourra pas progresser sans la mise en place de projets globaux réunissant des spécialistes des diverses disciplines 71

Chaque mois, la page Actualité du magazine Automates Intelligents en donne des exemples. www.automatesintelligents.com 72 Voir à ce sujet ce que cherche à faire l’Institut (américain) pour la Singularité, Singularity Institute http://www.singinst.org/

123


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

dont la plupart seront à former pour les ouvrir aux connaissances et méthodologies qu'ils ne connaissent pas encore. Une troisième urgence, tout aussi excitante pour l'esprit, concerne la nécessité de commencer à étudier l'impact qu'auront les recherches précédentes sur celles intéressant la physique des hautes énergies, la mécanique quantique et la cosmologie. Nous avons évoqué les perspectives de la physique quantique appliquées à des technologies devenues industrielles comme le laser ou à des technologies encore à l’étude comme la cryptologie quantique ou l’ordinateur quantique. L'ouvrage de Hans Moravec, Robot (op.cit.) montre de façon encore plus systématique ce qui pourra être fait, dans les domaines de la recherche fondamentale, notamment la cosmologie. On sait que les travaux relatifs à ces sciences ne progressent que lentement. Tout semble laisser penser cependant que nous pourrions être à la veille de bouleversements profonds, entraînant des répercussions théoriques et pratiques sur nos conceptions du temps et de l'espace. Celles-ci pourraient être aussi importantes sinon plus que celles introduites au début du siècle dernier par Einstein en matière de cosmologie et par l'école de Copenhague en mécanique quantique. La "demande" représentée par la construction de super-intelligences sera la meilleure incitation pour la nécessaire relance des recherches dans ces domaines fondamentaux - comme sans doute la meilleure justification pour des investissements lourds comme le sont les grands accélérateurs de particules. Reste un dernier volet, celui du politique, qui doit à la fois être abordée sous l'angle économique et sous l'angle des idées et programmes. Robotique et croissance Au plan économique, la mise au point de super-intelligences, comme les recherches en amont nécessaires, supposeront de l'argent et beaucoup de matière grise. L'état de pauvreté dont souffrent actuellement les sciences et les industries s'intéressant à ces questions est à cet égard préoccupant. Or nos sociétés, nous l'avons vu, dépensent des sommes considérables pour traiter des problèmes d'adaptation hérités des siècles derniers : productions agricoles et industrielles obsolètes, course à coups de centaines de milliards aux gisements de pétrole encore disponibles, investissements dits touristiques destinés à d’infimes minorités enrichies par la spéculation73. Un transfert, fut-il partiel, de ces sommes vers la mise au point de superintelligences entraînerait des retombées économiques considérables, dont l'humanité entière pourrait bénéficier rapidement (par exemple en matière de nouvelles énergies, de technologies moins destructives, mais aussi de techniques d'éducation et de santé, sans parler d'une relance sans doute massive de l'emploi). Il faut en prendre conscience et l'inscrire dans les politiques publiques et des grandes firmes. Au plan des idées et des programmes enfin, de telles perspectives devraient dès maintenant être présentées aux populations comme des issues majeures. Sans préparation, le citoyen risque d'être mis (ou de se mettre) à l'écart de la compréhension d'un nouveau monde qui s'esquisse. Les gouvernants ont une responsabilité essentielle dans cette perspective. Mais le fait d'un Georges Bush qui polarise les perspectives technologiques sur l'objectif de la seule lutte contre le Mal, ou celui de chefs d'Etat européens n'ouvrant aucune fenêtre scientifique d'importance à leurs populations, montrent que les hommes politiques occidentaux ont encore tout à apprendre. Et quelle est la place des pays du Tiers-Monde dans ce paysage ? 7.2. Robotique et choix politiques Nous avons indique que Hans Moravec est, au même titre que Ray Kurzweil, un des grands prophètes de la marche vers les super-intelligences. Ses travaux ne peuvent laisser 73

Voir par exemple le complexe des deux Palm Islands à Dubaï.

124


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

indifférent. Hans Moravec est un des pères historiques de l'intelligence artificielle et de la robotique intelligente. Son ouvrage Robot, témoigne de 50 ans d'expériences et de réflexions sur le sujet. L’auteur, derrière lequel on sent le recul et la maturité d'un scientifique qui sait de quoi il parle et qui ne cède pas aux entraînements des modes intellectuelles, ne cache rien des premières difficultés et des échecs de l'Intelligence Artificielle, dus essentiellement à la disproportion entre les ambitions et les moyens de calcul disponibles. Cette sincérité rend d'autant plus crédibles ses prévisions relatives à l'apparition des machines intelligentes et des autres bouleversements scientifiques qu'il annonce dans les deux derniers chapitres du livre. Sur le fond, on constate à quelques nuances près une convergence entre ses analyses et prédictions et celles de Ray Kurzweil. Selon ces deux auteurs, nous sommes engagés (sans nous en apercevoir vraiment) dans une sorte de mutation dans l’évolution, une métatransition, qu'avec le recul on jugera aussi importante que la découverte de l'outil et du langage symbolique par les premiers hominiens. Elle est due à l'explosion exponentielle de la puissance des moyens de calcul. On parle aussi de “ Singularité ”, sorte de point zéro à partir duquel un univers entièrement nouveau émergera. Aux Etats-Unis, où les idées neuves trouvent vite leur public, il semble qu'aujourd'hui ce message soit de mieux en mieux compris. Les ouvrages et articles exploitant ce thème, autour de l'émergence de machines super-intelligentes, se multiplient. La National Science Foundation74 elle-même considère qu'il s'agit d'un avenir auquel il faut se préparer. Dès 2002, elle a recommandé au gouvernement une série de mesures destinées à encourager la recherche/développement dans les technologies qui accroissent les capacités et l'efficacité de l'intelligence humaine : Nanotechnologies, Biotechnologies, Infotechnologies et technologies de la Cognition. Le lancement d'un Human Cognome Project de même ampleur que l'Human Genome Project est souhaité par les experts. La robotique en profitera. Pourquoi cependant les nouvelles technologies ne se développent-elles pas aussi vite qu’elles le pourraient, même aux Etats-Unis ? Selon Moravec, une des raisons de l'atonie du marché justifiant le décalage actuel entre les prévisions et les résultats des industriels tiendrait au fait que l'intelligence des utilisateurs, comme des applications qui leur sont proposées, n'a pas augmenté au rythme des possibilités techniques. Pour assurer la reprise et l'expansion à long terme des activités de haute technologie, il faudrait donc entreprendre un effort massif en amont, destiné à élever les compétences cognitives de la société tout entière notamment par l'éducation, la formation et les loisirs culturels. Hans Moravec ajoute qu'il faudrait aussi assurer le développement d'une large gamme de robots utilitaires polyvalents susceptibles de rendre des services nouveaux dans un très grand nombre d'activités sociales. Cette orientation est actuellement largement suivie par le gouvernement et les entreprises japonaises, qui réalisent des investissements considérables dans le domaine de la robotique domestique et de loisir, ainsi qu’en robotique industrielle. Toyota Motors annonce ainsi vouloir remplacer en quelques années dans ses usines japonaises tout son personnel ouvrier par des robots polyvalents. Les développements de la robotique intelligentes sont pris en charge sur un pied d’égalité par l’Etat et par les grandes entreprises. L'argument de Robot concerne l'avenir des machines intelligentes, incarnées plus spécifiquement dans des robots mobiles universels. Moravec pronostique que ces machines seront équivalentes à l'intelligence humaine dans moins de cinquante ans. Mais loin de présenter ceci comme un développement dangereux pour l'espèce humaine, il s'attache à en montrer les aspects positifs. Depuis 1988, date de publication de Mind Children's, le premier livre de Moravec, les progrès des machines ont été considérables, touchant tous les domaines de la science, de l'économie et de la société (pour ne pas mentionner la défaite du champion de monde d'échecs en 1997, puis la presque défaite d’un de ses successeurs face à un logiciel 74

http://www.nsf.gov/

125


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

en octobre 2002). Les prévisionnistes n'avaient pas anticipé ce phénomène, faute d'avoir prévu la multiplication par 100 des puissances de calcul dans les dix dernières années, et donc une croissance rapide de l'intelligence des machines. Il faut commencer à évaluer les résultats d'un tel phénomène, en le replaçant dans l'histoire de l'humanité. Moravec estime que, depuis les origines, les hommes ayant vécu dans de petits ensembles tribaux ont été façonnés par la compétition et la guerre avec les tribus voisines. Ceci a consommé une grande partie des gains apportés par l'amélioration progressive des pratiques agricoles et industrielles. De ce fait, les citoyens d'aujourd'hui ont de plus en plus de mal à s'adapter aux modes de vie radicalement nouveaux résultant de l'expansion des technologies, bien que l'éducation consomme une partie non négligeable du temps consacré à la vie professionnelle. Mais on peut espérer que la tension diminuera du fait de l'importance des tâches dorénavant confiées aux machines dans les sociétés avancées. Comme une part encore accrue de la charge de travail à venir, qui globalement continuera à s'accroître et se compliquer, sera prise en charge par des machines de plus en plus intelligentes, les hommes pourront retrouver le temps de mieux maîtriser leur développement. Hans Moravec étudie les rapports entre l'évolution des puissances de calcul des machines et la puissance de calcul estimée des organismes vivants, en rappelant que de telles comparaisons restent assez grossières car elles ne tiennent pas compte des architectures comparées des systèmes, non plus que des logiciels ou comportements plus ou moins efficaces auxquelles les ressources sont affectées. Le propre de l'intelligence naturelle, en effet, est la reconnaissance de formes qui consomme des puissances de calcul sans communes mesures avec celles nécessaires aux calculs de type arithmétique. La rétine humaine comporte 100 millions de neurones et peut traiter 10 images par seconde. Ceci demande au moins 1.000 MIPS (million d’instructions par seconde) pour obtenir le même résultat d'une machine. Le cerveau humain étant estimé à 100.000 fois le volume consacré au traitement des informations provenant de la rétine, simuler l'ensemble des fonctions du cerveau nécessiterait 100 millions de MIPS. L’ordinateur Deeper Blue, qui vainquit Kasparov aux échecs, n'avait qu'une puissance de 3 millions de MIPS estimée en temps de calculateur universel. De plus, rappelle Hans Moravec, une machine de 100 millions de MIPS coûterait aujourd'hui plus de 20 millions de dollars. Elle serait réservée à des travaux scientifiques prioritaires et non pas à remplacer un cerveau humain, présent à 6 milliards d’exemplaires sur Terre. Enfin, les programmes informatiques ont besoin tout autant de mémoire que de vitesse de calcul. Il y a un rapport constant remarquable entre la vitesse et la mémoire. Selon les applications, on peut mettre l'accent sur l'une ou sur l'autre de ces qualités. Là encore, la mémoire se paie cher aujourd'hui. Ceci veut dire que les machines ayant la capacité de traitement d'un cerveau humain n'auront de signification économique que si leur heure d’utilisation coûte moins que celle de ce dernier. En valeur, le seuil au-dessous duquel descendre pour rentabiliser une unité centrale telle que le cerveau humain est aujourd'hui estimé à 1000 dollars (ce qui n'est pas cher payer l'homme…). L’équivalent du cerveau pour 1000 dollars Pour Hans Moravec cependant, comme pour Ray Kurzweil, le diagnostic ne fait pas de doute. Compte tenu des courbes actuelles, des machines offrant la puissance de calcul du cerveau humain pour 1000 dollars devraient apparaître vers 2020-2030, plus tôt si les technologies venant en relais du silicium, voyaient le jour dans la prochaine décennie. On connaît déjà ces technologies nouvelles, la plus prometteuse semblant être l'ordinateur quantique. Avec lui, le calcul et la modélisation changeront véritablement de dimension, en se rapprochant de dimensions de l'univers encore mal explorées. L’unité de calcul quantique (le “ bit quantique ”) manifeste comme toutes les entités quantiques, des propriétés dites de superposition et d’intrication qui, une fois maîtrisées, lui permette d’accomplir plusieurs

126


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

tâches à la fois75. Cela dit, beaucoup de gens se refusent encore à la perspective de voir des machines pleinement intelligentes apparaître dans quelques décades. Ils les repoussent à deux ou trois siècles, s'appuyant sur la lenteur des développements de l'Intelligence Artificielle enregistrés durant les cinquante dernières années. Ce fut en effet alors l'âge glaciaire (the big freeze) de l'Intelligence Artificielle. Mais le dégel est en route. On disposera dans un demi-siècle de machines donnant l'impression immédiate de la conscience, compte tenu de leur capacité à manipuler rapidement des flots de données diversifiées. En d'autres termes, elles passeront avec succès le test de Turing (un robot qui passe ce test ne doit pas être distingué d’un humain dans un dialogue avec un interlocuteur qui ne sait pas à qui il s’adresse). Si alors les machines ne pensent pas, du moins elles en donneront tous les symptômes. De plus, elles pourront transférer de l'une à l'autre leurs acquis intellectuels en quelques secondes, ce qui n'est pas le cas des hommes, où le transfert de compétences entre personnes demande des années. On trouve dans le livre de Moravec les meilleurs arguments fournis à ce jour pour démontrer la faisabilité de l'intelligence et de la conscience chez les machines. Mais comment en arriver là ? Hans Moravec et ses équipes, ainsi qu'un certain nombre d'autres industriels, notamment japonais, développe une stratégie basée sur le marché. Les ressources nécessaires ne viendront que si les produits trouvent preneurs dans le monde commercial. Ils visent à développer des robots universels, dotés de capacités sensorielles et motrices étendues, susceptibles d'apprentissage, proposés à des pris bas et pouvant ainsi rendre des services nombreux et diversifiés dans le monde de demain. On pourrait penser que nos sociétés - sans mentionner celles du tiers-monde - sont déjà saturées de gens qui ne trouvent pas à s'employer pour un salaire décent. Mais il existe pourtant d'innombrables tâches utiles qui ne sont pas remplies et qui pourraient être confiées à des générations de plus en plus efficaces de robots universels, dans la vie civile, dans les laboratoires et les industries, dans le domaine militaire enfin. Hans Moravec décrit les générations successives de robots susceptibles de découler de ses recherches. La troisième génération de robots universels proposée dans le livre pour les années 2030 comporterait des machines de 3 millions de MIPS embarqués (la puissance d'un cerveau de singe) et seraient capables de se donner des modèles du monde (perception models) très complets et rapidement actualisables. Ces robots seraient construits de matériaux composites solides et légers. Les robots de quatrième génération, vers 2040, disposeraient de puissance de calcul de 100 millions de MIPS (le cerveau humain) et seraient capables de raisonner en dialogue avec les hommes. Jusqu'à cette date, la réalisation et la mise en œuvre de ces multiples robots fourniraient aux laboratoires et aux industriels des chiffres d'affaires et des emplois en grand nombre. Ensuite se posera la question de savoir quelle attitude les hommes adopteront vis-àvis de ces robots, dont les compétences seront souvent supérieures aux leurs. Hans Moravec s'est livré à des simulations relatives aux capacités des robots de chacune de ces générations, au regard des capacités humaines. Ces simulations montrent que chaque génération de robots manifestera des qualités de plus en plus proches de celles de l'homme. La quatrième génération sera devenue sans doute si intellectuellement habile qu'elle ne pourra plus être comprise par le commun des mortels. Il faudra qu'elle apprenne à rester dans les limites de l'intellect humain. Ces robots n'auront pas a priori besoin de se parler à eux-mêmes pour augmenter leurs aptitudes à la conscience. Leurs programmes de raisonnements seront suffisamment puissants pour se passer du langage. Celui-ci ne sera utilisé que pour communiquer avec l'homme. Les capacités de conscience, qui représente un poids (un handicap quant il s'agit de réagir vite), seront plus ou moins développées selon les types d'actions envisagés. 75

Etienne Klein, op.cit.

127


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

L’ouvrage de Hans Moravec étudie aussi la façon dont ces robots de quatrième génération expérimenteront des émotions analogues à celles de l'homme : peur, ennui, amour, etc. Aucune ne leur sera a priori impossible. Par contre, comme ils auront des puissances de calcul infiniment plus grandes que celles des hommes, leur moindre action pourra faire l'objet, sous le contrôle d'un moniteur spécialisé dit "raisonneur" (reasoner), de spéculations préparatoires poussées qui pourront donner de meilleurs résultats que les réponses de type passionnel. Les deux derniers chapitres du livre, l'âge des robots et l'âge de l'esprit, esquissent ce que sera une société où les machines intelligentes, associées aux hommes, pourraient changer le monde terrestre et son environnement cosmique propre. Elles changeraient aussi, plus fondamentalement, notre connaissance scientifique du monde, encore enfermée dans les concepts des relativistes et des physiciens quantiques, vieux de presque un siècle. Conséquences sociétales Aujourd’hui, il semble judicieux de poser la question de savoir si les superintelligences et super-robots envisagés par Hans Moravec, Ray Kurzweil et autres “ visionnaires ” de l'Intelligence Artificielle dite “ forte ” contribueront ou non à diminuer les tensions du monde actuel. En d'autres termes, joueront-ils, et à quelles conditions, un rôle déterminant en faveur de ce que l'on nomme désormais le développement durable ? Ce modèle conjugue les exigences des environnementalistes visant à sauver l'écosystème mis en danger par les modalités actuelles du développement, et celles plus politiques des adversaires d’une croissance mise au seul service du profit immédiat. Selon les uns et les autres, il faut modifier en urgence le fonctionnement du système capitaliste libéral par des interventions régulatrices internationales,. C'est en effet ce système qui génère les inégalités entre le Nord et le Sud d'où découlent la destruction de l'environnement physique et biologique, la poursuite de l'explosion démographique et l'aggravation des tensions belliqueuses. Nombre de scientifiques et d'experts considèrent que seul un progrès accéléré des technologies et sciences dites douces ou non polluantes pourrait sauver la planète de la contradiction entre croissance et effondrement écologique dans laquelle elle est aujourd'hui enfermée. Parmi ces sciences et technologies, il faudrait évidemment compter tout ce qu'apportera le développement exponentiel prévu des systèmes intelligents et superintelligents, qu'il s'agisse des robots proprement dits ou d'entités et réseaux à base d'informations et d'intelligences artificielles. Moravec va très loin dans la prédiction, à la limite de la science-fiction, puisqu'il consacre de longues pages à discuter ce que sera l'expansion de l'humanité dans le cosmos (laquelle selon lui devrait se révéler dans quelques décennies beaucoup plus accessible qu'elle ne semble l'être au vu de nos représentations scientifiques actuelles). Ceux qui quitteront la Terre de façon temporaire puis définitive ne seront plus exactement des hommes. Il les appelle les Ex (ex-humains). Ce ne seront même plus les posthumains que nous évoquons dans le chapitre 8 de ce livre, car ils auront vraiment rompu tous liens avec l’humanité actuelle. Ils porteront aux confins de l'univers les sciences, les technologies et les formes d'intelligence s'esquissant actuellement sur Terre dans les laboratoires de robotique et d'intelligence artificielle. Ils évolueront et se perfectionneront comme les entités biologiques et cosmologiques que nous connaissons, c'est-à-dire dans le cadre d'une compétition darwinienne permettant l'émergence continue de solutions de plus en plus néguentropiques (complexes) et adaptées à des difficultés considérablement accrues. Ici, limitons-nous à discuter de la première phase d'un tel développement, caractérisé par la généralisation de modes de production robotisés. Par ce terme, on désignera non seulement l'utilisation de robots industriels ou de gestion adaptatifs ou intelligents, mais plus généralement le recours aux technologies (dites encore du futur) telles que les

128


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

nanotechnologies, les biotechnologies et les technologies spatiales. Depuis le milieu du XXe siècle, l'automatisation s'est généralisée dans le monde entier, suite à la révolution industrielle apparue au début du XIXe siècle. Ceci s'est d'abord traduit par la mécanisation et l'informatisation des processus primaires, en permettant d'innombrables progrès de productivité. D'indéniables améliorations du niveau de vie des populations en ont découlé. Mais s'étant exercée dans le cadre du capitalisme libéral, afin d'apporter prioritairement un profit immédiat à l'entreprise, l'automatisation a produit aussi ce que certains ont appelé l'horreur économique76 : chômage et délocalisations industrielles, exploitation des pays sous-développés et de leurs habitants les plus pauvres… Aujourd'hui, sans en revenir au Luddisme77, beaucoup de gens seraient tentés de freiner la robotisation et plus généralement la recherche de nouvelles techniques de production, de peur de voir des technologies nouvelles mal maîtrisées par les salariés accélérer la domination des entreprises transnationales sur le monde en ruinant les efforts en faveur du développement durable. Hans Moravec est bien conscient du risque. Il esquisse donc un projet de politique économique inspiré d'une sorte de néo-keynésianisme78 sympathique. Il part du postulat que l'essentiel de la production à valeur ajoutée proviendra prochainement d'usines ou processus robotisés ou pilotés par des dispositifs automatiques intelligents. Ces usines tourneront presque sans hommes. Elles ne rémunéreront donc directement qu'un très petit nombre de personnels. Dans une certaine mesure, par ailleurs, leurs coûts d'investissement et de production diminueront régulièrement (du fait de la baisse continue des coûts technologiques), ce qui réduira les besoins d'investissement en capital et donc les distributions de dividendes. Si rien n'est fait, c'est-à-dire si le système d'ensemble demeure régi par les règles du capitalisme libéral, on assistera à la mise sur le marché de biens de plus en plus nombreux, mais dépourvus de clients pour les acheter. Le monde se réduira à l'affrontement de minorités de capitalistes et de scientifiques disposant de tout le savoir productif du monde, face à une immense majorité de gens sans ressources pour se procurer les biens potentiellement disponibles. Il s'agirait d'une situation aussi absurde que sans issue. Pour éviter cela, Hans Moravec propose que les entreprises robotisées soient taxées et que le produit de ces taxes soit redistribué aux populations dans le besoin afin que celles-ci puissent continuer à entretenir par leurs achats la production et le progrès technologique. Peu importerait alors qu'il y ait des chômeurs, en occident ou dans le tiers-monde, si ceux-ci recevaient des allocations correspondant grossièrement au salaire qu'ils auraient perçus dans leurs anciennes entreprises. Ils pourraient pratiquement vivre à ne rien faire, ou développer leur personnalité par la culture et les loisirs, pendant que les robots travailleraient à leur place. Ce système reposerait cependant sur de petites minorités de cadres et ingénieurs très qualifiés qui le feraient fonctionner et se développer - ou plutôt qui géreraient les bonnes idées que les robots intelligents pilotant les processus automatisés pourraient leur suggérer. Hans Moravec est averti des problèmes que pose la mondialisation libérale en permettant aux entreprises de fuir dans des paradis fiscaux et réglementaires tout effort de régulation décidé par un Etat isolé. Aussi suggère-t-il, dans le droit fil de la revendication actuelle des adversaires de la mondialisation libérale, que des systèmes politiques transnationaux, sur le modèle des organisations internationales et de certains traités multilatéraux, mondialisent les taxations79 et les protections réglementaires, de façon à ce que 76

Viviane Forrester, L’horreur économique 1999 Mouvement de destruction des métiers à tisser apparu en Angleterre au début du XIXe siècle 78 John Maynard Keynes 1883-1946. Cet économiste britannique avait préconisé la dépense publique comme moyen de lutter contre le chômage se développant dans les phases de faible croissance du cycle économique. Beaucoup considèrent que ces thèses sont encore d’actualité dans les pays occidentaux. 79 On retrouve une partie de ces idées à la source des projets de taxation des flux financiers destinés à rééquilibrer la croissance.

77

129


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

nul ne puisse y échapper. Il compte sur la compétition inter-entreprises pour que celles d'entre elles ne respectant pas les nouveaux codes de la moralité globale soient éliminées par les autres. Les économistes et sociologues avertis reprocheront sans doute à ces vues d'être un peu simplistes et d'évacuer d'innombrables problèmes soit transitoires soit durables. Nous pouvons quand même trouver là un écho intéressant aux préoccupations que se posent les instances politiques soucieuses de conjuguer l'accélération du progrès technologique, l'amélioration des niveaux de vie des plus démunis et finalement la protection de l'environnement. Un développement intelligent Bornons-nous ici à reprendre la question posée par Moravec, d'une autre façon. Le problème est simple à formuler, mais il appelle des solutions qui demeurent confuses pour de nombreux esprits, même disposant d'une culture économique minimum. Posons en principe que la science permet aujourd'hui à l'humanité de s'engager dans l'utilisation de technologies de plus en plus innovantes, faisant largement appel aux ressources des moyens intelligents de computation. Ceci permettra la robotisation progressive des processus de fabrication-distribution-recherche. L'industrie, l'agriculture et les services seront à divers titres concernés Mais ceci permettra aussi l'apparition de nouvelles méthodes (encore aujourd'hui dans l'enfance) pour la satisfaction des besoins primaires de l'humanité tout en protégeant l'environnement : généralisation des énergies renouvelables, recyclage des déchets et eaux usées, fabrication d'aliments et de produits pharmaceutiques de synthèse, méthodes nouvelles de reconstitution des biotopes, etc. On y ajoutera évidemment la mise en place de réseaux de formation et de connaissances distribuées permettant à chacun d'accéder aux contenus culturels et scientifiques et d'y apporter sa contribution. La première priorité consistera à amorcer le système de production intelligent ainsi défini, puis à assurer son développement vers des technologies de plus en plus productives et de moins en moins nuisibles. Il s'agira de réaliser des investissements scientifiques et technologiques qui seront toujours à la marge de la rentabilité à court terme, et qui de toutes façons imposeront au début un effort de financement considérable, dont les bénéfices n'apparaîtront qu'à terme. On sera loin des budgets actuellement consentis par le Nord pour le développement du Sud, et même des budgets de recherche militaire et scientifiques occidentaux. Seuls les Etats ou de futurs organismes publics de financement (non-profit) pourront s'en charger à une échelle suffisante. A supposer que de tels organismes voient le jour, où trouveront-ils l'argent nécessaire s'ils ne disposent pas de contribuables ou de préteurs potentiels ? C'est la question principale, sur laquelle nous reviendrons. La deuxième priorité, une fois le système mis en route et pouvant fabriquer des biens de plus en plus abondants et de moins en moins chers, sera de résoudre le problème du consommateur solvable. Les nouveaux laboratoires de recherche, les nouvelles technologies de fabrication emploieront du monde, certes bien payé, mais ils ne pourront donner de l'emploi rémunéré à tous. En fait ils nécessiteront une large participation des populations bénéficiaires, mais celles-ci, surtout dans le tiers-monde, devront, initialement du moins, y travailler presque gratuitement, sauf à surcharger les coûts de façon insupportable. On en voit déjà l'exemple avec les expériences d'agriculture en milieu aride ou d'énergie solaire menées par certaines ONG en zone tropicale. Ce ne sera qu'au bout de plusieurs décennies qu'il sera possible d'obtenir de nouveaux emplois bénéficiaires, mais là encore en très petit nombre par rapport à ce que permettent les usines traditionnelles. Il faudra donc que les pauvres et les très pauvres, à qui une grande partie des nouvelles productions douces devrait être finalement destinée (afin de réduire les inégalités génératrices des tensions catastrophiques actuelles) puissent y accéder quasi gratuitement. En contrepartie,

130


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

ils devront être associés à l'insertion sociale des nouveaux produits et des nouvelles méthodes de production. Le travail ne manquera pas, mais nécessitera une imagination dans la recherche de moyens d'animation et de participation qui ne pourront reposer sur les méthodes anciennes de l'autoritarisme politique. La troisième priorité, au moins aussi importante que les deux précédentes, sera de fournir des occupations intelligentes à ceux qui ne seront pas requis par les activités de production et de recherche proprement dites. La logique du développement des processus robotisés fera en principe que les besoins élémentaires ou même certains besoins plus sophistiqués pourront être satisfaits avec une quantité de travail humain de moins en moins importante. Ceci étant, peut-on penser que l'emploi global diminuera forcément ? Il y aura, comme nous l'avons vu, d'innombrables activités induites qui correspondront à l'insertion de détail des nouvelles technologies dans des sociétés restant encore largement traditionnelles. Mais ces activités ne pourront être directement rémunérées. Elles représenteront une contribution en nature des bénéficiaires des nouvelles technologies. Une autre source d'activité viendra du fait que les nouveaux processus de production, même largement robotisés, par leur développement même, créeront de nouveaux emplois. C'est ce que l'on a vu d'ailleurs depuis cinquante ans en ce qui concerne le secteur de l'informatique et des télécommunications. Mais ces emplois n'apparaîtront que progressivement. On peut cependant penser que globalement, le temps de travail diminuera, ce qui pose la question des loisirs. Chacun en fait sera concerné, car il ne serait pas envisageable qu'une petite minorité continue à travailler à plein temps (sauf à le faire à titre bénévole), les autres vivant dans le loisir comme paraît-il le faisaient les naturels des îles tropicales une fois leur nourriture assurée par quelques heures de cueillette au sein d'une nature généreuse. Il faudra donc partager le travail utile et surtout utiliser les loisirs nouveaux. Considérera-t-on que chacun devra faire ce qu'il voudra de son temps libre ? Voudra-t-on organiser des loisirs intelligents en multipliant les occasions de formation, de recherche et d'investissements personnels et collectifs dans diverses activités culturelles et scientifiques ? Faudra-t-il faire plus encore, par exemple sous la forme d'un encouragement collectif intense en faveur de grands programmes d'exploration des mondes inconnus, sur la Terre et dans l'univers extraterrestre ? C'est cette dernière perspective que nous propose Moravec, en décrivant des projets futuristes comme celui de l' “ ascenseur spatial ”80. Nous ne pouvons que le suivre dans cette voie stimulante. Dans tous ces cas, qui paiera ou qui fournira les ressources humaines nécessaires ? Comme il s'agira d'activités reposant sur le volontariat et le bénévolat, beaucoup de celles-ci seront prises en charge par les acteurs eux-mêmes. Mais il restera des investissements importants à financer au plan collectif. Répondre à cette question lancinante des sources de financement nécessite un effort d'imagination politique. La production disponible proviendra pour l'essentiel de la valeur ajoutée par la production robotisée et par les technologies émergentes utilisant de plus en plus d'intelligence et de moins en moins de biens rares et coûteux. Ainsi, ce seront moins finalement les ressources en argent qui seront nécessaires que les ressources en intelligence. Or celles-ci pourraient être obtenues de façon presque gratuite, si grâce aux réseaux et aux différents moyens du travail coopératif (éventuellement bénévole), on ajoutait ou associait les super-intelligences artificielles de demain à celles des quelque 8 à 10 milliards d'habitants de la Terre. Il reste cependant, nous l'avons vu, que des investissements considérables devront, au moins initialement, être apportés par les sociétés riches au profit de l'humanité tout entière. 80

Voir le site Elevator 2010 : http://www.elevator2010.org/site/index.html.

131


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Les entreprises, même les plus florissantes, ne pourront seules assumer cette charge. Les Etats en sont encore moins capables. La seule façon de faire, comme le prônent aujourd'hui les défenseurs du développement durable, consistera à détourner des consommations (et productions) somptuaires des ressources qu'il faudra affecter aux secteurs en mal de financement. C'est la croissance zéro ou même négative des processus de consommationgaspillage du Nord qu'il faut commencer à envisager. Concrètement, par exemple, on ne pourra continuer à investir dans le “ progrès ” de l'industrie automobile ou des infrastructures de transport individuel (surtout utilisant des carburants fossiles) si on veut créer des sources d'énergie ou de production non polluantes dans le tiers-monde. Il s'ensuit que certains aspects du niveau de vie des pays riches s'en trouveront affectés, marginalement d'ailleurs. En contrepartie, l'avenir du monde paraîtra un peu plus rassurant, ce qui profitera à chacun, même aux favorisés des pays riches. Nous conclurons là ces considérations en soulignant qu'il faudra certes étudier les méthodes de taxation et de transfert de revenus envisagées par Hans Moravec pour faire bénéficier l'humanité des produits et de la valeur ajoutée découlant des processus robotisés. Mais Moravec sous-estime largement les changements institutionnels qui seront nécessaires pour mettre tout ceci en œuvre. Il compte encore beaucoup, conformément à la doctrine politique dominante aux Etats-Unis, sur l'initiative des entreprises et la concurrence favorisant les meilleurs, les gouvernements se bornant à quelques corrections réglementaires et fiscales. Il évoque très superficiellement les institutions internationales à mettre en place. Celles-ci sous la forme modernisée qui serait nécessaire n'existent évidemment pas actuellement. De toutes façons, les Etats-Unis en tout premier lieu persistent à les refuser. C'est en fait une véritable révolution institutionnelle et politique qu'il faudrait commencer à envisager, pour tirer le plein parti des possibilités émergentes des systèmes et technologies super-intelligentes. Il ne s'agira pas de s'en remettre uniquement au jeu du capitalisme libéral et à l'initiative des entreprises privées pour faire changer les vieilles habitudes économiques. Mais on ne pourra pas non plus réactiver les recettes de l'intervention publique, qu'il s'agisse de celle des Etats ou d'organisations internationales telles que l'ONU. Les dernières décennies ont montré les erreurs sinon les crimes de dirigeants s'estimant, comme le firent les soviétiques, en mesure de dicter son avenir à l'humanité. La vraie réponse aux besoins de développements harmonieux des super-intelligences, celle qui sauvera l'humanité des dangers d'une robotisation purement mécanique des processus économiques, serait de créer les infrastructures techniques et sociales permettant aux citoyens du Nord et à ceux du Sud de travailler “ intelligemment ” ensemble, en se répartissant les fruits attendus des évolutions technologiques et en préparant sereinement les grandes aventures futures de l'exploration spatiale. S'agit-il là d'une utopie ? Ceux qui se préoccupent de renouveler les perspectives des combats politiques devraient en tous cas y réfléchir.

7.3. L’émergence de la parole chez les robots La conscience artificielle pourra-t-elle nous aider à mieux comprendre l’apparition de la conscience chez les humains, à commencer par celle de la parole. Le professeur Alain Cardon a déjà présenté dans cette collection ses études concernant la construction d’une machine consciente [Cardon, op.cit.]. Nous y renvoyons le lecteur. Mais, dans le même esprit, il est intéressant de découvrir les travaux, peu connus encore, accomplis dans les laboratoires d’intelligence artificielle pour générer chez des robots des comportements de type langagiers, précurseurs, on peut le penser, de comportements pré-conscients. C’est la firme japonaise Sony qui est la plus avancée dans ce domaine, au moins concernant les robots civils, à finalité

132


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

domestique. Aux Etats-Unis, d’importantes recherches sont menées sur financement du département de la défense, en vue de développer des systèmes conscients dits cognitive systems, principalement à usage militaire. Mais ces recherches sont moins faciles à évaluer, compte tenu des contraintes de confidentialité qui s’y attachent. L’auto-organisation de la parole Les bonnes thèses de doctorat, dont on peut pronostiquer que leurs auteurs feront une carrière scientifique reconnue, se distinguent des autres car au-delà d'un exercice obligé, elles ouvrent des perspectives en amont et en aval du domaine exploré, qui peuvent le cas échéant conduire à faire évoluer sinon réviser les paradigmes scientifiques en cours. C’est ce dernier trait, selon nous, qui caractérise la thèse de Pierre-Yves Oudeyer, “L’auto-organisation de la parole”81. Il s’agissait, globalement, d’étudier les origines du langage en utilisant les outils de l’informatique et de l’intelligence artificielle. Les expérimentations présentées et analysées poursuivent et approfondissent ces travaux. Mais ce domaine a déjà fait l’objet de plus de 30 ans de recherches, utilisant les technologies du moment. En quoi “ L’auto-organisation de la parole ” se distingue-t-elle de ces travaux précédents, sinon que l’auteur fait appel aux solutions les plus récentes offertes par l’utilisation des réseaux neuronaux formels et des populations d’agents ? C’est que Pierre-Yves.Oudeyer se pose, comme il l’indique clairement au début de son travail, non pas la question de l’émergence des langues à partir d’un univers déjà bien installé de communications symboliques, mais celle de l’émergence de la communication par le langage sans qu'existent déjà des systèmes d'interactions sociale entre les agents de complexité équivalente à celle du langage, et même sans que les agents aient l'envie ou le besoin de communiquer sous cette forme élaborée. En d’autres termes, il nous place au cœur des phénomènes évolutifs dits de l’émergence de la parole : l’interaction entre éléments simples fait apparaître des formes complexes qui n’existaient pas jusqu’alors. On peut d'ailleurs estimer qu'en remontant dans le temps, l'apparition chez les animaux des premières formes de communication symbolique par postures, gestes ou signaux sonores relève du même type d'explication. Ceci dit, le problème de l'origine du langage est un vaste puzzle auquel la thèse ne s'attaque pas en entier. Elle s'attaque à l'origine d'un élément essentiel de ce puzzle : la parole, véhicule, support physique et forme du langage. L’émergence L’ensemble des mécanismes intéressant l’apparition de la vie, à partir des premières molécules pré-biotiques, se trouve concerné par le phénomène de l'émergence. On peut même aller plus loin et considérer que c’est l’ensemble des mécanismes intéressant l’apparition des formes physiques complexes à partir des composants élémentaires de l’énergie et de la matière qui devrait relever de ce type d’étude. Pourquoi y-a-t-il un univers plutôt que rien, et pourquoi cet univers est-il peuplé de telles formes plutôt que de telles autres ? D'où le vaste champ d'applications potentielles des hypothèses présentées dans ce travail de thèse. Nous sommes en fait proches des mécanismes de la morphogenèse. Pierre-Yves Oudeyer n’a pas manqué de rappeler que ces mécanismes présentent de grandes similitudes dans la nature, qu’il s’agisse de la formation des cristaux de neige, de l’élaboration de dessins sur les coquillages ou le pelage des animaux. La vie artificielle, pour l'essentiel, repose aussi

81

Thèse soutenue le 24 novembre 2003 au Laboratoire d’informatique de Paris 6. Elle couronne une liste impressionnante de publications rendant compte de travaux réalisés par l’auteur de 1999 à 2003. Pierre-Yves Oudoyer est chercheur au laboratoire européen Sony CSL, dirigé par Luc Steels. Ce dernier avait déjà conduit des expériences significatives en matière d’émergence de la parole chez les robots, notamment celle dite des “ Têtes parlantes ”. Voir sur les travaux de ce laboratoire le site http://www.csl.sony.fr .

133


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

sur de tels mécanismes, comme l’ont illustré récemment les travaux de Stephen Wolfram sur les automates cellulaires [Wolfram, op.cit.]. On admet généralement que c’est une évolution de type darwinien, sur le mode mutation/sélection, qui permet d’expliquer l’apparition des formes complexes. D’abord employée par les biologistes, l'hypothèse dite aussi néo-darwinienne (selon la terminologie employée en biologie) est de plus en plus utilisée par les physiciens et par les informaticiens (algorithmes génétiques). Sans la rejeter ici, Pierre-Yves Oudeyer en montre les limites, reprenant les objections faites depuis longtemps aux biologistes évolutionnaires darwiniens. Compter sur le mécanisme de mutation au hasard suivie de sélection ne suffit pas pour qu’en si peu de temps (600 millions ou 3 milliards d’années selon ce que l’on adopte comme point de départ de l’évolution biologique) soient apparues des formes aussi complexes que l’organisme humain ou les sociétés humaines (pour nous en tenir à l’homme). Un processus d’exploration au hasard de l’espace des possibilités, sur cette (courte) durée, n’aurait sans doute abouti qu’à des formes simples et hétérogènes. On sait qu’il s’agit là de l’argument utilisé par les spiritualistes pour justifier l’hypothèse d’un élan vital, ou doigt de Dieu, guidant l’évolution vers un but finalisé à l’avance. Mais Pierre-Yves Oudeyer fait ici la démonstration, dans le domaine limité mais totalement pertinent qu’est l’apparition de la parole, du fait que de simples interactions entre agents évolutionnaires peuvent permettre de comprendre l’émergence de formes et procédures nouvelles, en un temps relativement court Dans ce cas, le mécanisme de l’évolution darwinienne n’est pas supprimé. Mais il s'appuie certainement sur un autre mécanisme, l'autoorganisation, dont le résultat est de contraindre l’évolution dans des directions bien définies. Pour le montrer, il utilise un modèle mathématico-informatique relativement simple qui relève de l’intelligence artificielle évolutionnaire, un système multi-agents adaptatif. Alain Cardon, dans la modélisation qu’il propose des mécanismes de la conscience, destinée à produire une conscience artificielle, fait de même. Revenons sur cette question importante des relations éventuelles entre un système d'auto-organisation et la sélection darwinienne. Pierre-Yves Oudeyer étudie des solutions faisant appel à l'auto-organisation des systèmes complexes : l'interaction entre éléments simples fait apparaître des formes complexes qui n'existaient pas jusqu'alors. Il suggère que les premiers systèmes de vocalisations, ou premiers codes de la parole, sont le résultat organisé de l'interaction entre composants comme l'oreille, le conduit vocal, différents réseaux neuronaux (et à l'intérieur de ceux-ci, des neurones), et des agents qui possèdent ces composants. L'un des points originaux du système est que ces composants sont tous génériques82 et on peut trouver pour chacun une ou plusieurs explications qui n'ont rien à voir avec la communication, ni même avec quelque autre activité sociale. En bref, l'auteur ne présuppose pas de pression sociale, et en particulier pas de pression évolutionnaire pour développer des systèmes de communication. Ceci l'amène à formuler l'hypothèse que la parole pourrait être une exaptation83. Mais le système artificiel est aussi compatible avec un scénario darwinien dans lequel l'environnement favorise les individus qui sont capables de communiquer de manière élaborée. Dans ce scénario, son système montre comment le travail de la sélection naturelle est facilité par les contraintes apportées par l'auto-organisation. Une population d’agents Nous renverrons le lecteur souhaitant en savoir plus à la partie véritablement technique de la thèse qui suppose un minimum de connaissance du formalisme utilisé84. Bornons-nous à 82

Ils ne sont pas dédiés à des applications précises. Adaptation s'étant révélée utile en dehors du domaine où elle avait pris naissance. 84 Ce travail, sous une forme destinée au grand public, vient d’être publié dans la Collection Automates Intelligents sous le titre L’auto-organisation de la parole.

83

134


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

constater que l’auteur montre comment des agents de type robotique, dotés d’un minimum de senseurs et d’actuateurs non orientés vers la communication, finissent en évoluant dans un espace virtuel fermé les obligeant à interagir, par produire “ sans le vouloir ” un système de vocalisations correspondant à un code de la parole conventionalisé, possédant les propriétés fondamentales des codes de la parole humains contemporains, et partagés par tous les locuteurs de la même société. Pour celui qui n’a pas bien saisi le jeu des algorithmes utilisés, la production de ce système de vocalisation relève quasiment du miracle. Un code de la parole complet naît à partir de quelque chose de tout à fait différent - on pourrait dire à partir du vide. Pierre-Yves Oudeyer n’essaye pas d’utiliser ces prémisses à la compréhension des systèmes de vocalisation syllabiques, composés de voyelles et de consonnes, tels qu'ils sont apparus dans l’espèce humaine. Il étudie d'abord l’émergence de ce qui correspondrait à celle de voyelles si les agents informatiques avec lesquels il travaille étaient dotés d’appareils auditifs et d’expressions analogues à ceux de l’homme. A partir de cela, c’est-à-dire après avoir compris comment un code de la parole peut s’organiser autour de phonèmes relativement cohérents, on peut imaginer comment d'autres éléments essentiels au langage, voire même le langage lui-même, comme nous le connaissons aujourd'hui, ont pu émerger. Le préalable, que l’auteur désigne du problème de la poule et de l’œuf (est-ce le cerveau qui a façonné le langage, ou le langage qui a façonné le cerveau ?) commence à trouver une réponse. Le cerveau n’a pas précédé le langage ni le langage précédé le cerveau. Ils ont coévolué ensemble, en utilisant des bases qui n’avaient rien à voir avec la communication langagière. Celle-ci peut alors apparaître, nous l’avons dit, comme une exaptation née du rapprochement de facteurs ou propriétés d’agents soumis à une seule contrainte, partager un même espace les soumettant à des contraintes fortes. Les linguistes traditionnels diront que les travaux rapportés par la thèse de Pierre-Yves Oudeyer intéressent des agents informatiques outrageusement simplifiés par rapport à ce que sont les organismes vivants. On est donc loin des processus biologiques, linguistiques, sociologiques du monde vivant, à la base de la communication animale puis de la communication humaine. Mais pour répondre à cette objection, l’auteur développe une défense de la modélisation mathématico-informatique qui a déjà souvent été présentée (voir notamment Baquiast-Cardon 2003 et Chauvet 1998) mais qu’il est bon de rappeler. Le modèle n’est pas le réel. Il ne prétend pas s’y substituer. Cependant, comme il nous donne une représentation relativement fidèle et entièrement compréhensible des phénomènes naturels, il suffit, sous réserve de confirmer in vivo les hypothèses suggérées par le modèle, à faire comprendre ces phénomènes. Il permet même d’agir sur eux avec une probabilité de succès convenable. Nombre de chercheurs vont aujourd'hui plus loin dans l’importance qu’ils attachent à la modélisation. Selon eux les modèles, bénéficiant des progrès continuels des technologies, devraient nous permettre progressivement de substituer des mécanismes artificiels aux mécanismes naturels, avec des performances accrues. Il faut bien reconnaître, en ce qui concerne les origines de la parole et du langage, que les travaux menés au laboratoire d’Intelligence artificielle de Sony-CSL à Paris, par l’auteur et les collègues l’ayant précédé dans cette voie, notamment Frédéric Kaplan85, justifient pleinement la confiance faite à la modélisation. Que des robots (ou de simples agents informatiques) soient capables d’inventer par leur interaction des formes de langages montre bien que ce type de morphogenèse est vraiment significatif en ce qui concerne les origines de la communication symbolique d’abord, langagière ensuite. Frédéric Kaplan fait d’ailleurs observer que des sourds-muets élevés sans éducation sociale retrouvaient des processus de même nature pour se doter d’un minimum de langage qui leur soit propre. 85

Kaplan, La naissance d’une langue chez les robots, Hermès Science, 2001.

135


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Au moment où nous terminons ce livre, le laboratoire Sony CSL poursuit des expériences très intéressantes sur l’acquisition de la cognition chez les robots, à partir d’une acquisition de la curiosité86. Ces travaux participent à un programme européen plus vaste, ECAgents, lancé en janvier 200487. Ni nativisme ni empirisme Les modélisations présentées par la thèse nous permettent en tous cas d’échapper aux traditionnelles disputes entre nativistes Chomskiens et empiristes : l’enfant apprend-il à parler “ facilement ” parce que son cerveau a été précâblé génétiquement par l’évolution ou bien découvre-t-il et apprend-il le langage à la naissance, par interaction avec son milieu culturel ? Nul ne nie plus aujourd’hui que les cerveaux disposent de pré-représentations transmises par évolution au sein de chaque espèce et permettant aux jeunes de n’avoir pas tout à apprendre en naissant. Mais pourquoi ces précâblages là et pas d’autres ? Pierre-Yves Oudeyer et ses collègues nous répondent que des organismes vivant dans le même espace et dotés d’un minimum d’organes sensoriels et moteurs ne pouvaient pas ne pas inventer un code de communication symbolique, prenant différentes formes selon les espèces mais présentant les mêmes formes basiques. On retrouve là la réponse de la morphogenèse. Si la compétition darwinienne a joué un rôle, d’autres lois plus profondes ont contribué à l’émergence de telles formes ou comportements et non d’autres. Quelles sont ces lois ? La thèse y fait allusion, en étudiant avec une grande précision les modalités d’apparition des voyelles et des consonnes dans les différentes langues. Même si toutes ces langues ne présentent pas des processus rigoureusement identiques, ils se regroupent en bassins d’attraction communs. L’auteur nous rappelle que le choix de ces bassins n’a pas été fait par un concepteur extérieur recherchant ex-ante une optimisation de type mécanique. Elle n’a pas non plus résulté du seul jeu de la sélection darwinienne, pour les raisons rappelées ci-dessus. Les formes qui apparaissent découlent de la dynamique intrinsèque, complexe et auto-organisée, des systèmes en jeu. Ces systèmes sont caractérisés par des attracteurs, chacun d’eux correspondant à des formes émergentes. Compte tenu des caractéristiques, acquises par ailleurs et préalablement, de l’appareil bucco-pharyngé humain, ce sont les lois simples de la physique macroscopique et plus particulièrement de la thermodynamique qui génèrent l'apparition des structures et des formes du langage et de ses éléments. Dans ces cas, on aboutit à une optimisation ex-post permettant de diminuer les dépenses d'énergie et de matière et lutter ainsi au mieux contre l'entropie. Ce type d'optimisation est en œuvre, on le sait, dès le niveau de la chimie, où les liens atomiques durables sont ceux qui sont les moins gourmands en énergie. On la retrouve à tous les niveaux, y compris bien entendu dans les institutions sociales humaines. Le même raisonnement s’applique aux formes de communication ayant émergé dans les différentes espèces animales, compte tenu de leurs caractères anatomiques et physiologiques propres. C’est ce que cherche à montrer la théorie dite “ constructale ”, proposé par Adrian Bejan [Bejan, op.cit.]. Cette théorie trouve des applications dans différentes disciplines, allant de la recherche fondamentale à l’ingénierie quotidienne. Si la théorie constructale et les propositions faites par Pierre-Yves Oudoyer et ses collègues se recoupaient en partie, comme il semble que ce soit le cas, on mesure le nombre considérable d’applications qui pourraient être faites de la méthode de modélisation en résultant. Ce serait, si l’on peut dire, l’émergence de tout ce qui existe qui pourrait alors être simulé, sur le modèle de l’auto-organisation de la parole. 86

Le tapis d’éveil ou Playground Experiment http://playground.csl.sony.fr

87

ECAgents : Embodied and Communicating Agents. Il est encore trop tôt pour commenter les travaux de cet important projet, qui s’inscrit dans le programme de la Communauté Européenne Future and Emerging Technologies. Voir le site http://ecagents.istc.cnr.it/

136


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Pourquoi seulement chez les hominiens ? Avant de conclure, nous voudrions revenir sur la question de savoir pourquoi le langage social de type humain, comme d’ailleurs avant lui l’outil, ne sont apparus que chez les hominiens ? Pourquoi pas chez des animaux proches anatomiquement et par le mode de vie, tels que les primates contemporains ? Pierre-Yves Oudeyer évoque la question mais sans y répondre. Selon lui, le langage pourrait être apparu chez l’homme comme une exaptation découlant des caractères anatomiques et physiologiques des préhominiens, acquis pour d’autres raisons. Mais quelles sont ces raisons ? Les lignés humaines ont-t-elles évoluées en application des lois simples de la morphogenèse visant à économiser les dépenses énergétiques au sein d’une espèce donnée confrontée fortuitement à un nouveau milieu. Ces lois se seraient appliquées différemment chez les autres primates, confrontés à des milieux différents. Elles auraient donc produit des résultats anatomiques et physiologiques différents, ne permettant pas d’exaptation de type langagier. Peut-être. Mais alors, pour compléter l'explication, il faudrait réintroduire la sélection darwinienne obligeant les espèces isolées à s’adapter de façon différente à des milieux différents. On retrouve dans ce cas la thèse devenue classique chez les paléo-anthropologues, pour qui c’est l’accident ayant chassé les pré-hominiens de la forêt humide qui a fait leur succès. Isolés dans un milieu différent (les failles rocheuses du rift plutôt que la savane, selon des hypothèses récentes) les lois de la morphogenèse les ont obligés à développer des formes originales, à partir desquelles le langage a pu survenir88. Si on admet cette hypothèse qui conjugue l’explication darwinienne et celle de l’autoorganisation, on peut dessiner une ligne d’évolution soumise de bout en bout à la sélection darwinienne sous contrainte des lois simples de la morphogenèse. Une espèce transplantée dans un milieu nouveau survit parce que, par mutation/sélection, elle réussit à optimiser ses caractéristiques anatomiques et physiologiques afin de survivre dans ce milieu. La nécessité d’y vivre en groupe et en isolat fait émerger par interaction entre les individus de cette nouvelle espèce des formes de communication langagière répondant aux contraintes de développement modélisées par les expériences de Pierre-Yves Oudeyer, adaptées aux spécificités anatomiques initiales caractérisant les membres de l’espèce considérée. On peut ensuite imaginer que les cerveaux, les appareils audio-phonateurs et les contenus de langage aient co-évolué ensemble, par sélection darwinienne, dans le sens de la diversification et de la complexification, mais dans un espace continuellement contraint par l’application des lois simples de la morphogenèse. Le même mécanisme se serait appliqué ultérieurement à l’évolution de l’ensemble des caractères présentés par l’espèce humaine y compris dans ses formes les plus récentes et les plus complexes. En fait, ce serait une erreur de penser que les procédures d’émergence spontanée du langage ne sont apparues que dans l’espèce humaine. Les expériences menées sur les robots de Sony montrant qu’elles s’appliquent chez des robots, il y a tout lieu de penser qu’elles peuvent expliquer sans beaucoup de changements l’apparition des systèmes de communication symbolique chez les animaux, tout au moins chez ceux disposant de systèmes de vocalisation tels que ceux de certains oiseaux ou cétacés. Ces systèmes ne semblent pas précâblés génétiquement. Ce sont des acquis culturels pouvant évoluer au cours du temps. On retrouverait là une application du principe général expliquant pourquoi des conventions ont pu apparaître à partir de systèmes sociaux beaucoup plus primitifs que rien ne prédestinait à l'adoption de ces conventions. On voit donc l’importance scientifique et philosophique des travaux des roboticiens. La réalisation de systèmes artificiels comparables aux nôtres nous 88

Voir Chapitre 5.4.

137


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

conduit à jeter un regard neuf, non seulement sur nous mais sur l’ensemble des êtres biologiques, y compris en ce qui concerne le domaine toujours mystérieux de l’apparition de la vie. L’auto-organisation On peut en effet relier ces travaux à la question de l'apparition des premières structures biologiques réplicatives. Pierre-Yves Oudeyer s’est inspiré de Stuart Kauffman, qui fait partie de ceux qui s'intéressent à l'origine des structures moléculaires “ auto-réplicantes ”, c'est-àdire aux origines de la vie. Kauffman a montré qu'il suffisait d'une certaine diversité initiale de molécules et de modes d'interactions pour que spontanément se forment des chaînes de réactions chimiques complexes auto-entretenues et auto-réplicantes. La matière soumise aux lois de la physique, les molécules soumises aux lois de la chimie, forment des systèmes complexes en interaction dont les dynamiques sont très facilement auto-organisées. Ceci veut dire qu'elles possèdent un certain nombre d'attracteurs, correspondant à des formes spéciales et souvent spectaculaires, qui apparaissent spontanément dans ces systèmes. Ainsi l'autoorganisation, avant même qu'existent les phénomènes darwiniens, au niveau physique et pas encore biologique, peut créer des formes. Le travail sur les robots applique cette idée à la compréhension de l'apparition de la parole chez l’homme. Là, il existait un substrat biologique déjà complexe qui a pu s'auto-organiser et faire apparaître les bases de la parole, sans que l’apparition de ce substrat n’ait été initialement sélectionnée pour répondre à une fonction de communication. Ces formes auto-organisées auraient été ensuite recrutées quand la parole a été nécessaire. Mais ce premier scénario n’est pas incompatible avec un scénario néo-darwinien classique, dans lequel l'environnement favoriserait la réplication des individus capables de communiquer de manière articulée. Dans ce cas, le jeu de l’algorithme mutation aléatoire/sélection a pu être facilité par les propriétés auto-organisées des matériaux biologiques. Ainsi l’auto-organisation contraint l'espace des formes de manière à ce que les mutations adaptatives ne partent pas dans tous les sens. On répond ainsi aux critiques faites à la théorie néo-darwinienne “ classique ”, s’exerçant purement sur le mode mutation aléatoire/sélection, de plus en plus questionnée. Comme nous l’avons évoqué précédemment, on a pu calculer que dans le temps “ court ” de quelques milliards d'années, il paraissait impossible d'obtenir certaines des protéines de nos cellules par cette méthode. A plus forte raison obtenir des animaux évolués... La robotique redonne ainsi une très grande actualité aux travaux sur l’autoorganisation qui devraient intéresser bien plus que ce n’est le cas les sciences humaines et politiques. On montre que des formes apparaissent spontanément dans la nature sans qu'il y ait besoin de sélection naturelle ni d'autres sortes de “ designer ”. Il suffit de regarder le monde inorganique pour les trouver. Par exemple les cristaux de glace, qui ne sont absolument pas le produit de l'horloger aveugle de Dawkins, ou les dunes de sable, et d'innombrables autres exemples. Stephen Wolfram a fait la même démonstration dans le domaine des automates cellulaires (Wolfram, op.cit.). L'apparition de ces formes complexes semble être très robuste, en particulier dans le détail des interactions entre composants. Pourquoi les physiciens de la complexité ont autant de succès lorsqu'ils essaient d'appliquer les mêmes modèles à des systèmes physiques très différents concernant des échelles spatiales et temporelles très différentes ? C’est qu’il y a là des dynamiques qui se retrouvent partout. Si les lois de la physique étaient différentes, les formes qui apparaîtraient seraient différentes, mais il y aurait certainement des formes plutôt que de l’aléatoire, qui seraient d'une complexité similaire à celle de notre univers. Grâce à l'auto-organisation, les formes de notre univers ne sont pas si surprenantes qu’elles ne le semblent, en particulier les formes de la vie. Pour Stuart Kauffman, l'apparition de la vie était quasiment inévitable. Dans ses travaux, Pierre-Yves Oudeyer développe le même point de vue concernant la parole. Il montre qu'il

138


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

n'est pas besoin de substrat biologique très complexe ni très spécifique pour que celle ci apparaisse. Bref, la parole aussi était sûrement inévitable. La théorie de l’esprit Pour l’avenir, Pierre-Yves Oudeyer et ses collègues voudraient mettre en évidence le moment où les agents ayant réussi à se doter des moyens de communiquer en arrivent à inventer cette volonté de communication et en conséquence à recruter des moyens à cette fin. Une des pistes ouvertes par son travail sera de montrer comment l'interaction pré-linguistique pourrait apparaître chez des agents, à partir de capacités qu'ils avaient acquises précédemment dans d'autres domaines plus simples. Pour illustrer cela par un exemple anthropologique, il est en train d'explorer de quelle manière la capacité des humains à explorer et manipuler leur environnement, acquise à travers des millions d'années d'évolution et qui donne naissance à des cognitions intuitives, a pu être exaptée pour leur apprendre à manipuler les objets extrêmement particuliers et extrêmement complexes que sont les autres humains89. Et comment des agents essayant de manipuler les autres agents avec les mêmes techniques qu'ils utilisent pour manipuler leur environnement pourraient par un couplage auto-organisé développer cette fois-ci un système de communication, c'est-à-dire un système dans lequel un agent émet des signaux avec l'intention de modifier l'état ou le comportement d'un autre agent. On retrouve ici la théorie de l’esprit, la façon notamment dont les bébés humains prêtent intuitivement aux êtres et même aux objets de leur entourage des aptitudes à disposer d’un esprit analogue aux leurs, sans que cette disposition ait été préalablement câblée. Autrement dit, comment un robot qui a déjà un certain nombre de capacités à manipuler des objets autour de lui pourrait, en les appliquant à ces objets extrêmement complexes que sont les autres robots, développer dans le contexte de cette manipulation des autres l'amorce d'une théorie de l'esprit. Sans aborder la question complexe de la conscience90, Pierre-Yves Oudeyer essaye de montrer comment apparaît la notion d'objet, comment apparaîtra ensuite la notion de cet objet particulier qui est “ soi ”, et enfin comment on utilisera ce modèle d'objet-soi pour comprendre son propre comportement et l'affecter à la compréhension du comportement des autres. A cette fin, il va développer des robots qui vont apprendre à manipuler l'environnement autour d'eux. Ils devront apprendre que l'environnement peut être décomposé en objets puis apprendre à traiter ces objets individuellement, les uns par rapport aux autres. Ceci permettra de voir comment des modèles de chaque objet peuvent être inventés et comment en conséquence le concept générique d'objet pourra être inventé. Il faudra donc montrer comment le robot, de même qu'il réalise des modèles d'objets de son environnement, fera un modèle de lui-même et finalement utilisera ce modèle pour construire des modèles de ces objets bien particuliers que sont les autres. L’intérêt de ces travaux est qu’ils peuvent être transposés sur divers types de platesformes. Ce que Pierre-Yves Oudeyer appelle robot est un programme, nommé agent, qui commande un corps ayant des propriétés mécaniques, soumises à des contraintes physiologiques et morphologiques dans un environnement lui-même soumis à des contraintes. Mais ce robot n'a pas besoin d'être physique dans un monde physique. Cela peut être un robot mécanique dans un monde virtuel simulé. L'essentiel est de jouer sur des contraintes, qu'elles soient physiques ou virtuelles. Dans le robot virtuel utilisé, il implémente des modèles physiques du système vocal ou auditif. Mais c'est une démarche assez générale qui pourra être 89

Il semble qu’en fait les nouveaux-nés viennent au monde avec la capacité de “ manipuler ” leur mère et que c’est à partir de cette dernière qu’ils s’adaptent aux autres adultes, puis prennent conscience de leur propre individualité. 90 Les expériences relatées ici ne pourront pas ne pas avoir un jour des répercussions sur la théorie de la conscience et de sa formation. Voir Chapitre 5.

139


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

adaptée à n'importe quel support. Elle n'est pas spécifique de la parole. Le même modèle pourrait être utilisé pour montrer comment un certain nombre de primitives motrices, concernant le mouvement des bras et des jambes, pourraient apparaître, par exemple à travers le babillage corporel que l'on observe chez les nouveau-nés, voire les fœtus. Les chercheurs de ce domaine identifient l'existence de primitives discrètes, à la base de tels mouvements, mais ils ne savent pas d'où elles viennent. On ne sait pas si elles sont précâblées ou si elles sont apprises. Le modèle robotique devrait pouvoir montrer que le babillage corporel des nouveau-nés peut assurer l'émergence auto-organisée d'un répertoire de primitives motrices servant ensuite à construire les primitives de comportements moteurs chez l'adulte91. 7.4. L’apparition de complexités intrinsèques. Dans ce bref panorama de ce que nous avons appelé les entités artificielles et virtuelles, nous n’avons pas encore mentionné la réalité virtuelle et la vie artificielle, deux mondes qui sont les produits de l’augmentation de puissance des ordinateurs et des réseaux. Il s’agit de domaines de recherche qui, bien que distincts, posent tous deux des questions épistémologiques (relatives à la philosophie des connaissances) fondamentales. On peut penser qu’elles nous mettent au cœur de ce que David Deutsch a nommé “ l’Etoffe de la réalité ” [Deutsch, op.cit.]. La réalité virtuelle La réalité virtuelle est assez bien connue aujourd’hui, vu l’usage intensif qui en est fait dans les films et dans les jeux électroniques. Il s’agit de créer, en utilisant les ressources de plus en plus riches des générateurs informatiques de sons, d’images et autres perceptions sensorielles, des mondes proches ou différents du nôtre, dans lesquels les spectateurs-acteurs que nous sommes pourront être plongés, grâce à des interfaces spécifiques (casques, salles équipées, etc.). La réalité virtuelle n’est pas seulement un jeu ou un instrument de formation (par exemples les simulateurs de pilotage). L’objectif, selon les termes de Denis Berthier, dans son livre récent Méditations sur le réel et le virtuel [Berthier, op.cit.] est “ de construire un monde virtuel et y interfacer un être humain en lui donnant l'impression qu'il y perçoit et agit de manière naturelle : perception en trois dimensions, immersion sensori-motrice, interaction en temps réel, etc. ”. Ce qui en découle est très important, non seulement au plan pratique mais au plan philosophique : il sera de plus en plus difficile de distinguer le réel et le virtuel, dans la mesure où nos perceptions s’organisent dans le cerveau de la même façon quelle que soit la source dont elles proviennent. Il s’en suit qu’en principe, avec des ordinateurs d’une puissance considérablement augmentée et la possibilité d’y connecter nos cerveaux dans les deux sens de l’entrée et de la sortie (perspectives qui ne sont qu’une question de temps), rien n’empêcherait de faire vivre des humains, toute leur existence durant, dans des mondes artificiels ressemblant au nôtre ou au contraire radicalement différents. Ce que nous appelons la réalité, de ce point de vue et comme le suggère David Deutsch, pourrait résulter d’une création permanente engendrée par un univers profond fonctionnant sur le mode computationnel. Nous avons déjà évoqué cette possibilité dans le chapitre 1, à propos des enseignements de la physique quantique.

91

Sur ces mêmes sujets, on pourra lire notre article Des bactéries aux robots, de la coopération au langage décembre 2004 http://www.admiroutes.asso.fr/larevue/2004/60/ecagents.htm

140


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Sommes-nous tous des créatures virtuelles ? A titre de méditation scientifique, on peut évoquer l’hypothèse de Nick Bostrom de l’Université d’Oxford92 selon laquelle nous pourrions tous être des créatures virtuelles créées par des civilisations infiniment plus avancées que nous technologiquement. Cette hypothèse repose sur plusieurs postulats :1° il existe des civilisations assez avancées (post-humaines) pour a) simuler complètement le cerveau humain et b) décider de le faire ; 2° compte tenu du principe dit d’indépendance du substrat, il est impossible de distinguer le contenu d’un cerveau humain de celui d’un cerveau artificiel ; 3° compte tenu du très grand nombre de créatures simulées que pourrait produire et disperser dans l’univers une civilisation capable de simuler le cerveau humain, nous avons une très grande probabilité d’être une telle créature plutôt qu’un être “ naturel ”. Certains objectent que nulle simulation, aussi parfaite soit-elle, ne pourrait éviter les bugs divers, bugs que si nous étions simulés, nous remarquerions sous forme de défauts de fonctionnement. Mais à cela on répond que notre société et nous-mêmes sommes suffisamment pétris d’incohérences (sans parler des mystères scientifiques encore non résolus) pour que ceci traduise précisément l’existence de bugs dans les logiciels produits par ceux qui simulent notre fonctionnement. On s’étonnera peut-être d’apprendre que l’argument résumé ci-dessus, dit de la simulation, fait l’objet de discussions intenses parmi les scientifiques et les philosophes s’intéressant à l’univers calculable. La vie artificielle La vie artificielle, selon les termes de Jean-Philippe Rennard, auteur d’un excellent livre du même nom sur la question [Rennard, op.cit.] “ a pour objet de mieux comprendre ce qu'est la vie en recherchant et en tentant de reproduire les processus généraux qui la gouvernent. Mais elle cherche aussi à transposer les mécanismes du vivant au sein d'algorithmes et d’artefacts spécifiques (biomimétiques) à l'efficacité souvent surprenante ”. Les plus utilisés des outils employés par les chercheurs en vie artificielle sont les automates cellulaires. Un automate cellulaire (AC) se représente sur un écran d’ordinateur, mais le principe peut en être décrit sans faire appel à l’informatique. Les premiers AC furent d’ailleurs réalisés sur papier. Il suffit d’imaginer une rangée de cellules dont les unes sont noires et les autres blanches. On applique à cette rangée une règle aussi simple que possible : par exemple, à partir de la rangée initiale, construire une seconde rangée qui se superposera à la première et qui appliquera la règle suivante (n’importe quelle règle étant évidemment possible) : toute cellule blanche voisine d’une noire deviendra noire. On construira successivement, par application de cette même règle, d’autres rangées qui elles aussi se superposeront aux deux précédentes. Au bout d’un certain nombre de passes, on verra se dessiner un motif complexe que rien ne laissait prévoir au vu de la règle et de la disposition initiale des cellules. Avec un ordinateur, on peut évidemment visualiser le processus, ce qui fait apparaître des figures mouvantes analogues à des colonies d’insectes, à des croissances végétales et autres formes vivantes. Les techniques de la vie artificielle offrent aujourd’hui de très nombreux programmes pour simuler des processus physiques dynamiques ou des processus vivants. Elles servent aussi à la création artistique, dans un domaine généralement qualifié de Computer Art, dont l’artiste français Bernard Caillaud, récemment décédé, avait fait une de ses spécialités93 Mais les AC ne sont pas seulement des outils commodes pour procéder à des modélisations ou à des calculs. Il semble bien qu’ils nous introduisent au cœur même d’un autre secret de 92

Voir l’article de Jean-Paul Delahaye dans Pour la Science, août 2004, p. 94. Sur Nick Bostrom, qui mérite d’être étudié en profondeur, voir http://www.nickbostrom.com/ 93 Bernard Caillaud, La création numérique visuelle [Caillaud, op.cit.]. Voir notre présentation http://www.automatesintelligents.com/biblionet/2003/avr/caillaud.html

141


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

l’univers profond, s’ajoutant à celui de la génération de réalités virtuelles – ou plutôt découlant de propriétés identiques : la capacité à générer de la complexité à partir de règles simples, selon des processus qui ne sont pas compréhensibles par l’esprit humain, et par conséquent ni prévisibles ni programmables. Stephen Wolfram. A New Kind of Science C’est ce que démontre amplement un ouvrage de très grande importance, A New Kind of Science, dû au mathématicien et informaticien Stephen Wolfram [Wolfram, op.cit.]. Ses conséquences sont encore loin d’être exploitées. Si les automates cellulaires ne sont pas une nouveauté, jamais personne ne les avait encore présentés dans une perspective si riche, traçant un chemin des plus originaux pouvant mener à une nouvelle connaissance du monde et de nous-mêmes. Dans cet ouvrage, Wolfram démolit impitoyablement la place éminente jusqu'ici donnée en sciences aux mathématiques. Il veut montrer que, dans toutes les disciplines scientifiques, l’emploi judicieux de la modélisation et simulation par AC suffit à la recherche. Les AC s’inscrivent dans le développement du calculateur universel, dont les principes ont été posés par la machine de Turing. Il s'agit de travailler avec des entités discrètes, pas à pas, en principe en langage binaire. Ceci postule que le continu qui relèverait de calculateurs analogiques peut être réduit au discret. Le traitement pas à pas est d'autant plus efficace que les algorithmes utilisés sont simples. La règle ou le programme simples sont vraiment la fondation de l'approche de Wolfram, qu'il retrouve partout à l’œuvre dans la nature. Ceci nous conduit directement aux AC, qui sont l'outil utilisé par l'auteur pour formaliser et illustrer toutes ces hypothèses. Les premiers chercheurs en intelligence artificielle en avaient fait un instrument essentiel pour la construction de modèles simulant l'évolution des systèmes complexes, notamment en biologie. Certains les emploient toujours, tels Thomas Schelling. Mais ils furent abandonnés (sauf exception) face au développement des modèles mathématiques complexes eux-mêmes supportés par les programmes informatiques lourds permis par les ordinateurs modernes. La redécouverte des AC (ou plutôt l'approfondissement du domaine) par Stephen Wolfram s'appuie et s'appuiera d'ailleurs de plus en plus sur les énormes ressources permises par les stations de travail moderne, le travail en réseau de type Grid et, dans un proche avenir, les progrès permis par les calculateurs nano-technologiques, ainsi que très probablement les calculateurs quantiques. Nous nous retrouverons là dans le discret microscopique, c'est-à-dire ce qui se passe au niveau de la particule physique ou de la molécule biologique. Avec l'avènement possible de l'ordinateur quantique pourrait alors certainement être fait le lien avec les possibilités, théoriquement infinies, de calcul multi-directionnel (multiways) permis à la particule quantique. Autrement dit, les AC pourraient alors explorer des hypothèses relevant du multivers, c’est-à-dire des univers parallèles. Il suffit de lire l’ouvrage de Wolfram pour se rendre compte que la modélisation des problèmes les plus complexes, ceux de la physique quantique, ceux de la relativité générale et même ceux de la théorie des cordes ou autres théories intéressant la gravitation quantique encore en devenir, peut être envisagée à partir d’AC judicieusement choisis – ce que les mathématiques actuelles sont bien en peine de faire. Ainsi Wolfram montre comment on peut représenter un univers où le temps est quantifié sous forme de particules, ou bien un autre univers n’ayant plus de références temporelles et spatiales tout en conservant une structure informationnelle – ce qui correspond peut-être à ce qui se passe au cœur des trous noirs. Bien sûr, un AC ne peut prétendre décrire vraiment le cœur des phénomènes cosmologiques, mais il peut nous en donner une image, nous convaincre que certaines hypothèses théoriques seraient physiquement possibles – en général à partir de l’utilisation de règles initiales très simples. De telles démonstrations, si les physiciens les admettaient comme valides, pourraient

142


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

les conduire à bâtir de nouvelles hypothèses pour de futures vérifications expérimentales. On se trouve ainsi, vis-à-vis du cosmos, dans la situation où étaient les premiers voyageurs utilisant des cartes. Même si celles-ci n’étaient en rien capables de reproduire pour eux les détails utiles des continents, elles pouvaient leur suggérer des idées pour aller sur le terrain découvrir ce qu’il en était, plutôt que se fier à une symbolique poétique, telle celle d’Homère dans l’Odyssée. Le point essentiel est, nous l’avons rappelé, que l’évolution des AC dirigée par des instructions ou règles ne peut être définie ni prévue à l'avance. La grande découverte de Wolfram est de montrer que les AC, à partir de règles simples judicieusement choisies, peuvent dans certains cas produire ce qui pour nous sera du complexe et de l'indécidable sans limites prévisibles, pour peu que les ordinateurs les produisant disposent du temps et des ressources en quantité suffisante. L'intelligence artificielle utilisant les AC pourra produire des artefacts de systèmes naturels en bien plus grand nombre que ce que l'ensemble des humains pourraient tester et implémenter dans des systèmes physiques et biologiques du monde réel. Il s’agira de ce que l’auteur a nommé des “ complexités intrinsèques ” dont nous pourrons constater l’émergence mais dont notre entendement sera incapable de comprendre les processus de génération – de même sans doute que nous sommes, pour le moment encore, et sans doute définitivement, incapables de comprendre les processus intrinsèques ayant permis la naissance de notre univers94. Stephen Wolfram prend soin de nous mettre en garde. Les AC ne sont que des modèles informatiques des processus s’exerçant dans la nature, que ce soit dans le monde physique, ou biologique. Ils ne peuvent nous renseigner sur ce qui se passe au niveau des arrangements atomiques et moléculaires des entités naturelles. La croissance d’un flocon de neige simulé par un AC ne nous renseigne pas sur la façon dont les tensions entre molécules d’eau déterminent celle d’un vrai flocon. Mais les AC ont l’avantage irremplaçable de montrer que ce sont chaque fois – sauf exception, évidemment – des règles simples identiques ou comparables qui s’appliquent. Ils nous donnent ainsi un outil indispensable pour démêler derrière la complexité apparente les règles simples qui sont à l’œuvre. Ceci permet alors de les étudier au cas par cas. Ceci ne veut pas dire que les AC ne nous aideraient pas à traiter les problèmes posés par la recherche fondamentale : physique quantique, astrophysique, biologie, etc. Selon Wolfram, convenablement choisis et mis en oeuvre, utilisant les ressources des nanotechnologies et - si on le réalise - de l'ordinateur quantique, les AC (ou plus exactement des programmes ou algorithmes simples fonctionnant comme eux) devraient alors nous placer au cœur de l'évolution des systèmes physiques et biologiques de notre univers, celui que nous avons ci-dessus appelé le “ réel humanisé ”. Permettront-ils, en amont, de développer l'analyse des systèmes physiques et naturels que jusqu'à présent ni les technologies ni les mathématiques n'avaient permis de modéliser; comme par exemple ce qu'est la vie, ou la conscience ? Permettront-ils aussi, en aval, de remonter aux lois fondamentales réglant l'évolution de l'univers, soit sur le plan cosmique macroscopique, soit sur celui, quantique, de la particule élémentaire ? Il s'agirait alors non plus de construire des modèles de la réalité mais de reconstruire la réalité avec les mêmes méthodes et moyens qu'elle a utilisés pour construire notre univers jusqu'à ce jour. Dans cette direction, pourrait-on construire aussi des réalités différentes, telles que celles existant peut-être dans d'autres univers ? Stephen 94

Stephen Wolfram emploie constamment le terme d’aléatoire (random), pour qualifier le degré de complexité supérieur produit par les AC. Mais rien ne nous oblige à penser qu’il s’agisse d’un aléatoire réel, si ce terme pouvait avoir un sens. Il s’agit seulement de constructions dont ni nos sens ni notre esprit ne peuvent suivre les procédures. Il n’y aurait d’aléatoire authentique que dans le monde quantique, et encore cette hypothèse est-elle actuellement fortement discutée. Voir le dossier Randomness, the Last Superstition, précité, dans le NewScientist 2466 du 25 septembre 2004.

143


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Wolfram pour sa part ne renonce pas à découvrir l'équation du Tout dont rêvent beaucoup de cosmologistes, tels Stephen Hawking. Mais il s'agira alors ici d'une équation simple reposant sur le modèle d'un AC universel obéissant à des règles adéquates elles-mêmes simples, qui restent évidemment à trouver. Inutile de dire que le concert des physiciens a déjà commencé à s'élever contre de telles perspectives, criant à l'ubris onirique. Mais eux-mêmes, ou plutôt les plus audacieux d’entre eux, tel David Deutsch précité ou Lee Smolin, un des pères de la gravitation quantique [Smolin, op.cit.] envisagent actuellement des perspectives tout aussi bouleversantes. Nous n’en discuterons pas ici, sauf à y faire une brève allusion complémentaire dans notre conclusion. Bornons-nous à retenir que ces théories existent et sont admises par des hommes dont on pourrait dire sans exagération qu’ils sont les plus intelligents de la génération actuelle. Si les AC permettent de les rendre plus intelligibles que ne le font les formalismes mathématiques, alors il faut les utiliser.

144


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Chapitre 8. Les Posthumains Dans les derniers chapitres de ce livre, nous progressivement pris en considération les interactions entre les hommes et des entités sociales ou technologiques émergentes produites par l’évolution récente. Ceci nous a conduit aux limites de ce que pendant des millénaires et jusqu’à ces dernières années, les philosophes et moralistes considéraient comme spécifique à l’humanité. Faut-il aller plus loin et traiter eux-aussi en entités émergentes les humains transformés par la fréquentation des technologies nouvelles. Certains observateurs proposent le terme de mutants pour désigner de tels humains à la recherche d’une nouvelle définition d’eux-mêmes. On préférera ici utiliser le terme de posthumains. Un mutant peut devenir un peu n’importe quoi. Un posthumain se situe dans la ligne évolutive de l’humanité et des autres espèces vivantes. Mais il découvre subitement qu’il est devenu quelque chose de plus, parce qu’il est entré en symbiose avec les produits de l’évolution technoscientifique, prolongement actuel de l’évolution biologique. Il est doté d’un corps nouveau, “ augmenté ”, selon l’expression consacrée, par de nombreux artefacts et réseaux. Il s’insère dans des communautés elles-mêmes étendues, aux limites imprécises et variables mais qui néanmoins s’imposent à lui et le formatent avec autant de force que les anciens groupes sociaux. Nous les avons appelées ici du nom générique de super-organismes. Enfin, les idées ou contenus de connaissances qu’il reçoit ou qu’il produit prennent une vie de plus en plus autonome et constituent une véritable infosphère se superposant et interagissant avec la biosphère. D’une façon générale, ceux qui se désignent eux-mêmes du terme de posthumains vivent cela comme une source ininterrompue d’enrichissements potentiels. Mais la transition de l’humain au posthumain ne se fait pas seulement par enrichissement, elle se fait par abandon. Modes de vie, savoirs scientifiques, conceptions morales et philosophiques évoluent parallèlement. Les formes incapables de s’adapter disparaissent. Beaucoup voudraient conserver la référence de l’humanisme pour éviter que l’évolution en cours n’entraîne l’espèce humaine et le monde vers des horizons qu’ils redoutent faute de pouvoir les imaginer. Ils s’élèvent au nom d’un humanisme intemporel, quasi religieux, contre le posthumanisme, présenté comme une perversion, un schisme moderniste. Malheureusement on s’aperçoit qu’ils défendent sous le nom d’humanisme des pouvoirs traditionnels qui craignent de perdre leurs anciennes assises. On pourrait écrire un livre entier sur le posthumanisme, reprenant les nombreux ouvrages et articles déjà consacrés à ce thème. Nous nous limiterons à une présentation rapide. Nous examinerons ensuite la réaction conservatrice de l’écrivain américano-japonais Francis Fukuyama. De telles différences de point de vue supposeraient pour bien faire que la société politique organise des instances de négociation. Aussi nous présenterons les propositions plus que jamais d’actualité faite par le sociologue français Bruno Latour en vue de créer une écologie politique. L’écologie ne peut ignorer la posthumanité. L’une et l’autre devront en tous cas de plus en plus se situer au cœur des débats politiques de demain, selon des pratiques et formules institutionnelles complètement renouvelées. Nous aurions pu terminer ce chapitre et le livre tout entier par un acte de foi en l’avenir. Mais ce serait méconnaître le fait que de plus en plus de scientifiques bien informés nous annoncent au contraire la fin prochaine de l’humanité. Ces prévisions ne sont pas soustendues comme celles de Fukuyama par un mysticisme frustré. Elles ne visent pas non plus au spectaculaire médiatique. Elles se veulent aussi objectives et démontrables que possible. Civilisations posthumaines ou fin des civilisations ? Le lecteur devra se faire sa propre opinion.

145


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

8.1. Le posthumanisme Peut-être nous reprochera-t-on de donner trop d'importance à ce qui n'est peut-être qu'une simple mode intéressant quelques milieux branchés, comme l'étaient en leur temps le structuralisme, le post-modernisme et (si l'on peut l'ajouter aux précédents) le mouvement New Age. Mais nous pensons que, même si le nom de posthumanisme vieillit un jour, la tendance qu'il incarne ne fera que s'amplifier. Elle traduit une lame de fond, celle que nous avons essayée de mettre en évidence dans ce livre. Cette lame de fond, c'est le changement, inévitable qu'impose aux sociétés traditionnelles le développement explosif et multiforme des sciences et des techniques, notamment dans le domaine du computationnel et de l'artificiel. Ce développement est un produit de l'évolution biologique darwinienne. Il n'est pas davantage finalisé ni contrôlé que les autres phénomènes évolutifs. Il crée l'effet de niche permettant à de nouveaux types d'organismes et d'organisations de se développer aux dépens des précédents. De plus en plus l'idée se fait jour que les hommes, non seulement ont déjà beaucoup changé, mais qu'ils devront changer davantage encore dans l'avenir. Nous parlons évidemment des hommes immergés dans le mouvement des sciences et des technologies, pas de ceux qui seraient éventuellement laissés de côté, sur lesquels nous reviendrons. Ces changements seront physiques : le corps humain sera complété d' “ augmentations ” diverses et son génome lui-même sera modifié. Mais ils seront aussi et surtout intellectuels. Les contenus de connaissance accessibles aux individus ordinaires seront considérablement enrichis et en voie de complexification continue. De plus, et c'est essentiel, ces mêmes individus auront la possibilité de participer personnellement, par l'invention et l'expérimentation, au développement des contenus et des outils de connaissance. Avant d'aller plus loin, précisons un point de vocabulaire. Le posthumanisme est-il la même chose que le transhumanisme ? On trouve une définition du transhumanisme sur le site du Suédois Anders Sandberg95. Le transhumanisme, écrit-il, est une philosophie selon laquelle l'humanité peut et doit s'élever vers des niveaux supérieurs, physiquement, mentalement et socialement. Cette philosophie encourage la recherche de nouvelles formes de vie, la cryonique, les nanotechnologies, les augmentations mentales et physiques, le téléchargement de la conscience humaine et l'ingénierie à grande échelle. D'autres y ajoutent les sciences dites parallèles. On pourra laisser de côté la cryonique, relevant du folklore, qui vise à conserver les corps par l'ultrafroid jusqu'à ce que des conditions plus favorables permettent de les ramener à la vie. Mais les autres directions de recherche participent de celles recommandées aussi par le posthumanisme. Donc, pour ne pas entrer dans des discussions sémantiques qui n'auraient pas d'intérêt ici, admettons que le posthumanisme inclut diverses techniques qui, sous des noms différents, visent à dépasser l'humain actuel par le recours aux sciences émergentes et à leur inclusion dans une conception du monde en complet renouvellement. Les nouvelles valeurs Est-ce à dire que les valeurs morales qui, pendant plusieurs millénaires ont assuré la cohésion des sociétés anciennes seront elles-aussi bouleversées par ces sciences et ces philosophies ? Sans aucun doute, dès lors qu'elles constitueront des obstacles inutiles ou dangereux à ce que les humains impliqués dans les changements de civilisation estimeront être un avenir souhaitable. Les défenseurs de ces valeurs disparaîtront probablement d’euxmêmes, peut-être après quelques combats d'arrière-garde. Certains résisteront, y compris par 95

http://www.aleph.se/Trans/

146


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

les armes du fanatisme. On criera à la mort des valeurs morales. Mais il n'y a aucune raison de penser que les nouvelles civilisations émergeant de cette évolution seront sans valeurs morales, précisément parce qu'elles aussi, comme tout super-organisme, auront besoin de facteurs de cohésion. Elles forgeront d'elles-mêmes de nouvelles valeurs, mises en œuvre à travers les moyens de communication et éventuellement de contrainte permis par les techniques et les institutions du moment. Parmi ces valeurs nouvelles, on retrouvera sans doute des morales religieuses. Rien ne permet de dire que les hommes de demain seront plus nombreux à rejoindre l'athéisme et la libre-pensée qu'aujourd'hui. Peut-être seulement seront-ils plus nombreux à nommer Dieu ce que les scientifiques d'aujourd'hui et de demain continueront à ne pas pouvoir élucider et à refuser de nommer. Mais il est bien d'autres valeurs qui n'ont rien de particulièrement religieux, rassemblant athées et croyants, qui seront conservées ou, plus exactement, transmutées. Ce sont celles qui intéressent l'humanisme, au sens noble du terme. Qu'est-ce que l'humanisme ? Le terme a d'abord servi à distinguer l'humain du monde animal et plus généralement du monde physique, tous deux considérés comme incapables de sentiments et de conscience. Aujourd'hui, la frontière ne tient plus. On découvre une continuité très " sympathique " entre les différents ordres d'existants. La continuité ne fera que se renforcer, avec les symbioses prévisibles entre machines, entités biologiques et humains. Ceux qui persisteront à donner à l'homme une place à part, éminemment supérieure, se déconsidéreront d'eux-mêmes. Mais l'humanisme désigne aussi un domaine moral conservant toute son importance, celui qui sépare l'homme social et coopératif de l'homme asocial et destructeur. L'histoire a montré que les pires maux menaçant l'humanité de disparition venaient des hommes euxmêmes ou de certains d'entre eux. Spontanément, des barrages contre ces derniers se sont édifiés au cours des siècles, symbolisés dans les imaginaires par les idéaux de coopération, d'altruisme, de création scientifique et artistique qui composent la palette morale de l'humanisme d'aujourd'hui. Rien ne permet d'affirmer que de tels idéaux ne seront plus nécessaires dans l'avenir. Comme le disait Brecht avec la grandiloquence de l'époque, le ventre est encore fécond (sera toujours fécond) d'où naquit la bête immonde. Les sociétés futures généreront elles-aussi leurs éléments destructeurs. Ceux-ci seront sans doute indispensables à la tension interne assurant la survie, comme les germes pathogènes sont indispensables à la survie des organismes sains, mais ils devront être, demain comme aujourd'hui, contenus par un système immunitaire toujours en éveil. Finalement, on peut penser que le posthumanisme poursuivra les mêmes buts que l'humanisme actuel, mais avec un référentiel de valeurs qui devra être adapté, car les obstacles à surmonter et les buts à atteindre auront eux-aussi changé. Voilà donc beaucoup de bonnes raisons pour faire l'inventaire critique de l'humanisme, éliminer ce qui déjà tombe en poussière et construire du nouveau. Mais ceci impose t-il de parler de posthumanisme, plutôt que se borner à rajeunir le vieil humanisme ? On peut évidemment en discuter. Disons que les subtilités n'étant pas toujours bien comprises, remplacer le navire usé par un neuf, plutôt que tenter de réparer ses voies d'eau et le doter de nouvelles voiles, sera certainement plus motivant. Par ailleurs, derrière le terme d'humanisme combattent encore les représentants des vieilles forces sociales et idéologiques dominantes, qui n'ont pas l'intention de se laisser éliminer sans résistance par les plus jeunes. Les valeurs de l'humanisme, comme à une plus grande échelle celles des religions, leur servent de boucliers derrière lesquels ils mènent leur contre-offensive. Les exemples en sont multiples. N’est-ce pas le Pape, lors d’un voyage à Lourdes, qui en appelait au sens de l'humain des femmes pour leur demander de respecter une conception de la vie aujourd'hui rejetée par toutes les médecines modernes ? Or cette conception tend en profondeur à maintenir les femmes sous la sujétion des hommes. On sait aussi comment les Comités d'éthique et autres

147


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

prophètes du sacro-saint principe de précaution paralysent le développement des sciences et leurs applications dans les pays les plus pauvres, en fait pour protéger les intérêts d'industries et de commerces qui craignent de n'avoir pas le temps d'évoluer avant l'arrivée de concurrents plus efficaces. Encore aujourd’hui, les normes de sécurité imposées aux vaccins par les règlements sécuritaires du Nord, sous la pression des industries du médicament qui y voient une occasion de développer à grands frais des produits sophistiqués, entrave l'accès des pays pauvres aux produits pharmaceutiques96. Perversion possible du posthumanisme On objectera, il est vrai, qu'il est toujours dangereux de changer les étiquettes, car de nouvelles appellations peuvent cacher des mélanges encore plus détonants que ceux contre lesquels on voulait se prémunir. Le terme de posthumanisme semblera peut-être ouvrir une voie dangereuse, non seulement vers l'élitisme mais vers de nouvelles formes de cloisonnement et d'exclusion. Si les poshumains sont en effet ceux qui bénéficient de toutes les facilités et perspectives des sciences et technologies émergentes, ils seront peu nombreux, quelques dizaines ou centaines de millions par rapport aux milliards d'humains ordinaires relégués dans leurs niches traditionnelles. Ils seront inévitablement conduits à s'isoler dans des espaces protégés, condamnant les autres au sous-développement. Cette tendance est déjà plus que visible. Le mouvement posthumaniste a surtout intéressé, jusqu'à présent, les élites intellectuelles des Etats-Unis. Beaucoup y ont vu une façon de marquer leur différence et leur droit à l'hégémonie sur le reste de l'humanité. Nous sommes déjà des posthumains, avait affirmé un représentant des néoconservateurs américains. Ceci peut faire peur. L'augmentation prévisible des affrontements entre les riches et les pauvres ne fera qu'accentuer le mouvement. On peut à cet égard évoquer sans peine un scénario peu réjouissant. Très vite, les posthumains de l'Amérique du Nord et d'une petite partie de l'Europe affirmeront que ce sont eux qui détiennent les valeurs d'avenir de l'humanité. Les autres hommes seront répartis par eux en trois groupes n'ayant plus de liens d'appartenance : eux-mêmes (autrement dit l’élite des posthumains), les humains et les non-humains. Par ce terme effrayant de non-humains, on désignera notamment les terrorismes fanatiques enfermés dans des mythologies d'un autre âge, qui n'hésiteront pas à détruire le monde développé en s'auto-détruisant en même temps. On peut excuser les hommes des sociétés développées de mal supporter des agressions qui menacent les bases mêmes de la civilisation qu’ils s’efforcent de construire. Mais rejeter les fanatiques dans le non-humain ne fera rien pour les apaiser et les ouvrir à la négociation. Quant aux humains, c'est-à-dire les populations immenses et diversifiées situées entre ces extrêmes, ils serviront d’après cette vision du monde de réservoirs de main-d'œuvre ou de boucliers aux belligérants. Tout peut laisser craindre alors que ce scénario ne précipite la catastrophe globale que nous évoquerons en fin de chapitre. Les soi-disant posthumains, malgré les ressources technologiques dont ils disposeront, ne pourront pas gouverner et faire progresser une Terre soumise à des conflits de civilisations capables de détruire toute organisation, aussi savante soit-elle. Un scénario de partage Mais faut-il associer obligatoirement posthumanisme et ségrégation raciste ? Ne peuton envisager, précisément parce que les valeurs de cohésion s'imposeront à tous, que ce soit l'humanité tout entière qui accède progressivement à un niveau supérieur de développement. 96

Selon les termes de Philippe Kourilsky, directeur général de l'Institut Pasteur, l'éthique du Nord sacrifie les malades du Sud [Pour la Science, 322, p.8] .

148


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Ceux qui veulent promouvoir les sciences et les technologies dans un esprit de connaissance partagée le pensent. Aujourd'hui déjà, face à l'exploitation capitaliste et financière de la nature, conduite par des trafiquants qui trouvent des alliés au sein des populations les plus pauvres, certains militants s'efforcent de montrer à ces dernières qu'elles ont intérêt à maîtriser des technologies à la fois sophistiquées et simples d'emploi pour se procurer de l'eau et de l'énergie. Une des valeurs du posthumanisme pourrait être de rechercher à la fois l'avenir de l'humanité et la survie de la biosphère. Mais rassurons ceux qui ne croient pas à l’idéalisme des bons sentiments. Le scénario de partage que nous évoquons sera motivé par l’intérêt. Il relèvera de ce que l’on pourrait appeler l’altruisme compétitif : coopérer plutôt que s’entredétruire. La coopération devra-t-elle rester inter-humaine ? Certainement pas. Nous avons indiqué en effet que si des conceptions idéalistes de la conscience humaine sont remises en cause par les sciences modernes, en contrepartie celles-ci conduisent à conférer une sorte de conscience primaire et même de langage à des espèces vivantes voire à des phénomènes physiques jusqu'ici considérées comme matière première à exploitation destructrice. Selon la terminologie de Bruno Latour, il s'agira de “ non-humains ” au sens propre du terme, qui seront appelés progressivement à dialoguer, selon leurs paroles propres, avec les humains. Ces non-humains pourront par exemple bénéficier des technologies développées dans les échanges langagiers entre humains et robots autonomes. Dans ce cas, nous pourrons abandonner pour désigner de telles entités le terme de non-humains et préférer celui, moins réducteur, de presque-humains. Ne pas en revenir au finalisme Un autre point doit être évoqué lorsque l’on considère les perspectives que les sciences et technologies ouvriront à l’humanité de demain, c’est-à-dire à ces posthumains dont nous parlons. On entend souvent dire que, grâce à de nombreuses découvertes, notamment dans le domaine de la biogénétique et des neurosciences, les hommes deviendront capables de dessiner et produire le type d’humain qu’ils voudront devenir. De même, ils pourraient transformer à leur guise les espèces vivantes et l’environnement terrestre. Leur avenir, dit-on, sera dans leurs mains. Il sera ce qu’ils en feront. D’où l’appel à des mesures de prudence qui sont souvent une résurgence de l’esprit de conservation que nous évoquions plus haut. Or selon nous, rien n’est plus faux que cette vue des choses, tout au moins si on veut rester fidèle aux théories darwiniennes de l’évolution qui jusqu’ici se sont révélées les plus appropriées pour décrire le monde. L’évolution des posthumains restera soumise à la règle de la mutation/sélection, que ce soit dans le domaine génétique ou dans le domaine culturel. Toute décision se prétendant volontaire sera une émergence faisant suite à un processus involontaire beaucoup plus étendu, qui noiera les résultats de cette décision dans de nombreux autres phénomènes inattendus lui retirant la portée que les “ volontaristes ” croyaient lui donner. On en voit déjà un exemple dans le domaine des modifications génétiques pourtant modestes que les industries du vivant essaient de mettre en œuvre. Elles enclenchent une cascade de réactions biologiques dans le milieu naturel, que leurs promoteurs n’avaient pas prévues. Nous ne voulons pas dire que l’homme ne pourra pas modifier les génomes, et le sien même en premier lieu. Mais ces modifications ne constitueront qu’un aspect parmi d’autres du processus beaucoup plus large entraînant la posthumanité vers des avenirs imprévisibles et par conséquent non gouvernables. Les médecins craignent actuellement, par exemple, l’explosion de pandémies virales inconnues à ce jour, aux effets destructeurs, qui résulteront des interactions complexes entre le milieu humain en transformation, le monde animal et d’éventuelles modifications génétiques aux effets insoupçonnés. Pas plus demain qu’aujourd’hui, l’avenir de l’humain ou du posthumain ne sera “ entre ses mains ”.

149


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Mais, dira-t-on, la science n’offrira-t-elle pas aux décisions des humains des champs de référence informationnelles et de possibilités considérablement augmentées, ce que précisément nous avions appelé le “ réel humanisé ” ? Ne serait-ce pas alors là une sorte de sous-système d’univers devenu transparent à lui-même et capable de s’auto-diriger, capable peut-être à terme, comme le croit David Deutsch, d’entreprendre le gouvernement du cosmos tout entier, afin de le faire échapper à ses déterminismes physiques ? Peut-être, mais cette perspective, à supposer qu’elle se réalise, pose la question de la conscience volontaire, que nous avons déjà abordée. Il n’existe pas, dans les conceptions de la conscience que nous suggère actuellement la science, de conscience ayant la possibilité de jouer un rôle causal. La conscience supérieure, celle qui pourrait prétendre à être volontaire, n’est que l’expression, dans un langage permettant la communication, de mécanismes neuraux et corporels sousjacents bien antérieurs à son apparition. Transposée à l’échelle de la société posthumaine, cette affirmation signifie que les décisions prétendues volontaires que croiront prendre les posthumains seront l’émergence de processus sous-jacents de toutes sortes, biologiques, sociologiques et aussi physiques sur lesquels ils n’auront toujours pas prise, dont ils ne se rendront sans doute même pas toujours compte, faute notamment de temps et de moyens suffisants pour les étudier. Ceci veut dire que l’histoire de monde continuera à s’écrire comme elle l’a toujours fait, sur un mode non finalisé. Nous aurons sans doute une conscience plus élargie de certains phénomènes. Sur la base de celle-ci, nous prendrons sans doute des décisions plus ambitieuses, mais du fait même que par notre action nous ajouterons de la complexité au monde, nous n’augmenterons en rien nos possibilités d’agir sur lui au plan global. Le posthumanisme et les sciences Comment cette philosophie du posthumanisme, à la fois ambitieuse et modeste, s’exprimera-t-elle en ce qui concerne les objectifs et les moyens de la recherche scientifique. Peut-être entraînera-t-elle une tendance à l’abandon des préjugés idéologiques qui, dans beaucoup d’esprits encore97, lient le progrès scientifique et le Mal. On commence à considérer favorablement les trop rares chercheurs qui, généralement sans soutien des grandes firmes ni des gouvernements, explorent des voies nouvelles. Ces recherches se situent à la frontière entre les disciplines, entre les genres. Elles mêlent le quantique et le macroscopique, le physique et le vivant, le biologique non humain et le biologique humain, le matériel et le virtuel, l'inconscient et le conscient. Les conservateurs persistent à vouloir les interdire, sous prétexte qu'elles offensent des croyances imposées par ceux qui, dans les siècles précédents, maintenaient les foules sous leur domination par la peur du châtiment qui suivrait la transgression. Mais ils perdent progressivement leur audience. Nous avons dans ce livre tenté de donner la parole à quelques-uns de ceux qui mènent ou soutiennent de telles recherches. En ce sens, nous pourrions dire que le livre tout entier s’efforce d’être une défense et apologie du posthumain. Mais nous l’avons vu, le combat ne se mène pas uniquement dans les laboratoires. Il est aussi dans les conceptions idéologiques plus subtiles qui baignent encore profondément les sociétés modernes. Des modes de représentation profondément ancrées dans nos esprits réifient, c'est-à-dire transforment en Vérité dont nous devrions tenir compte, les prétendues réalités auxquelles renvoient les mots des langages ordinaires comme ceux des philosophies et des religions encore en vigueur. Nous avons vu, à propos de la critique des processus d'acquisition des connaissances qu'impose dorénavant la physique quantique et qui peuvent être généralisés à l'ensemble des domaines épistémologiques, qu'il n’est pas raisonnable d’affirmer l’existence d’un réel en soi, dans n'importe quel domaine que ce soit. Tout est 97

Et de plus en plus, si on en croît les enquêtes d’opinion conduites en Occident

150


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

construit à l'intérieur d'un réel humanisé n'ayant de sens que pour les hommes qui en parlent, éminemment reconfigurable, discutable, relatif. Il n'y a pas d'Humanité en soi, ni de Bien ni de Mal, ni non plus de Dieux ou de Diables (surtout avec des Majuscules). D'une certaine façon, les posthumains retrouvent le mot d'ordre que pour notre part nous continuons à considérer comme magnifique, celui des anarchistes du XIXe siècle “ Ni Dieu ni Maître ”. L'avenir n'est pas écrit. Il sera certainement pour une part tel que nous le ferons, mais il ne sera certainement pas tel que nous voudrions aujourd'hui qu'il soit. Il émergera tous les jours d'une évolution cosmologique dont les posthumains, s'ils se montrent à la hauteur de leurs ambitions telles qu’aujourd’hui formulées, pourront être des témoins et des acteurs influents. 8.2. La peur du posthumanisme L’ouvrage publié en 2002 par l’essayiste américain d’origine japonaise Francis Fukuyama, Our Posthuman Future, illustre bien la façon dont les esprits traditionnels, sinon conservateurs, accueillent les perspectives des changements que les nouvelles sciences et technologies pourraient apporter à l’idée que nous nous faisons des humains et de l’humanisme. Sans doute inspiré par sa qualité (à l’époque de la rédaction du livre) de membre du Comité présidentiel de bio-éthique, le Professeur Fukuyama se livre à une virulente mise en garde contre les dérives possibles des sciences de la vie, notamment de la biologie et du génie génétique. Il nous annonce que ces sciences constituent actuellement la menace la plus grande ayant jamais remis en cause l' “ intégrité de la nature humaine ”. Ainsi, l'histoire que dix ans auparavant il voyait arrêtée98 serait repartie en avant si fort, sous la pression des biologistes, qu'elle serait en train de nous propulser à grande vitesse dans l'inhumain. Il énumère tous les risques qui nous guettent : les enfants génétiquement programmés, la neuropharmacologie (Prozac et Ritalin sont à cet égard ses bêtes noires…), les cellules-souches, l'accroissement de l'intelligence, l'allongement de la durée de la vie et la transformation du monde en un vaste asile de vieillards. La démocratie, l'Etat de droit et, selon lui, (assez curieusement d'ailleurs) le capitalisme de marché risquent de ne pas s'en remettre. Contrairement à d'autres intégristes s'appuyant sur une vision révélée de ce qu'est et doit rester la nature humaine, Francis Fukuyama se borne à nous affirmer qu'il existe une nature humaine - au moins depuis Aristote – et que celle-ci s'exprime dans des institutions et des codes moraux qu'il convient de respecter. La femme en particulier ne doit pas faire appel à la pharmacologie pour devenir aussi “ agressive ” socialement que les hommes, car ce n'est pas sa nature. Il voit se profiler une humanité dominée par une minorité d'êtres supérieurs façonnés par la biologie et imposant leur pouvoir à des masses rendues homogènes et dociles par cette même biologie. Selon lui, chacun doit donc veiller à ce que les “ apprentis sorciers de la biologie ” cessent de s'attaquer à ces fondements indiscutables de la société. Quant aux Etats, ils doivent impérativement intervenir. Fukuyama n'est pas de ceux qui jugent les réglementations étatiques inopérantes et dangereuses. Il pense au contraire que seuls les Etats peuvent marquer les limites à ne pas dépasser, décréter des moratoires et, finalement, prendre en charge la défense de la nature humaine (sans doute sur le conseil avisé des Comités d'éthique). En aucun cas, il ne faudrait se refuser d'interdire telle ou telle recherche au prétexte du retard que prendrait le pays qui le ferait par rapport à ceux qui toléreraient ou encourageraient ces recherches. Le livre est bien fait et convaincra tous ceux qui, de l'ultra-gauche à la droite conservatrice, ne cessent de dénoncer les risques provoqués par des recherches scientifiques 98

Francis Fukuyama, La fin de l'histoire et le dernier homme, Paris, Flammarion,1992

151


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

supposées n'obéir qu'à l'appétit d'argent et de pouvoir des chercheurs et de ceux qui les financent. Ce n'est pas, répète-t-il, parce que la science est en mesure de faire quelque chose qu'il faut le faire. Ce n'est pas parce que la science réussit un exploit aujourd'hui que la société sera capable de maîtriser les conséquences désastreuses de cet exploit dans les années futures. Nul ne discutera cela, non plus que la nécessité de conduire les débats les plus démocratiques possibles sur les fins et moyens de la recherche, qu'elle soit publique ou privée. Nous allons y revenir dans la section suivante en commentant les propositions de Bruno Latour. Ceci admis, ce livre tout entier nous paraît aussi complètement aberrant, aussi loin des réalités de ce qui se passe vraiment, que les précédentes thèses historiques de notre auteur. Celui-ci donne véritablement l'impression de se saisir d'un sujet facile pour s'attirer le soutien des nombreux juristes qui verront dans de nouvelles réglementations l'occasion de contentieux toujours bienvenus et, bien entendu, se faire connaître des médias par qui les propos apocalyptiques sont toujours bien reçus. Quelques questions Plutôt que discuter point par point les assertions de Francis Fukuyama, ce qui nous entraînerait trop loin, bornons-nous à poser quelques questions plus générales, qui concernent le thème de notre ouvrage : - qu'est-ce qui permet de définir la nature humaine ? Est-elle la même aujourd'hui que ce qu'elle était il y a 2000 ans ou 50.000 ans ? - peut-on établir un lien entre la nature humaine, ainsi définie, et nos institutions, notre conception de la justice et de la morale ? - peut-on montrer en quoi d'éventuelles mutations affectant, du fait de certaines expériences scientifiques, les génomes humains ou animaux seraient d'une essence différente des mutations survenues depuis plus de 600 millions d'années dans le monde du vivant ? - ceux qui réclament l'intervention conservatoire des Etats sont-ils inspirés par les valeurs humanistes les plus élevées ou par le souci de protéger des positions et des avantages qu'ils n'avouent pas ? - en quoi les évolutions susceptibles d'affecter la nature humaine, suite aux développements de la science, seraient-ils néfastes plutôt que fastes ? - plus généralement, faut-il, à supposer que cela soit réaliste, décréter que l'humanité ne doit pas évoluer ? - et finalement, ne risque-t-on pas en annonçant l'ère post humaine de donner des arguments aux millions d'intégristes de toutes confessions, de fanatiques et d'ignorants qui veulent fermer les laboratoires, limiter l'éducation, en exclure les femmes et - répétons-le conserver le plus longtemps possible les avantages qu'ils ont acquis par des siècles d'oppression et d'obscurantisme ? Heureusement, l'histoire ne s'arrête pas. Vous fermez l’ouvrage de Fukuyama et vous apprenez, par l'actualité scientifique, que des chercheurs, après avoir complètement décrypté le génome de la souris, sont en train d'envisager ce qu'ils appellent l' "humanisation" de ces animaux : cellules-souches humaines injectées dans des embryons de souris, souris dont le cerveau comporterait des neurones humains et autres chimères du même ordre…Quel sera votre réflexe ? Créer d'urgence une association de défense ? Vous réjouir de voir que malgré de trop nombreux Fukuyama, on n'arrête pas la recherche, ou, plus logiquement, estimer que de ces expériences naîtront sans doute des connaissances précieuses sur ce que sont les êtres vivants en général, les hommes en particulier ? En élargissant le propos, on ne peut que s'étonner de voir le manque d'ouverture et finalement de culture scientifique et philosophique que démontre Fukuyama. Il parle de la Nature et de la Nature Humaine comme si personne avant lui n'avait montré le relatif et le

152


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

pernicieux de telles notions brandies sans la moindre critique politique. Il accuse la biologie mais il ne tient aucun compte de ce qui fait la dignité de la biologie moderne qui refuse les anthropocentrismes aveugles pour essayer de retrouver les liens profonds qui nous rapprochent des autres êtres vivants. Il ne dit pas un mot des analyses fécondes d'un Howard Bloom portant sur les super-organismes. Il veut tout ignorer des perspectives que nous évoquons dans ce livre relatives à l'évolution des super-réseaux et des super-intelligences. Cela vaut mieux d'ailleurs, car on imagine avec effroi les dégâts qu'il pourrait faire au sein d’esprits faibles s'il se mettait à dénoncer pêle-mêle une conspiration des infotechnologies, biotechnologies et nanotechnologies unies pour détruire l’humanisme. 8.3. Des instances de négociations Il serait imprudent cependant de rejeter en bloc toutes les protestations que suscite le développement des sciences et des technologies, y compris dans les sociétés occidentales qui sont pourtant leurs principales bénéficiaires. Il faut y répondre. En y regardant de plus près, on s’aperçoit d’ailleurs que les reproches et malentendus visent non pas les sciences en tant que telles mais leur mise en œuvre par des entreprises capitalistes qui recherchant le profit immédiat se soucient rarement de négocier avec les citoyens. Beaucoup de malentendus pourraient disparaître si le dialogue sciences-société s’organisait à un meilleur niveau qu’il ne l’est actuellement, notamment en France. De nombreuses tentatives sont périodiquement faites pour l’améliorer, mais en général elles n’aboutissent pas à ranimer l’intérêt de la population pour les technosciences. Pendant ce temps, les arguments populistes proposent, comme le fait par exemple la revue The Ecologist99, un utopique retour à la société préindustrielle sinon préscientifique. Bornons-nous à évoquer sur le thème des relations entre les technosciences et la société les propositions de Bruno Latour, philosophe et sociologue expert en la question. Il est connu, autant sinon plus à l’étranger qu’en France, par le travail théorique important qu’il a fait pour recueillir et défendre toutes les “ paroles ” susceptibles de s’exprimer sur les sujets sensibles du développement scientifique et technologique100. Le thème de l'écologie politique est d'une grande actualité. On pourrait presque dire d'une grande banalité. Aujourd'hui, par exemple, après les différents Sommets de la Terre, il n'est plus de parti politique en France qui ne se dise préoccupé d'écologie. Chacun le fait il est vrai selon sa culture et en ménageant les intérêts de ce qu'il estime être son réservoir de voix électorales. Mais dans l'ensemble, on doit noter une sensibilité aux thèmes environnementalistes qui n'existait pas il y a dix ans. On peut s'en réjouir mais il faut se demander si la conversion est suffisante, si derrière le discours se trouvent ou non des processus démocratiques permettant de mobiliser les citoyens, sans la participation active desquels rien ne se fera. Symétriquement, il faut se demander si la critique des modes de développement actuels, les recommandations visant à les réorienter, qui s'inspirent en principe de conseils ou 99

The Ecologist a été fondé et est dirigé par le militant écologiste britannique Edward Goldsmith. Il comporte souvent de bons articles, mais la ligne éditoriale générale est résolument négative à l’égard des sciences et des techniques http://www.theecologist.org/ 100

On trouvera toutes les œuvres de Bruno Latour référencées sur son site http://www.ensmp.fr/~latour/. On pourra lire en particulier : Politiques de la nature. Comment faire entrer les sciences en démocratie. Paris, La Découverte, 1999 . L'ouvrage "L'espoir de Pandore" est la traduction en français d'articles sur des thèmes proches de ceux de Politiques de la nature, parue en anglais à la même époque (1999). Il en constitue d'une certaine façon une illustration.

153


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

études émanant de la collectivité savante, sont bien pertinentes au plan scientifique. Or sur ce point, le scepticisme est de plus en plus répandu. La diversité et parfois les contradictions des experts, quand ce n'est pas leurs incertitudes (sinon leurs erreurs de diagnostics), sont présentées comme trahissant une impuissance grandissante de la science face aux questions posées par les politiques et par les citoyens. Rappelons les exemples du sang contaminé, de l'amiante, de la vache folle. Ceux qui, pour des raisons d'intérêt à court terme, ne veulent rien changer à leurs pratiques, en tirent argument pour persévérer dans celles-ci. C'est ainsi que le gouvernement des Etats-Unis continue de refuser de signer le protocole de Kyoto sous prétexte que l'effet de serre ou ses conséquences dommageables ne sont pas démontrés. Si avec Bruno Latour on estime que l'écologie politique, malgré ces difficultés, doit devenir plus que jamais la priorité des humains, il importe de ne pas s'arrêter là et de proposer des pratiques collectives réconciliant la science et la politique dans un effort pour rendre plus habitable le monde actuel. Comme le constatent de plus en plus les environnementalistes, ceci impose également d'aborder en priorité les problèmes du sous-développement et de l'inégalité entre le Nord et le Sud. Celle-ci est constamment accrue par la mondialisation dite néo-libérale, qui sacrifie les ressources humaines et matérielles du globe pour un profit à court terme, hors de toute régulation protectrice. Là encore, la science devrait intervenir. Elle seule en effet semble capable de proposer des remèdes à l'explosion démographique, aux famines et aux épidémies, à l'acculturation, aux affrontements tribaux résultant de l'aggravation de la misère dans le tiers-monde. Mais comment restituer leur crédibilité à la science et à la politique, étant entendu qu'il serait suicidaire de prétexter de leurs faiblesses pour prétendre s'en passer ? La voie proposée par Bruno Latour n'a rien de facile ni d'immédiat. Il s'accorde avec les critiques actuelles mettant en cause tant la science que la politique pour constater qu’elles sont incapables en l’état d’apporter des solutions à la crise du monde. Mais ceci découle selon lui d'un double malentendu. Le premier tient à la définition que la société occidentale s'est donnée de la science, ceci presque depuis les origines de la philosophie, puisque l'affaire remonte au mythe de la caverne, proposé par Platon et repris sans guère de changements par les sciences récentes. Nous en avons longuement débattu dans le premier chapitre de ce livre. Selon ce mythe, il existerait une Nature ou un Univers en soi non directement accessibles au commun des hommes. Seule la science serait capable d'en donner des descriptions approchées, le savant pouvant, grâce aux méthodes de la recherche expérimentale, observer de l'extérieur cette Nature ou cet Univers avec le maximum d'objectivité possible. Le reste des humains, plongés qu'ils sont dans l'ignorance et les contradictions, n'ont pas cette possibilité et doivent faire confiance aux savants pour leur indiquer notamment comment respecter ou protéger la nature, quand celle-ci paraît menacée par leurs activités désordonnées. Cette conception, qui fait de la science la seule médiatrice possible entre les hommes et la Nature, la fragilise également, puisqu'on attend d'elle, comme on le faisait jadis de la pythie, de répondre à toutes les questions nées de l'activité humaine, en se trompant le moins possible. Sans affirmer comme les “ relativistes post-modernes ” que les connaissances scientifiques sont des constructions ici et maintenant de l'activité humaine, que la Nature ou l'Univers sont euxmêmes des concepts historiquement et socialement situés, Bruno Latour nous invite à réintégrer l'activité scientifique dans le fonctionnement normal des sociétés, dont elle ne constitue qu'un des aspects et dont elle présente toutes les incertitudes et les surprises. Le second malentendu dont l'auteur cherche à nous débarrasser concerne la politique. La politique s'occupe des intérêts, intérêts économiques ou sociaux mais aussi philosophiques et moraux. Ces intérêts sont contradictoires et en conflits permanents. Il serait naï f de penser que, dans le cadre de l'écologie politique, le pouvoir politique va les unifier d'un coup en faisant appel à l'arbitrage de la science, elle-même parlant au nom de

154


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

l'arbitre souverain que serait la Nature. La politique intervient en fait sous la pression et au service de groupes humains dominants qui veulent au nom de l'écologie politique lui dicter la défense de leurs intérêts. Il ne faut donc pas s'étonner qu'elle ne puisse établir de consensus, ni sur les finalités ni sur les moyens. Cette double constatation relative aux malentendus et illusions que nous pouvons nourrir envers la science et la politique explique les insuffisances et échecs de l'écologie politique actuelle qui prétend mettre la politique au service de la façon dont la science voit la nature. L'écologie politique ne parle pas de la nature, ne cherche pas à la protéger. Elle parle d'une multitude de thèmes et d'intérêts mis en avant par l'actualité, mêlant les humains dans des imbroglios compliqués. Elle s'engage dans des débats scientifiques et moraux insolubles, faute de proposer des processus susceptibles de prendre du recul et résoudre les conflits. Ceci ne veut pas dire qu'il faille renoncer à l'écologie politique. Celle-ci reste pour Bruno Latour la seule voie de salut. Elle a l'avantage de ne pas se référer à un système scientifico-politique arrêté et imposé par la tradition. Elle n'a pas de programme totalitaire et hiérarchisé à proposer. Elle demeure (heureusement pour elle et pour nous) marginale et décousue, ce qui la laisse ouverte à des solutions radicalement nouvelles. Mais il faudrait la refondre entièrement. Dans cette perspective de reconstruction qui fait presque entièrement l'objet de "Politiques de la nature", Bruno Latour ne tombe pas dans l'erreur de remplacer les certitudes anciennes, concernant la science et la politique, par d'autres qui se révéleraient vite aussi rigides et impuissantes que les actuelles. Son ambition est double. Elle va indiscutablement dans le sens de ce que devraient être des politiques pour demain. Le premier objectif proposé consiste à donner la parole à tous, à tous les intérêts, à tous les individus, quels que soient leur positionnement au regard de l'écologie théorique (pollueurs compris). Il serait certes illusoire de prétendre donner satisfaction à tous. La politique devra proposer des compromis s’appuyant sur une recherche démocratique de consensus et comportant la possibilité d' “ appels ” si des condamnations ou interdictions apparaîssaient nécessaires. A ce titre, les scientifiques (et non plus la science siégeant en majesté) seront appelés à s'exprimer, mais aussi les philosophes, les moralistes et plus généralement tous les citoyens, y compris en premier lieu ceux rejetés du débat par les pratiques politiques actuelles, lesquelles réservent la parole aux dominants de l'économie et de la “ culture ”. Le deuxième objectif concerne plus particulièrement non pas la science ou les scientifiques en tant que tels, mais la conception que l'on devrait désormais se faire de la connaissance. Ce que propose Bruno Latour n'a rien de révolutionnaire, mais est encore loin d'être pratiqué et compris, aussi bien de la part du public que de la majorité des scientifiques et enseignants. Il faut d'abord apprendre à étudier les processus de production des connaissances. S’y conjuguent pour certains la recherche de savoir désintéressé mais pour de nombreux autres des stratégies liées directement à l'exercice de pouvoirs politico-militaires, géo-stratégiques, économiques - sans parler des intérêts de carrière. Ces différents enjeux ne permettent pas un déroulement harmonieux au progrès des connaissances. Au contraire, la marche est largement aléatoire et créatrice de chaos. Mais c'est ainsi que se déroule l'évolution. Il ne servirait à rien de chercher à lui imposer une rationalité externe qui cacherait en fait une prise de pouvoir ne voulant s'avouer. Avec la multiplication des voix parlant au nom de la science à partir de points de vue différents, le processus démocratique proposé par l'auteur devrait garantir une plus grande universalité des hypothèses, des expérimentations et des conclusions. Celles-ci demeureront par ailleurs toujours provisoires et susceptibles de remise en cause. Pour concrétiser cet ensemble, l'auteur développe longuement le projet de mise en place d'un “ collectif ” qui rassembleraient dans la définition et la conduite d'une écologie politique adaptée aux besoins du monde actuel tous les humains et non-humains

155


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

(intérêts, connaissances scientifiques, technologies, mais aussi espèces vivantes et espaces géographiques) concernés par les choix de cette écologie politique. Qui ne souscrirait pas à une vision aussi démocratique et ouverte des sciences et des politiques ? Il s'agit là d'un idéal dont on voudrait qu'il soit partagé par tous, y compris au sein des sociétés qui n'ont pas encore donné aux connaissances scientifiques le rôle et l'importance que leur a conférée l'Occident. Les praticiens du débat politique objecterons qu’il s’agit d’une vision théorique qui sera difficile à mettre en œuvre. Même les régimes représentatifs tels que ceux existant en Occident auront du mal à faire s’exprimer et à concilier tous les acteurs appelés à la discussion. Mais cette difficulté constitue aussi la grandeur de nos régimes et assure à terme, on peut le penser, leur supériorité sur les dictatures. 8.4. Les civilisations posthumaines : entre apocalypse et apothéose Nous arrivons au terme du parcours que nous avons entrepris dans ce livre, à travers les sciences de la complexité et les conséquences qu’elles suggèrent en matière de programmes et d’activités politiques. Ce parcours s’est organisé en plusieurs étapes dont quatre sont manifestement plus importantes que les autres. La première a permis de relativiser les concepts par lesquels nous nous représentons le monde, en les reliant à nous qui leur donnons leurs contenus plutôt qu’à des êtres en soi ou ontologies dont ces concepts seraient le reflet. Dans la seconde étape, nous avons vu comment les créatures biologiques génèrent automatiquement, par leur seul fonctionnement, une conscience de soi primaire qui peut donner naissance à des consciences supérieures dès lors que des êtres (essentiellement des humains) dotés de conscience entrent en relation compétitive à travers les processus de l’échange langagier. Nous avons constaté dans la troisième étape que ces consciences supérieures, avant d’être celles d’individus isolés, sont en premier lieu celles des collectivités que constituent ces individus lorsqu’ils se regroupent spontanément en communautés langagières leur permettant notamment d’échanger et de mémoriser à grande échelle les produits de leurs expériences vitales. Enfin, nous avons pris acte du fait que dorénavant sur Terre, il n’y a pas que les espèces biologiques capables de ces performances mais aussi de nouvelles sortes d’entités, nées du calcul informatique et de l’intelligence artificielle évolutionnaire. Elles se développeront sans doute d’abord dans l’ombre des hommes, mais elles pourront éventuellement en diverger si des opportunités se présentent. Nous avons terminé en évoquant le fait que les humains, s’unissant symbiotiquement avec les différents produits de leur évolution technologique, notamment les robots autonomes, pourraient atteindre des niveaux de performance sans comparaison avec ce que sont les leurs actuellement. Nous avons repris le terme désormais courant de posthumains pour désigner de tels humains “ enrichis ”. Mais à ce stade, et à nouveau, nous ne devons pas nous tromper de perspective. Ce ne sont pas les humains pris individuellement qui génèrent la conscience collective, mais les sociétés au sein desquelles ils se regroupent spontanément grâce au langage. De même, ce ne seront pas les humains “ enrichis ” qui deviendront des posthumains par le seul fait de leur volonté. Ce seront les sociétés auxquelles ils appartiendront qui leur permettront d’accéder à ce statut si elles se montrent capables de performances suffisamment augmentées par rapport à celles des sociétés traditionnelles. On pourra alors parler de civilisations posthumaines, dotées de consciences supérieures collectives posthumaines. Autrement dit, à l’échelle macroscopique, il n’y aura pas de posthumains mais des civilisations posthumaines. Aucune raison n’empêche de supposer que ces civilisations ne seront pas en compétition darwinienne les unes avec les autres. Mais leurs compétitions se situeront peutêtre dans la course à la connaissance plutôt que dans la destruction réciproque. Si elles survivent jusqu’au stade de la posthumanité, c’est qu’elles auront utilisé systématiquement,

156


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

quoique sans doute avec des résultats inégaux fondant leurs différences, les processus scientifiques d’acquisition des connaissances décrits dans notre premier chapitre et plus généralement dans l’ensemble de ce livre. Autrement dit, ce seront des sociétés scientifiques et technologiques. On ne voit pas qu’il puisse en être autrement, sauf en cas de catastrophe générale. Des sociétés qui pour se développer compteraient sur les enseignements des traditions mythologiques et religieuses ne tiendraient certainement pas la distance. S’agira-t-il cependant obligatoirement de civilisations affichant les convictions métaphysiques sousjacentes au matérialisme scientifique ? Sans doute pas. On pourrait imaginer certaines sociétés qui, tout en pratiquant de fait le matérialisme scientifique, auraient continué comme le font aujourd’hui beaucoup de scientifiques adeptes du dualisme, à croire en une séparation de l’âme et du corps. On pourrait également imaginer des civilisations posthumaines qui ne se préoccuperaient absolument pas de métaphysique, se bornant à vivre au jour le jour les aléas de l’évolution darwinienne. Il n’est pas inutile à cet égard de faire un petit rappel. Aujourd’hui, nous nous représentons l'Univers dans lequel nous sommes immergés de deux façons. La première s'appuie sur nos organes des sens et les processus de perception et d'analyse qu'ils génèrent au niveau des cerveaux. Il s'agit alors de l'Univers macroscopique dans lequel nous évoluons. La seconde découle des observations plus abstraites permises par les instruments de la physique fondamentale. Ceux-ci ont donné naissance à des modèles artificiels avec lesquels en principe doivent s'articuler les représentations du monde macroscopique que nos sens nous fournissent par ailleurs. Mais il existe d'autres représentations du monde qui seront demain prises en considération : celles que se sont données intuitivement les hommes, depuis la nuit des temps, et qui ont pris la forme des concepts métaphysiques ou religieux. Nous avons vu en jetant un coup d’œil sur le bouddhisme que des “ sagesses ” contemplatives, même si elles ne sont d’aucune utilité en termes d’ingénierie des systèmes matériels, peuvent anticiper certaines des visions que suggère la science moderne ; celles que peuvent avoir les êtres vivants non-humains, notamment les animaux supérieurs. Aujourd'hui, les études suggèrent qu'ils disposent sans doute, au moins de façon inconsciente, de représentations du monde qu'il n'y a pas de raison de supposer correspondant aux nôtres, sauf sur certains points, et qu'il n'y a pas de raison de supposer immédiatement compréhensibles par nous. On lira à cet égard le livre de Dominique Lestel, “ Les origines animales de la culture ”101 non seulement pour ce qu'il nous dit explicitement, mais pour ce qu'il nous oblige à imaginer ; celles dont pourront se doter des robots intelligents créés par nous, mais évoluant de plus en plus indépendamment, dans des espaces de représentations qu'ils se donneront progressivement en interaction avec l'Univers. Certains roboticiens espèrent que ces représentations, loin de s'inspirer des nôtres, en différeront suffisamment pour produire des modèles de l'Univers nous permettant de modifier de façon plus ou moins approfondie nos modèles macroscopiques du monde, tels ceux proposés par la physique fondamentale dont les obscurités et les lacunes continuent à poser problème, même pour les théoriciens. Mais, comme nous l’avons dit plusieurs fois, il n'y a pas de raison de supposer que les représentations de l'univers des futurs 101

[Lestel, op.cit.]

157


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

robots intelligents seront équivalentes aux nôtres, sauf sur certains points, et qu’elles nous seront immédiatement compréhensibles ; celles enfin, pour être exhaustif, qui pourraient résulter de contacts ultérieurs avec des intelligences extra-terrestres bâties sur des logiques différentes des nôtres. Toutes ces représentations, aussi diverses soient-elles, ne sont pas de simples mirages ou épiphénomènes sans consistance. Elles ont toutes “ quelque chose de vrai ” puisqu'elles résultent d'une interaction d'entités physiques mais différentes avec cet au-delà d'elles-mêmes qu'est l'Univers, dont nous n'avons pas de raison de supposer qu'il n'existe pas, même si nous ne savons pas le décrire exhaustivement aujourd'hui. Dès qu'elles prennent naissance (émergent), ces représentations provoquent de la part des entités qui les hébergent des comportements qui modifient plus ou moins l'Univers. Mais elles en correspondent à des vues partielles et subjectives, le terme subjectif voulant dire qu'elles sont générées par des parties ou composantes de l'Univers, incapables, semble-t-il, de pouvoir en sortir et prendre le recul suffisant pour formuler une sorte de Théorie du Tout, incluant l'Univers et s’incluant ellesmêmes au sein de ce dernier. Par ailleurs, ces représentations sont formalisées à partir des moyens de conceptualisation et d'expression dont disposent les entités qui les hébergent. L'homme primitif ne dispose que des symboles eux-mêmes primitifs de la philosophie et de la religion. Le scientifique est enfermé dans la formulation conceptuelle et mathématique de l'approche scientifique classique, encore prédominante. Quant à l'animal il n'exprime rien de significatif pour nous, sauf sous forme de comportements que nous soupçonnons plus riches de significations transcendantes qu'ils ne semblent l'être à première vue, mais dont nous ne savons pas encore tirer d'enseignements. Ce sont pourtant toutes ces représentations qui s’exprimeront sous forme métaphysique et entreront en conflit au sein des civilisations posthumaines, leur donnant une richesse dont l’actuelle pauvre civilisation humaine paraît bien dépourvue. Mais au lieu de s’épanouir, cette richesse ne va-t-elle pas provoquer sa propre destruction ? Avant de donner la parole finale à ceux que l’on pourrait appeler les prophètes de l’Apothéose triomphale, écoutons leurs contradicteurs, aussi experts et savants qu’eux d’ailleurs, les prophètes de l’Apocalypse. La fin des civilisations Les pronostiqueurs de catastrophes en tous genres sont d’autant plus nombreux qu’ils trouvent une audience attentive dans le public. La plupart se bornent à reprendre à leur compte des propos plus ou moins alarmistes dont l’inspiration remonte à l’origine des temps. Dans la vieille tradition du prophétisme, ils laissent généralement entendre que l’humanité ne se sauvera de sa course meurtrière à un prétendu Progrès que par un retour à des valeurs mystiques. Mais on commencent à entendre de plus en plus de scénarios-catastrophes dans la bouche de scientifiques authentiques et honnêtes. Depuis vingt ans, ce furent surtout les perspectives intéressant les perturbations apportées par l’homme à l’écosystème physique et biologique qui firent l’objet de prévisions pessimistes – dont la plupart hélas se révèlent aujourd’hui justifiées. Mais aujourd’hui c’est véritablement la fin des civilisations qui est envisagées. A cet égard il faut être particulièrement attentif aux ouvrages récents publiés par Sir Martin Rees, astronome Royal et cosmologiste, d’une part102, par Jacques Blamont, physicien et ingénieur, membre de l’Académie française des Sciences, d’autre part103. Pour Martin Rees, l'humanité va rencontrer les plus grands risques de sa courte histoire lors des cinquante prochaines années. Elle risque même de disparaître purement et simplement. Le très grand cosmos présente, nous dit l'auteur dans sa conclusion, des 102 103

Martin Rees, Our final hours [Rees, op.cit.]. Jacques Blamont, Introduction au siècle des menaces [Blamont, op.cit.].

158


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

potentialités qui pourraient être infinies. Mais il dépend de nous, dans les prochaines années, que ces vastes étendues de temps soient peuplées de vie, ou restent aussi stériles que l'était la Terre à ses origines. Cinquante ans, ce n'est rien. Pour les sexagénaires, ceci représente un avenir hors de portée. Mais pour les enfants, et à plus forte raison les petits-enfants de ceux-ci, c'est demain. Or il y a, nous dit Martin Rees après quelques calculs que chacun peut refaire, 50 chances sur 100 pour que lesdits enfants et petits-enfants n'atteignent jamais la vieillesse. Quels sont les risques qui nous menacent ? Il s'agit d'abord de la dissémination déjà en cours du nucléaire et des produits de la bio-ingénierie. Viendra ensuite, à échéance de quelques décennies, l'apparition des nano-organismes capables de s'auto-répliquer sur le mode viral. A cette époque, les machines pensantes et conscientes capables d'autonomie par rapport à l'homme seront également devenues des réalités. Martin Rees sur ce point partage les prévisions “ optimistes ” de Ray Kurzweil et Hans Moravec, déjà évoquées104. Mais il y ajoute une prévision pessimiste. Il y a beaucoup de chances pour qu’à la suite à d’erreurs ou de malveillances, ces entités devenues autonomes échappent à l'homme, se multiplient et finissent par l'éliminer, dans un mécanisme de réplication en chaîne et d'emballement comparable à ceux d'organismes biologiques. Classiquement aussi, l'auteur évoque, sans d'ailleurs s'y appesantir, les conséquences des comportements natalistes, consommateurs et prédateurs irresponsables de l'humanité, détruisant la biodiversité et les équilibres géoclimatiques de la Terre. Au fur et à mesure que se développent des technologies susceptibles de devenir des armes de destruction massive, les dangers qui nous menacent proviennent de la combinaison d'un trio infernal, que Martin Rees décrit sous le nom de “ terreur, erreur et folie ”. Le propos n'est plus très original aujourd'hui, mais il mérite d'être rappelé. C'est l'utilisation par certains Etats ou par des internationales terroristes des technologies ABC, atomiques, biologiques et chimiques, qui constitue le risque principal et le plus immédiatement susceptible de se réaliser. Tout ce qui, comme actuellement la guerre en Irak, renforce les antagonismes entre riches et pauvres, exalte les fanatismes et motive les candidats décidés à se suicider pour la bonne cause, nous rapproche d'une catastrophe planétaire de moins en moins facile à éviter. La seconde cause de dissémination est l'erreur humaine au sein des laboratoires ou des usines manufacturant les produits dangereux. Le risque est moindre, mais il n'est pas négligeable. Des réactions en chaîne ou d'emballement non maîtrisables sont toujours possibles. Martin Rees nous rappelle enfin que les hommes étant ce qu'ils sont, il n'est jamais possible d'exclure l'acte de folie d'un individu isolé, lequel peut, comme l'ont montré les agressions à l'anthrax après le 11 septembre, paralyser des villes entières, sinon déclencher des épidémies meurtrières. Que faire pour diminuer les chances de voir se produire de tels événements ? Martin Rees sur ce point n'est guère prolixe, mais on peut le comprendre, car les remèdes préventifs éventuellement utilisables ne paraissent pas près d'être acceptés par ceux qui ont les cartes en mains. Le plus efficace consisterait à partager systématiquement les richesses entre Nord et Sud, pour atténuer les frustrations et prévenir les révoltes. Mais sans une mobilisation politique gigantesque, il est illusoire d’envisager cette possibilité. On pourrait aussi généraliser des méthodes policières de surveillance et prévention. Cependant d'une part, les sociétés n'en voudront pas, et d'autre part ces méthodes ne peuvent mettre à l'abri des déviances et perversions venant du cœur même des systèmes de surveillance. Quis custodes custodiat ? demandaient les Latins. Quant à arrêter la science, geler les développements technologiques, en revenir à des méthodes et des outils du passé, ce serait évidemment un crime contre l'esprit. En fait, que les scientifiques se rassurent, aucun pouvoir au monde, le voudrait-il, ne pourrait arrêter le 104

Voir Chapitre 7.

159


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

développement techno-scientifique des mégamachines qui nous emportent, sauf sur des développements très ponctuels où le risque (suite d'ailleurs à des calculs qui seront toujours très subjectifs) apparaîtrait infiniment supérieur au bénéfice attendu. Il est également impossible de censurer les publications scientifiques, sauf à tuer le mécanisme même de la recherche. Il ne reste qu'à faire confiance aux chercheurs pour qu'ils s'auto-limitent lorsqu'ils s'engageront dans des voies trop hasardeuses. Mais cette protection sera toujours fragile en raison de la concurrence qui règne entre laboratoires et de la pression exercée par les firmes pour obtenir sans cesse de nouvelles sources de profit. Le mur Jacques Blamont est tout aussi pessimiste mais encore plus radical, s’il se peut, que Martin Rees. Pour lui, la fin de l’humanité est quasi certaine et se produira sans doute bien avant le délai de grâce de cinquante ans envisagé par ce dernier. Il décrit “ quelque chose d'énorme et de mystérieux, un mécanisme implacable s'étant mis en marche pour détruire la civilisation ! ”. Ce mécanisme réside dans le développement exponentiel des sciences et des technologies qui produit un développement lui aussi exponentiel des populations et des besoins, sur une Terre dont les ressources actuelles et futures se révèlent incapables de faire face à la demande. Il en résulte déjà une inégalité moralement choquante, entre les favorisés dont le revenu dépasse 50 dollars par jour et les milliards d'hommes à 1 dollar. Mais bientôt, du fait des réseaux modernes qui font du monde un vaste village, ces milliards d'homme à 1 dollar ne vont pas rester tranquillement chez eux à attendre la mort. Ils vont détruire, involontairement par leur seule volonté de survivre, puis de plus en plus volontairement par la violence, la citadelle de privilèges où croyaient s'être enfermés les favorisés. Ceux-ci, par leur aveuglement despotique, ne feront rien pour prévenir le mal, mais au contraire accéléreront leur propre destruction. Plusieurs sortes de catastrophes nous menacent et se conjugueront. Jacques Blamont cite d'abord les conflits armés entre Etats, principalement nourris par la politique américaine d'hégémonie reposant sur un effort effréné de maîtrise des technologies de domination civiles et militaires (full spectrum dominance). Le cœur en est fourni par les moyens de surveillance et de combat faisant appel à l'électronique et aux réseaux. C'est la Cyberwar, qui n'exclut pas cependant le renforcement des arsenaux nucléaires, bactériologiques et chimiques déjà constitués dans la prévision d'une guerre avec l'URSS. Mais de nombreux Etats émergents se sont donnés ou vont se donner aussi de telles armes. Ils n'auront pas la maîtrise américaine, mais ils pourront provoquer - et provoqueront inévitablement, pense l'auteur - des conflits catastrophiques. On pense à l'Inde et au Pakistan, mais bien d'autres théâtres d'opérations pourront s'ouvrir dans les années à venir. La deuxième grande menace est celle à laquelle aujourd'hui tout le monde se réfère, le terrorisme mené par des entités proliférantes sur le mode viral, utilisant les ressources de l'Internet et des réseaux multimédia pour mobiliser progressivement dans la guerre contre les riches des millions puis des milliards de fanatiques n'ayant rien à perdre. C'est ce que Jacques Blamont appelle la netwar, c’est-à-dire la guerre terroriste utilisant les réseaux de communication pour s’infiltrer partout et contaminer les esprits. Les Etats-Unis mènent aussi la netwar. C'est même une de leurs formes d'assujettissement. Mais ce sont les internationales terroristes qui en tirent dorénavant le meilleur profit. D'autres types de menaces sont déjà en route, en arrière plan des précédentes. C'est l'épuisement des ressources de l'écosystème, objet de beaucoup de discours, mais dont nul n’a encore accepté de mesurer ce qui en résultera : les pauvres, entassés dans des mégapoles submergées par les risques naturels, se jetteront à l'assaut des pays riches. C'est aussi et surtout les innombrables maladies mutantes qui viendront à bout des illusoires protections

160


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

sanitaires derrière lesquelles l'Occident croit encore pouvoir s'abriter105. La route du futur est ainsi barrée, et bien barrée, par un mur infranchissable. Une apothéose triomphale Supposons cependant que l’humanité arrive à surmonter tous ces dangers, en faisant appel à des solutions technologiques et politiques que l’on ne soupçonne pas aujourd’hui. On pourra peut-être alors considérer avec plus d’attention des visions grandioses telles celles proposées par David Deutsch, que nous avons déjà évoquées [Deutsch, op.cit.]. Pour lui, nous les humains sommes parties prenantes d’un univers cosmique qui se construit en permanence. Nous y agissons et le faisons évoluer par cette action, sans nécessairement le savoir ou le vouloir, et ceci bien que ce monde soit infiniment plus vaste. L’univers dans lequel nous sommes est issu lui-même non pas du Big Bang tel qu’on se le représente encore, mais d’une fluctuation du vide quantique lequel produit en permanence d’autres univers que nous ne pouvons connaître. Cet univers, le nôtre, se développe selon une “ histoire ” bien définie, résultant de multiples choix faits à tous moments par les agents physiques et biologiques ayant progressivement émergé en son sein au cours de son histoire. La science humaine, un des produits de cette histoire, fait apparaître les grands mécanismes créateurs de complexité, dont nous sommes, qui contribuent au “ tissage de la réalité ”. Nous n’avons pas de raison de penser qu’ils soient spécifiques à la Terre. Ces mécanismes sont d’abord les processus quantiques, dont les humains commencent à envisager la maîtrise au moins partielle. Ce sont ensuite les phénomènes biologiques, puis les programmes computationnels, mis en œuvre par tous les systèmes physiques ou biologiques qui dans l’univers peuvent procéder à des calculs tels que ceux conduits par nos propres ordinateurs. Ce sont enfin et surtout, utilisant les supports de tout ce qui précède, les constructions cognitives, celles des savoirs collectifs inscrits dans les mémoires durables. Les humains n’ont pas de raison de penser, là encore, qu’ils en ont le monopole, que ce soit dans l’univers tout entier et même sur la Terre. Les entités développant ces constructions cognitives ne découvrent pas l’univers et ses lois en utilisant la déduction, car la connaissance n’est pas découverte, mais construction. Elles les élaborent par l’induction (plus exactement par l’ “ abduction ”) et les inscrivent du fait de leur action scientifique et technologique dans l’Histoire de l’Univers. Celui-ci devient alors progressivement leur Univers. David Deutsch, comme beaucoup de techno-gourous, montre comment les entités s’appuyant sur ces connaissances pourront transformer non seulement la galaxie mais peutêtre le cosmos. Selon lui, se processus serait en principe à la portée des humains et plus encore des civilisations posthumaines, appelées civilisations galactiques par un autre gourou issu de la cosmologie, Michio Kaku [Kaku, op.cit.]. De telles civilisations auront un pouvoir de diffusion insoupçonné aujourd’hui. Parallèlement d’ailleurs elles découvriront que les limites à leur action découlant notamment de notre conception actuelle de l’espace-temps pourraient être considérablement reculées. Tout ceci se produira sans doute, bien que l’humanité et même la posthumanité apparaissent aujourd’hui bien fragiles face à l’immensité de notre seule galaxie. C’est en tous cas le rêve grandiose qui s’impose au spectateur tout au long de la magnifique Odyssée de l’espèce et de sa suite, non moins magnifique et lyrique, Homo Sapiens106.

105

Les risques très précis de prochaines pandémies de grippe donneront peut-être raison à l’auteur bien plus tôt que nous ne l’imaginons. 106 Ces deux documentaires-fictions de 90 minutes (2002 et 2004) ont été réalisés par Jacques Malaterre, avec le conseil scientifique de Yves Coppens.

161


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Conclusion Certains lecteurs considèreront sans doute que les propos pessimistes ou optimistes qui précèdent constituent des rêveries scientifiques ou pire, des tentatives de diversion visant à les empêcher d’aborder par le combat politique ce qu’ils estiment être pour eux les vrais problèmes, c’est-à-dire ceux de la survie quotidienne, aussi bien de l’humanité que de notre écosystème. Mais dans la mesure où l’humanité a toujours eu besoin de visions transcendant les contraintes du présent, de telles rêveries scientifiques paraissent autrement plus constructives que l’espoir d’atteindre après la mort des paradis situés dans un au-delà imaginaire. Quoi qu’il en soit, pour en revenir au présent, un minimum d’observation montre que les sciences, y compris dans leurs formulations les plus ésotériques, sont au premier plan du combat politique. Elles ne proposent pas de directions précises qui seraient contraires à leur esprit. Mais elles contribuent à former des citoyens ouverts et responsables, ceux dont les pouvoirs établis ont horreur. Elles aident la politique à devenir autre chose qu’une lutte pour les intérêts égoïstes immédiats. Autrement dit, elles viennent ou devraient venir au secours de la politique pour l’empêcher de s’enliser dans le politicien. En conséquence, elles suggèrent des objectifs s’inscrivant immédiatement dans le combat politique le plus élevé : développer les recherches fondamentales afin d’éviter, notamment en Europe, de prendre un retard irrattrapable par rapport aux Etats-Unis et bientôt à l’Asie, généraliser la formation critique et l’accès libre aux connaissances, mettre en place des réseaux permettant à chaque citoyen de se connecter à peu de frais aux autres et aux centres de compétence…Ces objectifs ont déjà été précisés et continueront à l’être dans d’autres ouvrages de la même collection, ainsi que dans la revue Automates-Intelligents. Bornons-nous à rappeler ici la nécessité de les inscrire désormais systématiquement dans les programmes politiques européens. Janvier 2005

162


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Bibliographie

Henri Atlan. La science est-elle inhumaine ? Essai sur la libre nécessité. Bayard, 2001 Robert Aunger The Electric Meme A new Theory of How we Think The Free Press, juillet 2002 Jean-Paul Baquiast et Alain Cardon Entre Science et Intuition - La conscience artificielle Automates Intelligents Editions, 2003 Adrian Bejan Shape and Structure, from Engineering to Nature Cambridge University Press, 2000 Denis Berthier Méditation sur le réel et le virtuel Collection Impact des nouvelles technologies L'Harmattan, 2004 Alain Berthoz La décision Odile Jacob, 2003 Susan Blackmore The meme machine Oxford University Press, 1999 Alain Cardon Conscience artificielle et systèmes adaptatifs Eyrolles, 1999 Alain Cardon Modéliser et concevoir une machine pensante Vuibert, Collection Automates-Intelligents, 2004 Rita Carter Exploring conciousness University of California Press 2002

163


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Jean-Pierre Changeux L’homme de vérité Odile Jacob, 2002 Jean-Pierre Changeux et Paul Ricoeur La nature et la règle - Ce qui nous fait penser Odile Jacob, 1998 Version poche : Odile Jacob, 2000 Gilbert Chauvet La vie dans la matière - Le rôle de l'espace en biologie Champs Flammarion, 1998 Antonio Damasio Spinoza avait raison Odile Jacob 2003 Antonio R.Damasio Le sentiment même de soi Odile Jacob 1999 Antonio R.Damasio L'erreur de Descartes Odile Jacob 1995 Richard Dawkins The Selfish Gene Oxford University Press (1976-1989) Yves Coppens et Pascal Picq Aux origines de l'humanité Fayard, 2001 Daniel C Dennett Freedom Evolves Viking Press, 2003 Daniel C Dennett Darwin est-il dangereux ? Odile Jacob, 2000 Daniel C Dennett La conscience expliquée Odile Jacob, 1993 Jean-Louis Dessalles Aux origines du langage. Une histoire naturelle de la parole, Hermès, 2000

164


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

David Deutsch L’étoffe de la réalité Cassini, 2003 Gerald M. Edelman Plus vaste que le ciel Odile Jacob 2004. Gerald M. Edelman, Guilio Tononi Comment la matière devient conscience. Odile Jacob, 2000 Bernard d'Espagnat Traité de physique et de philosophie Fayard, 2002 Francis Fukayama Our Posthuman Futur, Straus and Giroux, 2002 James Gleick La théorie du chaos Champs Flammarion, édition originale 1987 Stephan Jay Gould The structure of evolutionary theory Harvard, 2002 Pascal Jouxtel Comment les systèmes pondent. Introduction à la mémétique Collection Automates-Intelligents Vuibert, 2005 Beaudoin Jurdant Impostures scientifiques La Découverte, 1998 Michio Kaku Visions Albin Michel, 1999 Frédéric Kaplan La naissance d’une langue chez les robots, Hermès Science, 2001 Etienne Klein, Petit voyage dans le monde des quanta Champs Flammarion, 2004 Jean-Jacques Kupiec, Pierre Sonigo 165


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Ni Dieu ni gène, pour une autre théorie de l'hérédité Seuil, coll. Science ouverte, 2000 Ray Kurzweil & al. Are we spiritual machines ? Discovery Institute, 2002 Ray Kurzweil The age of spiritual machines Penguin Books, 1999 Bruno Latour - Politiques de la nature. Comment faire entrer les sciences en démocratie - L'espoir de Pandore. Pour une version réaliste de l'activité scientifique La Découverte, 1999-2001 Jean-Louis Le Moigne Le constructivisme 3. Modéliser pour comprendre L’Harmattan, 2003 Dominique Lestel Les origines animales de la culture Flammarion, 2002 Hans Moravec Robot Oxford University Press, 1999 Edgar Morin L'identité humaine. La Méthode V Editons du Seuil, 2001 Edgar Morin La Méthode, I à IV Editions du Seuil, 1977 à 1991 John Odling-Smee, Kevin Laland et Marcus Feldmanr Niche Construction, the Neglected Process in Evolution Princeton University Press, 2003 Steven Pinker The Blank Slate Viking Press, 2003 Ilya Prigogine La fin des certitudes Odile Jacob, 1996 Ilya Prigogine (sous la direction de)

166


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

L'homme devant l'incertain Odile Jacob, mai 2001 Jean-Philippe Rennard La vie artificielle. Où la biologie rencontre l'informatique Vuibert Informatique, 2002 Joël de Rosnay L’homme symbiotique Editions du Seuil 1995-2000 Alan Sokal, Jean Bricmont Impostures intellectuelles Odile Jacob 1997 Bernard Stiegler Mécréance et discrédit, la décadence des sociétés industrielles Galilée, 2004 Jean-Michel Truong Totalement inhumaine Les empêcheurs de penser en rond, 2001 John Vacca The World’s 20 Greatest Unsolved Problems Prentice Hall, 2004 Alan Wallace The Taboo of Subjectivity Oxford University Press, 2000 Edwards O.Wilson The Future of Life Alfred A. Knopf , 2002 Edwards O.Wilson Consilience Little, Brown and Cie 1998, Abacus 1999 Stephen Wolfram A new kind of Science Wolfram ed. , 2002

167


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Index des thèmes

Altruisme Auto-association stabilisatrice Auto-évolution Auto-Organisation - de la parole Automate cellulaire Biologie Catastrophes Cerveau - global Chaos Compétition - darwinienne - de groupe Complexité Conscience - artificielle - collective - primaire - supérieure Constructale (théorie) Constructivisme Décision Démocratie Déterminisme Dualisme Ecosystème Egoï sme Emergence Emotion Epigénétique Epistémologie Equation du Tout Esprit - théorie de l’esprit Etats-Unis Ethique Evolution

168


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Evolutionnisme Exaptation Fondamentalisme Gardien de la conformité Gène Générateur de diversité Hasard Hominiens Individuation Ingénierie génétique Internet Langage - afficheur Libre-arbitre Je (Moi) Loi de Moore Matérialisme Mathématiques MCR Mème - memeplexe - selfplexe Mémétique - technologique Mondialisation Morale Morphogenèse Multivers Nanotechnologies National Sciences Foundation Néo-conservateurs Niche (construction de ) Noyau dynamique Ordinateur - quantique Physique quantique Posthumanisme Robot Qualia Réalisme Réalité virtuelle Réel - réel instrumental Réentrance Religion Réplication (théorie de la ) Représentation Réseaux Science Sensation

169


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Sensibilité aux variations des données initiales Simulateur - de la Terre Sociobiologie Solipsisme Super-organisme Symbiose Système - dissipatif - multi-agents Temps de travail Terrorisme Théorie de la sélection de groupes de neurones Vie artificielle Vie politique Volontarisme

170


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Index des noms Henri Atlan. Robert Aunger Bernard Baars Adrian Bejan Denis Berthier Alain Berthoz Michel Bitbol Susan Blackmore Howard Bloom G.W.Bush Alain Cardon Jean-Pierre Changeux David Chalmers George Charpak Gilbert Chauvet Noam Chomsky Antonio Damasio Charles Darwin Richard Dawkins Daniel C Dennett Jean-Louis Dessalles David Deutsch Gerald M. Edelman Bernard d'Espagnat Paul Feyerabend Francis Fukuyama Stephan Jay Gould Pascal Jouxtel Michio Kaku Frédéric Kaplan Stuart Kauffman Ray Kurzweil Bruno Latour Jean-Louis Le Moigne Dominique Lestel James Lovelock Hans Moravec Edgar Morin Mioara Mugur-Schächter Steven Pinker Ilya Prigogine Jean-Philippe Rennard Joël de Rosnay Lee Smolin Jean-Michel Truong John Vacca Edwards O.Wilson Spinoza

171


Jean-Paul Baquiast Comprendre - Nouvelles sciences, nouveaux citoyens

Stephen Wolfram

Fiche auteur

Jean-Paul Baquiast jp.baquiast@wanadoo.fr Institut d'Etudes Politiques de Paris 1954, DES de Droit Public et d'Economie Politique. Ecole Nationale d’Administration 1960-1962 A consacré sa carrière administrative aux technologies de l’information, au Ministère de l’Economie et des Finances, à la Délégation Générale à la recherche Scientifique et Technique, ainsi qu’au niveau interministériel : Délégation à l’informatique 1967-1973, Comité Interministériel de l’informatique dans l’Administration (CIIBA), 1984-1995. A créé en 1995 le site web Admiroutes (www.admiroutes.asso.fr), non-officiel et bénévole, pour la modernisation des services publics par Internet, ainsi que l’association de la Loi de 1901 Admiroutes, qu’il préside. Co-rédacteur en chef et co-fondateur d'"Automates intelligents" (www.automatesintelligents.com), site web et magazine en ligne lancé le 12 décembre 2000 Membre du bureau de l'Association Française pour l'Intelligence Artificielle http://www.afia.polytechnique.fr Auteur de divers ouvrages et articles dont : - La France dans les technologies de l’intelligence, 1984, La Documentation Française - Administrations et autoroutes de l’information . Vers la cyber-administration, 1996, Les Editions d’Organisation - Internet et les administrations, la grande mutation, 1999, Berger-Levrault Croix de la Valeur Militaire Chevalier de la Légion d’Honneur Officier de l’Ordre National du Mérite

172


Comprendre - Nouvelles sciences, nouveaux citoyens