Issuu on Google+

L’individu à l’âge de l’information vers une nouvelle liberté ? Nolwenn Maudet

mémoire de philosophie DSAA Design Produit - 2013


L’individu à l’âge de l’information vers une nouvelle liberté ? Nolwenn Maudet 1

école Boulle DSAA Design Produit - 2013


4


Avant-propos

S

e questionner sur les relations entre liberté et information quand on est designer ? Étrange préoccupation. Pourtant, il me semble que la prise en compte du pouvoir de l’information à travers son accès, son partage ou sa publication est un des grands enjeux contemporains. Car il s’agit d’un pouvoir potentiellement libérateur, qui s’exerce au travers de nouvelles technologies de l’information et de la communication (TIC). Concevoir ces outils de manipulation de l’information en prenant en compte les différentes réalités de la révolution numérique est aujourd’hui une nécessité. C’est l’objectif que je me suis fixée cette année dans mon projet. C’est donc dans l’optique du design que j’aborde ce mémoire. Et pour nourrir ma réflexion, je m’appuierai sur un corpus issu des sciences humaines et de la philosophie, sans faire l’impasse sur des essais engagés qui éclairent les enjeux actuels.

5


6


Introduction

7


8


Liberté : possibilité d’agir, de penser par soi-même; refus de toute sujétion aux choses, de toute pression d’autrui. dictionnaire du Centre National des Ressources Textuelles et Linguistiques

Information : (du latin informare : action de former, de façonner). Élément de connaissance susceptible d’être représenté à l’aide de conventions pour être conservé, traité ou communiqué. dictionnaire du Centre National des Ressources Textuelles et Linguistiques

9


Introduction

«  Chaque nouveau médium transforme la nature de la pensée humaine. Sur le long terme, c’est l’histoire de l’information prenant conscience d’elle-même. » 

–James Gleick, 2012 Information, a history, a theory, a flood

L’information, une notion entre mathématiques et sciences humaines

L

a notion d’information telle qu’on la connaît aujourd’hui a émergé il y a moins de 70 ans. Comme d’autres mots avant  : « énergie » , « masse »  ou « force » , elle n’était qu’un terme ancien à la définition relativement vague. C’est Newton qui, au dix-septième siècle transforma ces trois mots en quantités manipulables par les mathématiques. Pour l’information, c’est en 1948 que Claude Shannon, ingénieur électrique et mathématicien, en fit une grandeur observable et mesurable en publiant son article « une théorie mathématique de la communication » . Dans sa définition, il évacua intégralement la question de la construction du sens pour se concentrer sur le traitement du signal. 10


Pourtant, c’est sous cette forme qu’elle irrigua des domaines aussi variés que l’informatique, la biologie ou la linguistique, prenant une place centrale dans de nombreux travaux de recherche. Si l’on souhaite étudier le rapport des individus à l’information, il faut faire appel à une autre définition opérationelle qui ne néglige pas la question du sens. Pour Sylvie LELEU-MERVIEL, professeur en sciences de l’information, l’étymologie latine du terme information (du verbe informare : action de former, de façonner), met en valeur ses différents usages. L’information, pour les latins classiques, correspond à l’acte de donner une forme à l’esprit. Pour les grecs, en revanche, il s’agit de ce qui est perçu par les sens et qui communique donc des connaissances. Ces deux usages du mot sont étroitement liés, si bien qu’ils sont même associés en couple information/connaissance par l’économiste F. Machlup. « Information »  en tant que ce qui est communiqué devient identique à « connaissance »  dans le sens de ce qui est connu. C’est cette dernière définition qui apparaît la plus pertinente dans le cadre de ce mémoire car elle englobe le rapport à l’information de l’individu, lui donnant la place centrale.

L’importance croissante de l’information, de l’économie à la vie privée des individus

F

. Machlup fut également l’un des premiers à montrer le poids économique de l’ industrie de la connais11


sance : en 1960 elle représentait déjà environ 30% du produit intérieur brut (PIB) des Etats-Unis. En 1999, les industries de la connaissance représentent plus de 50 % du PIB de l’ensemble de la zone OCDE1. Google, l’entreprise la plus puissante au monde2 a bati son empire en moins de 15 ans simplement en facilitant l’accès à l’information sur le web. Il faut dire que la mise en réseau des informations permise par le Web a dépassé les espérances des pionniers : aujourd’hui Wikipedia compte plus de 23 millions d’articles, toutes langues confondues; et ce ne sont pas moins de 25h de vidéo qui sont ajoutées sur Youtube chaque minute. Pour les individus, la notion d’information s’est imposée progressivement dans l’espace privé avec le développement des nouvelles technologies de l’information et de la communication (NTIC). Or, comme l’a montré l’anthropologue Jack Goody : « Même si l’on ne peut pas réduire un message au moyen matériel de sa transmission, tout changement dans le système des communications a nécessairement d’importants effets sur les contenus transmis » 3. Se dégage ainsi l’impact des NTIC sur notre rapport à l’information et donc au monde dans une certaine mesure.

1.  OCDE (1999), Mesurer les économies fondées sur le savoir, Paris 2.  classement 2011 de l’agence BrandFinance. 3. GOODY J. (1977), The domestication of the savage mind, Cambridge University Press.

12


Information et liberté, une étroite relation

E

n 1993, le psychiatre Robert Lifton affirmait  : « de nos jours, n’importe qui peut accèder à la totalité des images et des idées véhiculées par le monde contemporain ou par n’importe quelle période culturelle de l’histoire humaine » 4. Pour lui, ce nouveau rapport permet à l’individu d’être plus libre, dans le sens où ces connaissances lui offrent de nouvelles possibilités d’agir, d’expérimenter, de penser par lui-même. En somme, il s’agit là de la définition de la liberté qu’il faudrait compléter par le refus de toute sujétion aux choses et de toute pression d’autrui5. Pourtant aujourd’hui de nombreux auteurs, comme Jeremy Rifkin ou Eli Pariser postulent paradoxalement que ces nouvelles modalités d’accès et de partage enfermeraient plus qu’elles ne libéreraient l’individu. Aujourd’hui, notre rapport à l’information comme enjeu de la liberté est au coeur de tensions vives qu’il faut pouvoir mettre à jour et interroger. Comment ce rapport à l’information a-t-il évolué et permis de transformer les libertés  ? Comment les nouvelles technologies de l’information et de la communication agissent-elles sur ce rapport  ? Sommes-nous condamnés à devenir des consommateurs passifs d’informations après avoir cru à la force libératrice du Web ? Ce sont ces questions qui constituent la problématique de ce mémoire. 4.  LIFTON R. (1993), The prothean self, basic books, p. 17. 5.  définition du CNRTL.

13


Table des matières

Avant-propos 

5

Introduction 

7

Chapitre 1

L’information comme source de liberté 

17

I - L’accès à l’information, composante essentielle de la démocratie moderne 

18

II - « Information wants to be free », l’éthique hacker des années 60 

26

III - Internet et le Web, vers une vraie liberté de l’information 

34

Chapitre 2

Les tensions émergentes d’un nouveau rapport à l’information 

14

43

I - Trop d’informations tuent l’information : les tensions systémiques 

44

II - La « filter bubble » ou les algorithmes qui enferment 

52

III - L’âge de l’accès, la liberté dans la dépendance. 

58


Chapitre 3

Coment repenser notre rapport à l’information ? 

67

I - L’information comme construction de soi 

70

II - Quelle posture adopter ? 

78

III - Vers la construction d’un rapport actif à l’information 

84

Conclusion 

91

Bibliographie & Remerciements

99

15


Chapitre 1

L’information comme source de libertÊ

17


I L’ accès à l’information, composante essentielle de la démocratie moderne La naissance de la notion d’accès à l’information (1600-1900)

L’accès

à l’information est une notion qui a commencé à se répandre chez les humanistes et les scientifiques dès le XVII siècle. On la retrouve notamment dans les écrits du philosophe Francis Bacon1 par exemple. Pour lui comme pour d’autres, cette idée est tout de suite corrélée avec « la nécessité de planifier le progrès continuel pour œuvrer ainsi au bonheur de tous en libérant l’homme de son état. »2 L’accès à la connaissance est ainsi dès son origine vue comme un moyen de faire à la fois progresser chaque individu et la société entière grâce à une « illumination générale des esprits ». Pour comprendre la naissance de cette idée nouvelle, il faut se pencher sur le développement de la rationalisation de la pensée. Pour le sociologue Armand Mattelard, cette idée est directement liée à l’émergence au XVIIe siècle d’une conception des mathématiques 1. BACON F. (1996), A Critical Edition of the Major Works, Oxford University Press, p. 232. 2.  MATTELARD A. (2001), Histoire de la société de l’information, Paris, La Découverte, coll. « Repères », p. 7.

18


comme modèle « du raisonnement et de l’action utile »3; une discipline qui introduit la quête de perfectionnement du monde. Le progrès de la société, le bienêtre et la liberté de chacun deviennent un vrai sujet de travail pour les hommes d’état et les intellectuels. L’accès à l’information appuie ainsi les idées d’universalisme et d’égalité citoyenne sous-tendant la révolution française. Elle est également au coeur du projet démocratique alors envisagé. Parallèlement à cette utopie politique, on perçoit à cette époque une prise de conscience de l’importance des instruments du savoir : la langue, l’écriture et l’imprimerie. Pour que l’accès à la connaissance se démocratise, il faut que chacun puisse parler un langage commun. La révolution et les régimes politiques successifs mettent en place de nombreuses réformes. La langue et l’écriture doivent être normalisées : on supprime les patois et on définit des normes grammaticales4. L’alphabétisation des populations est quant à elle encouragée dans tous les pays occidentaux. En France, l’enseignement des enfants, décrété gratuit, se généralise progressivement avant de devenir obligatoire à la fin du XIXe siècle. C’est également au XIXe siècle que se développent progressivement les bibliothèques publiques modernes5. Parmi ce mouvement de diffusion des savoirs, l’oeuvre 3.  Ibid., p. 5. 4.  Ibid., p. 14. 5. TARDIF V. (2011), La bibliothèque et ses métamorphoses, mémoire de philosophie en DSAA dpm, Paris, École Boulle.

19


de Paul Otlet constitue un excellent exemple. Il a mis en pratique le prolongement des utopies encyclopédiques en tentant de collecter l’ensemble des informations du monde dans un Mundaneum accessible à tous. Pour lui, l’accès de tous à la connaissance est la condition d’un monde en paix. Dans ses écrits, il préfigure même le Web en tant que « réseau nerveux, reliant tous les travailleurs intellectuels du monde à travers un intérêt et un mode d’expression commun vers une unité coopérante de plus en plus consciente »6.

Les technologies de l’information et de la communication au service de la démocratie (1794-1925)

À

cette même époque émerge également la prise de conscience de l’importance des moyens de communication des idées. Posséder des connaissances et parler le langage commun ne suffisent pas. Pour que le pouvoir puisse être donné au peuple par le vote, il faut que celui-ci puisse prendre part à la vie de la cité. Jusqu’alors, l’idée de démocratie se heurtait à une impossible délibération publique. Platon ne définissait-il pas l’optimum de population d’une cité par le nombre des citoyens qui peuvent entendre la voix d’un seul orateur ?7 Mais pour le philosophe des techniques Lewis Mumford les technologies de l’information et de communication comme le télégraphe naissant au début du 6.  OTLET P. (1934), Traité de documentation. 7.  MATTELARD A., op. cit., p. 28.

20


XIXe siècle sont les éléments d’une unité politique qui se rapproche presque « de celle des plus petites cités de l’Attique jadis »8. En août 1794, le ministère de la Guerre inaugure la première ligne de télégraphe optique (Paris-Lille). On peut là remarquer le paradoxe ironique entre l’aspiration à la démocratie que ces outils suscitent et l’origine militaire qui prévaut dans leur mise en place. Une double identité que l’on retrouvera également lors de l’invention d’Internet. De même l’idée que les technologies de l’information et de la communication œuvrent pour la promesse de la concorde universelle n’est pour Armand Mattelard pas nouvelle. Elle est utilisée à chaque génération technologique. Mais cette idée permet d’accélérer l’expansion du télégraphe sur l’ensemble du territoire. L’économiste Michel Chevalier explique ainsi en 1837 : « Améliorer les communications, c’est travailler à la liberté réelle, positive et pratique ; c’est faire participer tous les membres de la famille humaine à la faculté de parcourir et d’exploiter le globe qui lui a été donné en patrimoine […]. C’est faire de l’égalité et de la démocratie »9. Pourtant la technologie ayant véritablement accompagné l’établissement de la démocratie n’est pas celle8.  MUMFORD L. (1934), Technique et civilisation, Seuil, Paris, p. 219. 9.  CHEVALIER M. (1837), Lettres sur l’Amérique du Nord, Librairie C. Gosselin, Paris.

21


là; il s’agit pour l’historienne et sociologue Delphine Gardey de la sténographie. Elle montre que cet art d’écrire aussi vite que l’on parle a véritablement participé à la constitution de la démocratie, en établissant un lien direct entre les débats menés à l’assemblée et les citoyens. A l’époque, la sténographie a tout d’abord été utilisée par la presse naissante pour faire des comptesrendus judiciaires dès le début du XIXe siècle10. Le sténographe et le journaliste n’étant alors qu’une seule et même personne. Rapidement, le compte-rendu et la « publicité » des débats de l’assemblée est également permise grâce à la sténographie, malgré le manque de liberté de la presse. Pour l’historienne, la liberté laissée aux sténographes de prendre en note les débats est un indice du libéralisme d’un régime et « témoigne du degré d’approfondissement démocratique auquel il est parvenu »11.

L’éthique du journalisme : informer, un enjeu politique (1900-1950)

À

cette époque, ce n’est donc pas tant la participation directe du citoyen qui est mise en place mais son information au travers la publicité de la vie parlementaire et des débats politiques. Elle est une condition nécessaire pour l’établissement d’une démocratie représentative et d’un droit de vote progressivement étendu. 10.  GARDEY D. (2008), Écrire, calculer, classer, La Découverte, p. 42. 11.  Ibid., p. 44.

22


Celle-ci se fait au travers d’un corps de métier émergent : les journalistes. La liberté de la presse, progressivement acquise dans les pays occidentaux permet une politisation et une plus grande liberté de ton de ces mêmes journaux. Alors que les titres de presse se multiplient au début du XXe siècle et façonnent le paysage médiatique de l’époque, l’influence des médias sur l’opinion est encore peu perçue. Pourtant, en 1940 le film Citizen Kane de Orson Wells, largement inspiré par le magna de la presse William Randolph Hearst, montre que l’information est une vrai source de pouvoir, dangereuse lorsqu’elle est utilisée ainsi. Hearst fut entre autres à l’origine du « yellow journalisme » dans les années 20 : des histoires sensationnalistes à la véracité discutable. Il utilisa également ses journaux pour exercer une influence politique très forte. Ces premières dérives de la presse mettent progressivement à jour l’importance d’une éthique du journalisme pour une information objective du public. Dans les années 1920, la crise qui secoue les démocraties de l’ouest est aussi une crise du journalisme. Le célèbre journaliste américain Walter Lippmann explique en 1925 que la foule des citoyens peut être trop aisément manipulée par la presse dont elle ne peut pas comprendre les ressorts. Or pour lui liberté et information sont très étroitement liées : « La liberté ne doit ne plus être vue comme ce qui est permis ou interdit. La liberté est le nom d’un processus, celui donné aux mesures qui protègent et augmentent la véracité des in23


formations sur lesquelles nous nous basons pour agir. La liberté est la construction d’un système d’informations de plus en plus indépendant de l’opinion. »12 John Dewey, philosophe de l’éducation et de la démocratie, partage le même constat. Mais les deux hommes n’ont pas le même avis quant à la manière de résoudre ce problème. Lippmann propose de dépasser la démocratie et de faire confiance aux experts bien informés pour diriger le pays. Dewey, au contraire, pense que la démocratie est le bon système politique mais qu’il faut renforcer l’implication des citoyens. Comme les institutions lui sont fermées, la communication13 est primordiale. Pour lui, le rôle de la presse est de rendre transparentes les institutions afin de mobiliser les individus sur les différents enjeux de la politique de leur pays. La formation d’une opinion publique éclairée est pour cela essentielle.

12.  LIPPMANN W. (1920), Liberty and the news. 13.  PARISER E. (2011), The filter bubble, Penguin Books, p.58.

24


25


II « Information wants to be free », le partage des connaissances comme liberté individuelle

« Le partage de l’information est un bien puissant; et il est un devoir éthique des hackers de partager leur expertise en écrivant des logiciels libres et en facilitant autant que possible l’accès à l’information et aux ressources informatiques » –The Jargon file version 4.4.8, fichier maintenu par Eric Raymond

D

ans un premier temps, l’accès à l’information a été pensé comme une liberté citoyenne, nécessaire au fonctionnement d’un régime démocratique. Mais jusqu’au milieu du XXe siècle, l’accès à ces connaissances se fait toujours à sens unique, à travers un intermédiaire filtrant  : les médias. De même, le type d’informations est restreint à celui développé par la presse (géopolitique, judiciaire, sportive...). A l’inverse, les connaissances dans le domaine des idées, des techniques et de la science sont soumises à un très strict contrôle grâce au très large développement législatif de la propriété intellectuelle et industrielle. 26


L’invention et le développement rapide de l’informatique dans les années 40 et 50 bouleversent ce paradigme.

Le code source, entre partage communautaire et propriété intellectuelle

L

’informatique, quant à elle, se développe parallèlement au sein des universités américaines et dans les grandes firmes comme IBM ou Sun microsystems. C’est aussi à cette époque que se crée un véritable écosystème hacker, notamment au MIT. Au sens premier du terme, les hackers sont des passionnés, la programmation est pour eux un véritable jeu, ils y consacrent toutes leurs nuits. Un « hack » désigne « une combinaison ingénieuse, une invention à laquelle personne n’avait encore songé, que personne ne croyait possible avec les moyens du bord, un raccourci qui permettrait de faire plus rapidement, plus élégamment. »14 Pour eux, la communauté et le partage des informations à l’intérieur de cette communauté sont primordiaux. Les programmes sont encore très peu nombreux et sont échangés de main à main, constamment corrigés, enrichis et partagés par d’autres hackers, sans véritable préoccupation quant à la propriété de ces « textes ». C’est ce libre échange des informations et des connaissances qui fonde le lien de la communauté et permet une profusion des avancées technologiques. 14.  TRICLOT M. (2011), Philosophie des jeux vidéos, p. 104.

27


Dans les années 70, il existe ainsi un immense fossé entre la machine (le hardware) extrêmement chère et le logiciel (software) à la fois libre et gratuit. Les fabricants fournissant le matériel tandis que le développement des programmes reste à la charge de l’utilisateur. Mais pour le fondateur de Microsoft, le jeune Bill Gates, cette différence est inconcevable. En 1976, dans une célèbre lettre ouverte aux membres amateurs du Hembrew Computer Club, il argumente en faveur d’un modèle propriétaire du logiciel15 afin que les développeurs puissent être rémunérés pour leur travail. Il adosse pour la première fois à la propriété intellectuelle le code source des programmes. Progressivement, avec le développement du marché du logiciel, les codes sources sont fermés; et même cachés, tandis que l’interdiction de partager les programmes se répand. Pour les hackers du MIT la fermeture par les entreprises de leurs logiciels est un véritable non-sens contre-productif qui détruit les communautés et l’intelligence collective permises par le libre partage des informations. Avec la confiscation de l’information, il devient impossible de modifier et d’améliorer un programme, même si cela se fait au bénéfice de tous.

15.  GATES B. (1976), Open letter to the obbyists of the homebrew computer club.

28


« Information wants to be free »16 , la naissance du mouvement du logiciel libre

« La Californie est l’endroit où il faut être pour se battre en première ligne pour la plus politiquement incorrecte des idées : la liberté individuelle » –documentaire Révolution OS (00 :01 :32)

P

armi ces hackers révoltés, Richard Stallman est particulièrement écœuré par l’installation nouvelle de mots de passe pour accéder aux ordinateurs. Il considère qu’il s’agit là d’une atteinte à la liberté individuelle et un moyen de contrôle des hackers par les administrateurs du système. Suite à cette expérience, il décide de fonder la Free Software Foundation. Le mot « free » étant utilisé dans le sens de liberté d’expression ou d’action plus que de gratuité. Stallman considère que l’information, c’est à dire à la fois le code source et toutes les connaissances permettant de l’améliorer sont la véritable source de pouvoir pour les hackers. C’est pour cela qu’elle doit être libre. A l’inverse, les systèmes propriétaires essayent de restreindre la liberté, de dominer et de contrôler les utilisateurs de leurs programmes. Les idéaux du mouvement du logiciel libre ne sont pas 16.  BRAND S. (1984), Whole Earth Review, p. 49.

29


éloignés du mouvement libertaire des hippies qui souhaitent transformer la société par le bas en se changeant eux-mêmes, plutôt que la société dans son ensemble.17 Pourtant, l’idée que les connaissances doivent être partageables et non pas soumises à la propriété industrielle n’est pas nouvelle, elle n’est pas née avec l’informatique. L’auteur de la déclaration d’indépendance des Etats-Unis, Thomas Jefferson explique déjà en 1813 que : « La propriété stable est le don des lois sociales et est arrivée tard dans la progression des sociétés. Il serait alors curieux qu’une idée, la fugitive fermentation d’un cerveau individuel, puisse être réclamée d’une stable et exclusive propriété de droit naturel. [...] Cette idée devrait se répandre d’une personne à l’autre tout autour du globe, pour la morale et mutuelle instruction de l’homme et l’amélioration de sa condition »18 –Thomas Jefferson (1813)

Mais la remise en cause de la propriété exclusive des informations est enfin réalisée de manière radicale par le développement des logiciels libres. Comme le suggère le chercheur en sciences de l’information et de la 17.  CARDON D., op. cit., p. 177. 18. JEFFERSON T. (1905), From The Writings of Thomas Jefferson, Thomas Jefferson Memorial Association.

30


communication Serge Proulx, avec l’informatique, c’est une nouvelle liberté paradigmatique qui voit le jour. Car pour lui, les actions des pionniers du logiciel libre vont bien au delà de la simple libération de l’information; elles réinterrogent la place des citoyens par rapport aux deux grandes institutions qui régulent sa liberté  : le marché et le parlement19. Trois principes fondateurs le permettent  : « (a) les usagers du système sont considérés compétents pour le transformer à leur guise ; (b) leurs contributions, comme celles des designers patentés, doivent être transparentes et modulaires ; (c) il existe un système de régulation de ce développement souvent considéré à tort comme anarchique »20.

L’éthique hacker, expérimentation d’une nouvelle liberté paradigmatique

C

es trois piliers fondent ce que le philosophe finnois Pekka Himanen a nommé l’éthique Hacker. Largement inspirée par ces pionniers du logiciel libre, cette éthique n’a pris le temps de se formuler elle-même qu’au début des années 2000, avec le recul des années. Il s’agit avant tout d’une conception philosophique des principes des hackers et de leur manière de s’auto-organiser pour concevoir des programmes extrêmement complexes. Elle met en lumière la nouvelle liberté pensée par Proulx sous plusieurs aspects. La première 19.  PROULX S. (2002), La culture du hack en ligne, Les cahiers du numérique n°3, éd. Lavoisier. 20. Ibid.

31


est l’établissement d’un système méritocratique : un hacker doit être jugé sur sa production et non sur de faux critères comme son âge, son sexe ou sa situation sociale. Himanen fait le rapprochement avec la revue par les pairs du monde académique. C’est cette organisation, sans hiérarchie autoritaire qui a été largement décrite comme particulièrement efficace dans la production de nouveaux programmes ou services par le théoricien des médias Clay Shirky 21. C’est également la vision développée par Raymond dans son ouvrage The cathedral and the bazar en 1997 qui décrit comment une organisation décentralisée, un bazar, peut-être plus efficace qu’une structure hiérarchique et autoritaire. C’est la reconnaissance a priori du potentiel de chacun. D’un point de vue théorique, on peut progressivement observer, grâce à l’activisme des hackers, le glissement d’une liberté très théorique à une « capacitation » des individus. L’accès à l’information est alors la condition nécessaire à cette liberté effective, en permettant une indépendance par rapport au marché. Pour Proulx, les hackers revendiquent un idéal de liberté révolutionnaire, dans les termes mêmes de l’époque : « La liberté ne doit pas être dans un livre, elle doit être dans le peuple, et réduite en pratique. » (Saint-Just). » Cependant, cette éthique et l’application concrète de ses principes restent très localisées dans un premier temps. Il faut également souligner que le monde des 21.  SHIRKY C. (2012), « Comment Internet transformera un jour le gouvernement », conférence prononcée à TED en juin 2012.

32


hackers est très uniforme, il s’agit majoritairement d’hommes blancs, américains et issus de milieux sociaux favorisés. Dans le même temps, le développement de l’informatique démocratique ne revêt pas la même aspiration libertaire. Malgré un discours publicitaire très construit sur la démocratisation, Proulx montre que c’est une liberté très limitée qui est proposée au grand public. Comme il faut permettre un apprentissage facile, l’attention des concepteurs se porte sur l’interface. C’est la naissance de la métaphore du bureau. Une grande avancée pour l’accès de chacun à l’outil informatique grâce à la convivialité. Mais c’est une « convivialité qui rend simples un apprentissage et un usage complexes »22. Pour le sociologue le sociologue Thierry Bardini, il faut voir en effet la construction d’un usager moyen par « la réduction systématique de l’apprentissage jusqu’à un plus petit commun dénominateur : cliquer avec un doigt sur sa souris, taper sur un clavier QWERTY, visualiser en deux dimensions sur un écran de télé. »23. Un nivellement par le bas qui place l’utilisateur en position de simple exécuteur et non pas de concepteur.

22.  PROULX S., op. cit. 23. BARDINI T. (2000), « Les promesses de la révolution virtuelle : genèse de l’informatique personnelle, 1968-1973 », Sociologie et Sociétés, XXXII.

33


III Internet et le Web, vers une vraie liberté de l’information

« Dans notre monde, tout ce que l’esprit humain est capable de créer peut être reproduit et diffusé à l’infini sans que cela ne coûte rien. La transmission globale de la pensée n’a plus besoin de vos usines pour s’accomplir. » –John Perry Barlow (1996), Déclaration d’indépendance du Cyberespace

L’internet, le pouvoir de bout en bout

L

e développement du logiciel libre et la remise en cause de la propriété intellectuelle grâce à l’ouverture du code source ont marqué une nouvelle étape dans la conception de l’information comme un bien commun. Mais on l’a vu, cette épopée et ses principes ne touchent alors qu’un très petit nombre de spécialistes tandis que la micro-informatique personnelle ne permet pas au grand public de s’approprier cette nouvelle liberté. Il faut attendre le développement d’Internet pour vraiment voir ces idées toucher un plus large public et s’affirmer d’avantage. Sans s’étendre longuement sur la création d’Inter34


net, il faut tout de même rappeler qu’il s’agit d’un ensemble d’inventions à la fois militaires et universitaires visant à permettre une communication décentralisée. Les réseaux reliant plusieurs ordinateurs existaient déjà et étaient largement utilisés dans les universités américaines par exemple24, mais ils restaient locaux, donc très restreints. Internet, réseau des réseaux, permis la connexion de ces différents nœuds et pris rapidement son essor avec son ouverture au civil en 198325. Ce qui fait la particularité technique d’Internet c’est son protocole. En effet, il repousse l’intelligence dans les deux bouts de la communication : qu’ils soient serveur ou simple ordinateur26. C’est une logique décentralisée qui place sur un pied d’égalité tous les acteurs de ce réseau. Personne ne peut se l’approprier ou même le contrôler, a priori. C’est le principe de la neutralité du réseau. Il est à l’opposé d’un système technique comme le minitel par exemple. Chacun peut y diffuser ce qu’il veut et c’est le succès auprès du public qui arbitre cette chaîne de l’innovation. On passe progressivement d’une conception de la communication des connaissances à sens unique, des médias aux individus, à un système où l’information s’échange directement entre les individus. C’est la fin de l’hégémonie des mass média décrit par Mc Luhan en 1950. Pour Esther Dyson, pionnière d’Internet, 24.  CERUZZI P. (2012), « Aux origines américaine de l’internet », Le Temps des Médias, nouveau monde édition, p.17. 25. Ibid., p. 19.  26. WOLTON D. (2011), La neutralité de l’internet, CNRS éditions, p. 40.

35


« Internet prend le pouvoir au centre et le déplace à la périphérie, il provoque l’érosion du pouvoir que détiennent les institutions sur les individus et donne à ces mêmes individus le pouvoir de gérer leurs propres vies »27. Une liberté nouvelle qui touche de très nombreux domaines, que ce soit la liberté d’expression, la capacité de diffusion ou bien la capacité d’entreprendre. C’est également grâce à ce modèle technique très égalitaire que de simples étudiants comme Larry Page et Mark Zukerberg ont pu créer des empires comme Google et Facebook. Comme le protocole TCP/IP, au fondement d’Internet, ne fonctionnait qu’avec un système d’exploitation Unix, les tenants du logiciel libre et les hackers contribuèrent, avec des forums tels qu’Usenet à diffuser leur éthique. Le succès d’Usenet tient notamment à sa capacité de relier la sphère du travail et des loisirs avec une très grande liberté d’expression.28 C’est le déploiement de l’éthique hacker à un plus large public. Ainsi, « les réseaux de pair à pair, les premiers usages du wi-fi, le développement des outils d’écriture coopérative sur les blogs et les wikis n’ont pas été construits par des équipes de recherche industrielle ou universitaire mais par des usagers curieux et entreprenants »29. Depuis, malgré un développement toujours plus important de 27. DYSON E. (2008), « does google violate its don’t be evil moto ? », conférence prononcée à Intelligence Squared. 28.  PALOQUE-BERGES P. (2012), « La mémoire culturelle d’internet : le folklore de Usenet », Le Temps des Médias, nouveau monde édition, p. 113. 29.  CARDON D., op. cit., p. 17.

36


la sphère marchande en ligne, l’une des grandes particularité d’Internet reste ses espaces non-marchands de communication et de diffusion des connaissances entre individus.

Le Web et l’hypertexte, une redéfinition de la parole publique

L

’arrivée du Web et le développement de l’accès à Internet comme produit de masse, au début des années 90, marquent une autre étape dans la fondation d’une liberté étendue passant par l’information. Il s’agit pour Cardon d’un élargissement considérable de l’espace public et une démocratisation de la diffusion des idées et des connaissances. En effet, comme l’ont montré de nombreux critiques, l’espace public, à travers les médias de masse, est particulièrement sélectif d’un point de vue social, sexuel ou racial30. Le World Wide Web, en revanche, est un système horizontal de pages connectées entre elles par des hypertextes et accessibles via Internet. Ce système a été conçu par Tim Berners Lee en 1989 au CERN. Pensé d’abord comme un outil de communication interpersonnel et non comme un média, le Web est dès l’origine utilisé comme un outil de publication personnel autant que comme un outil de diffusion. Internet et le Web ont comme mythe fondateur une 30.  Ibid., p.25.

37


promesse d’exil et de dépaysement radical, grâce à la multiplicité des publications accessibles en ligne. Le cyberespace est un autre monde, déconnecté de la vie réelle et qui mérite donc son indépendance. L’activiste John Perry Barlow écrit alors une déclaration d’indépendance du cyberespace en 1996 : « Nous créons un monde où chacun, où qu’il se trouve, peut exprimer ses idées, aussi singulières qu’elles puissent être, sans craindre d’être réduit au silence ou à une norme. »31. Tous les centres d’intérêts ont leur place sur la toile. Dans un premier temps, ce sont les pages Web et les forums de discussion qui permettent ce foisonnement d’idées. Cardon souligne également qu’on observe « un détachement entre les personnes et leurs publications pour permettre une meilleur circulation de ces connaissances »32. On se soucie moins de la surveillance de ses écrits que de leur large diffusion. Mais ce qui est accessible sur le Web, n’est pas forcément dans l’espace public. C’est la conséquence directe de la dissolution du monopole de la parole publique des médias traditionnels. Ils étaient les intermédiaires incontournables dont le rôle était de rendre visible ce qu’ils considéraient comme public. Or ce sont désormais les internautes qui définissent eux-mêmes la frontière, souple et mouvante, du privé et du public. C’est le déplacement d’un contrôle éditorial a priori vers un contrôle a postériori qui constitue la nouvelle règle d’or. Sur internet une 31.  BARLOW J.(1996), « Déclaration d’indépendance du cyberespace », [en ligne] URL. http ://editions-hache.com/essais/ barlow/barlow2.html 32.  CARDON. D., op. cit., p.45.

38


très grande liberté d’expression est permise. Elle fait à la fois la grandeur et la misère du Web mais offre à chacun, pour la première fois, la possibilité de s’exprimer dans l’espace publique.

Le Web 2.0, émergence de la figure de l’amateur

I

l ne faut cependant pas oublier qu’en France, en 2000, seul 14,4% de la population possède un accès à Internet chez soi. 10 ans après, ce sont plus de 68% qui en sont équipés33. C’est donc seulement à ce moment que s’effectue véritablement la démocratisation de l’accès à Internet. Avec l’arrivée de nouveaux usagers issus de milieux sociaux moins favorisés, internet change progressivement de visage. Les usages se modifient et s’emmêlent avec la vraie vie, les technologies évoluent vers plus d’interactivité. C’est une nouvelle ère, celle des réseaux sociaux, tendance souvent décrite comme le Web 2.034. À l’utopie du village global succède la vision des réseaux sociaux comme « territoires plutôt que comme bibliothèques »35. Le Web social propose une autre forme d’organisation de l’information. Au lieu de 33.  chiffres de l’Union Internationale des Télécommunications. 34. GUILLAUD H.(2005), « Qu’est ce que le web 2.0 ? », [en ligne] URL. http://www.internetactu.net/2005/09/29/ quest-ce-que-le-web-20/ 35.  CARDON D., op. cit., p.70.

39


n’avoir qu’une fenêtre de départ, le moteur de recherche, l’écosystème informationnel se constitue en partie via le réseau social de l’individu. Ces outils autorisent de plus nombreux niveaux de participation, ce qui permet à de nouveaux types d’utilisateurs d’intervenir. Le retweet est l’emblème de cet engagement minimal permis par les réseaux sociaux. Les rôles traditionnels de producteur et de consommateur, de concepteur et d’usager s’estompent encore d’avantage et se confondent dans des nuances diverses et assumées par les individus. C’est la réapparition de la figure de l’amateur. Longtemps dénigré, n’ayant pas accès à l’espace public, il retrouve de nouvelles lettres de noblesse grâce à Internet. L’exemple de Wikipédia est particulièrement parlant de ce point de vue. Entièrement autogéré et nourri par des contributeurs anonymes, il s’agit aujourd’hui de l’outil de diffusion des connaissances le plus largement consulté36. Pour le philosophe Bernard Stiegler, c’est le désir de création et de construction des individus qui est enfin rendu possible. Les amateurs participent à la transformation de la société par elle-même37. L’impact politique d’internet peut aussi participer à la vie démocratique en tant que plate-forme de communication et espace d’expression. L’actualité récente des 36.  Il est le 7ème site internet le plus consulté en France selon Alexa Internet. 37.  STIEGLER B. (2012), « Figure de l’amateur et innovation ascendante », conférence prononcée dans le cadre du colloque organisé par Vivagora le 18 mars 2008.

40


révolutions arabes est couramment citée en exemple. Après la suppression des réseaux de téléphonie mobile et la surveillance généralisée des moyens de communication, Internet s’est révélé un moyen efficace de mobilisation sociale, de communication entre les protagonistes; et un facteur de diffusion de l’information à l’international38. Si on ne peut réduire ces soulèvements à la question d’Internet, cet exemple met néanmoins en évidence l’importance de la neutralité des réseaux et de l’égalité de tous dans la diffusion des informations. En résumé, l’évolution des technologies de l’information et de la communication ont permis et accompagné un développement exponentiel du partage et de l’accès à l’information. Historiquement, les pratiques se sont progressivement étoffées, de la publicité des débats parlementaires au XIX e siècle à l’émergence de la figure de l’amateur-contributeur aujourd’hui. De part leur structure, les nouvelles technologies de l’information et de la communication ont le potentiel de favoriser, étendre et soutenir des libertés individuelles et collectives nouvelles. Il se dégage alors un espace public élargi dans lequel la figure de l’amateur joue le rôle d’un citoyen plus autonome et dont les libertés d’agir, de penser et d’expérimenter ont été étendues. On l’a vu, de nombreux exemples attestent déjà de cette capacité. Aujourd’hui, cependant, les obstacles à une réalisation universelle de ces nouvelles libertés restent nombreux et de natures très diverses. 38. GONZALES-QUIJANO Y. (2011), Les «origines culturelles numériques» des révolutions arabes, [en ligne] URL. http:// halshs.archives-ouvertes.fr/halshs-00615005

41


42


Chapitre 2

Les tensions émergentes d’un nouveau rapport à l’information

43


I Trop d’informations tuent l’information : les tensions systémiques

S

i le potentiel libérateur des technologies est réel, leur application concrète est loin d’être assurée. Ces technologies et les effets qui leur sont liés possèdent également des limites intrinsèques qui tendent à modifier les comportements vis à vis des différentes informations. La première de ses limites, la plus évidente, est le nombre des informations accessibles en ligne. Un nombre tel qu’on parle aujourd’hui de flux d’informations continu, renforcant l’image d’un ensemble toujours en mouvement. Quelques chiffres mettent en lumière l’incroyable profusion des contenus disponibles sur le Web. Aujourd’hui par exemple, Youtube affirme que ce ne sont pas moins de 48h de vidéo qui sont ajoutés chaque minute sur sa plate-forme1, soit presque huit ans de contenu ajouté chaque jour. A l’autre bout de la chaine aussi les chiffres sont impressionnants. En 2008, les Américains ont englouti, tous médias confondus, quelques 3,6 milliards de teraoctets d’informations en 2008, soit 11,8 heures d’informations par jour et par personne (contre 7,4 heures en 1980)2. 1.  cf. http  ://www.youtube.com/t/faq 2. BOHN R. (2009), « How Much Information ? 2009 », [en ligne] URL. http://hmi.ucsd.edu/pdf/HMI_2009_ ConsumerReport_Dec9_2009.pdf

44


Une surcharge informationelle qui paralyse

I

l est facile de postuler l’idée d’une causalité directe entre l’augmentation exponentielle du nombre des ressources disponibles en ligne et une maximisation de la liberté individuelle. Le psychologue Barry Schwartz3 montre en effet qu’il existe un dogme profondément ancré dans les sociétés occidentales : celui du choix. Pour améliorer le bien-être des individus il faut maximiser leur liberté individuelle. Et la meilleure façon de le faire serait de maximiser les choix. Cependant, pour le psychologue les choses sont loin d’être aussi simples. Plus nous avons de possibilités, plus celles-ci nous paralysent, au lieu de nous libérer. C’est le paradoxe du choix. En effet, faire un choix, aussi insignifiant soit-il, représente un grand coût cognitif pour un individu. Or notre attention est limitée et le nombre des informations accessibles croît chaque jour. Ce trop-plein de possibilités tend paradoxalement à nous immobiliser. Et, pire que cela, elles tendent à provoquer de l’insatisfaction une fois que l’on a finalement fait un choix. Difficile de ne pas imaginer que l’article que l’on a délaissé était finalement bien plus intéressant que celui qu’on vient de parcourir... D’ailleurs, en matière d’informations les chiffres

3.  SCHWARTZ B. (2005), « Le paradoxe du choix », conférence prononcée à TED en juillet 2005.

45


sont éloquents   : une étude menée en 2010 par Infolab4 révèle que « 76% des français se sentent submergés par l’information ». Celle-ci est pourtant perçue comme un besoin immédiat et permanent. Le paradoxe de cette instantanéité à la fois désirée et subie provoque un sentiment d’accélération sans fin du flux d’informations et donne l’impression d’un manque de contrôle très angoissant. L’idée d’un flux toujours plus important participe d’une impression d’accélération que le sociologue Hartmut Rosa esquisse comme particulièrement frustrante et éprouvante pour les individus5. Il semble ainsi que rendre accessible une très grande masse d’informations ne soit pas automatiquement libérateur pour l’individu, au contraire.

La surcharge informationelle ambiante comme cercle vicieux

Pourtant, il semble que cette masse d’informations

du Web, sans commune mesure avec les siècles précédents, ne puisse pas être si facilement incriminée. En fait, « La surcharge informationnelle ne date pas d’au-

4.  étude de l’express réalisée en 2011, [en ligne] URL. http  :// fr.slideshare.net/ers/etude-sur-les-tendances-de-consommation-des-franais-par-lexpress-infolab 5.  ROSA H. (2010), Accélération, une critique sociale du temps, La Découverte.

46


jourd’hui », rappelle la chercheuse Anaïs Saint-Jude6. Ce sentiment de dépassement, de surcharge se retrouve à toutes les époques de l’humanité, de la Grèce Antique à aujourd’hui. Chaque époque la ressent comme quelque chose de nouveau, les exemples ne manquent pas : « Pour Sénèque, l’abondance de livres est une distraction. Descartes, dans Recherche de la vérité par la lumière naturelle, explique qu’on passe plus de temps à choisir les livres qu’à les trouver... »7. Il semblerait qu’il existe en fait plusieurs surcharges informationelles. Le blogueur Nicholas Carr explique ainsi qu’il y en a deux types distincts : une « surcharge conjoncturelle » et une « surcharge ambiante »8. Pour lui, les raisons de la surcharge conjoncturelle ont trait à un trop plein de bruit : multiplication des accès à l’information non pertinente, informations contradictoires, flots continus de messages. Mais le problème n’est pas le bruit excessif, les filtres naturels de notre attention nous en préservent. Pour lui, le vrai sujet concerne la « surcharge ambiante », c’est à dire le fait d’être entouré d’informations qui sont d’un intérêt immédiat pour nous. Dans cette « ambiance », sous couvert de pertinence, nous serions rentrés dans un cercle 6. GUILLAUD H. (2012), « Notre surcharge informationnelle en perspective », [en ligne] URL.  http://www.internetactu.net/2012/02/29/ lift12-notre-surcharge-informationnelle-en-perspective/ 7. Ibid. 8.  CARR N. (2011), « Situational overload and ambient overload », blog de Nicholas CARR, [en ligne] URL. http://www. roughtype.com/ ?p=1464

47


vicieux  : ouverture de nouveaux onglets finalement jamais explorés, lecture en biais de tous les hypertextes des articles que nous apprécions au lieu de n’en choisir qu’un, etc. En fait, au lieu de construire notre rapport à l’information et au monde, nous courons sans cesse après le flux continu des informations sans pouvoir en retenir.

La hiérarchisation de l’information, une organisation qui reproduit les inégalités

L

’une des raisons de cette surcharge est le manque apparent de hiérarchisation de l’information sur le Web. L’hyperlien, véritable moteur du Web a contribué à véhiculer l’image d’un réseau parfaitement horizontal dans lequel chacun pourrait librement avoir accès à tous les nœuds de la toile. Si l’on vient de voir que cette utopie est loin d’être réalisable à cause de nos biais psychologiques, d’autres facteurs entrent également en jeu. Comme le souligne le sociologue Domique Cardon la hiérarchisation des informations n’est plus faite avant la publication mais après. « D’ailleurs, ce n’est pas parce que la hiérarchisation préalable de l’information s’est déplacée qu’on a fait disparaître toute hiérarchie »9. Elle n’est plus réalisée par une autorité spécialisée mais collectivement par les internautes et les algorithmes. Ce nouvel agencement est bien évidemment 9. CARDON D. (2012), « Pourquoi l’internet n’a t-il pas changé la politique ? », interview avec InternetActu.

48


potentiellement libérateur; mais le chercheur souligne que les inégalités sociales et culturelles se distribuent désormais à l’intérieur des pratiques en ligne. Si l’on ne prête attention qu’au sommet de la hiérarchisation de l’information sur internet, on remarque que l’agenda d’internet ne présente que des différences mineures avec les médias traditionnels. L’Internet participatif ne fait alors que reproduire les critères de légitimité des médias10. La fracture n’est plus entre ceux qui ont un accès et ceux qui ne l’ont pas, mais dans les usages que les gens font d’internet… Le chercheur en sciences de l’information et de la communication Dominique Wolton souligne cet effet lui aussi : « La complexité des rapports entre information, culture, représentation, idéologie réapparaît dès lors que les informations sont nombreuses. Le volume d’informations et la liberté d’accès ne créent pas forcément plus de rationalité dans le comportement du récepteur »11. Le progrès technique, le potentiel d’une technologie n’entraînent pas mécaniquement un accès plus facile au savoir, comme le soulignaient déjà en 1985 Michel Grumbach et Jean-Claude Passeron, « Aucune innovation technologique n’a jamais eu raison, par la seule grâce du médium, des inégalités culturelles produites et reproduites par le jeu bien rodé des structures et des 10.  CARDON D., op. cit., p. 96. 11. WOLTON D.(2004), « Information et Communication, dix chantiers scientifiques, culturels et politique », Hermes.

49


hiérarchies sociales »12. C’est ce qui pousse le journaliste et philosophe japonais Tatsuru Uchida13 à poser la problématique de ceux qu’il appelle les réfugiés de l’information. Un problème qui vient de la capacité à savoir sélectionner les sources. Pour lui, « sur Internet, les informations de bonne qualité ont tendance à être concentrées sur les sites fréquentés par les "internautes qui émettent ces informations" et les "individus capables d’en estimer la valeur" »14 En revanche, « l’information de caniveau » a tendance à être concentrée sur les sites fréquentés par les internautes qui ne peuvent pas juger de la qualité de l’information. Ces derniers, les réfugiés de l’information, se caractérisent par une tendance à souscrire à des analyses simplistes comme, par exemple, des théories du complot : interprétations du monde qui nécessitent peu de réflexion. Ainsi ce sont de nouvelles tensions qui apparaissent à l’ère du Web et de l’information « accessible ». Malgré son potentiel libérateur, cette masse de contenus disponibles tend à devenir aliénante plus qu’émancipatrice. De même, avoir l’accès à l’information ne signifie pas pour autant que chacun puisse en profiter, car les inégalités se répercutent à l’intérieur des pratiques en ligne. 12. GRUMBACH D., PASSERON J-C. (1985), L’Œil à la page : enquête sur les images et les bibliothèques, Bibliothèque Publique d’Information. 13.  UCHIDA T. (2011), « Sauvons les réfugiés de l’information ! », Courrier International, n°1092, 6 Octobre 2011. 14. Ibid.

50


51


II La “filter bubble” ou les algorithmes qui enferment

« Alors que le pouvoir se déplace vers les individus, au sens où nous avons infiniment plus de choix dans les médias que nous consommons, le pouvoir n’est toujours pas au mains des individus. » –Eli PARISER, 2011 The Filter Bubble, p.61

La révolution de la personnalisation, ou comment les algorithmes nous façonnent

A

ux biais « humains » que l’on vient d’évoquer il faut rajouter ceux des technologies que nous utilisons tous les jours. L’avènement d’internet a vu naître le mythe, relayé notamment par le critique du N-Y Times Jon Parel15, d’une suppression des intermédiaires entre les connaissances et les individus. L’entrepreneur philanthrope du Web Eli Pariser prend le contre-pied de ce qu’il considère comme une illusion. Il montre ainsi 15.  PAREL J. (2009), « a world of megabeats and megabytes », New york Times, 30 décembre 2009, [en ligne] URL. www. nytimes/2010/01/03/arts/music/03tech.html

52


que les intermédiaires sont toujours bien présents; et d’autant plus puissants qu’ils deviennent invisibles16. C’est ce qui a conduit le juriste Lawrence Lessig à écrire « code is law »17. D’après lui le choix des infrastructures sont plus contraignants pour les utilisateurs que les lois elles-mêmes. De la conception même de nos outils dépend en grande partie notre liberté. Et cela se traduit évidemment dans notre accès à l’information car ce ne sont plus seulement les journalistes, les éditeurs ou même les amis qui sélectionnent ce que nous verrons ou lirons mais les applications (Facebook...) ou les algorithmes (Google) que nous utilisons... Eli Pariser montre ainsi comment les algorithmes de personnalisation ont pris le pouvoir dans notre rapport à la connaissance. Ils sont devenus les intermédiaires entre l’immense base de données qu’est le Web et nous. Pour Google, cela s’est produit en décembre 2009. Peu s’en sont alors rendus compte mais le moteur de recherche a commencé à personnaliser ses résultats. Depuis cette date, pour une même requête, deux personnes peuvent obtenir des résultats complètement différents. Ces résultats étant sélectionnés par Google comme les plus pertinent pour vous; et vous uniquement. Or cette personnalisation pose de nombreuses questions sur la façon dont elle joue avec la liberté individuelle. Peut-on parler de choix lorsque les choix sont faits pour nous ? 16.  PARISER E., op. cit., p. 60. 17. LESSIG L. (2006), Code : Version 2.0, [en ligne] URL. http ://codev2.cc/

53


Pendant des siècles, explique l’essayiste Frank Shirrmacher18, ce qui était important pour nous était décidé par notre cerveau : désormais, il sera décidé ailleurs : « par nos objets, par le réseau, par le nuage d’informations dont nous dépendons. ». Nous sommes alors forcés de faire confiance aux entreprises qui prétendent exprimer et synthétiser correctement ce que nous voulons vraiment. Les algorithmes de personnalisation fonctionnent en trois étapes : ils supposent qui nous sommes et ce que nous aimons à partir des données récoltées. Ensuite, ils proposent les contenus et services dont ils estiment qu’ils nous conviennent. Enfin, ils ajustent en fonction de nos actions pour obtenir ce qui nous convient le mieux. Ainsi, notre identité présumée façonne nos médias. Mais il y a un défaut dans cette assertion. L’inverse est aussi vrai : les médias façonnent également notre identité. En fait, ces algorithmes finissent par nous transformer.

Ce que vous voulez, que vous le vouliez ou non

P

our tester cette hypothèse, de nombreux chercheurs ont mené des études sur la façon dont les informations auxquelles nous avons accès façonnent notre perception du monde. Shanto Iyengar, chercheur en 18.  SCHIRRMACHER F. (2009), « The age of informavore », [en ligne] URL.http ://www.edge.org/3rd_culture/schirrmacher09/schirrmacher09_index.html

54


sciences politiques a montré en 198219 que les informations auxquelles nous sommes le plus exposés prennent plus d’importance que celles qui ne sont pas évoquées. Dans le cadre de la bulle filtrante, cela revient à enfermer encore plus l’individu dans ses propres centres d’intérêt en l’empêchant d’accéder facilement à d’autres sujets qui lui sont moins familiers. Ce principe renforce également un autre biais cognitif connu, le biais du présent. Il s’agit de la différence qui existe entre les aspirations du moi futur et celles du moi présent. Le sociologue Niklas Luhmann a montré20 dès 1968 que nous donnons plus de valeur à certaines activités ou informations mais qu’en pratique, nous consacrons beaucoup plus de temps à des activités ou informations qu’on considère comme ayant peu de valeur et dont on retire peu de satisfaction. Un des exemples les plus simples étant celui d’un film, un classique du genre, qu’on repousse toujours au lendemain au profit d’un simple film d’action sans envergure. Et cette différence se retrouve alors dans les informations que nous choisissons à travers nos clics et nos recherches. Or ce sont ces actions qui alimentent en données les algorithmes de personnalisation. En retour ceux-ci tendent alors à renforcer encore plus ce biais naturel en favorisant les contenus préférés par le moi présent et donc en orientant toujours plus nos choix futurs. 19. IYENGAR S. (1982), «  Experimental demonstrations of the ‘not-so-minimal’ conséquences of television news », American Political review 76, n°4. 20.  LUHMANN N. (1968), La rareté du temps, p.148.

55


Ainsi se crée un cercle vicieux qui n’incite pas l’individu à se rapprocher de ses aspirations. La chercheuse Danah Boyd fait l’analogie entre l’information et la nourriture. « si nous n’y prêtons pas attention, nous risquons de développer l’équivalent psychologique de l’obésité. Nous pourrions nous retrouver à consommer les contenus qui sont les moins bénéfiques pour nous ou pour la société dans son ensemble. »21

La fin de la sérendipité

I

l faut le reconnaître, ce processus existait déjà avec les journaux et la télévision par les mécanismes de l’audimat. Cependant, explique Eli Pariser, nous pouvions être conscients de ces biais. En général, on connaît la ligne éditoriale du quotidien que l’on achète et l’on sait qu’il existe une ligne autre dans un quotidien concurrent. Le problème aujourd’hui, c’est que la bulle filtrante est invisible et qu’on ne peut déjà plus y échapper. Quand toutes nos requêtes sont filtrées à travers le prisme de ce que nous connaissons déjà, il devient alors facile d’oublier d’élargir ses perpectives. Et c’est l’un des principaux problèmes soulevés par ces algorithmes : le déclin de la sérendipité. La sérendipité est le fait de réaliser une découverte inattendue

21.  BOYD D. (2009), conférence donnée en 2009 au Web 2.0 expo.

56


grâce au hasard22. C’est une notion très liée à l’activité scientifique et déjà évoquée par Voltaire dans Zadig23. Le Web et l’hypertexte ont démocratisé à la fois le mot et le phénomène lui-même. L’hypertexte amène à divaguer, à découvrir sans cesse de nouveaux horizons. C’est l’un des apports du Web sur la liberté individuelle. En effet, dans son ouvrage Of sirens and amish children, le théoricien de l’information Yochai Benkler décrit comment des sources d’informations diversifiées nous rendent plus libre. Pour être libre il ne faut pas seulement pouvoir faire ce que l’on veut, il faut d’abord savoir ce qu’il est possible de faire. En cela, l’état permanent d’exploration permis par l’hypertexte est un excellent outil de la liberté. Mais cet horizon des possibles est pourtant considérablement amaigri par la bulle filtrante qui s’en tient –c’est sa raison d’être–, aux contenus déjà appréciés par l’individu. Le théoricien des médias Steven Johnson renchérit même en affirmant que la créativité naît de la sérendipité, la rencontre impromptue avec de nouvelles idées ou points de vue. Il cite ainsi le Web comme un terrain particulièrement fertile aux découvertes et à la créativité qui en découle. Mais le fonctionnement des algorithmes de personnalisation va à l’encontre de l’idéal des pionniers du Web sur l’utilité de l’hypertexte. En sélectionnant ce qui se rapporte de près à ce que l’on connaît et apprécie déjà, ils créent pour chaque individu une belle cage dorée. 22.  GINZBURG C. (1980), « Signes, traces, pistes – Racines d’un paradigme de l’indice », Le Débat, n° 6. 23.  définition de Wikipédia.fr.

57


III L’âge de l’accès, la liberté dans la dépendance. Une redéfinition de la liberté

L

es algorithmes de personnalisation ne sont pas les seuls à altérer notre liberté d’action en faisant les choix à notre place. La présence d’intermédiaires nouveaux ayant un impact direct sur la liberté individuelle est un phénomène également décortiqué par l’économiste Jeremy Rifkin. Dans son ouvrage L’âge de l’accès, il applique cette conception à la société entière. Il postule l’avènement actuel d’un nouvel âge économique qui ne repose plus sur la propriété mais sur l’accès. Aujourd’hui, on peut déjà en voir de nombreux exemples. On ne possède plus sa bibliothèque Itunes© ou ses livres sur Kindle©, on a seulement le droit d’y accéder24. Cette nouvelle conception économique va à l’encontre des idéaux de partage et libre accès à Internet qui permettraient une démocratisation de l’espace publique. Cette nouvelle liberté tant vantée est aujourd’hui largement remise en cause par la sphère marchande. L’impitoyable guerre à la visibilité qui règne sur internet 24. UNTERSINGER M. (2012), «  MP3, ebooks... on a vérifié, ils ne vous appartiennent pas », [en ligne] URL. ht t p : // w w w. r u e 8 9. c o m /r u e 8 9 - c u lt u r e / 2 01 2 / 0 9 / 2 6 / mp3-ebooks-verifie-ils-ne-vous-appartiennent-pas-235508

58


favorise en effet les gros acteurs qui ont les moyens de développer des stratégies de la visibilité25. L’idée même de la propriété comme fondement du capitalisme est en train de s’effacer au profit de l’accès. Avec la disparition de l’idée de propriété, c’est aussi l’idée du copier-coller –je partage sans être dépossédée de mon contenu– qui est aujourd’hui mise en danger. Car la logique de l’accès renforce l’individualisation des connaissances (je ne peux plus partager puisque je ne possède pas). Elle suppose également des intermédiaires qui ne disparaissent pas une fois le contenu acquis. Amazon peut et a déjà supprimé des livres dans ses « Kindles » même après leur achat. L’entreprise reste ainsi propriétaire des contenus auxquels elle donne accès, restreignant d’autant plus les libertés jusqu’alors acquises par l’acheteur. Le droit de partager ou bien de revendre un bien ne lui est plus acquis. Il s’agit là d’une restriction directe de sa liberté. Rifkin démontre en outre que la logique de l’accès et l’enchaînement des expériences culturelles dispensées par les grands fournisseurs de contenu est symptomatique d’une marchandisation grandissante de la vie des individus. Dans cette optique, l’information n’est plus le moteur de la construction de soi mais une suite de divertissements. Il y a une vraie tension entre la fin de l’idée de propriété porteuse potentiellement de liberté et la naissance d’une culture de l’accès qui marchandise l’existence en transformant la nature même de la liberté. Il explique ainsi : 25.  CARDON D., op. cit., p. 95.

59


« Dans une économie de prestataires et d’usagers fonctionnant en réseau et où l’interdépendance est le principe structurant de toute activité, la notion de liberté prend une toute autre signification. Ce sont les droits d’accès et d’inclusion plus que l’autonomie et la possession, qui définissent fondamentalement la liberté. »26 On voit ainsi bien comment les nouveaux tenant de l’économie de la connaissance et les outils qu’ils mettent en place pourraient transformer de manière importante notre liberté individuelle

Vers une nouvelle passivité

A

vec la logique de l’accès revient celle de la passivité. Bien loin de l’idéal libérateur d’un Web qui saurait libérer et partager les informations, cette conception naissante de la liberté renvoie l’individu au simple statut de consommateur. Là où l’individu partait explorer et découvrir le Web; aujourd’hui, on recherche des contenus déjà ciblés27. Il faut dire que les moteurs de recherche sont devenus les portes d’entrée presque automatiques du Web. C’est un changement de paradigme profond d’Internet. Cela permet de trouver plus 26.  RIFKIN J. (2000), L’âge de l’accès, Paris, La Découverte, p. 255. 27.  BATTELLE J. (2005), The Search : how google and its rivals rewrote the rules of business and transformed our culture, penguin books.

60


efficacement ce que l’on cherche et c’est une bonne chose. Mais cela place également les intermédiaires en position de force et renvoie l’individu en position passive de simple « zappeur ». Dominique Cardon pointe également un changement dans les critères de hiérarchisation de l’information. Les indicateurs d’audience sont devenus omniprésents sur internet. Ils imposent le nombre de « pages vues « comme critère principal du classement. Or cette métrique ne suppose aucun acte de participation de l’internaute, elle enregistre simplement son comportement. Pour le sociologue, « les pages vues ont importé dans l’univers du Web la logique des audiences de masse de la télévision.28 ». Sur les sites de partage de vidéo comme Youtube ou Dailymotion, ce sont les pages vues qui organisent et structurent la hiérarchie des contenus, empêchant de diversifier les critères d’appréciation sur la qualité des contenus. On peut également citer l’exemple du bouton facebook, particulièrement significatif de ce point de vue. Au moment de sa création la question de son appellation s’est posée. Il aurait pu être nommé « ça m’intéresse » par exemple. Mais le fait que le « j’aime » ait finalement été choisi est révélateur. En effet, on ne donnera pas un « j’aime » aux mêmes contenus que ceux auxquels on donne un « ça m’intéresse ». Dans le premier cas, on favorise les informations simples, heureuses et consensuelles quand dans le deuxième cas on incite à une vraie prise de position et d’affirmation 28.  CARDON D., op. cit., p. 96.

61


de soi-même. Encore une fois, c’est un autre niveau de participation, bien moins exigeant qui est demandé à l’individu.

Des outils qui renforcent nos biais

I

l existe un dernier type d’intermédiaires qui renforce notre dépendance : nos outils de gestion de l’information. En effet, au lieu de nous aider à limiter les effets pervers du flux d’informations que nous devons gérer chaque jour, les programmes que nous utilisons renforcent nos biais cognitifs. Pour Danah Boyd, ethnologue à Microsoft : « La plupart de nos outils sont conçus pour nous faire nous sentir coupables quand nous avons laissé des choses “non lues” ».29 Il faut dire que nos outils de base de traitement de l’information sont restés les mêmes, ou presque, depuis qu’on les a inventés. En fait, on demande à nos pratiques de s’adapter aux technologies et non l’inverse. Or cela renforce la sensation de toujours courir après l’information. Le journaliste Hubert Guillaud prend l’exemple du mail pour illustrer à quel point nos outils renforcent l’aliéna-

29. BOYD D. (2012), « The Power of Fear in Networked Publics », conférene prononcée au SXSW à Austin, Texas, en mars 2010.

62


tion que le flux peut avoir30. En ne nous permettant pas de reprendre conscience du mail auquel nous n’avons pas répondu et qui sombre avec son étiquette colorée au fond de la boite de réception, nos outils renforcent notre sentiment de perte de contrôle. Pour le pionnier d’ Internet, Douglas Rushkoff, la situation actuelle peut être résumée par la maxime : « programmer ou être programmé ». Au lieu d’enseigner la programmation, on enseigne des programmes tous faits, ce qui place dès le début l’individu en position de consommateur. Ainsi l’élève devient la partie mobile, celle qui s’adapte tandis que le programme est la partie immuable. Rushkoff affirme que cette dépendance est au coeur des tensions du monde numérique. Il pointe l’émergence d’une nouvelle classe de « scribes » : les développeurs31. En effet, aujourd’hui, ce sont eux qui possèdent la connaissance des outils et se placent ainsi à l’interface entre le savoir et l’individu. Or « ce sont des interfaces au travers duquel nous exprimons ce que nous sommes et ce en quoi nous croyons »32. La responsabilité de ceux qui conçoivent nos outils est importante mais peu en sont conscients. En résumé, les tensions émergentes du nouveau 30. GUILLAUD H. (2012), « La capacité prédictive de nos systèmes socio-techniques va-t-elle tuer notre libre arbitre ? », [en ligne] URL. http ://www.internetactu.net/2009/11/18/lacapacite-predictive-de-nos-systemes-socio-techniques-va-t-elletuer-notre-libre-arbitre/ 31.  RUSHKOFF D. (2011), Les 10 commandements de l’ère numérique FYP éditions, p. 85. 32. Ibid.

63


rapport à l’information permis par Internet sont de trois ordres. Le premier réside dans les biais humains qui empêchent une véritable appropriation généralisée des informations disponibles. Que ce soit par le développement d’une surcharge informationnelle ou bien par la reproduction des inégalités dans les usages en ligne. Le second biais se trouve du côté des algorithmes conçus justement pour nous aider à contrer ces premiers biais : les algorithmes. On l’a vu, ceux-ci tendent à créer une bulle filtrante qui enferme l’individu dans son propre écosystème informationnel, déconnecté des contenus qui lui sont moins familiers. Le troisième des biais est celui qui naît dans les nouvelles pratiques économiques, une dépendance réaffirmée vis à vis des producteurs de contenus comme des outils utilisés pour les gérer. Aujourd’hui, pour Pariser comme pour Rifkin, deux voies très différentes s’offrent aujourd’hui à nous. La première : l’information par et pour le peuple, utopie d’une forme plus démocratique et participative de la connaissance qui a longtemps été acclamée avec le développement du Web. Mais un autre futur se dessine également : « la création d’un nouveau type de troupeau grâce au profiling du marketing »33. Un avenir dirigé par les programmes et algorithmes que nous utilisons, un avenir qui renvoie au simple statut de consommateur des individus soumis au flux des informations.

33.  STIEGLER B., op. cit.

64


65


66


Chapitre 3

Comment repenser notre approche de l’information ?

67


I

nternet et le Web peuvent potentiellement élargir la liberté d’agir et de penser. Celle-ci peut prendre plusieurs formes mais est généralement basée sur l’accès, le partage ou la publication de la connaissance. Comment faire de l’accès et du partage de l’information le véritable catalyseur de la liberté aujourd’hui ?

Les conditions nécessaires pour le déploiement d’une nouvelle liberté

Avant même d’envisager notre rapport à l’infor-

mation comme facteur de liberté, encore faut-il pouvoir en conserver le potentiel technique. En effet, Internet, de part la très grande liberté d’expression et de diffusion des informations qu’il permet, voit son principe de neutralité régulièrement remis en cause par les fournisseurs d’accès et les législateurs. Issu de l’architecture d’internet, ce principe garantit l’égalité de traitement et la confidentialité de tous les flux de données ; qu’il s’agisse de la simple page Web d’un amateur de peinture ou de sites extrêmement puissants comme Youtube. Comme le souligne D. Wolton, c’est bien avant tout dans cette neutralité que réside le potentiel libérateur d’Internet. Pour lui, il s’agit de « la prise en compte de la société civile et des usagers, non seulement comme des consommateurs des produits et services de industrie de la connaissance et de la communication, mais aussi comme producteur d’intelligence collective, utilisant le réseau d’informations pour leurs activités 68


sociales, communicationnelles ou culturelles »1. On peut voir dans le caractère partageable des connaissances une seconde condition. En effet, la connaissance est souvent considérée par les économistes comme un bien public, c’est-à-dire « non-excluable (il est difficile d’empêcher le savoir de circuler) et non-rival (ce que je sais ne prive personne du même savoir) »2. Or, pour la théoricienne des biens communs et prix nobel d’économie Elinor Ostrom, l’informatique crée de nouvelles conditions d’appropriabilité privée. La connaissance inscrite dans des documents numériques peut ainsi se trouver empêchée de circuler; par l’installation de DRM3 sur les fichiers par exemple ou par des systèmes d’accès exclusifs décrits par Rifkin. A l’inverse de ces pratiques restrictives de la diffusion des connaissances, on peut souligner des initiatives comme le mouvement l’open access dans l’édition scientifique. Il rend consultable par tous des très nombreuses publications scientifiques. La préservation d’un réseau neutre et la libre circulation des connaissances sont donc deux conditions sine qua non du développement des écosystèmes amateurs au fondement de la liberté élargie que l’on a définie. 1.  WOLTON D., op. cit., p. 145. 2.  LE CROSNIER H. (2012), « Elinor Ostrom ou la réinvention des biens communs », [en ligne] URL. http://blog.mondediplo.net/2012-06-15-Elinor-Ostrom-ou-la-reinvention-desbiens-communs#nb15 3. Ces outils de Digital Rights Management (« gestion des droits numériques ») interdisent par exemple de recopier ou de partager un livre ou un film.

69


I L’information comme construction de soi L’information comme matériau de la création de sens

« La consommation [d’informations] ferait figure d’activité moutonnière, progressivement immobilisée et traitée grâce à la mobilité croissante des conquérants de l’espace que sont les médias. Aux foules il resterait seulement la liberté de brouter la ration de simulacres que le système distribue à chacun. Voilà précisément l’idée contre laquelle je m’élève [...]. » −Michel de Certeau, 1980, L’invention du quotidien : 1. arts de faire

C

es conditions ne sont cependant qu’un premier pas. Quelles démarches peut-on entreprendre pour profiter d’un rapport libérateur à l’information ? Comment éviter les écueils qui aliènent, qu’ils soient humains ou technologiques. Pour esquisser une réponse, il faut tenir compte du rapport ontologique, au sens de Heidegger, que chacun entretient avec l’infor70


mation et la façon dont celle-ci nous façonne. Comment les outils, prismes à travers lesquels les individus perçoivent l’information, influencent-ils leur façon de la consommer ? Du point de vue des industries médiatiques, l’information est traditionnellement un ensemble de données distribuées unilatéralement à un public passif. Michel de Certeau désigne cette vision d’un individu inactif face au flux de l’information comme étant erronée. En regard de l’analyse du philosophe Michel Foucault qui décrit une société surveillée et contrôlée par le haut; Michel de Certeau, lui, met l’accent sur les « ruses » mises en place par les individus face aux industries culturelles. Les pratiques actuelles, comme les innombrables détournements circulant sur le Web montrent le rapport extrêmement actif et productif des individus face aux contenus auxquels ils sont exposés. Chacun construit son propre écosystème informationnel, produisant une activité d’interprétation des informations à partir d’autres connaissances déjà emmagasinées et par le biais de ses outils. Pour comprendre ce processus, il faut approfondir l’analyse des termes information et connaissance. L’étymologie d’information est « ce qui forme, ce qui façonne l’esprit ». De l’information à la connaissance, il n’y a qu’un pas, un changement d’angle de vue. L’information est le matériau de la création de sens, c’est un élément indépendant. La connaissance en revanche est construite, elle fait sens. De l’information en tant qu’ensemble des données véhiculées, on 71


aboutit à la connaissance comme création de sens par l’individu. Dans tous les cas, c’est une démarche active de la part de l’individu. Et il y a autant de nuances de compréhension d’une information qu’il y a d’individus récepteurs. Ainsi, la chercheuse en TIC Sylvie Leuleu Merviel s’interroge : « A quelle condition cette information favorise-t-elle la construction du sens ? »4. A cette question, le linguiste François Rastier répond que le sens est un « phénomène contextuel »5, c’est à dire qu’il ne peut pas être construit sans le contexte. Au sein de ce dernier, on peut distinguer trois dimensions. La première concerne la réception par l’individu des informations qu’il transforme en connaissances. La seconde est relative à la production de ces informations et donc liée à la pensée de leur émetteur. La troisième, quant à elle, est inhérente au support de l’information lors de sa transmission.

L’influence des extensions de la mémoire sur le développement de la pensée

O

r l’influence du moyen matériel sur le contenu transmis est particulièrement prégnant, c’est ce qu’éta-

4. LELEU-MERVIEL S. (2008), Quelques révisions du concept d’information, éd. Hermes. 5.  RASTIER F. (2003), « De la signification au sens. Pour une sémiotique sans ontologie », [en ligne] URL. http://www.revuetexto.net/Inedits/Rastier/Rastier_Semiotique-ontologie.html

72


blissait en 1977 l’anthropologue Goody6. Le moyen matériel servant à la transmission de cette information étant à la fois un support de l’information et une extension de la mémoire. Pour l’anthropologue et paléontologue spécialiste des techniques Leroi-Gourhan, ces outils sont au coeur même de l’évolution des processus de pensée. Il explique ainsi qu’il se produit une différenciation biologique entre l’australopithèque et le néandertalien au niveau du cortex cérébral : ce que l’on appelle l’ouverture de l’éventail cortical7. Mais, à partir du néandertalien, dit Leroi-Gourhan, le système cortical n’évolue pratiquement plus. C’est à dire que l’équipement neuronal du néandertalien, 200 000 ans avant notre ère, est assez semblable au nôtre. Or, depuis l’époque du néandertalien jusqu’à nous, la technique a énormément évolué. Cela signifie que l’évolution technique ne dépend plus de l’évolution biologique. Le concept technique n’est pas inscrit d’avance dans une organisation biologique du cerveau. « C’est en ce sens que l’on peut dire que l’hominisation est un processus d’extériorisation : l’espace de différenciation se produit hors de l’espace strictement biologique. »8 Cette théorie d’un apprentissage de la pensée prenant racine dans les techniques est corroborée dès le début du XXème siècle par le psychologue constructiviste russe Lev Vigotski. Ayant toute sa vie travaillé sur le 6. GOODY J. (1977), The domestication of the savage mind, Cambridge University Press. 7.  LEROI-GOURHAN (1965), Le Geste et la Parole, Technique et Langage, Albin Michel. 8. Ibid.

73


développement de la pensée humaine notamment dans l’enfance, il postule que la construction du sens ne peut se faire sans les outils d’extériorisation des savoirs que sont le langage ou l’écrit. « Ce sont ces moyens d’extériorisation de la mémoire qui décuplent les potentialités de la pensée naturelle de l’individu »9. D’ailleurs, le philosophe Heidegger affirme qu’initialement la mémoire ne se réfère pas du tout à la « faculté de se souvenir »10. Le mot désigne « l’âme entière au sens du rassemblement intérieur ». La mémoire est dans son origine l’équivalent du recueillement auprès d’une entité. Heidegger a notamment travaillé sur la mémoire comprise comme le lieu du « devenir soi », du « retour sur soi ». Pour lui, la mémoire est le lieu de la pensée, certaines facultés en sont directement issues. L’imagination par exemple, est pour lui un processus de remémoration. De même, la liberté n’est pas possible sans cette mémoire qui construit l’individu. Le philosophe Husserl, expliquait quant à lui qu’il existe deux types de mémoires distinctes en chaque individu. Il y a la mémoire de l’espèce, le génome; et il y la mémoire du cerveau individuel. Pour comprendre la différence entre les deux, il utilise l’exemple de la mélodie. Ce qu’il nomme les rétentions primaires, c’est la mémoire qui permet de comprendre une mélodie de manière continue et non comme une successions de notes sans rapport entre elles. Les rétentions secondaires peuvent 9.  BULLE N. (2012), « Vygotski dans le contexte des digital studies », conférence prononcée au ENMI, décembre 2012. 10. HEIDEGGER M. (1952), Qu’appelle-t-on penser ?, PUF (Quadrige), p. 146.

74


être imagées par l’effet produit par une mélodie après plusieurs écoutes. A chaque nouvelle écoute on l’apprécie d’avantage et toujours différemment. Cette rétention est celle qui fait qu’il y a autant de compréhensions de ce mémoire qu’il y a de lecteurs. Prolongeant la pensée d’Husserl, Stiegler postule chez l’homme une troisième mémoire dont les animaux ne disposent pas. Cette troisième mémoire est la mémoire technique ou épiphylogénétique. Pour Stiegler, « un silex taillé, c’est une forme de matière organisée par la taille, une organisation qui se transmet, et donc la possibilité de transmission d’un savoir par une voie qui n’est plus biologique. »11. Ce sont aujourd’hui tous les supports numériques de la pensée que peuvent être les pages Web, les blogs ou même les réseaux sociaux. Il s’agit pour lui d’une mémoire collective, c’est à dire le support de la transmission des connaissances. Cette mémoire a une importance telle dans l’évolution de l’être humain qu’il affirme que « la mémoire humaine est indissociable de la technique »12. On peut alors percevoir l’importance de la mémoire technique dans le rapport à l’information. Sans elle, pas de transmission des connaissances ni de construction de sens possible sur le long terme. Elle apparait alors comme un moyen privilégié de l’émancipation de la pensée, le lieu privilégié de la réalisation de la liberté grâce à l’information. 11.  STIEGLER B. (2002), « La technique comme mémoire », A voix nue, France Culture, décembre 2oo2. 12. Ibid.

75


De nouvelles technologies qui modifient notre façon de penser

O

r aujourd’hui, ces technologies évoluent profondément, du manuscrit au numérique ; et ce changement de technologie modifient notre mémoire et, a fortiori notre façon de penser. Ce qui a fondamentalement changé, c’est la facilité d’accès à des informations multiples. Mais un nombre important d’informations consommées suppose que l’attention qu’elles reçoivent est à la fois courte et peu qualitative. C’est ce que démontre la neurobiologiste Marianne Wolf au sujet de la lecture. Son analyse des modifications des pratiques de lecture en fonction des médias montre que nous ne développons pas les mêmes stratégies de lecture, sur papier ou sur le Web13. Une lecture de surface est souvent favorisée numériquement alors que la lecture profonde est beaucoup plus facile sur papier. Pour elle, cela se traduit par une difficulté à internaliser les connaissances. Si l’on connaît vite, on oublie aussi vite. Pour Wolf, il ne faut pas jeter la pierre sur les nouvelles technologies. Bien au contraire, celles-ci nous offrent de nouvelles capacités de penser tout à fait intéressantes14. Néanmoins, elle estime qu’il est important de conserver les qualités de la lecture profonde. Car 13.  WOLF M. (2012), « L’évolution du Reading Brain au XXIè siècle », conférence prononcée aux ENMI, décembre 2012. 14.  MOURAT (de) R. (2010), @ttention, la transformation de l’attention à l’ère d’internet, mémoire de philosophie en DSAA dpm, École Boulle, p.52.

76


pour la création de sens, la question d’une maturation de l’information est importante. Il faut donc concevoir des outils qui puissent pallier à des défauts inhérents à leur nature numérique. Cela pose la question de l’attitude et des mesures à adopter face à ces technologies de la pensée. Comment peut-on adopter un nouveau rapport aux connaissances disponibles sur le Web, ce que nous percevons comme le flux des informations ?

77


II Quelle posture adopter ? Une vision techno-déterministe

L

es réponses à cette question sont multiples et chacune d’entre elles implique une vision différente du rôle de la technologie ou de la cognition humaine. Du côté des grands acteurs de notre rapport à l’information comme Google ou Facebook, la conduite à tenir est très clairement énoncée. Eli Pariser relève que les géants du Web tendent à entretenir une vision de la technologie désengageante de toute considération éthique ou sociale15. Pour utiliser une analogie commune, ils considèrent que dans un crime, ce n’est pas le pistolet qui est à blâmer, mais uniquement l’homme ou la femme qui l’utilise. Ainsi, ils se dégagent de toute responsabilité quant à l’utilisation de leurs outils en tant que mémoire technique. Pour Sean Parker le premier président de Facebook, c’est « la technologie, et non la finance ou les gouvernements qui est la force motrice derrière les grands changements sociétaux »16. Cette vision technodéterministe, développée également par Kevin Kelly, le cofondateur du très influent magazine Wired, va même jusqu’à prêter à la technologie une volonté propre dans son ouvrage « what technology wants ». Cette idéolo-

15.  PARISER E., op. cit., p.178. 16. Ibid.

78


gie, apparentée au transhumanisme17 pose pourtant question car elle tend à déresponsabiliser les concepteurs dans le développement d’outils qui façonneront pourtant les relations et le rapport à l’information de plus d’un milliard de personnes.

À l’intérieur du flux

O

n trouve cependant des approches alternatives à cette vision purement technocentrée. A la question : comment peut-on adopter le flux des informations, la réponse pourrait être avant tout une question de posture. Pour la chercheuse Danah Boyd, il en existe une qui permet de profiter de l’information. Il faut simplement accepter de se laisser transporter par le flux des connaissances. Il faut accepter la masse des informations, ne pas chercher à nager à contre-courant pour n’en retenir qu’une mais accepter un état de cueillette perpétuel. Il s’agit en sorte d’ un état passif mais ouvert sur le monde. Mais pour que cette posture puisse être concrètement réalisée, elle propose de concevoir de nouveaux outils technologiques. Ces derniers nous permettraient de sélectionner les contenus les plus pertinents,

17.  Le transhumanisme est un mouvement culturel et intellectuel international prônant l’usage des sciences et des techniques afin d’améliorer les caractéristiques physiques et mentales des êtres humains.

79


quel que soit le lieu où ils se trouvent18. Pas des outils qui agrègent les contenus et les fixent, mais des outils qui nous permettent de distinguer le contenu pertinent et donc de rester dans le rythme du flux sans se laisser déborder. C’est la question du filtrage également mise en avant par Russel Neuman, professeur de technologie à l’université du Michigan. Pour lui, le filtrage et ses outils technologiques sont bien le grand enjeu pour bénéficier de la masse des connaissances disponibles. L’attitude mise en avant par Boyd a le mérite de remettre l’humain face à l’envie irrépressible de tout lire/ voir/expérimenter. En revanche, du point de vue des technologies, il semble que se concentrer sur la notion de filtrage de l’information ne soit pas suffisant. La question de l’accès est bien évidemment d’une question importante mais la conception de nouveaux outils de filtrage de l’information ne peut résoudre à elle seule les biais humains. D’autant plus que les algorithmes de la personnalisation, sensés justement aider à filtrer l’information, tendent à exclure l’individu du flux réel de l’information. En oubliant que la construction de sens n’est pas réductible à un simple accès à l’information, une telle vision surestime probablement les capacités des technologies de filtrage si elles sont utilisées comme uniques prothèses.

18.  BOYD D. (2009), « Streams of Content, Limited Attention: The Flow of Information through Social Media », conférence donnée au Web2.0 Expo de New York en November2009.

80


La technologie est un Pharmakon

L

e très critique pionnier d’Internet Douglas Rushkoff souligne, lui, que les technologies qui permettent l’accès à l’information ne sont pas omniscientes et ne doivent pas faire oublier qu’elles ne sont que des outils dans les mains de ceux qui les utilisent. Dans son ouvrage critique, les dix commandements de l’ère numérique, il explique que sans un moteur de recherche, nous sommes désormais perdus. Bien loin de libérer les gens et leurs idées des hiérarchies, les outils d’accès à l’information jouent un rôle plus aliénant qu’émancipateur. Il affirme également que « tout ne se résume pas à une simple donnée [...]. Oui, nous pouvons retrouver n’importe quelle information nous-mêmes, mais le risque est de le faire en ayant perdu son contexte.19 ». Utiliser uniquement des algorithmes au gré du flux d’informations ne permet pas de construire avec cellesci un rapport enrichissant. De même, il ajoute que pour exploiter toute la puissance des nouveaux agencements de données permis par Internet, nous devons apprendre à les considérer tels qu’ils sont, c’est à dire des modèles non testés, dont la pertinence est assujettie au contexte et souvent personnelle. « L’accès à l’information n’est pas un substitut à la connaissance dans un domaine. C’est juste un nouveau point d’entrée. »20. C’est ce qui nous oblige à réenvisager nos extensions de la mémoire sous un nouvel angle, à la fois comme des outils nécessaires mais surtout comme des prothèses non neutres. 19.  RUSHKOFF D., op. cit., p. 75. 20. Ibid.

81


Car les technologies qui permettent l’accès et la mémorisation ne sont rien en elles-mêmes. Elle sont ce que Stiegler appelle un Pharmakon. Issue de la philosophie grecque, cette notion est explicitée par Platon à propos de l’écriture comme extension de la mémoire. Car l’écriture est un appendice ambivalent : simultanément remède et poison. En effet, elle peut-être à la fois un instrument d’émancipation lorsqu’elle est ce qui « remédie aux failles de la mémoire »21 et aliénante lorsqu’elle se substitue à la mémoire, au travail de l’intelligence humaine. Pour Stiegler, les technologies numériques possèdent aussi cette même ambiguïté intrinsèque. Les outils d’accès, de publication et de partage que nous utilisons sont loin d’être neutres. C’est également ce que souligne l’historien des techniques Melvin Kranzberg22 lorsqu’il explique que « la technologie n’est ni bonne, ni mauvaise, ni neutre… L’interaction entre la technologie et l’écosystème social est telle que les développements techniques ont des conséquences environnementales, sociales, et humaines qui dépassent de loin les objectifs des appareils techniques et des pratiques elles-mêmes. » Il me semble que cette façon de penser la technique met d’avantage l’accent sur l’usage, sur l’interaction qui existe entre un individu et l’outil qu’il utilise. Comment peut-on alors repenser nos outils technologiques pour qu’ils puissent être des remèdes à nos nouveaux maux informationnels ? 21.  STIEGLER B. (2008), Prendre soin, Flammarion, p. 19. 22.  KRANZBERG M. (1986), « Technology and History: Kranzberg’s Laws », Technology and Culture, vol. 27, n° 3, p. 545.

82


83


III Vers la construction d’un rapport actif à l’information

« La mémoire du passé n’est pas faite pour se souvenir du passé, elle est faite pour prévenir le futur. La mémoire est un instrument de prédiction. » – Alain Berthoz

N

otre rapport à la connaissance est construit. Ainsi nous ne pouvons favoriser pleinement la liberté permise par Internet et le Web que si nous parvenons à repenser les outils de mémoire externe qui encouragent la construction de ces connaissances. Pour ce faire, il faut encourager un rapport actif des individus à l’information plutôt que de laisser les algorithmes les gérer à eux seuls.

Les hypomnemata, supports de la mémoire

L

a nécessité d’un travail actif de mise en mémoire des connaissances est déjà très présent chez les grecs. Elle prend la forme d’hypomnemata, supports 84


de la mémoire. C’est Foucault qui dans son ouvrage L’écriture de soi a apporté à ces techniques un éclairage contemporain. Les hypomnémata, au sens général, sont les objets engendrés par l’artificialisation et l’extériorisation technique de la mémoire. A l’origine, elles pouvaient être des livres de compte, des registres publics, des carnets individuels servant d’aide-mémoire. Sénèque explique qu’on y consignait des citations, des fragments d’ouvrages, des actions dont on avait été témoin, des réflexions ou des raisonnements qu’on avait entendus ou qui étaient venus à l’esprit. Ils constituaient une mémoire matérielle des choses lues, entendues ou pensées. Ils s’offraient ainsi comme un trésor accumulé à la relecture et à la méditation ultérieures. Ces hypomnemata permettent de créer du sens en s’opposant à l’éparpillement des idées. « Abondance de livres, tiraillements de l’esprit »23 dit Sénèque. En fixant des éléments acquis elle constituent en quelque sorte un passé stable. Mais si elle fixe les idées, l’écriture des hypomnemata est aussi; et elle doit le rester, une pratique réglée et volontairement envisagée à partir d’informations disparates. Elle est un choix d’éléments hétérogènes.24 En cela, cette technique de soi apparaît comme un parfait écho aux pratiques actuelles de navigation hypertextuelle dans les contenus du Web. L’information, ne peut donc être libératrice que dans le cas où elle est assimilée, digérée, si elle peut-être inscrite dynamiquement dans les hypomnemata, support 23.  SÉNÈQUE, Lettres à Lucilius, p. 6. 24. ÉPICTÈTE, De la nécessité de la logique, p. 65.

85


de mémoire permettant une construction de soi. Et aujourd’hui, Internet et le Web, en tant que technologies de la mémoire collective appellent de nouvelles formes d’hypomnémata individuelles.

Vers de nouveaux outils de la pensée

C

omment envisager des outils de la mémoire face à l’évolution des technologies et des pratiques d’accès à l’information ? Comment réaliser aujourd’hui ces nouvelles hypomnemata ? En d’autre termes, pour paraphraser Marianne Wolf, il nous faut aujourd’hui nous interroger sur la façon dont nos médias numériques pourraient être conçus afin de réparer leurs propres lacunes. Il faut dire qu’il s’est installé ces dix dernières années une discontinuité entre les outils d’accès et de partage (réseaux sociaux, curation, moteurs de recherche...) et ceux du traitement de l’information (traitement de texte, mail, marques-pages...). Les premiers ont subi des transformations très fortes. A l’inverse, les outils basiques du traitement de l’information, nos hypomnemata, n’évoluent pas à l’aune de nos pratiques. Comme le souligne le journaliste Hubert Guillaud, « nous tentons de temps à autre de développer des stratégies d’évitement ou de défense, mais globalement, nous subissons autant – voire davantage – les outils que nous en tirons parti. »25. 25. GUILLAUD H. (2008), «  Pour une écologie informationnelle  », [en ligne] URL. http://www.internetactu. net/2008/04/24/pour-une-ecologie-informationnelle/

86


Une analyse partagée par le théoricien des nouveaux médias Lev Manovitch26. Dans son ouvrage Le langage des nouveaux médias publié en 2001 il a analysé à la fois les médias numériques et les programmes dont ils sont issus. Pour lui, les différentes formes que l’on peut trouver sont nées des médias pré-numériques. Leur développement a toujours conservé un lien avec les outils analogiques que sont la page et le cinéma27. Dans un article récent consacré à l’étude des très grands ensembles d’informations, il constate que nos outils n’ont pas changé dans leur langage. « Étant donné la taille de bien des collections de documents numériques, vouloir simplement voir ce qu’elles contiennent est impossible. Bien qu’il puisse sembler que les raisons soient les limitations de la vision et du traitement humain de l’information, je pense que c’est en fait la faute du design actuel de nos interfaces. »28 Pour lui, il nous faut davantage prendre en compte l’évolution de notre environnement informationnel quotidien pour pouvoir concevoir des outils qui permettent de traiter ces flux d’informations de manière optimale. En résumé, construire les conditions d’un rapport actif à l’information c’est favoriser l’expression de la liberté potentiellement permise par Internet et le Web. C’est ce travail actif des individus qui transforme l’information en connaissance. Les grecs ont mis en 26. MANOVITCH L. (2011), « Media Visualization », [en ligne] URL. http://manovich.net/DOCS/media_visualization.2011.pdf 27.  Ibid., p.174. 28. Ibid.

87


avant la capacité des hypomnemata comme support de la mémoire à construire du sens et favoriser la pensée sur le long-terme. Et dans un univers aussi saturé d’informations, ces outils apparaissent d’autant plus indispensables pour favoriser une pensée réflexive. Ils peuvent aider à établir un lien direct entre information et liberté. Cependant, on l’a vu, nos outils actuels n’ont pas su s’adapter au nouvel écosystème informationnel. Comment alors les outils de la pensée peuvent-ils favoriser une attitude active des individus face à l’information ? Ces outils peuvent-ils préserver et accompagner des modalités d’accès à l’information non linéaires mais basées sur la sérendipité inhérente au Web ? Comment penser des outils aussi intimes à l’ère du tout social ? Une technologie de la pensée peut-elle nourrir la création de sens ? C’est à ces interrogations que devra répondre mon mémoire de projet.

88


89


90


Conclusion

91


Conclusion

L

’ ambition première de ce mémoire était d’étudier et de comprendre la relation qui existe entre deux notions a priori peu liées: l’information et la liberté. On a ainsi mis en évidence d’importants enjeux qui impliquent et questionnent aujourd’hui la place et la responsabilité des différents acteurs de la chaine de l’information. Dans un premier temps, on s’est attaché à étudier historiquement la façon dont l’information a pu devenir une source majeure de la liberté. Cela nous a amené à étudier les technologies qui permettent la diffusion de cette information. En effet, l’idée naissante de la démocratie moderne s’est nourrie des possibilités concrètes d’accès aux informations politiques de l’ensemble de la population. Mais la naissance de l’informatique a bouleversé le paradigme d’une diffusion unidirectionnelle de l’information par les médias. Le mouvement des logiciels libres a lutté pour la liberté de toutes les connaissances. Il envisageait le partage et la libre circulation de l’information comme socle des communautés et du pouvoir des individus sur leurs propres vies. Internet de part sa stucture a permis de démocratiser cette utopie, d’abord réservée à une élite, en permettant à chacun de publier et de partager des informations. Ces pratiques font aujourd’hui ressurgir la figure de l’amateur comme contributeur et comme acteur de sa 92


propre liberté. Une liberté de penser et d’agir considérablement élargie, du moins potentiellement. Mais de tels changements dans le système technique ne peuvent être uniquement bénéfiques. On a ainsi, dans un second temps, mis à jour plusieurs tensions qui menacent fortement cette nouvelle liberté. Les biais humains comme la surcharge informationnelle et le maintient des inégalités sociales dans les pratiques en ligne en sont des exemples édifiants. Les biais technologiques entrent également en jeu. L’utilisation de plus en plus courante des algorithmes de personnalisation par exemple pose la question de la liberté de choix. Lorsque ces choix sont effectués par un système technologique, il est difficile de parler de liberté de l’individu. De même, une économie de l’accès se développe aujourd’hui sous l’impulsion des industries culturelles. Celle-ci va à l’encontre des idéaux de libre circulation des contenus et maintien les individus dans une position passive de simples consommateurs d’informations. Enfin, pour tenter de comprendre comment éviter ces différents biais, on a mis à jour la façon dont l’information participe à la construction de soi. L’intériorisation des savoirs est un travail d’élaboration du sens et se fait par le biais d’une mémoire technique, fondement de la pensée et donc de la liberté. Face aux modifications actuelles de cette mémoire technologique, plusieurs attitudes sont prônées, technocentrées ou au contraire suggérant une acceptation du flux. Mais la technologie n’est pas neutre et il importe de considérer avec soin la façon dont elle nourrit ou au 93


contraire aliène les individus. Les grecs avaient déjà développé des supports de la mémoire favorisant une pensée réflexive en fixant des informations éparpillées non linéaires. Ces hypomnemata font aujourd’hui écho aux pratiques d’accès à l’information développées sur Internet. Une réactualisation de ces outils pourrait permettre un rapport plus actif à l’information. Cette conclusion questionne néanmoins la place des concepteurs et donc du design dans le développement des outils médiateurs entre l’individu et l’information. Concevoir un outil c’est éliminer des possibilités et en privilégier d’autres, c’est à la fois aliéner et libérer, c’est donc prendre une responsabilité dans la capacité d’action et de pensée de ceux qui les utiliseront. Une responsabilité qui implique alors une très grande humilité de la part des concepteurs et invite à une diversification des outils de la pensée. Une ouverture des possibles qui pourrait nourrir de nouvelles pratiques et permettre à chacun de se construire son propre rapport à l’information.

94


95


96


« A l’inverse d’Internet, nous avons constaté à quel point la télévision était contingente dans nos vies, combien elle était dispensable. Ça peut paraître une évidence à beaucoup. Dans mon cas, c’est un changement de paradigme. Depuis, j’ai l’impression d’avoir basculé dans une autre ère. Je suis entré dans l’ère où tout contenu que je visionne est un contenu choisi. Je ne tombe plus au hasard du zapping, sur un film qu’un directeur des programmes a décidé de diffuser dans un créneau horaire, mais je fais l’acte de télécharger un film et de le regarder quand je veux. On pourrait croire que ce minuscule empowerment nous préserve de la bêtise. Pas du tout. J’ai par exemple choisi de regarder Traque sur Internet, et non pas un Fellini. Le gain n’est donc pas qualitatif, il est psychologique. Je ne peux plus m’en prendre à personne d’autre qu’à moi-même. Quelques jours de déconnexion [télévisuelle] m’ont fait entrer par incidence dans l’ère de la responsabilité. J’ai mis fin aux délices de la passivité et suis devenu adulte. Ce n’est pas rien. » –Xavier de la Porte (2013), « envoyé spécial dans mon ordi », Le Tigre, n°26, février 2013

97


98


Bibliographie & Remerciements

99


Bibliographie

Ouvrages CARDON D. (2010), La démocratie Internet, Paris, Seuil. CERTEAU (de) M. (1980), L’invention du quotidien : 1. arts de faire, Paris, éd. Folio Essais. DERRIDA J. (1995), Mal d’archive, Galillée. FOUCAULT M. (1983), « L’écriture de soi », dans Dits et écrits, t2, éd Gallimard. GARDEY D. (2008), Écrire, calculer, classer, Paris, La Découverte, coll. « textes à l’appui ». GLEICK J. (2011), The Information, a history, a theory, a flood, New-York, éd. Pantheon Books. HIMANEN P. (2001), The Hacker Ethic and the Spirit of Information Age, éd. Random House. LEROI-GOURHAN A. (1965), Le geste et la parole, La mémoire et les rythmes, éd. Albin Michel Sciences. LEVIE F. (2008), L’homme qui voulait classer le monde: Paul Otlet et le mundaneum, Paris, éd. Les impressions nouvelles

100


MANOVITCH L. (2010), Le langage des nouveaux médias, Les presses du réel, coll. « Perceptions ». MATTELARD A. (2001), Histoire de la société de l’information, Paris, La Découverte, coll. « Repères ». PARISER E. (2011), The filter bubble, how the new personalized web is changing what we read and how we think, Londre, Penguin Books. RIFKIN J. (2000), L’âge de l’accès, Paris, La Découverte, coll « Essais ». RUSHKOFF D. (2011), Les 10 commandements de l’ère numérique ,Paris, FYP éditions WOLTON D. (2011), La neutralité de l’Internet, un enjeu de communication, Paris, CNRS édition, coll. « les essentiels d’Hermès ».

Mémoires MOURAT (de) R. (2010), @ttention, la transformation de l’attention à l’ère d’Internet, mémoire de philosophie en DSAA dpm, Paris, École Boulle. TARDIF V. (2010), La bibliothèque et ses métamorphoses, mémoire de philosophie en DSAA dpm, Paris, École Boulle.

101


Articles BARDINI T. (2000), « Les promesses de la révolution virtuelle : genèse de l’informatique personnelle, 19681973 » Sociologie et sociétés, vol. 32, n° 2, 2000, p. 57-72. [en ligne] URL. http://www.erudit.org/revue/ socsoc/2000/v32/n2/001020ar.pdf BOURDON J. , SCHAFER V. (2012), Histoire de l’internet, Internet dans l’histoire, Le temps des médias, Paris, éd. nouveau monde, n°18, printemps 2012 BUSH V. (1945), « As We May Think », in Atlantic Magazine [en ligne] URL. http://www.theatlantic.com/ magazine/archive/1945/07/as-we-may-think/303881/ CARR N. (2011), «  Situational overload and ambient overload  », blog de Nicholas CARR, [en ligne] URL. http://www.roughtype.com/ ?p=1464 GUILLAUD H. (2012), « Notre surcharge informationnelle en perspective », [en ligne] URL. http://www.internetactu.net/2012/ 02/29/lift12-notre-surcharge-informationnelle-enperspective/ LELEU-MERVIEL S. (2008), Quelques révisions du concept d’information, Problématiques émergentes dans les sciences de l’information, éd. Hermes [en ligne] URL. http://hal.archives-ouvertes.fr/ docs/0 0/69/57/77/ PDF/Chapitre_ RA _visions_ Information.pdf 102


MANOVITCH L. (2011), « Media Visualization », [en ligne] URL. http://manovich.net/DOCS/media_visualization.2011.pdf PROULX S. (2002), « La culture du hack en ligne, une rupture avec les normes de la modernité », Les cahiers du numérique n°3, éd. Lavoisier, [en ligne] URL. http://www.cairn.info/revue-les-cahiers-du-numerique-2002-2-page-35.htm SERRES A. (2008), « Bernard Stiegler : pensée des techniques et culture informationnelle », Séminaire du Groupe de Recherche sur la Culture et la Didactique de l’Information, septembre 2008 SCHIRRMACHER F. (2009), «  The age of informavore », [en ligne] URL. http://www.edge.org/3rd_culture/ schirrmacher09/schirrmacher09_index.html THIERRY B. (2012), “Utilisateurs et communautés d’utilisateurs aux premiers âges de l’informatique personnelle et des réseaux grand publique”, Le Temps des Médias, printemps 2012, n°18, p. 54-64, éd. nouveau monde WOLTON D. (2004), “Information et communication : dix chantiers scientifiques, culturels et politiques”, HERMÈS, 2004, n°38

103


Ressources en ligne Ars Industrialis, site d’Ars Industrialis, [en ligne] URL . http://www.arsindustrialis.org/ FAURE C. blog de Christian FAURE [en ligne] URL . http://www.christian-faure.net InternetActu, média de la FING, [en ligne] URL . http://www.internetactu.net/

Conférences STIEGLER B. (2012), « Figure de l’amateur et innovation ascendante », conférence prononcée dans le cadre du colloque organisé par Vivagora le 18 mars 2008 SHIRKY C. (2012), « Comment Internet transformera un jour le gouvernement », conférence prononcée à TED en juin 2012, [en ligne] URL. http://www.ted.com/talks/ clay_shirky_how_the_internet_will_one_day_transform_government.html

104


105


106


Remerciements

J’ai pris un profond plaisir à l’écriture de ce mémoire. J’ai plongé dans la masse des informations. Je les ai collectées patiemment et je me suis pliée à l’exercice d’en retirer des connaissances, de leur donner sens. J’y ai appris beaucoup et j’espère que vous y trouverez également de quoi vous intriguer. Écrire un mémoire est loin d’être une aventure solitaire. Je veux remercier tous ceux qui, d’une façon ou d’une autre ont contribué à son écriture : Jacques-François Marchandise d’abord pour m’avoir aiguillée au début de ce mémoire et pour avoir ouvert mes horizons de lecture ; Mes professeurs de DSAA pour leur ouverture et leur perspicacité ; Mes chers amis de promo pour l’enthousiasme qui nous a accompagné dans les projets et les voyages de ces deux magnifiques années; ma famille pour tout; enfin Matthieu, pour son exigence sur le fond et son attention plus que précieuse à la forme de ce mémoire.

Merci.

107


Ce mĂŠmoire est publiĂŠ sous licence Creative Commons BY/NC/SA http://creativecommons. org/licenses/by-nc-sa/3.0/

108


109



L'individu à l'âge de l'information