Page 1

Pierre Jean Duvivier. = Août 2006 = contact@pjduvivier.com « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Table des matières Introduction.......................................................................................................................................... 3 Chapitre I : 1932-1990 : la naissance du réseau.................................................................................. 4 Chapitre II : 1990-1999 : l'ascension du nouveau media : une croissance fulgurante sauf en France.... 11 Chapitre III : La fin de l'illimité, le haut débit et le P2P ....................................................................15 III.3 : le phénoméne P2P apparaît.................................................................................................. 17 III.4 : les premiéres associations internautes apparaissent.............................................................18 III.5 : la bulle internet se crée et éclate, les politiques s'éveillent (mal) à internet.........................20 III.6 : les premiéres menaces graves sur Internet se dessinent....................................................... 21 Chapitre IV :Quelle conclusion tirer de l'histoire récente d'internet ?................................................22 Chapitre V : les différents modéles de neutralité du réseau .............................................................. 24 V.2 : un collectif pour le statut quo............................................................................................... 26 V.4 : vers une définition plus cohérente de la neutralité du réseau.............................................. 27 V.5 : la neutralité veut-t-elle dire scission du réseau ?.................................................................. 27 Chapitre VI : Les nouveaux réseaux existent déjà : le concept 'de grille' supplantera peut etre celui de 'toile'............................................................................................................................................... 28 VI.2 : Freenet ou la grille (trop) absolue........................................................................................31 Chapitre VII : Le micro état comme base politique d'un réseau libéré...............................................32 VII.1.3 : Quelques exemples de micro-Etat crées..................................................................... 34 VII.1.4 : Des micro-Etats qui existent encore........................................................................... 35 VII.2: Pourquoi Internet a besoin d'un micro etat lui assurant sa neutralité ?............................... 35 Chapitre VIII : les bases du micro état numérique 'NETUTOPIA'.....................................................36 VIII.0 : Pourquoi un Etat ?.............................................................................................................37 VIII.1 : Etat-Nation ? Nation 'Etat' ? Ou simplement 'Etat' ?........................................................ 37 VIII.2 : Les principes du nouvel Etat............................................................................................. 37 VIII.3 : Les mécanismes de régulation...........................................................................................39 VIII.4 : la cellule démocratique de base et les organes législatifs et éxécutif : idées de base des institutions......................................................................................................................................39 VIII.5 : le pouvoir judiciaire.......................................................................................................... 40 VIII.6 : le cas du pouvoir technique...............................................................................................41 VIII.7 : Le budget...........................................................................................................................41 VIII.8 : Phase de migration et de mise en place ...........................................................................42 Chapitre IX: Conclusion sur le projet NETUTOPIA......................................................................... 43 Chapitre X :L'Internet de demain : perspectives et projections.......................................................... 44 X.1: La notion de propriété intellectuelle ou de droit d'auteur n'existera plus..........................46 X.2 : Explosion de la cybercriminalité, raidissement politique, nucléarisation des fonctions de police......................................................................................................................................... 46 X.3 : Plus de libertés mais plus de lois liberticides..................................................................47 X.4 : Little Brother ou Big Brother ?............................................................................................. 48 X.5 : Brevets logiciels, DRMs, les faux débats............................................................................. 50 X.6 : L'open source devient plus attractif et le modèle central de la programmation de demain.. 51 X.7 : Linux et Windows : la guerre des mondes............................................................................51 X.8 :Tuez le piratage et vous tuerez l'informatique...................................................................... 53 Conclusion.......................................................................................................................................... 55

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Introduction L'objet de ce livre est de revenir sur l'essence de l'internet à travers son histoire récente pour démontrer l'absolue nécessité de s'engager vers une nouvelle voie qui garantirait à la fois une neutralité du réseau et la création de mécanismes de régulation nécessaires à la mise en place d'un véritable contrat social autour d'internet. L'objectif est de créer un nouvel espace numérique et technique basé sur un état physiquement délimité qui aurait la charge de la gestion et du développement d'un nouvel internet où nos libertés fondamentales seraient garanties. Nous traiterons donc à travers ce livre des raisons qui nous poussent à penser qu'il faut se diriger vers cette solution à travers les leçons de l'histoire récente du réseau. Un dernier chapitre viendra conclure la réflexion sur l'internet et mettra en relief la solution évoquée dans ce livre pour sortir de certaines impasses. Toutes les idées avancées ici sont discutables et servent avant tout à ouvrir un débat sur le site pjduvivier.com où vous pourrez nous rejoindre pour discuter librement des thématiques élaborées à l'intérieur de cet @-book.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre I : 1932-1990 : la naissance du réseau

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Arpanet : l'ancêtre du réseau était avant tout une expérience civile plus que militaire (voir ce lien)

E

n 1932, un certain Vannevar Bush 1commence à travailler sur le projet Memex qui peut être considéré comme l'ancêtre de l'hypertexte. Il sera plus tard conseiller scientifique de Roosevelet pendant la seconde mondiale. Dans un article intitulé 'As we many think2' paru en 1945, il décrit un dispositif hypermédia qui s'appelle 'memex' comme 'memory extender'. Pour lui ce dispositif doit permettre aux chercheurs de stocker des livres, des archives et des communications et de les lier pour être consultés d'une façon rapide et souple. Vannevar Bush vient d'inventer l'hypertexte. Il pousse encore plus loin son raisonnement en avançant l'idée de la création d'un index associatif fondé sur l'idée que n'importe quel item peut être librement configuré pour conduire Vannevar bush est né en 1890, immédiatement et automatiquement vers un autre. Le projet Memex ne il jouera un rôle clé dans la production de la bombe h verra jamais le jour mais la pensée hypertexte à l'origine de l'internet est américaine puis diriga at&t, bien née. Vannevar Bush continuera à travailler toute sa vie sur son projet merck & co...il décedera en et publiera de nombreux ouvrages à ce sujet. 1974 non sans avoir consacré sa vie au réseau naissant.

P

arallèlement à ces recherches , en particulier sur les sélecteurs rapides de micro- films que coordonnera toujours Vannevar Bush, les ordinateurs commencent à voir le jour en 1948 avec IBM qui construit son premier prototype. Dans les années 50-60, le gouvernement américain réalise bientôt l'importance stratégique de ces nouveaux calculateurs et l'industrie de la défense américaine aussi, surtout après les avancées soviétiques dans le domaine spatial avec Spoutnik qui laissent supposer un retard américain en la matière.

I

Les soviétiques se sont d'ailleurs lancés en même temps dans la bataille bm mets au point son premier prototype en 1948 des super calculateurs en créant leur premier super calculateur en 1953 : le BESM-1. Sergey Alekseevicth Lebedev (1902-1974)3 va en effet prendre la tête du laboratoire spécialisé dans le développement des techniques informatiques dès 1951. Le BESM-1 va bientôt être suivi de 5 autres versions jusqu'au BESM-6. 6.

1 http://hypermedia.univ-paris8.fr/jean/fiction/memex.htm 2 http://hypermedia.univ-paris8.fr/jean/fiction/bush/as_we_may.htm 3 http://www.bashedu.ru/konkurs/tarhov/english/lebedev.htm

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Le lancement du satellite Sputnik par l'URSS amène les Américains à créer à l'intérieur de son Département de la défence une agence nommée ARPA (Advanced Research Projects Agency) dont le but est d'établir une avance américaine dans le domaine de la science et de la technologie à des fins militaires BESM-1 soviétique - 1953

Malgré tout l'ARPANET, contrairement aux idées reçues, n'était pas à vocation directement militaire . Le but d'Arpanet était de relier des ordinateurs distants entre eux avant tout et non pas de résister à une attaque militaire soviétique. ARPANET ne fut pas la conséquence directe des recherches militaires en la matière , il ne fut que le résultat de travaux concomitants du domaine universitaire classique et de certains laboratoires militaires privés financés par l'US AIR FORCE . ARPA joue plus le rôle d'un catalyseur que d'un initiateur. La confusion vient de ce qu'on peut appeler 'le pré-ARPANET'. La société Rand Corporation recevait en effet, par exemple, des fonds dès les années 50 pour réfléchir à un système de transmission d'information pouvant continuer à fonctionner malgré une attaque soviétique.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Le pre-Arpanet était militaire

Paul Barran résume très bien cette distinction entre le pré-ARPANET et ARPANET. Paul barran était en effet salarié de la RAND Corporation financé par l'US AIR FORCE pour réfléchir à ce problème. Il théorisa l'idée du parallélisme de l'information et de la transmission par des noeuds indépendants de l'information selon des circuits distincts pendant les années 6062. Il publia ses travaux de manière assez ouverte et donna des conférences auprès de certaines universités,laissant ainsi ses théories filtrer dans le domaine universitaire.

La note qu'il produisit en 1965 à destination de l'US AIR FORCE pour la construction de ce réseau resta lettre-morte tant les idées novatrices agitées par le laboratoire de la Rand Corporation étaient peu comprises par leurs destinataires.Il fallut attendre les travaux de certaines universités pour qu'ARPA vienne financer des travaux qui étaient nés, en fait, à côté des laboratoires qu'elle financait directement. En résumé, l'US AIR FORCE finança des travaux qui aidèrent à la construction théorique et pratique de l 'ARPANET mais n'en eut pas la maitrise d'oeuvre. Au contraire, la plupart des contributeurs furent des universitaires qui étaient bien loin des préoccupations militaires décrites plus haut.En 1962, ces efforts, mis en oeuvre par l'industrie de défense américaine , amènent à la publication du rapport sur les moyens d'augmentation de l'efficacité intellectuelle . Une conception globale des processus cognitifs y est developpée avec la mise en avant de l'ordinateur comme technologie de l'intelligence. Ce rapport parle d'interface graphique, de souris, de messagerie collective et d'hypertexte .presque C'est l'acte de naissance du réseau internet et de l'informatique moderne tant les idées développées sont proches de celles que nous connaissons maintenant. En 1965, la première connexion à grande distance entre deux ordinateurs est établie par Larry Roberts 4au Lincoln Lab et Tom Marill à Santa Monica en Californie : ils utilisent une ligne téléphonique dédié de la Western Union pour connecter le TX-2(au lincon laboratory) au Q-32 à Santa Monica.

C'est un certain Tom Marill qui semble employer la première fois le terme de 'protocole' pour désigner l'ensemble des procédures nécessaires à la circulation de l'information. En 1966, L'ARPA voit arriver un projet prévoyant la construction d'un réseau liant les communautés de time-sharing en une super-communauté permettant à chaque utilisateur de se connecter à une communauté distante. Le plan ARPA network vient de commencer.

4 http://www.ibiblio.org/pioneers/roberts.html

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


En 1967, la premiére présentation du projet ARPA network a lieu dans une réunion fermée où les participants sont invités à se connecter entre eux . Les ordinateurs jouent à la fois le rôle de serveurs ou de clients. La réaction de la plupart des invités est relativement froide, peu y voit d'interêt. Des chercheurs comme Douglas Engelbart y voient la possibilité de continuer son projet de messagerie collective mais peu le suivront. Plusieurs appels d'offres sont lancés pour permettre un financement de ce projet mais les grandes entreprises de ce secteur comme IBM refusent de s'y engager au motif que construire un tel réseau est impossible car les ordinateurs sont trop gros. En août 1968, une entreprise - BBN- se jette dans l'aventure et répond à l'appel d'offre du projet ARPA network. Un certain Robert Khan 5, travaillant dans la direction de recherche du secteur informatique de cette entreprise, écrit le plan du futur réseau. En quelques semaines, BBN élabore un plan détaillé décrivant le futur réseau. BBN remporte l'appel d'offre de l'ARPA. Début 1969, BBN et ARPA signent le contrat officiel qui les amènera à construire l'IMP, le réseau ARPANET. Il serait opérationnel en 1970. En mars 1969, naissent les RFC (Request for Comments) qui sont à l'origine des propositions d'un individu ou d'un groupe pour améliorer le réseau. ARPANET engage la philosophie du travail collaboratif ouvert et en avril 1969 nait la premiére RFC - 'host sofware'- décrivant le protocole de serveur à serveur (Steve Crocker)6. En 1970, le systéme d'exploitation UNIX est créé par les laboratoires Bell, AT&T et l 'université de Berkeley. Fin 1970 , Arpanet compte 9 sites (UCLA, SRI, UCSB, Utah, BBN, RanD corporation, SDC, le MIT et Harvard) En mars 1972, les emails naissent des doigts de 7Ray Tomlinson. En Juillet 1972, le premier client de mail 'complet' naît. Eudora suivra quelques temps aprés. En octobre 1972, le réseau ARPANET, qui est un réseau universitaire financé par les industries de la défense américaine , est présenté au public. Il fonctionne avec 40 noeuds . C'est la première fois que le public peut utiliser un réseau ressemblant à Internet. Cette première démonstration rencontre un vif succès. Début 1973, une réflexion avance sur la nécessité d'avoir un protocole commun de communication entre les différents réseaux qui se créent . Le TCP/IP , avec l'aide du projet CYCLADE en France, est sur le point d'être créé , ce qui sera le cas en 1978. D'autres protocoles suivront (UUCP) et UDP... En 1979, nous pouvons affirmer que les bases d'internet existent. Elles sont le résultat d'une compétition est/ouest et paradoxalement d'une certaine forme d'humanisme qui entend livrer à la connaissance et à la communauté scientifique des portes ouvertes sur l'avenir pour tout le monde . Personne ne pensera à breveter ou exploiter pour lui commercialement la plupart des inventions.

5 http://fr.wikipedia.org/wiki/Robert_Kahn 6 http://en.wikipedia.org/wiki/Steve_Crocker 7 http://fr.wikipedia.org/wiki/Ray_Tomlinson

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


L'année 1978 marque aussi la fin du En 1972, Louis Pouzin 9 lance le projet CYCLADES qui avait pour projet français Cyclades8 à cause de but de créer un réseau global de télécommunications utilisant la commutation par paquets. Il fait le pari de la transmission par paquets de l'hostilité de France Telecom. l'information c'est à dire de manière non ordonnée pendant le parcours . Ce n'est que l'acteur final qui reconstitue l'information. Cyclade sera arrêté au profit du projet Transpac du groupe France Telecom qui donnera naissance au minitel.Le protocole à la base de Transpac se révèlera peu performant au regard des protocoles utilisés par le réseau Arpanet . La France venait de rater Internet.

Dans les années 80 , proliférent dans les universités américaines des postes de travail individuels qui tournent sous UNIX et qui permettent la communication en réseau. La National Science Fondation américaine installe cinq super ordinateurs à des fins de recherche et les relie par un réseau à NSFNET. Puis des réseaux régionaux sont mis en place et interconnectés à ce même NSFNET. Ce réseau remplacera peu à peu ARPANET que les militaires laissent au civil. En 1990, le CERN de Génève lance le World Wide Web (www) pour permettre aux ordinateurs d'échanger rapidement des informations textuelles, des images, du son. Le premier navigateur naît, à savoir MOSAIC, mis au point à l'université de l'Illinois (NCSA) par un groupe d'étudiants dirigé par Marc Adreeseen , étudiant en maitrise. Il est mis gratuitement à disposition des usagers du WWW en avril 1993. Le CERN continuera à être le lieu où on définit les langages et les protocoles WWW : protocole http, langage html...Le CERN est encore aujourd'hui un des moteurs de la recherche sur Internet avec leur nouveau projet 'GRID' sur lequel nous reviendrons plus tard.

8 http://fr.wikipedia.org/wiki/Cyclades_(r%C3%A9seau) 9 http://fr.wikipedia.org/wiki/Louis_Pouzin

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


L'histoire du réseau soviétique et des liaisons Est-Ouest.

Quand on racconte l'histoire de l'internet, on déroule généralement la liste des dates clés occidentales. Comme nous l'avons vu au début de ce chapitre, l'Union Soviétique avait déployé aussi des réseaux informatiques durant toute la guerre froide , réseaux officiels mais aussi officieux. Même si ces réseaux ne seront pas à l'origine du web mondialisé – et certains perdurent toujours en Russie - , il est intéressant de les citer pour mémoire , en particulier le réseau Relcom/Demos apparu à la fin des années 80 à l'Institut Kurchatov de l'énergie atomique de l'Académie russe des Sciences. Ce réseau était paradoxalement commercial et facturé au byte aux clients finaux à la fois en upload et en download. Certains prétendent 10que grâce à ce réseau le coup de force contre Gorbatchev en 1991 put être déjoué à temps car, même si les communications officielles étaient contrôlées, Relcom/Demos ne l'était pas et permit donc la mise en place d'une véritable chaîne de désobéissance.. .L'Union Soviétique de l'époque possédait d'ailleurs deux autres réseaux non contrôlés par le pouvoir , réseaux qui communiquaient avec l'étranger : Glasnet et Sovam. A la fin de l'année 1990 , avant la chute de l'Union Soviétique , au moment où le CERN lançait le World Wide Web, un petit Mac caché dans un bureau du « fonds international pour la survie et le développement de l'humanité » dans le centre de Moscou se connecta pour la premiére fois avec le réseau de l'Association pour les Communications Progressistes (APC) qui avait son siège au Etats-Unis. Quelques temps après, fut lancé l'Institut pour les Communications Globales (IGC) situé en Californie ; il jetta les bases de Glasnet , un réseau qui permettra un échange d'information rapide, peu cher et commode entre des organisations non gouvernementales de l'est et de l'ouest. D'autres réseaux, universitaires ceux là, avaient précédé Glasnet dès le début des années 80 (82-83). En effet , l'institut des problémes des systémes automatisés de Moscou (VNIPAS) était dans les années 80 l'institut le plus ouvert du bloc soviétique avec près de 11 connections internationales. On citera en particulier la liaison SFMT (San Fransisco Moscow Teleport). D'autres instituts soviétiques étaient connectés à l'ouest comme l’Institut pour la Recherche Spatiale (IKI) qui possédait une liaison directe avec l'Agence Spatiale Européenne en France, ce qui lui permettait d'accéder en fait au réseau de la NASA américaine. Mais la communication n'était pas libre . Les scientifiques russes de l'IKI remettaient les informations à transmettre sur des bandes magnétiques qu'un personnel spécialisé allait effectivement transmettre, non sans être entré dans une salle spéciale où l'accès était règlémenté. Le développement du réseau fut largement initié par des privés et des universitaires généralement issus de l'institut Kurchatov de l'Energie Atomique (KIAE) et de l'université d'Etat de Moscou.

Notons aussi l'initiative d'un jeune anarchiste américain qui créa dans les années 80 FIDONET qui resta confidentiel à l'ouest mais pénétra de manière sensible le web russe jusque dans les années 96-98, représentant un autre réseau 'privé' à but non commercial accessible dans l'URSS post- soviétique du début des années 90.

10 http://unpan1.un.org/intradoc/groups/public/documents/UNTC/UNPAN015092.pdf

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre II : 1990-1999 : l'ascension du nouveau media : une croissance fulgurante sauf en France.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Au début des années 9011, Internet n'est pas encore connu du grand public. Ce sont surtout les militaires et les universitaires qui ont une connaissance de cet outil et qui s'en servent. Internet n'est pas encore le phénomène de société du début du millénaire. Pour preuve , en 1991, 48% du trafic mondial est dévolu à la recherche scientifique. Encart: Une rumeur court que les troupes irakiennes pendant la première guerre du golfe furent en grande partie commandées par l'intermédiaire d'Internet au grand dam des américains malgré la neutralisation des réseaux traditionnels de commandement ; apparemment, le succès ne fut que partiel pour les Irakiens.

De 1991 à 1993 ,l'utilisation commerciale d'internet passe à 29% du trafic mondial en connaissant en deux ans une hausse de prés de 758%. La croissance du nombre connectée est quasiment exponentielle entre 1991 et 1996. Cette croissance se fait sur des lignes dite 'bas débit' ou RTC qui vont au maximum à 56 kb/s (7 ko/s) ou doublé pour le numéris en deux lignes ce qui double cette vitesse. Notons que le RNIS est cher en France et le restera jusqu'à nos jours. Le tableau montre aussi nettement que la France ne décolle pas pendant cette période : la prix des accés RTC et la concurrence du minitel est en la cause.

11 http://fplanque.net/Articles/Internet/internetRueeVersLOrDigital.html

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Retour sur l'épopée Minitel : un modèle économique archaïque au service d'une bonne idée. La France de Giscard d'Estaing lança en 1978 le plan télématique. L'idée s'appuya sur le rapport Nora/Minc sur l'informatisation de la société. Ce rapport avançait l'idée d'une dépendance croissante de la France vis à vis des entreprises américaines, en particulier IBM (Microsoft n'était pas encore l'épouvantail qu'on connaît maintenant). Le plan télématique avait donc aussi pour but de renforcer la position de la France sur le marché international en encourageant de nouveaux systèmes de télécommunications tels que le videotex, le télécopieur et en créant un nouveau réseau de télédistribution. En 1983, à la suite de certaines idées visionnaires du rapport Nora/Minc et du plan télématique, après de longs mois de recherches et d’expérimentations et une fois le réseau videotex Télétel mis au point, la France pouvait enfin commencer à commercialiser le « Minitel 1 ». Ce terminal fut d’abord distribué gratuitement aux abonnés volontaires pour remplacer l’annuaire papier, mais l’idée principale du Minitel était de permettre la consultation des services télématiques. La minitel avait un inconvénient majeur par rapport à Internet : sa parfaite dépendance avec le terminal minitel , même si la possibilité de raccorder le minitel à un ordinateur a toujours existé. L'ordinateur chargeait en local les informations et la consultation se faisait donc sur l'ordinateur... Le coup du minitel était de 10 à 80 francs (1,5 euro à 15 euros par mois) en plus de l'abonnement téléphonique auquel se rajoutait le prix de la communication à la minute qui dépendait du type de serveurs joints (il existait des numéros 3605,...3614, 3615,3616, 3617 jusqu'à 3623). Plus vous montiez dans les numéros et plus c'était cher : du gratuit (3605) à 1,5 euro la minute (3623) pour une vitesse de 4 ko à la minute (oui à la minute). Le trafic dépassant les 4 ko/min était facturé au tarif de 0,052 francs par Ko. Inutile de dire que personne ne faisait des excès de vitesse au dessus des 4 ko/minute. (le RTC sur Internet proposait alors couramment du 4Ko/seconde soit 60 fois plus rapide). Le minitel ne servait, à rien d'autre qu'à faire du minitel , contrairement à l'ordinateur dont la vocation première était autre De plus le minitel était uniquement basé sur une utilisation commerciale des services puisque vous deviez payer le serveur que vous joigniez....alors qu'internet a toujours eu à la base une vocation à ne pas faire payer l'information mais plutôt les services autour. A priori, Internet se basait sur la gratuité d'accès aux informations alors que le Minitel faisait le pari inverse. Le nombre de terminaux installés a continué de progresser jusqu'à 6,5 millions d'unités en 1994 puis a ensuite amorcé son lent déclin.

Le prix des accés RTC était aux alentours de 75 francs (11,43 euros) par mois pour un accès dit 'illimité' c'est à dire que vous ne payiez alors que la communication téléphonique en sus de l'abonnement au fournisseur d'accès. Vous surfiez à l'époque à environ 4 ko/s en moyenne (débit « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


généralement constaté).

Les autres pays européens s'en sortent mieux , en particulier les pays scandinaves comme le Danemark où 33% des foyers contre 6% en France ont déjà un accès à Internet à la même époque

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre III : La fin de l'illimité, le haut débit et le P2P

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Les années 2000-2006 vont être marquées par l'explosion du haut débit en France qui va propulser le pays dans les premiers pays européens numériques, l'apparition du phénoméne P2P et la volonté de prise de contrôle par l'appareil politique de l'internet francophone. III.1 : les illimités RTC se prennent les pieds dans le tapis. Avant l'explosion du haut débit, plusieurs F.A.I vont tenter de proposer des accès via la ligne téléphonique complètement illimités contre le seul paiement d'un forfait mensuel. Le premier va être ONETEL12 en mai 2000 mais il fermera ce service le 16 novembre 2000.13 Le second sera World On Line14 toujours dans l'année 2000 mais qui fermera tout aussi rapidement non sans avoir, chose rare, remboursé ses clients. Et enfin le plus fameux sera en 2001 AOL15 qui sort son illimité en grande pompe pour sombrer d'abord dans le ridicule en coupant les internautes toutes les 30 minutes, prendre une volée de procès lancés par des internautes et enfin terminer sa course pour publicité trompeuse 16contre l'UFC que choisir. Dés la fin 2001, les tentatives de lancer une offre illimitée bas débit se voient donc condamner, surtout qu'au même moment le haut débit libéré de France Telecom commence à apparaître. Notons que l'échec du forfait illimité est largement dû encore à France Telecom qui prélève de toute manière une dîme pour chaque minute consommée. III.2 : Le haut débit explose. France Telecom va perdre son monopole de fait et va être obligé de louer à d'autres opérateurs ses fameux tuyaux , ce qui va marquer le début de l'explosion du haut débit en stimulant la concurrence et en faisant chuter les prix. En 2006, l'Internet haut débit peut ne coûter que quelques dizaines d'euros (10-20 euros). C'est le fameux dégroupage 17 En 2005, 1 français sur deux est internaute , prés de 24 millions de Français âgés de 11 ans et plus sont des internautes. L'année 2004 a connu une progression de 94% du nombre d'internautes. Les abonnés haut débit dépassent les abonnés bas débit dès fin 2004 , ce qui fait dire à certains que la France est entrée de pleins pieds dans l'ère numérique.

12 13 14 15 16

http://www.journaldunet.com/0005/000523onetel.shtml http://linuxfr.org/2000/10/30/755.html http://www.ciao.fr/Worldonline_Forfait__Avis_8010 http://www.01net.com/article/127457.html http://www.conso.net/page/bases.1_pour_comprendre_agir.3_communiques_mois.3_communiques./Itemitm_ccc_admin_20050524155711_155711_AccsillimitInternetAOLcon.txt 17 http://www.arcep.fr/telecom/faq/index-faq-degroup.htm

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


III.3 : le phénoméne P2P apparaît. Le haut débit aidant l'utilisation des clients dits 'P2P' tel que Emule , un des plus célébres , permet de partager et d'échanger des fichiers de manière aisée sur le réseau. Cette utilisation explose de 2000 à 2006 et fait dire aux industriels du disque et du cinéma qu'une partie de leurs problémes de vente provient bien de là. Ces industriels, regroupés en lobbies, vont largement influencer le débat politique autour d'un internet . Ils peuvent représenter un 'lobby anti internet' qui entend asservir le réseau à leurs intérêts économiques immédiats. La Lobby qu'ils constituent va amener à sensibiliser les politiques à cette problématique et va entraîner la production d'une série de lois qui auront pour vocation d'enfermer les internautes dans une vision strictement marchande de l'internet . La LSI puis la LCEN et enfin la DADVSI – transposition d'une directive européenne – viendront achever le travail de sape des lobbies 'anti internet' qui ne peuvent pas comprendre internet autrement que comme un supermarché servant leurs interêts. Encadré 1 - Internet comment ça fonctionne ? Vos fournisseurs d'accès à internet (FAI ou ISP) vous donnent accès à un Internet Exchange Point (IXP) qui vous permet de sortir en fait sur le réseau mondial. Ces IXP sont en nombre limité et ils permettent les échanges entre fournisseurs d'accès. Par exemple il n'y aurait actuellement qu'une dizaine de points de ce type en France.18 Ces échanges entre fournisseurs d'accès via des IXP sont connus sous le terme 'peering'. On aperçoit donc une certaine fragilité du réseau mondial car une suppression de ces noeuds reviendrait à couper certains internautes de l'accès au world wide web.

De plus, une autre fragilité du réseau provient du fait qu'internet est une affaire américaine car les associations ou fondations qui la gèrent le sont toutes. Les plus importantes sont sans conteste l'ICANN qui assure la gestion fonctionnelle des noms de domaines et Network Solution qui assure la fiabilité technique du réseau mondial dans ses noeuds les plus vitaux. Les noms de domaines (ou Domain Name System – DNS) sont l'épine dorsale de l'internet moderne . Ils mettent en relation un nom mémorisable à une adresse dite 'IP' qui est en fait l'adresse du site ou de l'internaute sur le réseau. Une IP est composée d'une suite de nombres de 3 chiffres séparés par des points ( ex : 172.200.200.200) .Un nom de domaine permet de retrouver un site qui délivre une information à un internaute par l'intermédiaire de son navigateur web qui interprète le dialogue entre l'ordinateur de l'internaute et ce site (protocole HTTP)

La gestion de ces noms de domaines est donc un élément stratégique qui a son importance. Les DNS datent de l'époque d'ARPANET et le besoin de centralisation est évident dans le sens où ce nom de domaine doit être unique. Ils sont composés d'un nom que vous choisissez ainsi que d'une extension ( ex : toto.com ). « Toto » est le nom choisi et « .com » l'extension. La plupart des extensions sont liées à des noms de pays (ex : fr pour France) mais d'autres dites 'top level domain' sont utilisables de manière générique comme : .info, .net, .com, .org etc…C'est l'ICANN qui décide des extensions qu'on peut ou non utiliser

18 http://en.wikipedia.org/wiki/IXP#Europe

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


III.4 : les premiéres associations internautes apparaissent. Parallèlement à l'explosion du nombre d'internautes, il y a aussi une explosion du mécontentement de ces mêmes internautes devant les aléas technico-commerciaux de leurs fournisseurs d'accès. Ll'ADIM se crée en octobre 98 pour protester contre les dysfonctionnements de Wanadoo. L'ADIM lancera une des premières actions sur la toile le 18 décembre 1998 avec une grève de l'internet. L'association laissera par contre passer les revendications autour de Cybercable – câble opérateur parisien – ce qui amènera à la création, de fait, de Luccas, une association regroupant les abonnés parisiens de ce câblo-opérateur. L'association défendra bon nombre d'abonnés par un travail en commission sérieux mais échouera sur sa politique de communication et surtout sur son procès contre ONETEL ,un des premiers illimités, pour une simple affaire de faute de procédure. L'association disparaîtra complètement en 2004 aprés l'accession de son président au Forum des Droits de L'internet (Benoit Tabaka) malgré une tentative de création d'une autre association : Vivrelenet. ( Le Forum des Droits de l'Internet 19est une para association gouvernementale où des représentants divers et variés viennent pondre des notes que personne ne lit. Dotée d'un budget de 1.500.000 euros, l'association dépense 10% de son budget pour le seul salaire de sa présidente ) ADSL-France se crée en 99 pour défendre les abonnés mécontents des services du début de l'ADSL façon France Telecom : c'était très lent et au prix du haut débit....L'association se rendra utile en particulier en produisant des outils tels que le BIDEX 20qui recensait de manière informelle les problèmes réseaux rencontrés par les abonnés ADSL. Luccas se crée en février 99 et sera la seule association née de l'internet qui réussira à gagner un procès contre un F.A.I à savoir NOOS , ancien cybercâble . La vie de l'association sera marquée par de multiples aléas et coups d'état internes successifs jusqu'au procès gagné contre NOOS qui marquera en fait la fin médiatique de l'association qui semblait vivre uniquement pour ce dénouement. Depuis 2004, Luccas semble en vieille et est aux prises à des luttes internes pour récupérer le pactole des 15.000 euros issus du procès contre NOOS. En Mai 2001, la LPIC est créée . Elle défendra les abonnés NC/AOL puis disparaitra elle aussi aux alentours de 2004 ; elle verra en effet le départ d'AOL du câble en France non sans avoir participé à sa manière à la charge contre l'opérateur . Le succès commercial de la solution AOL ne sera jamais au rendez vous sur le câble. En Mai 2002, les associations ADSL-France, Luccas et LPIC accompagnées de deux associations liées aux cables Wanadoo (PIAF et CCWBDX) se lancent dans la création d'une nouvelle entité : la ligue ODEBI.21

19 http://www.agoravox.fr/article.php3?id_article=9028 20 http://bidex.free.fr/ 21 http://www.odebi.org/new/theme/index.html

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Elle se voudra avant tout politique22 et perdure aujourd'hui en 2006. On la verra en particulier lutter contre les nouvelles lois , LCEN 23et DADVSI24 en particulier. En 2004, plusieurs membres dont Aziz Ridouan quittent la Ligue ODEBI pour fonder Audionautes qui connaitra une médiatisation importante pendant les débats autour du téléchargement sur internet. En 2006, le web citoyen est actif et pluriel car le débat sur la DADVSI a éveillé chez bon d'internautes le désir réel de construire une nouvelle donne citoyenne autour d'internet. Le nombre de sites contestataires, de blogs ou encore de lieux de réflexion sur Internet témoigne d'une vitalité sans précédent dans l 'histoire politique française. Les associations se multiplient et un 'parti pirate' se crée même le jour de la fête de la musique à savoir le 21 juin 2006. Reprenant un programme que certains qualifient d'extrémiste (abolition du droit d'auteur en particulier), il compte jouer son rôle lors des élections en 2007 en France.

22 http://fr.wikipedia.org/wiki/Ligue_Odebi 23 http://fr.wikipedia.org/wiki/LCEN 24 http://fr.wikipedia.org/wiki/Dadvsi

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


III.5 : la bulle internet se crée et éclate, les politiques s'éveillent (mal) à internet Durant le même laps de temps entre la fin des années 90 et le début des années 2000, Internet voit arriver un nouveau genre d'entrepreneur : jeunes et la tête pleine d'idées, ils vont croire au nouvel eldorado laissant les banques jouer d'un optimisme béat face à un marché qui n'est pas encore mur. Cela sera la fameuse 'bulle internet' qui durera un temps basant son modèle économique sur la vente de publicité sur des espaces par encore appréciés par les annonceurs. La progression fantastique de la nouvelle économie aura comme corrollaire sa fin rapide aussi sur un laps de temps de 2/3 ans. Actuellement les esprits se sont apaisés et les bases d'une économie saine (rapport entre une offre et une demande cernée) semblent être présentes pour une progression de cette nouvelle économie. Les années 2000 voient aussi l'arrivée des politiques sur la toile : les tentatives de législations françaises sur Internet vont tout être developpées selon un seul et unique angle : celui de vouloir transposer à tout prix les valeurs de la société physique dans la société numérique en niant les spécificités du media ou en les oubliant. Pire, internet est perçu avant tout comme un danger pour le pouvoir : une menace asymétrique..un véritable nid à anarchiste ou terroristes potentiels qui doit à tout prix être maitrisé. Pour preuve les trois lois qui viendront légiférér sur Internet sont : la LSI (la loi sur la société de l'information) de 2001 qui resta au stade de projet de loi, la LCEN votée en 2004 et la DADVSI votée en 2006. La LSI marqua la premiére charge contre Internet. Cette loi, issue du gouvernement socialiste de l'époque, insistait sur le fait que la liberté d'expression était garantie sur Internet sous l'autorité d'un comité de censure qui aurait alors été le CSA. Citons le projet de loi : Le CSA « garantit l'exercice de cette liberté dans les conditions définies par la présente loi [...]. Il peut adresser aux éditeurs et distributeurs de services de communication audiovisuelle des recommandations relatives au respect des principes énoncés dans la présente loi ». De plus la LSI criminalise l'utilisation de la cryptologie au dessus d'un certain chiffrage et interdit donc de fait le respect d'une vie privée qui est théoriquement garantie dans le monde 'physique'. Cette LSI restera lettre morte mais 3 ans plus tard, le gouvernement cette fois ci de droite, présenta la LCEN qui rendit responsable les intermediaires techniques des propos tenus par des tiers et la DADVSI qui affirma la victoire des lobbys de l'industrie du cinema et confirma la main mise des lobbys 'anti internet' sur les politiques autour d'internet.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


III.6 : les premiéres menaces graves sur Internet se dessinent. En 2006, les députés américains décident de donner la possibilité aux opérateurs télécoms de facturer leurs accès aux réseaux différemment , en fonction des relations contractuelles qui les lieront avec tel ou tel client. En d'autres termes, cela veut dire que si vous ne payez pas, vos informations ne pourront pas transiter de la même façon que pour les gros opérateurs. Cette remise en cause fondamentale de la neutralité du réseau qui implique que chaque acteur participe complètement à la circulation de l'information de tous les autres acteurs , même s'ils n'ont pas de relations contractuelles , est une brèche importante dans la spécificité d'internet et nous place dans une perspective strictement marchande où les plus gros contrôleront les tuyaux tout en refusant de laisser transiter une information non payée ou faiblement payée. En France, la même année les DRMs rentrent en force dans la loi avec la DADVSI . Le droit de lire ou d‘écouter une oeuvre n'est plus reconnue comme celui d'en faire une copie personnelle. Les DRMs se voient accorder une carte blanche par les législateurs . Les industriels pourront faire ce qu'ils veulent , comme ils veulent , et tout comportement visant à ne pas accepter cette dictature technique sera sévèrement puni (jusqu'à 3 ans de prison). Plus généralement en France , on voit se dessiner une porosité de plus en plus évidente entre les sphères décisionnelles (gouvernement, députés) et les grands lobbies anglo-saxons du cadenassage (Microsoft, ..) qui vont jusqu'à pénétrer les écoles maternelles françaises pour habituer leurs enfants dès l'âge de 3 ans aux produits qu'ils vendent sous le prétexte de la protection de l'enfance.25

25 http://www.01net.com/article/280144.html

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre IV :Quelle conclusion tirer de l'histoire récente d'internet ?

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Nous savons dans ce chapitre qu'internet est né d'une volonté manifeste de permettre un échange d'informations libre et sans contraintes . Les recherches militaires US ont en effet peu ou prou financé des projets qui avaient avant tout une vocation scientifique largement désinteressée des enjeux politiques . Internet est avant tout né de la volonté des universités américaines de mettre au point une interconnection la plus efficace possible entre leurs systémes informatiques à des fins pédagogiques principalement : tout l'esprit à la fois technique et philosophique d'internet est là. La premiére partie de mon exposé le montre clairement . A aucun moment les scientifiques ne se sont interessés aux débouchés commerciaux de leurs découvertes , produisant ainsi un terreau favorable à toutes les initiatives. Cette pensée 'non uniquement économique' aboutit à l'internet que nous connaissons aujourd'hui alors que les projets qui pariaient sur le seul aspect marchand ont échoué (comme le minitel en France) ou n'ont pas résisté à la vague Internet. Le modèle de base de l'internet est donc bien une mise à disposition la plus large possible des informations qui y sont au moindre coût pour l'utilisateur final . Le concept de gratuité des accès ou de la consultation des données paraît donc bien être un des éléments qui a permis son développement. L'internet payant et commercial est donc bien un produit de seconde génération du développement d'internet et une transposition spontanée des valeurs du monde physique dans le monde numérique. C’'est un développement d'aubaine important mais qui n'a pas participé au dévéloppement strict des technologies qui en sont le support. Au contraire , les poids lourds du monde commercial, comme Microsoft par exemple, semblent avoir une approche prédatrice visant à enfermer les technologies dans des verrous (DRM, Brevets logiciels) qui sont tous des privatisations partielles de certaines des technologies qui pourraient être les supports futurs de ces transferts d'informations. La technologie réseau qui sous-tend internet doit donc à priori rester imperméable aux concepts marchands pour assurer pleinement sa mission , celle d'un transfert d'informations, sans se soucier de la qualité des émetteurs et des récepteurs de ces informations. Certains parlent de la neutralité du réseau comme d'un gage nécessaire à son développement et à sa pérennité ; la jeune histoire du web semble largement donner raison à ses supporters. L'histoire d'internet montre aussi la nocivité des monopoles technologiques dans le développement d'un systéme d'information partagé par le plus grand nombre . France Telecom en France a été un des freins majeurs au développement de la société de l'information tant qu'elle était créditée d'une situation de monopole garantie par l'Etat. La nécessaire compétition est donc aussi un des éléments dynamiques majeurs d'internet. Au final , pour continuer à se développer , Internet doit avoir une garantie sur l'existence de 3 de ses composantes : la gratuité du transport des informations, l'ouverture des protocoles qui la permettent et un systéme qui permet une compétition transparente entre les différents acteurs.. « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre V : les différents modéles de neutralité du réseau .

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


La conclusion du chapitre précédent était la nécessaire neutralité du réseau. De quoi parle-t-on quand on parle de 'neutralité' du réseau ? En fait , il existe plusieurs définitions de la neutralité du réseau. V.1 : Le modèle 'tout libéral' de la neutralité. Le centre Annenberg 26par exemple qui milite pour cette neutralité développe une lecture libérale du modèle internet : le marché doit en être le régulateur. Pour Annenberg, les principes pour une neutralité du réseau répose sur 5 fondements : 1 – Les opérateurs et les consommateurs doivent être gagnants : il est important d'encourager les fournisseurs d'infrastructures (F.A.I par exemple) à tirer un profit de leurs investissements tout en veillant à ce que les consommateurs aient un accès sans contraintes à tout le web mondial. 2 - L'Etat ne doit intervenir que sur les règles du marché en ne légiférant QUE sur les principes généraux de la concurrence et en laissant les détails techniques aux opérateurs. 3 - Les fournissseurs d'accès doivent permettre un accès basique à Internet , même s’ils sont libres des prix et des performances associés à ce véritable service minimum. 4 – La transparence : les consommateurs doivent avoir une information claire sur les conditions de vente et d'utilisation des services et un accès aux informations qu'ils communiquent aux fournisseurs d'accès. 5 – L'Etat doit encourager la compétition entre opérateurs et l'innovation technologique. Nous voyons que la grille de compréhension de la neutralité du réseau selon le centre Annenberg est une grille qui rappelle à bien des égards 'la main invisible' du marché qui était cher à Adam Smith. De plus les points 3 et 4 sont contradictoires avec le point 2 car , à aucun moment , Annenberg ne prévoit les mécanismes qui permettraient que les principes 3 et 4 soient effectivement mis en place si l es F.A.I s'y refusent . La place d'un Etat absent se heurte à celle de déclarations d'intentions qui n'engagent que les bons sentiments de quelques décideurs économiques . Nous sommes conscients que les bons sentiments ne sont pas un élément suffisant pour baser une politique, aussi généreuse soit-t-elle. Nous voyons que cette question est d'ailleurs au centre du débat sur le neutralité du réseau : la transformation d'un marché dirigé par l'innovation en un marché dirigé par le fait de passer un accord avec tel ou tel acteur. Qui fera quoi si un fournisseur d'accès majeur passe un accord d'exclusivité avec un des plus gros fournisseurs de bande passante mondial , lésant de fait l'ensemble des autres internautes qui devront se contenter des miettes laissées par les clients des premiers ? 26 http://www.annenberg.edu/news/news.php?id=13

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Le modèle laissant totalement libres les acteurs du marché est donc voué à l’ échec car ils auront nécessairement tendance à chercher à construire des monopoles technologiques pour s'assurer des rentes plutôt qu'à continuer à innover. C’'est exactement le raisonnement des industriels du cinéma qui préférent condamner des outils tels que les réseaux P2P plutôt qu'investir dans la recherche pour en tirer profit. Le gain à court terme commande plus les acteurs privés que les acteurs de recherche ou publics. Le problème est que les seconds – les acteurs publics – sont de plus en plus dépendants des premiers , en particulier le personnel politique qui devrait être le garant des objectifs de la collectivité à moyen et long terme V.2 : un collectif pour le statut quo. Un collectif 27s'est d'ailleurs rassemblé aux Etats-Unis pour définir une autre neutralité du réseau en réponse à une proposition de loi qui mettrait fin à la neutralité du réseau en permettant aux opérateurs télécoms de procéder à une discrimination entre les internautes ; ils pourraient en effet décidé de laisser plus ou moins de bande passante à leurs différents contractants sur la base du 'celui qui paye le plus a plus'. L'initiative est intéressante 28mais ce collectif laisse entendre que l'internet actuel est neutre et il est donc pour le statut quo. Il est en fait contre toute idée de modification des conditions actuelles d'exercice d'internet. A aucun moment au sein du site, nous voyons apparaître des propositions nouvelles qui garantiraient cette neutralité. Notons que cette deuxiéme initiative est aussi américaine et nul doute qu'elle a du mal à comprendre en quoi Internet est avant tout maintenant une histoire anglo-saxonne , ce qui est intrinsèquement une absence de neutralité. V.3 : Le débat sur la neutralité confisqué par des interêts particuliers. Le débat sur le neutralité du réseau 29oppose en fait des entreprises américaines à d'autres entreprises américaines. Il y a d'un côté les producteurs de contenus à savoir Google, Ebay, Yahoo, Microsoft et Amazon et de l’autre les techniciens du transport de l'information : AT&T, Verizon, Quest.....Le statut quo profite évidemment aux gros fournisseurs de contenus qui , sans contrôler les infrastructures du web, en profitent largement à moindre coût. AT&T et Verizon possédent, eux, les clés du réseau mais n'ont pas en quelque sorte les portes qui leur permettent de les faire fructifier. Le débat sur la neutralité à la sauce américaine n'est pas un débat philosophique mais un débat de gros sous entre ceux qui ont le pouvoir maintenant et ceux qui aimeraient l'avoir plus tard. Il faut donc sortir de ce débat américano-américain en proposant autre chose car on voit bien que les bases sont biaisées par un discours strictement commercial.

27 http://www.savetheinternet.com/=coalition 28 http://www.savetheinternet.com/=faq 29 http://www.pcinpact.com/actu/news/27855-USA-lamendement-sur-la-neutralite-du-Net-dis.htm

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


V.4 : vers une définition plus cohérente de la neutralité du réseau. En 2005, un rapport intéressant est rendu, le rapport Vox Internet30 Attardons -nous sur les conclusions de ce rapport , en particulier sur la définition du cadre pouvant réguler ou aider à réguler cette fameuse neutralité. Le rapport conclut qu'il est difficile de trouver actuellement une cohérence entre les différents organismes internationaux (UIT, OMPI, OCDE,UNESCO) et les fonctions exercées de facto par des organes techniques de coordination tels que l'ICANN, l'IETF ou le W3C. Le rapport met aussi en avant l'écart entre le fonctionnement de structures fondées dans les années 80 et les habitudes des internautes qui bousculent continuellement des cadres qui semblent déjà dépassés. Le rapport conclut donc sur la nécessaire invention d'un nouveau modèle de gouvernance qui sortirait des bases posées par les années 80 : « La notion de gouvernance de l’internet en appelle ainsi au soutien de la diversité et au renforcement d’une concurrence légitime, à la mise en avant de nouveaux instruments de délibération politique, bref, à une conception renouvelée du vieux couple de la technique et du social dans l’espace public. » VoxInternet avance une piste sans apporter bien sûr de réponse tant le sujet paraît complexe et que VoxInternet se dit sur la voie de l'expérimentation.

V.5 : la neutralité veut-t-elle dire scission du réseau ? La question de la scission du réseau peut se poser. Il paraît en effet compliqué que le réseau actuel voit continuer à cohabiter un commercial de plus en plus agressif et un réseau 'libre' et 'désintéressé'. Les grandes entreprises garantes actuellement de la stabilité du réseau seront de plus en plus tentées de créer des réseaux privés accessibles à des clients choisis , des internet bis qui existent déjà mais qui prendront de l'ampleur. La démocratisation de l'accès au réseau et la permanence d'une certaine forme de gratuité pourra donc voir réapparaitre des réseaux privés complètement commerciaux. AOL a d'ailleurs toujours basé son modèle économique sur un réseau privé d'internautes auxquels il fournit un service comme l'accès au réseau internet mondialisé , cette passerelle n'étant qu'un service supplémentaire à d'autres offres de services. Si on n'y prend pas gare, cela ne sera pas une scission mais une invasion .En effet , toute la stratégie actuelle des grandes entités commerciales tend à favoriser leurs objectifs commerciaux, ce qui est logique. Au lieu de tenter de résister à une propension toute humaine qui de toute maniére répond aussi à un besoin, il conviendrait donc de créer un nouveau réseau porté par de nouvelles bases en jouant dans la logique du réseau qui n'aime guère au final la résistance aux technologies. Le débat actuel semblerait donc être plus intelligent à poser en de nouveaux termes qui va vers la création d'une nouvelle entité plutôt que de vouloir résister à la transformation du réseau mondial actuel. 30 http://www.voxinternet.org/article.php3?id_article=26

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre VI : Les nouveaux réseaux existent déjà : le concept 'de grille' supplantera peut etre celui de 'toile'.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Des exemples de ces nouveaux réseaux existent déjà à Freenet par exemple ou encore le projet du CERN – GRID- ,qui utilise chacun des principes similaires. VI.1 : GRID ou le réseau du futur. Le CERN avait déjà crée en 1989 avec Tim Berners-Lee un systéme d'information décentralisé basé sur l'hypertexte lançant en faite le web dans son ère grand public en le rendant accessible à tout le monde. Le DataGRID est un projet financé par l'Union Européenne visant à fournir un large accès en puissance et stockage aux équipements informatiques de différents établissements. Le terme de 'GRID' désigne une grille ou encore un acronyme francophone : 'Globalisation des Ressources Informatiques et des Données'. L'illustration de GRID est aisée si on pense au projet SETI@Home qui depuis 1999 distribue les signaux captés par les radio-télescopes d'Arecibo sur près de 3,5 millions de PC. Ceci permet d'utiliser la puissance de calcul de ces postes sans en affecter notablement les performances pour leurs utilisations particulières. Le GRID prend chaque PC comme une excroissance d'une même entité qui est ce même GRID c'est à dire l'ensemble des Pcs connectés. GRID permet donc de pousser le raisonnement à l'oeuvre sur Internet à son paroxysme . Chaque Pcs deviendra le réseau échappant de fait à des contraintes liées à la présence de serveurs physiques fixes. Les recherches autour du GRID tournent d'ailleurs autour de l'exploitation des technologies peer to peer (P2P) pour le partage de charge, l'algorithmique ou la programmation paralléle. L'idée sousjacente est de créer des métacorps où chaque noeud est un PC qui est utile sans être indispensable au fonctionnement du réseau. Evidemment , une des conséquences possibles de ce fonctionnement en grappe pourrait être la création et la mise en place de gros serveurs commerciaux qui finiraient peu ou pou par jouer le rôle des serveurs de l'internet classique en donnant le ‘la' aux performances de ce réseau GRID. L'autre aspect bénéfique du projet GRID est de rétablir la notion de confiance comme base nécessaire d'un réseau responsable au moment où la protection informatique sur la toile classique est devenu un enjeu économique majeur. La participation à GRID doit en effet s'accompagner d'une ouverture partielle de son PC à des inconnus. C'est pour cela qu'une partie des recherches menées actuellement va vers la construction de couches logicielles – les projets n'ont pas encore abouti – répondant aux besoins symbolisés par les 3 A : accès, authentification et autorisation , ce qui permettra de définir qui a accès , à quoi et comment. Au delà d'une communication plus puissante, GRID a pour vocation première de fournir une puissance de calcul – scientifique – énorme à tous ceux qui y participeront. Certains y voit déjà 'une ressource primaire' au même titre que l'eau ou le pétrole dans les années qui viennent avec un nouveau enjeu géostratégique concernant le contrôle de cette puissance de calcul.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Le projet GRID est actuellement soutenu par beaucoup de bonnes volontés autant dans le monde privé que public ; reste à savoir si sa philosophie perdurera et arrivera à triompher des obstacles politiques et économiques qui se présenteront. Les premiers essais grandeur nature du GRID devraient avoir lieu en 2007 lorsque le nouveau collisionneur de particules LHC entrera en fonction.Pour l'instant, on ne parle pas d'accès aux particuliers ni même aux entreprises même si certaines créent leurs propres grilles. De plus, là encore le GRID est un programme scientifique qui n’ a pour l'instant qu'une seule vocation relativement utilitaire : celle d'augmenter la puissance de calcul des scientifiques. Rien ne dit que le GRID est soutenu aussi pour ses futures applications à des domaines plus politiques concernant en particulier la libre-circulation de l'information. Vouloir voir le GRID comme un nouveau réseau avec un contrat social renouvelé et novateur n'est donc que pure supposition.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


VI.2 : Freenet ou la grille (trop) absolue. Le projet Freenet 31se base sur un modèle identique à celui du GRID du CERN à savoir une grille.Il a pour vocation non pas le calcul scientifique mais de permettre une circulation d'information libre car totalement décentralisée et cryptée. Il place la libre circulation de l'information au dessus de toute autre contrainte morale et s'oppose de fait à toute propriété intellectuelle sur un composant logique ou matériel Cette philosophie est soutenue par un groupe de programmeurs 32qui laisse à disposition du public un client Freenet qui leur permet de se connecter à se réseau où chaque ordinateur participe à la circulation de l'information. Le projet Freenet pourrait être en fait l'incarnation d'un réseau débarassé des contraintes actuelles mais ne se pose pas la question d'une autorégulation qu'il refuse. La FAQ de Freenet met clairement en avant le fait que Freenet ne se régule pas . Il vit tout seul dans une forme de liberté absolue qui peut s'apparenter par certains aspects à une jungle où les plus malins finiraient quand même par mettre sous coupe réglée les plus fragiles . Rien ne garantit qu'un programmeur ne viendra pas modifier le client originel pour créer un client susceptible de phagocyter d'autres noeuds... En cela , Freenet ne propose pas un contrat social nouveau mais un simple boulevard technologique ; ce dernier aspect et son manque de 'corpus social' ne lui permettent pas réellement d'être considéré comme un réseau alternatif. Freenet propose en effet une technocratie basée sur la domination de ceux qui possèdent la technologie, sans regard sur les buts de cette technologie. D'un outil, la technologie devient une fin en soi . Ce modèle n'est pas plus acceptable qu'une dictature du marché ou qu'une dictature de classes car la technologie ne doit pas être une fin en soi mais un moyen au service de l’intérêt de l'humanité contrôlée par elle.

31 http://freenetproject.org/ 32 http://freenetproject.org/index.php?page=faq

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre VII : Le micro état comme base politique d'un réseau libéré.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Nous avons vu dans le chapitre précédent qu'il existait une base technique au développement d'un nouveau réseau où les moyens techniques centralisateurs ne sont pas (trop) prenants. Nous avons aussi vu que ces réseaux n'ont qu'une vocation scientifique - le GRID- ou technologique – Freenetmais ne prennent pas support sur des institutions ou organes visant à assurer une co-régulation de ce même réseau sur des bases dites démocratiques car cela n'est pas leur vocation première (le GRID) ou tout simplement opposé à leur philosophie 'technique' (Freenet). Il existe sur internet des expériences politiques ou civiques qui ne reposent pas sur des réseaux privés mais sur la toile mondiale ; la création des micro-états ou encore états virtuels participe à cette utopie. Nous allons nous pencher sur quelques expériences pour voir si nous pouvons en tirer quelques inspirations pour la suite de cet essai. Nous arrivons en effet peu à peu à l'idée qu'il faudrait construire un nouvel ordre social sur internet. Les micro- états répondent peut être à ce désir. Les micro- nations sont à classer en quatre grandes catégories : 1.

Les simulations politiques, sociales et économiques : les mondes virtuels ludiques

2.

Les entités créées pour des raisons strictement économiques ou frauduleuses

3.

Les anomalies historiques ou les aspirations nationales anciennes

4.

Les projets de nouveaux pays.

VII.1 : Les micro-états ludiques Les micro-nations virtuelles ou ludiques sont d'un autre genre , elles créent au sein d'internet un espace où elles se déclarent indépendantes des contingences extérieures à la toile et simulent un fonctionnement politique qui peut être interessant à étudier. Outre certains sites humoristiques tels que la présidictature de dronesie orientale33, il existe des cercles plus aboutis tel que la Scanténoisie-Helvetia 34 qui font parti de ce qu'on pourrait appeler un 'jeu de rôle politique'. Certaines de ces communautés sont regroupées au sein de l'alliance. Internet n'est qu'un prétexte au jeu et permet de 'jouer' à la politique de manière facilitée grâce à cette technologie . Ce n’'est qu'un moyen pour ces micro- états ludiques et non entité integrée en tant que telle à leur fonctionnement. Beaucoup de ces Etats Ludiques en France ne possèdent pas d'ailleurs de site web plus poussés que des sites persos où des délires politiques souvent agréables à lire s'expriment. Ces micro états sont, comme leurs noms l'indiquent, avant tout des jeux à rapprocher des jeux massivement online où des mondes persistants se mettent en place.

33 http://drone-zone.org/ 34 http://fr.wikipedia.org/wiki/Scant%C3%A9noisie-Helvetia

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


VII.1.2 : Les micro-états à but économique. En Mer du Nord existe une particularité géographique : Sealand35. C'est en fait une ancienne plateforme militaire laissée à l'abandon dans les eaux internationales au large de l'Angleterre. Un ancien major de l'armée britannique en profita en 1967 pour l'investir puis pour en déclarer l'indépendance en frappant monnaie, passeport….. en se dotant unilatéralement des attributs classiques d'un Etat souverain. Sealand est une monarchie auto-proclamée sans véritable habitant autre que des serveurs internet même s'il vous est possible de devenir Baron ou Lord de ce nouvel état moyennant finance.36 En fait , ce mini- état vit principalement de son activité d'hébergeur internet qui garantit, selon ses dires, un anonymat des plus total du moment que vous ne faites pas de spam ni de pédophilie. Sealand est donc avant tout une activité commerciale avec comme seule finalité de faire de l'argent. En cela, l'exemple 'sealandais' est à rapprocher des multiples paradis fiscaux , pays qui garantissent un respect absolu de la vie privée comme le Luxembourg ou la Suisse. Je dirai même que vos serveurs seront certainement plus en sécurité en Suisse qu'à Sealand qui ne possède véritablement pas les moyens légaux ou militaires pour défendre 'votre propriété'. Il faut donc plus voir l'Etat sealandais comme un moyen marketing comme un autre d'attirer le client à lui . Il n'y a pas grand chose à en dire de plus.

VII.1.3 : Quelques exemples de micro-Etat crées. Le concept de micro-nation naît avec le développement du concept de nation au cours du 19ème siècle. Pour beaucoup ces micro- nations furent fondées par des aventuriers ou encore des entrepreneurs en mal de sensations fortes, d'égo ou des deux. Nous pouvons citer comme exemple réussi les iles Cocos 37ou Sarawak.38 Des micro- nations réussirent à durer un peu au 19ème siécle comme la Long Republic (18191820)39, le royaume d'Araucania et de Patagonie 40de 1860 à 1862 fondé par un aventurier français du nom de Orelie-Antoine de Tounes au Chili ou le royaume de Sedang (1888-1890)41 en Indochine française.

35 36 37 38 39 40 41

http://www.sealandgov.org/ http://www.expertshopper.com/product.asp?pid=2091 http://en.wikipedia.org/wiki/Cocos_(Keeling)_Islands http://en.wikipedia.org/wiki/Sarawak http://en.wikipedia.org/wiki/Long_Republic http://en.wikipedia.org/wiki/Araucania_and_Patagonia http://en.wikipedia.org/wiki/Kingdom_of_Sedang

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Le 20 ème siecle vit aussi des exemples de micro- nations comme la République de la Rose 42au large de l'italie qui connut un triste sort ; en effet, la marine italienne la détruisit car l'Etat italien voyait l'ile comme un nid de touristes défiscalisés. Notons aussi d'autres tentatives comme celle de Leicester Hemingway, frére d'Ernest, qui voulut créer 'la nouvelle Altantis' ; l'ile exista bien au large de la Jamaique à la fin des années 60 mais fut dévastée par les ouragans et pillée par des pêcheurs mexicains. Il reconstruisit une autre île mais le projet ne put jamais réellement se stabiliser. Dans le Pacifique, la République de Minerva43 vit le jour en 1972 sur un atoll artificiel mais fut rapidement annexée par son voisin des îles Tonga ; la souveraineté de l'île est toujours le sujet d'âpres discussions entre les Fidjis et les Tongas alors qu'un groupe d'américains, fondateurs de l'ile, milite toujours pour l'indépendance 44de cet atoll. Notons qu'au cours de l'histoire, plusieurs villes actuellement integrées à des pays européens furent des micro-états libres comme Trieste 45en Italie pendant 7 ans de 1947 à 1954, le Moresnet 46coincé aux confins du Bénélux de 1816 à 1919 ou encore la ville de Carthagéne en Espagne qui se déclara indépendante pendant la première République espagnole en 1873. Notons que la plupart de ces projets de nouveaux pays reprennent des structures politiques existantes , le plus souvent monarchiques , pour asseoir une autorité généralement assez autocratique. Elles sont donc pour la plupart issues des délires mégalomaniaques de certains aventuriers et peu porteuses d'une utopie solidaire.

VII.1.4 : Des micro-Etats qui existent encore... Actuellement il reste 9 micro états qui fonctionnent comme de véritables Etats doté des attributs régaliens classiques : Andorre, Liechtenstein, Monaco, Naura, Palaos, Saint Marin, Saint Kittis et Nevis, Tuvalu et le Vatican. Le cas du vatican est interessant car il se rapproche le plus de ce qu'on pourrait mettre en place pour arriver à une régulation saine de l'internet : le vatican incarne un pouvoir spirituel (l'église catholique) en s'appuyant sur un territoire physique. Son territoire autonome lui assure les bases d'un Etat souverain dans le monde physique et une crédibilité supplémentaire dans l'exercice de sa mission spirituelle. VII.2: Pourquoi Internet a besoin d'un micro etat lui assurant sa neutralité ? L'idée est de rapprocher les expériences techniques tel que Freenet peut le proposer avec un modèle social et politique tels que les micro états ont pu l'illustrer. Ce modèle politique assurerait la régulation du réseau support selon des régles démocratiques et des institutions à définir. 42 43 44 45 46

http://en.wikipedia.org/wiki/Republic_of_Rose_Island http://en.wikipedia.org/wiki/Republic_of_Minerva http://www.minervanet.org/ http://fr.wikipedia.org/wiki/Territoire_libre_de_Trieste http://fr.wikipedia.org/wiki/Moresnet

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Ces institutions devraient s'incarner dans un Etat territorialement défini car c'est le seul gage réel d'un véritable pouvoir comme l'expérience du Vatican nous le montre. De plus c'est bien une juridiction s'exercant sur un territoire qui définit de maniére sur la présence d'un Etat. L'entité politique assurant la base nécessaire législative et diplomatique au bon fonctionnement du réseau Internet qui ne sera pas forcement le réseau qu'on connait actuellement : les chapitres précédents montrent en effet qu'on peut avoir tout interet à créer ex nihlo un nouveau réseau basé sur un modèle de grille qui est par définition moins sujette aux pressions centralisatrices.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre VIII : les bases du micro état numérique 'NETUTOPIA'

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


VIII.0 : Pourquoi un Etat ? L'ensemble des chapitres précédents montre l'absolue nécessité de sortir des contraintes législatives nationales pour proposer un réseau vivant sur ses propres régles et échappant aux emprises etatiques. On ne peut le faire qu'en prenant comme base un véritable Etat – un micro Etat – qui garantirait les fondamentaux du réseau , en particulier sa parfaite neutralité. Attention ce qui suit n'est qu'une esquisse qui devra être affinée au cours d'un débat contradictoire qui peut être long avec les personnes interessées par ce projet. Un site web support à cette discussion ouvrira pour permettre d'affiner le modèle et lui donner une constitance légale plus solide : je n'ai pas les compétences à priori nécessaire pour construire un socle constitutionnel cohérent. Ce que je pose, c'est donc avant tout des idées. VIII.1 : Etat-Nation ? Nation 'Etat' ? Ou simplement 'Etat' ? L'idée de Nation est à évacuer car elle repose sur des principes qu'on ne pourrait recréer qu'artificiellement au mépris des éléments constitutifs classiques d'une nation : la culture, la langue, la réligion et surtout l'histoire politique et culturelle. Il faut donc abandonner l'idée d'un Etat-Nation mais plutôt proposer un modèle étatique reposant sur une adhésion de principe à une idée sans que les participants ne soient privés de la jouissance de leur nationalité d'origine. La citoyenneté dans cet Etat ne reposerait donc pas sur une nationalité définie ; l'Etat 'NETUTOPIE' reconnaitrait donc bien une citoyenneté à ses membres mais pas une nationalité qui resterait celle d'origine de leurs pays actuel. L'Etat proposé ne serait donc pas un Etat-Nation mais un Etat qui aurait avant tout comme objectif de bâtir les conditions d'une neutralité du réseau mis en place.

VIII.2 : Les principes du nouvel Etat.

Ce nouvel Etat se créerait sur un territoire physique et numérique. Le territoire physique verrait la domiciliation des éléments vitaux du réseau à créer: serveurs principaux, équipes de développement et structures étatiques de l'Etat 'NET-UTOPIE'. On entendrait par territoire physique la délimitation géographique de sa souverainté et par territoire numérique le fait que toute personne utilisant son réseau se verrait automatiquement appliquer les lois et les règles prévalentes dans la NET-UTOPIE. L'utilisation du réseau 'NET-UTOPIE' se ferait grâce à un accès privatif donné de maniére illimitée et se transmettant par héritage ou octroyé par l'Etat de NET-UTOPIE. L'accès serait gratuit et garantit comme tel.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


L'accès à la NET-UTOPIE se ferait de manière anonyme ; seul un identifiant unique, donné au moment de la déclaration de citoyenneté, permettrait l'identification au sein du réseau. Cet accès privatif ne serait donné qu'aux citoyens de NET-UTOPIE et à eux seuls. Cette identification changerait à chaque nouvelle connection mais resterait en lien avec la véritable identité du citoyen de NET-UTOPIE La relation entre les identifiants qui ne serait pas liée à l'IP et la véritable identité du citoyen de NET-UTOPIE seraient des données confidentielles garanties par l'Etat de NET-UTOPIE et ne pourraient pas être transmises à un tiers sans avis favorable du citoyen.

La citoyenneté est octroyée à toute personne qui en fait la demande et qui peut justifier de son identité auprés des autorités de NET-UTOPIE. Elle est prononcée après que le nouveau citoyen ait juré de respecter la charte fondamentale(à définir). En échange NET-UTOPIE lui remet une série de clés qui seront ses identifiants sur le nouveau réseau.Ces clés sont uniques et ne peuvent être renouvelées qu’ à la suite d’une procédure décrite plus loin. Une fois sur le réseau, l'état garantit l'anonymat de ces échanges – aucune donnée ne sera loguée ou conservée – et lui garantit le droit à une expression libre et sans contraintes du moment qu’il respecte les principes suivants sur lesquels se fonde l'Etat de NET-UTOPIE . Les règles suivantes sont discutables et non exhaustives, elles constituent un exemple –

Aucun appel à la violence physique contre un autre groupe de citoyens de NETUTOPIE.

Aucun commerce portant sur l'humain.

Aucune activité techniquement destructrice contre d’ autres citoyens du réseau.

Le spam est interdit

La mise en place de technologies visant à restreindre de manière permanente une partie du réseau public est interdite

Interdiction de toute activité considérée comme contraire aux droits de l'homme, une liste sera mise à jour annuellement.

Interdiction des situations de monopole technologique.

Le droit d'auteur 'hors NET-UTOPIE' n'est pas reconnu.

Interdiction de tout systéme visant à établir des brevets et non reconnaissance des brevets dans l'univers NET-UTOPIE.

Aucune taxe ne peut être prélevée sur les communications

Gratuité de l'information : on ne peut vendre qu'un service lié.

Le droit à la cryptographie

L'interdiction de posséder des logs au delà d'une période d'une semaine sauf à des fins statistiques.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Ces principes seront consignés dans une constitution écrite qu'une assemblée constituante devra mettre en place. Un citoyen qui ne respecte pas les principes édictés par cette constitution sera expulsé à vie du territoire de NET-UTOPIE sans espoir d'y revenir un jour. Un citoyen qui intente un procès contre un autre citoyen de NET-UTOPIE à l'extérieur de NETUTOPIE sera exclu à vie de NET-UTOPIE sans espoir d'y revenir. L'idée est de batîr une entité territoriale et politique, support d’un réseau numérique où des lois s’appliquent à la fois sur ce territoire physique mais aussi sur ce territoire numérique. L’ état garantirait la parfaite neutralité du support et son indépendance par rapport aux intérêts geopolitiques des uns et des autres. Il assurerait le développement du support d'une manière démocratique et transparente tout en défendant au sens propre ou figuré les bases de cette expression et ce réseau. Il serait aussi le garant de la sécurité des données personnelles échangées à l'intérieur de ce réseau. Le nouvel état ne devra pas être confisqué par les techniciens ou les scientifiques , les institutions mises en place devront permettre aux internautes 'non techniciens' de jouer un rôle majeur.

VIII.3 : Les mécanismes de régulation. Le nouvel Etat aurait besoin des 3 fonctions classiques : l'éxécutif, le législatif et le judiciaire pour réussir sa mission. On lui ajouterait un nouveau pouvoir : le technique. L'Etat serait donc bâti sur 4 ‘pattes’ : l'éxécutif, le législatif, le judiciaire et le technique. Le principe de séparation des 4 pouvoirs est la base politique de l'entité même si le pouvoir 'technique' aura un statut spécial qui le placera de fait en position de dépendance par rapport aux trois autres tout en pouvant exercer un contre pouvoir sous certaines conditions. Le pouvoir technique est celui responsable de la mise en oeuvre technique des décisions prises par les 3 autres pouvoirs ; en ce sens il représente un véritable pouvoir qu'il est nécessaire de distinguer de maniére franche même si, on le verra, il aura une dépendance vis à vis des 3 autres pouvoirs. L'exercice démocratique se fera de maniére représentative en privilégiant les mécanismes les plus directs et les consultations directes pour les décisions importantes. VIII.4 : la cellule démocratique de base et les organes législatifs et éxécutif : idées de base des institutions. La cellule démocratique de base est constitueé d'un certain nombre d'internautes qui élisent un représentant de cette cellule démocratique. Ces cellules s'appelleraient les commissions « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


d'internautes. Une cellule serait à priori constituée de 1000 internautes ou plus (à définir) et chaque cellule posséderait son propre espace de réflexion (site/forum/chat/tout autre outil) et des outils nécessaires à la mise en place de votes sécurisés. Les votes se feraient sur la base des identifiants uniquement et à la majorité qualifiée , même si chaque cellule est libre d'adopter les règles qu'elle désire du moment que les décisions sont prises suite à des votes démocratiques. Chaque cellule aura la charge de définir son mode de fonctionnement : comment et pour combien de temps elle élit son représentant. La seule règle est qu'un représentant ne peut l’être qu'une seule fois, il ne peut pas se représenter. Les représentants des internautes constituent l'assemblée internaute, constituée à priori de plusieurs dizaines de milliers de représentants (voir plus). Ils peuvent se regrouper en partis à partir d'un certain nombre de représentants (à fixer). L'assemblée internaute élit pour deux ans un éxécutif composé d'une direction collégiale d'une cinquantaine de membres (à fixer) ou plus. Evidemment, les membres de cette direction collégiale doivent être eux- mêmes des représentants des internautes. Ce organe de direction s'appelle le collège des internautes. Ils sont élus selon les mêmes conditions que précédemment (pas de ré-élection possible). Le collège des internautes peut s'organiser comme il le souhaite pour assurer les fonctions de direction et d'organisation de l'Etat. Le collège des internautes est responsable devant l'assemblée des internautes. Il peut être dissous du moment que 66% des internautes de l'assemblée des internautes votants le décident. Ils peuvent provoquer un vote à tout moment. Le collège des internautes doit suivre les lois en vigueur.

VIII.5 : le pouvoir judiciaire. Les mêmes commissions d'internautes élisent aussi pour 5 ans 1 juge par commission.Ce juge est révocable par personne. La fonction de juge ne peut pas se cumuler avec celle de représentant et répondra à une série de critéres à définir (âge, expérience, ...) pour pouvoir se présenter. Un juge ne peut pas être ré-élu. Les juges forment une assemblée indépendante de l'assemblée internaute qui est la cour de justice internaute qui élit elle-même un collège des juges selon le même principe que précédemment mais « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


pour 5 ans. Le collège des juges a la charge de faire respecter l'ensemble des lois régissant l'Etat. Le collège des juges peut juger n'importe quel citoyen. Le cas est porté à sa connaissance par l'intermédiaire d'un membre de la cour de justice. Il peut s'auto-saisir. Les décisions doivent être exécutées par le pouvoir éxécutif et/ou technique directement. Un juge de la cour de justice ou du collège des juges peut lui même être jugé par ses pairs ; dans ce cas, il perd son pouvoir de vote pour toutes les décisions le concernant. Il n'existe pas d'impunité.

VIII.6 : le cas du pouvoir technique. Un des dangers de voir fonder un Etat sur une utopie technique - un réseau internet libre mais placé dans des contraintes sociétales définies en commun – est de voir ce réseau confisqué par les techniciens de ce même réseau. La mise en place d'une technocratie est donc un danger qu'il faut à tout prix éviter. Il ne faut pas non plus brider le désir de progrès technique en enfermant l'égo des techniciens dans un bunker législatif où ils ne pourront pas s'exprimer. Il convient donc de leur reconnaître un rôle majeur mais de les encadrer de manière forte pour que leur technique ne déborde pas comme une religion qui serait débordée par son dogme. Les internautes qui participent directement aux travaux techniques liés au réseau ne pourront donc pas postuler aux postes de juges et ne seront pas éligibles au collège des internautes tant qu'ils exercent une activité en lien direct avec le réseau. Par contre, leur qualité leur donne droit de siéger dans une nouvelle assemblée officielle l'assemblée des techniciens - qui élit en son sein un cercle composé d'un nombre de personnes à définir - le cercle des techniciens-. Le cercle a la charge de s'organiser pour mener à bien la conduite technique des projets qui lui sont confiés par l'éxécutif. Ce cercle peut opposer un véto aux décisions du collège des internautes et a un avis consultatif auprès du collège des juges. Par contre le cercle est tenu d'exécuter les directives du collège des juges. Le véto doit être motivé et confirmé par un vote de l'assemblée des internautes pour qu'il soit effectif. En attendant la mesure décidée par le collège des internautes est suspendu pendant une période à fixer Le cercle peut proposer des lois à l'assemblée des internautes qui se prononcent sur ces dernières à la majorité qualifiée aprés avis favorable du collège des internautes. Le cercle peut aussi demander la saisie du collège des juges.

VIII.7 : Le budget. « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Le point le plus épineux et le moins facile à mettre en oeuvre est bel et bien la levée d'un budget de fonctionnement. La taxation des activités commerciales s'y déroulant peut être un moyen de faire vivre ce réseau : une sorte de TVA minime (1 ou 2 %) prélévée sur toutes les ventes de produits ou services s'y faisant. On peut y ajouter un don volontaire de la part de ceux qui utilisent le réseau. En tout cas la problématique budgétaire serait un élément central : qui le contrôle, comment et devant qui ? Ce texte n'apportera pas de réponse.

VIII.8 : Phase de migration et de mise en place Afin de se diriger vers la création d'un tel Etat, il convient de mettre en place un plan d'action visant à la réalisation de cet objectif. En attendant , la communauté formée autour du projet pourra fonctionner suivant les règles précisées précédemment et développera ses propres règles pour aller en direction de notre objectif. Cette phase de migration pourra prendre support sur le réseau existant avec la volonté de créer un second réseau et d'en assurer sa promotion. Durant la phase de migration, la fondation ou l'association , support de ce projet, devra s'inspirer dans son fonctionnement des futurs règles de l'Etat à mettre en place et se comporter comme si elle était déjà indépendante et hors des contigences nationales.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre IX: Conclusion sur le projet NETUTOPIA La volonté de construire un nouveau réseau massifié va apparaître comme de plus en plus nécessaire à nombre d'opérateurs internautes et professionnels. Le net de demain ne sera peut être qu'un ensemble de galaxies numériques interconnectées par des passerelles . Le projet NET-UTOPIA s'inscrit dans cette anticipation. L'idée n'est pas de créer 'le réseau' mais 'un réseau' qui prendra sa place comme d'autres parmi les nouveaux archipels numériques qui peupleront nos années à venir. Cette utopie est atteignable si on s'en donne les moyens et la méthode . Cet essai ne propose pas de pistes pour les moyens ni pour la méthode mais seulement une base de réflexion qui pourrait servir à ceux qui voudraient se lancer dans l'aventure. Au delà de ce projet de contrat social autour d'internet reposant sur un territoire paradoxalement, physique , je vais continuer cet essai en essayant d'imaginer à partir d'aujourd'hui ce que sera pour moi l'internet de demain autant au niveau technologique que sociétal ou politique.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Chapitre X :L'Internet de demain : perspectives et projections

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Actuellement des expériences sont en cours sur du très haut débit symétrique : du 100 Mb/s comparable en fait au réseau filiaire local tel que nous le connaissons actuellement. Des expériences vont être menées à Paris en particulier sur la base de ces vitesses. Dans l'avenir, les débits vont continuer à s'envoler ; le développement des technologies sans fil laissent en particulier présager pour les urbains des vitesses de transmissions beaucoup plus élévées dépassant certainement les 100 Mb/s. Ces vitesses vont pouvoir amener une massification des services distribués exploitant le réseau comme un méta-corps où chaque ordinateur personnel devient en fait un noeud participant au fonctionnement général du réseau . Connexion permanente, généralisation des accès WIFI, très haut débit symétrique permettent cette mise en place. La puissance de calcul des ordinateurs personnels se verra donc au fur et à mesure mutualiser de manière immédiate simplement en se connectant et les conditions générales de vente des F.A.I relayeront certainement ce besoin. L'invidivu derrière son ordinateur bénéficiera donc , en plus des fonctions propres à son ordinateur, de la puissance de calcul de 'son réseau'. Rapidité du processeur, mémoire physique et espace de stockage seront donc partagés dans un continuum entre l'ensemble des noeuds du réseau . Le F.A.I permettra cette interconnexion et l'accès aux autres réseaux via les mêmes systèmes de peering existant actuellement. Le peering est un terme qui désigne les procédures d'échanges de flux entre les divers opérateurs . Ils se regroupent généralement autour de 'centrales de peering' où ils négocient en fait le trafic sortant et entrant dans leur réseau avec les autres prestataires . En se connectant à votre F.A.I vous vous connectez généralement à son réseau personnel qu'il interconnecte avec l'ensemble des autres réseaux des autres F.A.I ; le peering n’est alors qu'un gigantesque marché d'échanges de flux electroniques. Actuellement nous avons les prémices logiciels - projet SETI, projet GRID, systéme P2P..;- .de 'ce grand espace logique' mais nos systémes d'exploitation ne sont pas encore conçus pour ne penser 'que comme ça'. L'autre conséquence pourrait aussi être à terme la mise à disposition de simples consoles sans disque dur, voir sans processeur, permettant un accès simplifié et rapide au réseau avec les mêmes fonctionnalités que les ordinateurs actuels. Ces 'consoles d'accès' pourraient être payantes alors que la connexion simple à internet via un ordinateur personnel deviendra à terme gratuite car vous participez de fait au maintien de ce réseau et à son entretien . Les coûts de maintenance du réseau classique seraient donc partagés par les centaines de millions , voir milliards, d'ordinateurs l'utilisant ; ils deviendraient donc résiduels. L'accés totalement gratuit au réseau mondial serait donc bien à terme une réalité . On vendrait des services associés et non plus le moyen de communication.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Les technologies WIFI vont aussi se développer apportant toujours plus de portée et de puissance, laissant ainsi présager la mise en place de multitudes de réseaux spontanés et éphémères que j'appellerai 'intrapersonnels'.

Deux grands types de réseaux intrapersonnels pourraient apparaître : – –

réseau à composante géographique : dans un immeuble, un quartier, une ville, une région... réseau à composante sociétale : par centre d'intérêt, par famille, ....

Nos systémes d'exploitation à venir permettront une mise en place aisée de ces réseaux 'intrapersonnels'. Ils seront plus ou moins éphémères et auront surtout comme particularité d'être interconnectés et volatils. Ils pourront bénéficier des mêmes caractéristiques que les réseaux précédemment décrits : distribution du calcul, des espaces de stockage etc…….. Ils auront par contre une composante supplémentaire : la possibilité de se passer complètement d'un fournisseur d'accès à internet dans le sens où, suivant la taille de ces réseaux, ils seraient 'eux aussi' des 'internets'. Un simple particulier pourrait alors devenir un fournisseur d'accès à part entière. Evidemment , les entreprises se jetteraient dans la course à la mise en place de réseaux 'concurrents' offrant comme AOL des services variés. On ne se connecterait non plus au site d'une entreprise mais à son réseau et à ceux qui le composent. Au passage, c'est déjà un peu le cas . Beaucoup de sites d'entreprises sont en fait le lien entre 'internet' (vous) et leur réseau privé. La multiplication des possibilités de créer facilement 'du réseau' rend les possibilités infinies à ce niveau. Au fur et à mesure des développements technologiques - WIFI massifié, Haut débit massifié- le nouvel ordre technologique va faire voler en éclat beaucoup de cadres législatifs :

X.1: La notion de propriété intellectuelle ou de droit d'auteur n'existera plus. Impossible de parler de manière correcte de droits d'auteur quand on ne peut plus les faire respecter. Copier une oeuvre numérisée prendra quelques secondes et la distribuer à des millions de personnes pas plus. Tout ce qui sera numérisé sera gratuit , le modèle de base posera cet axiome pour permettre un développement rapide. On vendra donc des accès priviligiés sur des niches particulières mais il faut abandonner l'idée d'une paternité intellectuelle sur les productions numériques autre que celles que le public pourra accorder. Seuls des mécanismes volontaires de « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


rétribution des auteurs pourront être durablement installés. Tout autre volonté d'enfermer, de taxer ou de contraindre se verra automatiquement débordée par la technologie. Le nouvel ordre numérique ne supportera pas la contrainte non consentie , le public créera ses dépendances. X.2 : Explosion de la cybercriminalité, raidissement politique, nucléarisation des fonctions de police. Le nouvel ordre numérique se mettra en place comme une nouvelle frontière où les états traditionnels auront de plus en plus de mal à y faire respecter leurs lois. En ce sens, on peut dire que pendant la phase de mûrissement de ce nouvel ordre numérique, la cybercriminalité risque d'exploser car aucune institution ne peut s'y opposer actuellement durablement. On peut même parier que certains états parieront sur les retombées économiques de cette cybercriminalité à defaut de vouloir la contrôler ou l'enrayer. D'autres se raidiront, transformant leurs réseaux nationaux en forteresses de papier où 90% de la population aura un accès contrôlé et 10% un accès non contrôlé. Cette incertitude sécuritaire pourrait amener à renforcer la création des réseaux intrapersonnels. Il y aurait donc de fait une libanisation de l'internet tel qu'on le connait actuellement. Il ne serait plus un seul espace apparemment ouvert mais une succession d'écluses numériques où des procédures de filtrage naturel seraient mises en place : La fonction de police retomberait donc sur les invididus eux- mêmes qui, en intégrant des mécanismes d'auto-gestion dans leurs propres réseaux intrapersonnels , finiraient par exclure les éléments les plus nocifs du réseau. Ces exclus rejoindraient certainement 'des no men's land numériques' où aucune loi n'aurait véritablement d’effets. La nécessité de créer des structures politiques englobant le réseau dans son ensemble devrait donc amener à des rapprochements internationaux, continentaux et mondiaux, avec comme conséquence la volonté de bâtir un véritable ordre politique mondial. L'évolution d'internet sur le plan mondial devrait donc à terme amener à penser un ordre politique mondial plus abouti que celui que nous connaissons maintenant . Cela serait en tout cas la seule réponse intelligente à une libanisation à venir de l'internet mondial.

X.3 : Plus de libertés mais plus de lois liberticides. Au fur et à mesure que la technologie garantira une liberté accrue à ses acteurs de base que sont les internautes, les politiques auront une tendance fâcheuse à vouloir en contrebalancer les effets qu'ils jugent néfastes pour l'équilibre social 'national'. En effet, toute nouvelle faculté pour l'individu de s'extraire facilement des lois qu'il est censé « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


appliquer ou respecter crée de fait une source d'instabilité pour le pouvoir central 'national'. Il se peut donc qu'une série de lois privilégiant les grands acteurs centralisateurs (producteurs de contenu, industries du transport numérique) voient le jour pour forcer à une certaine régulation 'par le haut' contre les 'acteurs du bas'. Ces lois pourront prendre la forme d'une tentative d'asphyxie en limitant volontairement les débits ou en limitant l'usage en particulier pour le WIFI. Elles pourront aussi exiger des clés personnelles d'identification sur le réseau . On peut ainsi imaginer à l'avenir que sur votre carte d'identité ou son équivalent numérique soit aussi présentes des données liées à votre environnement technologique (numéro de série de la carte réseau, du WIFI...). Quand on y pense, c'est déjà le cas avec les voitures et les plaques d'immatriculation qui affichent au final votre identité à chaque policier qui passe à porter de jumelles. La seule conséquence de ces raidissements législatifs sera une volonté plus grande de créer des réseaux alternatifs intrapersonnels échappant ainsi aux législations qui régissent la communication publique. Certains pays iront peut être encore plus loin en interdisant simplement la mise à disposition de postes 'non contrôlés' pour les particuliers....ou alors en donnant à de grandes entreprises le contrôle distant des postes utilisés pour la connection au réseau. Les systèmes Microsoft avec la délégation des certifications et de la sécurité à un tiers sont d'ailleurs un parfait mécanisme de contrôle s'ils se massifient . Les systémes libres trouvent ici, que l'on soit ou pas utilisateur de Linux, un argument de poids en faveur de la nécessité de favoriser leur développement. Ils rendent en effet impossible la mise en place de systèmes centralisateurs cachés du moment où l'ensemble des briques sont 'libres'.(je parle en particulier du microprocesseur !) même si le fanatisme autour du libre amène aussi à des excès (voir le chapitre consacré).

X.4 : Little Brother ou Big Brother ? Tout contrôler, tout réduire à de simples artifices aux yeux des nouveaux adeptes de la religion technologique ? Est- ce que Big Brother nous menace ? On pourrait être tenté de répondre 'oui' mais en y regardant de plus près, il y a plus d'arguments qui tendent à démontrer que, au contraire, il y a une vraie perte de pouvoir pour les organismes d’état et que l 'individu est de plus en plus maître de sa destinée numérique. Une civilisation entièrement sous le contrôle d'ordinateurs centraux centralisant toutes nos informations personnelles numériques (déplacement, dépenses, activités...) apparaît comme faisable au niveau technologique mais est-ce vraiment le cas ?

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Il y a une vraie guerre actuellement entre les tenants d'une forme de 'techno-faschisme' illustré par certaines volontés politiques et des associations pour la préservation des libertés invididuelles mais les premiers ont déjà perdu de fait . L'ennemi du contrôle de l'information est l'information ellemême qui est pluri-média, massive et iconoclaste. Elle est à l'image d'un gaz qu'on ne pourrait jamais réussir à enfermer complètement. L'information à venir sera plus qu’abondante . Toute notre vie sociale sera 'information' et cela en des milliers de langues déjà connues ou à venir , le réseau créant aussi à la fois ses propres langages (de programmation ou autre) et ses propres codes. Vouloir tout enregistrer n'est pas forcément possible mais il sera impossible de traiter sans une vraie percée dans le domaine de l'intelligence artificielle , percée qu'on attend toujours. Les systèmes informatiques ne comprennent pas l'information , ils ne savent que la classer. Les modèles de traitement buteront toujours sur de nouvelles formes de communication inconnue. Inventer n'est pas encore possible pour des machines.

Seule une société strictement totalitaire pourrait y trouver un interêt politique en mobilisant une partie de sa population dans le contrôle des communications de l'autre partie de cette population. Une société qui resterait démocratique n'aurait pas ou peu d'interêt à ce contrôle total et coûteux. En cela les grandes multinationales n'ont pas forcément intérêt non plus à jouer ce jeu qui finirait aussi par leur être défavorable. En attendant des tentatives pour aller vers une plus grande 'prévisibilité des foules et/ou des individus' seront lancées, c'est une certitude, mais elles seront rapidement abandonnées devant l'impossibilité d'un traitement intelligent du signal et surtout devant le faible retour sur investissement de ces mécanismes automatiques. En attendant , la présence d'organismes ou d'associations qui auront, avant tout, comme finalité d'informer le public des volontés totalitaires de certains groupes d'intérêt est une nécessité.Ce devoir d'éveiller la conscience 'technologique' est un élement vital pour les sociétés numériques en devenir car les premiers garants des libertés du réseau seront ses acteurs basiques. Par contre ces associations ne doivent pas tomber dans une 'technophobie déguisée' qui finirait par desservir leurs propres combats.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


X.5 : Brevets logiciels, DRMs, les faux débats... Cette technophobie déguisée est à l'oeuvre chez certaines associations qui prennent le contre coup des derniers assauts liberticides législatifs pour avancer plusieurs idées : –

Les brevets logiciels sont inadmissibles

Les DRMs sont des monstres technologiques.

Les arguments contre les brevets logiciels et contre les DRMs sont légions et valables , ce n'est pas le problème. Le problème est de diaboliser des technologies – dans le cas des DRMs – ou de nier l'évidence – dans le cas des brevets logiciels – à savoir qu'ils existent déjà. La notion de brevet technologique est complétement liée à la notion de progrès technique du moment qu’elle ne l'empêche pas en mettant en place une 'confiscation légale' des connaissances techniques. Les offices chargés de distribuer ce type de brevet ont donc aussi comme mission d'y veiller. On peut douter de leur impartialité car ils sont soumis aux mêmes contraintes financières que bon nombre d'institutions mais c'est théoriquement leur rôle. Le problème ne consiste pas pour moi dans l'existence de brevets logiciels ou même dans leur autorisation ou non, mais plutôt dans leurs conditions de mise en place. En assurant une certaine attractivité aux brevets logiciels tout en leur donnant une période d'exploitation relativement courte – 5 ans par exemple – on pourrait tout à fait répondre à 2 exigences contemporaines : un retour sur investissement pour la recherche et une participation à la connaissance scientifique globale en laissant passer dans le domaine public toute invention logicielle aprés 5 ans tout en veillant à ce que les brevets ne touchent pas des éléments communs mais des algorithmes d'une certaine complexité qui possèdent des éléments véritablement originaux. Pour les DRMs, il ne faut pas les interdire mais leur donner un cadre légal interdisant l'enfermement de l'internaute dans des mécaniques économiques qui lui sont objectivement défavorables .En gros, il faut permettre les DRMs à des fins statistiques ou de paiements librement consentis par l'utilisateur , ce qui signifie aussi une information claire en amont.Il faut leur permettre d'exister avec une obligation d'information de la part du vendeur par rapport à son client. Tout mécanisme technologique est tolérable du moment qu’il n'est pas mis en place à l'insu de son utilisateur.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


X.6 : L'open source devient plus attractif et le modèle central de la programmation de demain A terme, le modèle open source qui touche actuellement les technologies issues du monde Linux : PHP, PERL, Python....risque de s'imposer comme le modèle par excellence car il comporte en lui les fondamentaux des valeurs de l'internet : coopération, diffusion de la connaissance et transparence qui sont les 3 mamelles du développement de l'internet moderne. L'accès au code source deviendra peu à peu une exigence pour les contrats avec les administrations qui souhaitent contrôler le code qui tourne chez elles et les entreprises s'habitueront de plus en plus à contrôler les algorithmes mis en place dans le cadre des projets qu'elles commandent. D'un point de vue de la gestion du systéme d'information, l'open source est une brique fondamentale car il rend le demandeur beaucoup moins dépendant du prestataire et assure une évolutivité élévée au produit. Il stimule de ce fait la concurrence et permet une scalabilité ( ??????,,,,) plus grande aux applications. Les technologies 'boites noires' ne remplissent pas généralement les derniers critères évoqués et sont parfois faites avant tout pour créer des rentes de situation pour les entreprises qui les vendent , les prix des prestations devenant peu à peu complètement incohérents ou dépassés mais se justifiant seulement car l'entreprise X ou Y est la seule à être experte de ce système dans la région ou le pays. Un bémol sur l'open source concerne la recherche en informatique qui, pour des raisons évidentes de retour sur investissement, aurait du mal à se passer d'une éventuelle protection lors de la commercialisation d'une nouvelle application. Le modèle open source s'imposera donc certainement sur les applications de gestions classiques où rien ou pas grand chose n'est ré-inventé mais les boites noires resteront un outil à disposition de certains industriels dans des domaines plus sensibles. Il ne faut pas en tout cas que des législations viennent obliger des acteurs informatiques à adopter tel ou tel systéme . Ce sont au final les utilisateurs qui décideront loin des grandes théories sur les avantages des uns et des autres.

X.7 : Linux et Windows : la guerre des mondes Windows et le Libre participent finalement à la même volonté , celle de massifier l'informatique comme un fait social pour en faire un pivot essentiel du monde contemporain. On prête à Windows l'idée d'en faire une source de monopole avant tout commercial et ‘aux Linuxs' de mettre en oeuvre avant tout une philosophie plus qu'un moyen technique comme un autre. Linux devient peu à peu synonyme de désintéressement, d'une course pour la connaissance 'pour la connaissance' alors que Windows se bunkérise de plus en plus dans son rôle de fantassin d'un certain impérialisme américain aux yeux de ses détracteurs. Qu'en est-t-il exactement ? Un fait est que c'est bien Windows qui a démocratisé l'informatique en la rendant de plus en plus accessible à tout le monde . N’'importe qui à peu près est capable de se servir de manière presque « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


intituive d'un windows XP. Certains esprits chagrins diront que c'est l'habitude qui crée cette impression et que c'est bien le fruit de 10 ans de marketing forcené qui produit cet accès apparemment facile alors que le public a été « éduqué en ce sens ». D'autres diront que tout a été « piqué » à Apple et que Windows n'a rien inventé. Peut être....le fait est que Windows est maintenant la référence 'du plug and play' et a amené les distributeurs du libre avec des distributions comme les Mandriva à imiter Windows dans sa couche IHM( Interface Homme – Machine) pour pouvoir conquérir les postes clients 'end user'. Les 2 systèmes trouvent leurs atouts dans ce qui constitue le maillon faible de l'autre système. Linux est basé sur la simplicité et la robustesse du code mis en place . Tous les éléments sont dissociables et configurables de manière apparemment simple , ce qui oblige, au final, à un souci du détail . Ce souci de détail n'est pas présent avec Windows qui cache ses composants derrière une succession de couches logicielles qui orientent l'utilisateur à faire ce que Microsoft a prévu de faire ou de penser. Microsoft 'guide' quand Linux invite à apprendre. L'objectif de Microsoft est de faire oublier la technique alors que Linux se régale dans son exhibitionnisme technique (il n'y a qu'a voir les docs !) est a comme objectif essentiel de former un utilisateur qui adhérera à ses principes de base. C'est ce qui peut amener à donner à Linux un goût élitiste pour certains, même si les dernières distributions grand public sont aussi accessibles que les Windows XP. On adhère à Microsoft pour son aspect pratique , ce qui est très volatil et purement consumériste , alors que Linux invite à un investissement affectif plus fort qui rend finalement ses utilisateurs beaucoup plus liés au modèle. L'autre inconvénient de Microsoft est son prix.qui, de part sa complexité de plus en plus grande, est de plus en plus dissuassif avec moins en moins de possibilité de pirater. En effet, Microsoft a pu s'imposer car il était piratable et que cet aspect faisait qu'il était en concurrence direct avec les modèles Linux beaucoup moins ‘plug and play ‘à l'époque. Le succès d'un parc de machines de 90% composé de Windows provient avant tout du fait de sa progression et que pendant plusieurs années , il était possible de le copier. C'est moins vrai dans nos pays occidentaux où Windows est souvent vendu de base avec les ordinateurs – autre raison de son quasi monopole – mais totalement vérifié et vérifiable dans tous les autres pays où il était impensable de payer 150$ pour avoir un logiciel. Un Windows 'non piratable' tel qu'il paraît être dans ses dernières versions n'est plus un Windows qui peut concurrencer sur la longueur les systèmes libres. « Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Microsoft devra changer sa formule et amener à diversifier beaucoup plus sa gamme en faisant baisser ses prix de manière importante car 'la vague Linux' n'est plus très loin et risque dans les années à venir d'inverser la tendance sur les postes clients. Il manque en fait 'aux Linux' les jeux vidéos massifiés qui les feraient entrer dans l'ère 'familiale' . Si jamais un éditeur de jeu vidéo s'allie avec avec un distributeur open source Linux et un constructeur d'ordinateurs pour produire, par exemple, des séries de jeux massivement online, Linux risque de basculer définitivement dans le grand public et Microsoft risque de devoir être obligé d'imiter Linux., sous peine de perdre son leadership. Du côté serveur, Microsoft n'a jamais su faire 'simple' et 'plaire' aux informaticiens car ses solutions sont, pour ceux qui ont été formés au Linux, loin d'égaler les performances des systémes libres pour un ensemble de raisons économiques et techniques . Dans ce domaine, les solutions libres ont toujours et auront toujours une longueur d'avance. Il est rarement possible pour un ingénieur habitué à manier du Linux de basculer en full windows car les solutions ne sont pas confortables . C'est en grande partie dû à l'impossibilité d'adapter les outils à l'exploitation qu'on veut en faire , à l'impossibilité de « bidouiller » sans avoir un niveau technique beaucoup plus élévé que pour une manipulation similaire sous Linux. Quand Linux propose du sur-mesure , Windows propose du modèle en série plus cher... En conclusion l'avenir et aux distributions Linux si des acteurs industriels majeurs parient sur son succès en employant dans une certaine mesure le marketing agressif de Windows. Est ce qu'on gardera alors l'esprit initial du mouvement libre ? Je ne sais pas....

X.8 :Tuez le piratage et vous tuerez l'informatique... Avec Windows, nous avons pu aborder ce qui semble constituer une menace : le piratage. Terme générique qui regroupe à peu prés n'importe quoi, il convient d'en faire une dichotomie la plus précise possible. Il n'existe pas de 'piratage' mais un ensemble de pratiques sanctionnées qu'on regroupe sous ce label mais qui n'ont rien avoir entre elles : –

a :la copie,l'utilisation et la mise à disposition de logiciels protégés par des particuliers.

b :la copie, l'utilisation et la mise à disposition d'oeuvres numériques protégés par des particuliers (musique, vidéo)

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


c :La vente de logiciels protégés ou oeuvres numériques dont on n'a pas les droits par des particuliers et/ou entreprises à des fins commerciales

d : L'intrusion dans des systémes informatiques par des particuliers et/ou entreprises à des fins pécuniaires ou non et en général toute volonté de détruire.

Les 2 (a et b) premiers cas ne sont pas du 'piratage' mais une utilisation détournée des technologies largement apppuyées par une industrie qui profite de ce détournement : graveurs, cds vierges, logiciels de copie... De plus ces éléments participent à une diffusion du savoir informatique et par la même augmente les marchés potentiels : la majorité des gens sur la planéte n'ont pas les moyens de passer une partie de leur budget dans des licences mais ils peuvent s'éduquer à l'informatique et ainsi devenir peu ou prou des futurs utilisateurs potentiels 'payants' cette fois ci. Dans tout les cas une personne qui pirate un logiciel professionnel ne l'aurait jamais achété : en cela il n'y pas de pertes pour l'industriel considéré et même un gain au niveau macro-économique car des ressources sont ainsi formées 'gratuitement' pour les SSII du secteur. Combien de designer ou de graphistes en France ont-t-il acheté Photoshop ? Je ne pourrai pas répondre à cette question mais en 5 ans de vie professionnelle je n'en ai croisé aucun qui avait les licences....et j'ai croisé un très grand nombre de graphistes. Ce que je dis des designers je peux le répéter avec les programmeurs et leurs FrameWorks. N'importe quel professionnel du secteur des services informatiques concluera facilement qu'à son niveau le piratage décliné en version a et b est plutôt un facteur positif pour l'informatique en général et l'internet en particulier : il sert une diffusion généralisée des savoirs informatiques et participe de fait au moteur 'économique' de l'internet. Dans les pays émergents la remarque est encore plus vrai : il serait impossible de trouver le moindre programmeur en technologie propriétaire si les régles de la propriété intellectuelle y était respecté. Vouloir l'éradiquer serait donc une erreur monumentale qui se retournerait contre l'industrie du secteur et au final ne profiterait à personne. Vouloir le contrôler est plus légitime mais il faut le faire avec modération et souplesse. Les pratiques c et d sont, elles, à ranger comme des pratiques néfastes pour le secteur et les utilisateurs et sont à combattre durement.

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


XI.Conclusion L'Utopie sur Internet est possible : vouloir créer un nouveau monde 'réel' basé sur les technologies du réseau pour construire un modèle social renouvelé semble être à porter de mains de certaines sociétés : le projet NETUTOPIA s'inscrit dans cette démarche utopique. Il est certain qu' Internet bouleversera encore plus les rapports entre les invididus et les nations dans les années qui viennent en détruisant complétement les barriéres de temps et d'espace : téléchargement instantané, streaming généralisé, multiplication des communautés virtuelles puis réelles transcendant les Etats-Nations. Cette révolution silencieuse est sociale, politique et culturelle. C'est une révolution globale et massive qui touche chacun de nous en ce qu'il a de plus cher et intime. Elle crée, au final, peu à peu un nouvel être humain assoifé d'ouverture, d'instantaneité et d'échanges créant un socle commun à tout les internautes quelque soit leurs races ou religions. Elle crée un homme nouveau qui concentre comme jamais dans l'histoire le pouvoir de s'adresser à tout les autres hommes sans aucun intermédiaire censeur. Internet crée un individu surpuissant et 'sur-responsable'. Internet transforme l'humanité en créant l'espoir d'une route meilleure pour les générations à venir car il parie sur ce qu'il y a de meilleur en l'homme pour assurer sa croissance - sa capacité à partager ses émotions -. Accompagnons cette volonté collective et spontanée en proposant des modéles transitoires qui permettent à chacun d'éviter les démarches de mutation sociale trop douloureuses

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com


Remerciements Je remercie ma chére mére pour la correction de l'essai et tient à signaler que les illustrations des chapitres (entête) proviennent de http://www.freephotobank.org/ sous licence Creative Common aussi (comme le livre).

« Pour une utopie numérique », Pierre Jean Duvivier, Licence Creative Commons Site : http://www.pjduvivier.com

Pour une utopie numérique  

L'objet de ce livre est de revenir sur l'essence de l'internet à travers son histoire récente pour démontrer l'absolue nécessité de s'engage...